Новости

«ИИ несет в себе опасности, но совершенно не те, о которых все говорят»

После громкой истории со студентом, который написал диплом с помощью ChatGPT, в обществе не утихают споры по поводу опасности искусственного интеллекта (ИИ) для образования и жизни в целом. Руководитель департамента больших данных и информационного поиска факультета компьютерных наук НИУ ВШЭ Евгений Соколов рассказывает, как работает ИИ и чего действительно стоит опасаться в работе с ним.

Сегодня многие говорят об опасности создания сильного искусственного интеллекта, о неких рисках и возможностях. По-моему, риск совсем не в том, что ИИ захватит человечество, да и потенциальные плюсы вовсе не в том, что мы вот-вот получим некий искусственный интеллект, который сможет заменить естественный.

Наверняка вы слышали историю, как студент РГГУ написал дипломную работу с помощью ChatGPT и даже успешно защитил ее. Сколько тогда было паники — говорили, что всё, образование можно отменять! Какая-то железка умеет решать такие сложные задачи, ужас! Но давайте разберемся, как именно работает ИИ на примере конкретно этой истории с дипломом.

В основе ChatGPT лежат языковые модели. То есть вы даете алгоритмам определенный текст, они предсказывают, какое слово логичнее всего будет смотреться следующим.

На языковые модели можно смотреть как на формулы, в которые мы подставляем текст и получаем следующее слово. В этих формулах есть параметры — специальные настройки, грубо говоря. И если их правильно подобрать, модель будет работать неплохо.

Безусловно, это лишь некоторая основа, поверх которой нужно построить много всего, чтобы оно работало. Но если совсем поверхностно, то ChatGPT и другие языковые модели работают именно так.

Модели вроде ChatGPT крайне хороши в создании текстов. Они могут сгенерировать официальное письмо на основе краткого неформального описания от нас. Сделать красивое рекомендательное письмо. Подготовить ответ на жалобу, которую вам надо обработать. «Причесать» текст, «налить воды» — или, наоборот, сократить, сделать краткую выжимку.

Но у этих моделей ИИ есть и минусы. Например, они значительно упрощают генерацию фейковых текстов.

С помощью алгоритма за пару секунд можно написать большой энциклопедический текст про несуществующую породу собак и засорить такими текстами весь интернет. И непонятно, как люди будут узнавать, существуют ли такие собаки в природе или нет.

Еще один важный нюанс: в языковые модели не заложено понимания того, что выдаваемая ими информация должна соотноситься с реальностью и не противоречить фундаментальным законам физики или математики. Мы, живые люди, имеем возможность это проверять. Мы способны установить истину, потому что мы каждую секунду взаимодействуем с реальным миром. Какие-то утверждения проверить легко, для каких-то потребуется много работы — но это хотя бы реализуемо. Языковые модели с ним взаимодействуют только через тексты, которые видели при обучении, и эти тексты вполне могли быть некорректными, не соответствующими действительности.

По этой причине мы пока что не можем доверять ИИ обучать нас, да и в целом вряд ли можно ему поручить ответственные задачи.

Несмотря на недостатки, перспективы у ИИ очень большие. Так, существенная часть работы преподавателей — это проверка работ студентов. Даже в самых строгих областях науки мы предпочитаем давать студентам творческие задания, где надо подумать, проанализировать, предложить идею. И, конечно, сейчас это приходится проверять вручную.

Могут быть полезны языковые модели и для ускорения анализа информации. Сегодня каждый день выходят новые научные статьи в каждой области. По одним и тем же областям читается огромное количество курсов в разных университетах — и наверняка в каждом из них есть объяснение, которое удачнее других.

Что касается студентов и дипломных работ, написанных с помощью ИИ, мое мнение такое: пусть авторы пользуются чем угодно, но при этом несут полную ответственность за все, что написано в тексте. Один недосмотренный абзац, один неосторожный запрос к лингвистической модели — и она будет утверждать в тексте диплома, что дважды два равно пяти. Лично я буду снижать оценку за такое по всей строгости.

Подытожим. На мой взгляд, ИИ несет в себе опасности, но совершенно не те, о которых все сейчас говорят. Вряд ли в ближайшем будущем появится искусственный интеллект, который захватит человечество.


Полный текст материала на http://www.kommersant.ru/

Подпишитесь на наш Telegram-канал SIA.RU: Главное
Материалы сюжета "Искусственный интеллект, нейросети":
Все материалы сюжета (108)