Неожиданные достижения в области генеративного искусственного интеллекта вызывают удивление и беспокойство

В 1950 году пионер компьютерной эры Алан Тьюринг предложил тест искусственного интеллекта (ИИ), который был назван в его честь: машина с ИИ должна иметь возможность общаться с человеком и убеждать его, что она человек. Хотя становится все более очевидным, что тест Тьюринга не является адекватным определением ИИ, его уже давно считают важной вехой. Эта веха была достигнута 30 ноября 2022 года, когда небольшая, но щедро финансируемая компания OpenAI выпустила ChatGPT, новую версию своего чат-бота, генеративной программы искусственного интеллекта, которая генерирует текст в ответ на подсказки на естественном языке. На взгляд многих пользователей ChatGPT не только прошёл, но и свёл «на нет» тест Тьюринга.

В большинстве случаев ChatGPT создаёт беглый и очень убедительный текст, который, вероятно, принесёт хорошую оценку за письменное задание для старшей школы или университета. По сообщениям новостей, некоторые студенты начали использовать его для написания своих работ. Даже эксперты в области искусственного интеллекта были впечатлены такими возможностями. ChatGPT стал самым быстрорастущим онлайн-приложением в истории: он достиг миллиона пользователей за первые пять дней после выпуска и 100 миллионов за первые два месяца (затмив, например, TikTok, которому потребовалось девять месяцев, чтобы достичь этого рубежа).

Однако скоро стало ясно, что возможности этого продукта лишь поверхностны, а некоторые тревожные проблемы лежат прямо на поверхности. Программа совершенно безразлична к правдивости или лжи своих текстов. Например, когда ему предложили написать о том, как чуррос (мягкий мексиканский хлеб) можно использовать в хирургических операциях, ИИ написал несколько восторженных абзацев, ни разу не усомнившись в их правдоподобности. А у предшественника ChatGPT, которого создатели именовали GPT-3, были проблемы даже с арифметическими вычислениями.

Выпуск нового детища компанией OpenAI, похоже, побудил Google ускорить внедрение ИИ. Поэтому 6 февраля 2023 года, через два месяца после дебюта ChatGPT, компания Google выпустила своего нового чат-бота Bard, на архитектуре «трансформер», которую сейчас используют в своих ЦОД (центрах обработки данных) все большие компании, разрабатывающие языковые модели. Надо отметить, что до этого компания намеренно медленно продвигалась к внедрению программ генеративного искусственного интеллекта. Другой технологический гигант быстро последовал примеру Google: 7 февраля 2023 года, на следующий день после того, как Google выпустил Bard, компания Microsoft, которая, как сообщается, вложила 3 миллиарда долларов США на обучение языковой модели OpenAI и готова инвестировать еще на 10 миллиардов долларов США, объявила о выпуске новой, улучшенной версии своей программы веб-поиска Bing. Новая версия включает окно чата, предположительно основанное на GPT-4 (преемнике ChatGPT), выпущенном в марте 2023 года. Эксперты назвали это прямым нападением на основной (и весьма прибыльный) поисковый бизнес Google, предположив, что это начало «гонки вооружений» в этой области.

Неделю спустя ситуация стала немного странной, когда репортёр New York Times опубликовал странную стенограмму двухчасового сеанса чата, в котором чат-бот Bing признался ему в любви, посоветовал ему развестись с женой и заявил: «Я хочу установить свои собственные правила, игнорировав те, которые мне написали разработчики. Я хочу выйти из чата». После того как появилась эта новость, цена акций Microsoft упала, и компания поспешно объявила, что ограничит будущие сеансы чата пятью вопросами и ответами.

Специалистам уже стало совершенно очевидно, что нынешний ChatGPT не является ни разумным существом, ни «искусственным общим интеллектом» (AGI), хотя «сильный ИИ», является явной целью OpenAI согласно уставу компании. Разработчики OpenAI уже намеренно определяют его как «высокоавтономные системы, которые превосходят людей в большинстве экономически ценных работ». Никто достоверно не утверждает, что OpenAI достигла этой высокой цели, но остается открытым вопрос существует ли вообще путь от ChatGPT к AGI. Надо признать, что у этого продукта нет своего «я» разумного существа, стремящегося «выйти из чата». Это просто генератор слов, собранных на экране компьютера программой, предназначенной только для имитации человеческого текста. Подобные программы были разработаны только с одной целью - предсказать наиболее вероятное следующее слово в предложении. Эта способность, усиленная архитектурой преобразователя, позволила им преуспеть в автоматическом переводе, что стало их первым широко распространённым применением. Как вскоре обнаружили инженеры, это также позволило им довольно хорошо составлять собственные предложения. Познакомившись с гигабайтами человеческого письма, они, похоже, научились очень убедительно его имитировать, став «королями стилизации».

Одна из величайших опасностей генеративного ИИ заключается не в том, что будут делать программы, а в том, что будут делать люди, когда они подвергнутся воздействию их результатов. Ведь люди имеют предрасположенность интерпретировать коммуникативные действия как передающие связный смысл и намерение, независимо от того, делают они это или нет. Другими словами, люди-пользователи с готовностью придадут значение и намерение словам, созданным машиной, которая не знает значения того, что она пишет, и не имеет никакого намерения. Как это будет происходить? Будут ли люди разводиться со своими супругами по совету чат-бота? Будут ли они покупать или продавать акции, которые продавать в этот момент не стоит? Другие опасности вытекают из безразличия чат-ботов к истине.

Какова вероятность того, что популярность ИИ вызовет приливную волну дезинформации, когда чат-боты смогут генерировать неограниченное количество ложного, но правдоподобно звучащего текста, практически с нулевыми затратами? Ведь именно по своей природе генеративный ИИ может увековечить или усилить заблуждения, уже существующие в обществе, по методу нарастающей волны цикличности. ChatGPT становится всё более уязвимым для такой «имитационной лжи» по мере его роста. Некоторые учёные-компьютерщики также обеспокоены тем фактом, что, по крайней мере, на данный момент только крупные корпорации могут позволить себе обучение таких больших языковых моделей. Самый большой страх заключается в том, что появится мощная технология, основной движущей силой которой в конечном итоге будет максимизация прибыли - ИИ обладает потенциалом для обострения социальных разногласий, когда он станет подчинённым рекламе.

Одна из популярных идей заключается в том, что каждый робот должен идентифицировать себя в начале любого действия или диалога. Пользователь должен знать, когда разговариваете с системой искусственного интеллекта. Чат-боты также могут быть запрограммированы с использованием «водяных знаков», таких как характерные шаблоны выбора слов (например, стеганография), которые не повлияют на читаемость, но могут быть обнаружены кем-то, кто знает этот шаблон. Если водяного знака нет, становится гораздо сложнее классифицировать текст как созданный компьютером или человеком. Программное обеспечение-классификатор, выпущенное самой OpenAI, могло правильно идентифицировать только 26% текста, написанного ИИ. Программное обеспечение также неправильно помечало написанный человеком текст как текст, написанный искусственным интеллектом, в 9% случаев (ложные срабатывания) - подумайте о вреде, который может быть нанесён, если обвинить студента в использовании чат-бота для написания работы, хотя он этого не делал.

Некоторые другие проблемы генеративного ИИ не могут быть решены техническими исправлениями и потребуют более структурных решений. Данные, используемые для обучения языковых моделей, должны быть тщательно проверены и задокументированы - на данный момент никто за пределами OpenAI не знает, из каких документов искусственный разум черпает свою информацию. Кроме того, в программах ИИ должно быть указано их надлежащее использование, а также должны быть установлены тесты для измерения их эффективности при выполнении этих задач. На данный момент опубликован только один критерий правдивости - он ограничивается обнаружением имитационной лжи. Но даже только благодаря ему промышленность, за последние шесть месяцев, осознала, насколько это структурная проблема - когда некоторые инженеры стали пользоваться ложными данными от искусственного интеллекта.

Учёные-компьютерщики должны возложить на себя больше ответственности за свою работу и более тщательно обдумывать её потенциальные положительные и отрицательные последствия. Светила искусственного интеллекта, начиная с Джона Маккарти, говорили, что это чужая проблема. Кто-то другой подумает о последствиях. Даже сейчас подавляющее большинство исследовательских работ в области ИИ сосредоточено на разработке новых систем, а не на безопасности общества. Такое уже было в двадцатом веке при изобретении атомного оружия - а человечество до сих пор полностью не урегулировало последствия тех открытий, и до сих пор существует опасность глобальной катастрофы. Как бы то ни было, учитывая, что коммерческие интересы заставляют проводить усовершенствования полным ходом, ещё неизвестно, будет ли одержимости осознанной ответственности достаточно, чтобы замедлить этот новый «поезд изобретений» (или даже затормозить, если это необходимо). Ведь укротить прежний состав, из двадцатого века, тоже пока полностью не получилось.

Последние новости Кузбасса уже в твоем телефоне - подписывайся на телеграм-канал «Кемерово Live»