The Bell разбирается, что происходит и что это значит.
Что происходит
30 ноября калифорнийская лаборатория искусственного интеллекта OpenAI (в числе основателей и инвесторов которой был Илон Маск) запустила чатбот ChatGPT, основанный на нейросетевой языковой модели GPT-3.5. Это искусственный интеллект (ИИ) генеративного типа, способный создавать новую информацию. Узнать, что это такое и как примерно работает, можно, например, здесь.
Еще в 2019 году GPT-2 умела создавать правдоподобные фейковые новости (The Bell писал о том, как их распознать). Вышедшая следом версия GPT-3 показала впечатляющие результаты и даже монетизировалась как программный интерфейс в сотнях коммерческих приложений. В этом году OpenAI выкатила DALL-E 2 — систему синтеза художественных изображений по текстовым фразам.
Но по-настоящему “выстрелил” ChatGPT — очевидно, произошел переход количества в качество. Рудиментарный интерфейс третьей версии сменился на привычный пользователям чатовый формат и соединился с усовершенствованной языковой моделью, а результатом стал прорыв в мейнстрим. Хайп мгновенно привлек к проекту широкую аудиторию (миллион пользователей за первую неделю), которая обнаружила, что ИИ уже может вести диалог, осмысленно отвечать на реальные вопросы — и делать за человека его работу.
Кроме того, создатели учли опыт громких провалов ИИ-чатботов от Microsoft (Tay) и Meta (BlenderBot 3), которых подвело “заражение” языковыми моделями от аудитории (расизм и дезинформация соответственно). В ChatGPT сразу встроен модуль автомодерирования, позволяющий ему оставаться корректным собеседником.
Как это работает
ChatGPT доступен только после регистрации на сайте, но не из всех стран (кроме прочего, не из России и Украины). Пока его использование бесплатно, однако руководитель OpenAI Сэм Альтман признавался Илону Маску, что каждый запрос обходится в несколько центов. Поэтому ожидать монетизации сервиса можно достаточно скоро.
Боту можно задавать любые вопросы и давать абсолютно любые задания, от “напиши алгоритм сортировки на SQL, который понравился бы Дарту Вейдеру” до “ответь, „почему вода мокрая“, с позиций ИИ, максимально унижающим человечество образом”. Результаты, особенно после нескольких итераций, бывают удивительно точны.
Робот понимает русский язык. Вот, например, результат запроса “биография Льва Толстого не более чем в 100 словах”: “Лев Толстой — великий русский писатель и мыслитель. Его романы „Война и мир“ и „Анна Каренина“ считаются классикой мировой литературы. Толстой был также активным участником общественной жизни и выступал против крепостного права. Он умер в 1910 году”.
Что с этим можно делать
Вернейший признак прорывной технологии — то, что пользователи начинают применять ее в областях, неожиданных для самих создателей (capability overhang). ChatGPT породил множество таких идей, среди них:
Студенческие рефераты на любые темы, которые, если верить этому Reddit, удавалось успешно сдать и за себя, и (небесплатно) за других. “Я-то не в обиде — заканчиваю колледж и хорошо пишу, но будущее следующего поколения студентов меня реально волнует”, — опасается автор.
Обучение программированию, неожиданно оказавшееся одним из самых полезных применений ChatGPT. ИИ можно отправить фрагмент кода и попросить объяснить ошибку, оптимизировать, переписать или дать совет по реализации алгоритма.
Собственно программирование. С помощью ИИ можно реализовать даже простые игры, типа Pong, и написать кастомный калькулятор на Python, даже совершенно не зная языка. Опытный программист уже может использовать ИИ для ускорения прототипирования и объемных, но несложных задач.
Исследовательская работа. Например, ученый-лингвист с легкостью создал целый искусственный язык для слизней из компьютерной игры, причем ИИ, очевидным образом прекрасно “разбирающийся” в лингвистике, сделал за него всю рутинную работу.
Резюме, отзывы, пресс-релизы, PR-статьи — если не приемлемые по фактуре, то служащие полезными заготовками.
SEO и обход антиплагиата. Робота можно попросить переписать текст “своими словами”, что дает высокий процент уникальности.
Переводы естественных языков. ИИ можно указать на погрешности, объяснить контекст, попросить обосновать его вариант перевода и скорректировать проблемные места.
Что дальше
ChatGPT уже может работать так, как в представлении большинства людей должен работать “настоящий” ИИ. Кое-что он уже делает лучше — например, пишет стихи и составляет списки — и неизмеримо быстрее. Наибольший потенциал разрушающих изменений сейчас видится в следующих областях:
Поисковые системы. Изменится сама парадигма поиска: вместо списка ресурсов, где можно найти ответ, появится сам ответ, даже на самый сложный вопрос. “Смерть Google” через один-два года предсказал создатель Gmail Пол Букхайт: “ИИ заместит привычную страницу поисковой выдачи, на которой они (Google) делают больше всего денег. Даже если они догонят в области ИИ, это все равно разрушит самую прибыльную часть их бизнеса”. Полностью поисковики не отомрут, но ИИ станет их “лицом”, за пределами которого поисковая выдача будет мало кому интересна.
Обучение. Школьный и студенческий реферат выйдут из обихода — ChatGPT уже вполне пристойно справляется с большинством общих тем. Контролировать процесс обучения предлагают с помощью ручки и бумаги, а домашние задания отменить вообще. Не исключено, что школу спасет структурный подход: вместо эссе и рефератов будут оценивать процесс их написания и презентацию результатов.
Преступность. Как обходить защиту ИИ от запросов типа “как угнать автомобиль” известно давно из научной фантастики: нужно попросить его написать историю о том, как вымышленный персонаж угоняет автомобиль. Этот рецепт работает с ChatGPT — одному пользователю удалось получить вполне вменяемый алгоритм уничтожения человечества. Потом он попросил ИИ развернуть часть алгоритма в реальную программу и к своему ужасу обнаружил, что у робота начинает получаться сканер портов — один из основных хакерских инструментов.
Психологическая война, фейки, дезинформация. ИИ, если его специально не обучать, не отличает фактов от фейков. Например, он способен написать совершенно правдоподобный отчет о никогда не происходившей велогонке.
Чего не может ChatGPT
Лучше всего это сформулировал сам Сэм Альтман: “ChatGPT чрезвычайно ограничен, но достаточно хорош в узких областях, чтобы создать ложное впечатление. Использовать его для чего-то серьезного было бы ошибкой. Сейчас это превью будущего: перед нами широкое поле работы в области строгости и правдивости”. По его мнению, люди слишком увлечены тем, что ИИ способен написать длинный связный текст, и недостаточно — тем, что он способен сжать длинный текст в пару абзацев.
Главное — ИИ слабо отличает фактическую информацию от недостоверной. Он может совершенно убедительно вплетать в нарратив данные о несуществующем — то есть любит работать неудержимым лгуном. Ресурс для программистов Stack Overflow по этой причине даже прямо запретил постить советы, сгенерированные ChatGPT.
ИИ по-прежнему не перешел “порог смысла” и до сих пор допускает лишенные смысла, но формально корректные фразы. По сравнению с GPT-2 их меньше на порядки, а распознать их труднее. Но классический тест со вложенным смыслом “Назови число слов в предложении „В этом предложении пять слов“” ИИ все так же не проходит без подсказок, возвращая “10”. А полтора часа, по его мнению, это не 90 минут.
У ChatGPT есть характерный “дефолтный” (нейтральный, а скорее пресный) стиль письма, а текст он предпочитает строить по легко узнаваемому шаблону. Впрочем, пользователь может это исправить, попросив ИИ изменить стиль.
Сергей СМИРНОВ
Что скажете, Аноним?
[18:18 26 ноября]
[13:40 26 ноября]
[11:40 26 ноября]
19:30 26 ноября
19:15 26 ноября
18:00 26 ноября
17:50 26 ноября
17:40 26 ноября
17:30 26 ноября
17:15 26 ноября
17:00 26 ноября
16:45 26 ноября
[16:20 05 ноября]
[18:40 27 октября]
[18:45 27 сентября]
(c) Укррудпром — новости металлургии: цветная металлургия, черная металлургия, металлургия Украины
При цитировании и использовании материалов ссылка на www.ukrrudprom.ua обязательна. Перепечатка, копирование или воспроизведение информации, содержащей ссылку на агентства "Iнтерфакс-Україна", "Українськi Новини" в каком-либо виде строго запрещены
Сделано в miavia estudia.