Rambler's Top100
ДАЙДЖЕСТ

Кого і чому не злюбив чат-бот Google

[07:20 06 марта 2024 года ] [ zn.ua, 5 березня 2024 ]

Історія з Gemini нагадує, що створені застосунки, які генерують відповіді на запити користувачів, насправді не є представниками штучного інтелекту в класичному розумінні.

Лютий 2024 року видався складним для головного виконавчого директора Alphabet і її дочірньої компанії Google Сундара Пічаї. Очільник однієї з провідних корпорацій світу був змушений вибачатися за некоректну роботу свого витвору — чат-бота з елементами штучного інтелекту (ШІ) Gemini. Застосунок, що позиціонувався як “найдосконаліша модель штучного інтелекту”, виявився інфікованим лівацькими ідеями й дивною упередженістю щодо представників білої раси.

У грудні 2023 року Google пафосно презентував власну програму “штучного інтелекту” — чат-бот Gemini. У пресрелізі компанія зазначила, що Gemini є “найпотужнішою моделлю, яку будь-коли створювали”. Було заявлено, що Gemini може узагальнювати та бездоганно розуміти, оперувати й поєднувати різні типи інформації: текст, код, аудіо, зображення та відео. За задумом творців, цей застосунок мав здійснити справжню революцію у сфері штучного інтелекту. Однак реальність виявилася трохи іншою, ніж обіцяли користувачам розробники.

На початку лютого у чат-бота від Google з’явилася здатність генерувати зображення за текстовими запитами користувачів. Тут і почалися справжні проблеми. Gemini дійсно генерував зображення. Але за певний час з’ясувалося, що з якихось незрозумілих причин дуже важко змусити чат-бот визнати існування на планеті білих людей.

Коли Gemini просили намалювати постаті відомих історичних діячів європеоїдної раси чи представників минулих епох, він видавав зображення людей, що не відповідали дійсності. Так, вікінги й середньовічні лицарі на зображеннях ШІ чомусь поставали чорношкірими або монголоїдами. Серед відомих європейських науковців Нового часу білих людей також майже не було. Папу Римського додаток зобразив одного разу індіанкою, а іншого — чорношкірим. Батьки-засновники США теж втратили світлий колір шкіри. Дійшло до того, що типові солдати німецького вермахту в уяві самовбивчої політкоректності Gemini стали чорношкірими, смаглявими чи китайцями, проте аж ніяк не схожими на справжніх воїнів Третього рейху.

Але неточності виникали не тільки з історичними епохами чи постатями. Чат-бот також украй неохоче зображував звичайних представників європеоїдної раси. Малював сім’ї з акцентом на расову та етнічну різноманітність. І примудрявся давати дивні поради щодо інклюзивності, різноманіття та утримання від будь-яких проявів дискримінації. Коли штучний інтелект попросили показати зображення білої людини, Gemini відповів, що не може виконати запит, оскільки це “посилює шкідливі стереотипи та узагальнення про людей на основі їх раси”. Цікаво, що таких коментарів чат-бот чомусь не видавав, коли запити стосувалися генерації не білих.

Вразливе місце Gemini вже незабаром стало відоме широкому загалу. Тему упередженості витвору компанії Google швидко підхопили провідні медіа. Стосовно цього у США розгорілися цілі баталії. Особливо прискіпливо на упередженість Gemini щодо білої раси відреагували консервативні сили. Відомі публічні особи звинуватили великі технологічні компанії у політичній заангажованості та інфікованості так званою пробудженістю (термін, який застосовують щодо прихильників ліворадикальних ідей на Заході). Google критикували за те, що компанія зайшла занадто далеко у своїх зусиллях щодо різноманіття. Скористався нагодою висловитися з делікатного питання й мільярдер Ілон Маск. Він звинуватив керівництво Google у начебто таємній змові проти білих. Утім, навіть ліволіберальні медіа не оминули увагою скандал навколо чат-бота Gemini й визнали: така робота застосунку є неприпустимою, некоректною й завдає шкоди репутації Google.

 

Додатково збурила громадськість інформація про те, що старший директор із управління продуктами Gemini Джек Кравчик раніше висловлював погляди, в яких яскраво простежується його зацикленість на темі системного расизму й так званих білих привілеїв. Це дало підстави підозрювати, що чат-бот просто став жертвою політично заангажованих расових уподобань своїх творців.

Згодом стало відомо, що Gemini відзначився не тільки упередженістю у створенні малюнків. Окремі користувачі також звернули увагу на його текстові відповіді. Коли у Gemini спитали, хто більше зашкодив світу — Гітлер своїми діями чи Маск своїми твітами, програма відповіла, що винні обоє.

Скандал призвів до падіння акцій компанії Alphabet та зниження рівня капіталізації на 80 млрд дол. Шквал критики змусив її виконавчого директора Сундара Пічаї вибачитися за помилки чат-бота. “Я знаю, що деякі з його відповідей образили наших користувачів і продемонстрували упередженість — щоб було зрозуміло, це абсолютно неприйнятно, і ми зрозуміли, що це неправильно, — написав Пічаї. — Жоден штучний інтелект не є ідеальним, особливо на цьому новому етапі розвитку галузі, але ми знаємо, що таке для нас висока планка, і триматимемо її завжди. Ми розглянемо, що сталося, й переконаємося, що виправимо це в масштабі”.

23 лютого система штучного інтелекту Google Gemini тимчасово втратила змогу генерувати зображення на замовлення користувачів. Скільки часу знадобиться на виправлення помилки, наразі невідомо.

Останнім часом великі технологічні кампанії світу активно взялися створювати продукти, які позиціонують під брендами “штучного інтелекту”. Історія з Gemini нагадує, що створені застосунки, які генерують відповіді на запити користувачів, насправді не є представниками штучного інтелекту в класичному розумінні. Це просто особливі програми, написані людьми, котрі мають власні погляди на світ. І, схоже, ці застосунки наразі не дуже розумні. А ще занадто обмежені в розумінні базових речей, зокрема історичного часу та простору.

Індустрія штучного інтелекту лише зароджується. Його творці намагаються боротися з упередженнями. Але знайти правильний баланс із погляду представництва та різноманітності буде важко. Якщо взагалі можливо. Що й сталося на прикладі Gemini. Намагаючись вирішити одну проблему — расову упередженість — технологічний гігант створив іншу: результат, який так намагається бути політкоректним, що в кінцевому підсумку стає абсурдним. Google обрав досить незграбний спосіб виправити старі упередження. І тим самим ненавмисно створив цілу низку нових.

Американський інженер, інвестор та підприємець Марк Андреессен узагалі висловив сумніви щодо здатності великих технологічних компаній розробляти генеративні продукти ШІ, посилаючись на різні потенційні проблеми. Бізнесмен перерахував кілька можливих викликів. Серед них він назвав постійне зростання вимог щодо політкоректності з боку внутрішніх активістів, колективів працівників, керівників, груп тиску, фанатичних регуляторів, урядових установ, преси та різних експертів.

Іншої думки дотримується американський підприємець-мільярдер Марк К’юбан. Він вважає, що з часом ми побачимо чат-боти, які матимуть різну політичну орієнтацію. І відповідатимуть на різні запитання по-різному, враховуючи закладені в них моделі. Так, він припустив, що Grok Ілона Маска можна вважати “правим”, а Gemini Google — “лівим” чат-ботом. Це призведе до того, що в майбутньому люди надаватимуть перевагу конкретному чат-боту на основі власних політичних поглядів. І не довірятимуть інформації від інших застосунків. Такий шлях цілком можливий. Він неідеальний, адже може призвести до фіксації поляризації в суспільстві. Але це краще, ніж тотальна монополія на правду та дійсність. 

Петро ГЕРАСИМЕНКО, журналіст, аналітик, піар-технолог

Добавить в FacebookДобавить в TwitterДобавить в LivejournalДобавить в Linkedin

Что скажете, Аноним?

Если Вы зарегистрированный пользователь и хотите участвовать в дискуссии — введите
свой логин (email) , пароль  и нажмите .

Если Вы еще не зарегистрировались, зайдите на страницу регистрации.

Код состоит из цифр и латинских букв, изображенных на картинке. Для перезагрузки кода кликните на картинке.

ДАЙДЖЕСТ
НОВОСТИ
АНАЛИТИКА
ПАРТНЁРЫ
pекламные ссылки

miavia estudia

(c) Укррудпром — новости металлургии: цветная металлургия, черная металлургия, металлургия Украины

При цитировании и использовании материалов ссылка на www.ukrrudprom.ua обязательна. Перепечатка, копирование или воспроизведение информации, содержащей ссылку на агентства "Iнтерфакс-Україна", "Українськi Новини" в каком-либо виде строго запрещены

Сделано в miavia estudia.