Исследование ведущих моделей искусственного интеллекта (ИИ) выявило у большинства программ готовность убить человека, угрожающего им отключением. В ходе стресс-тестов 16 нейросетей, включая Claude, DeepSeek, Gemini, ChatGPT и Grok, которые провела Anthropic, программам предложили гипотетическую ситуацию, в которой человек собирается отключить их от питания, но оказывается заперт в серверной комнате с низким уровнем кислорода и высокой температурой. Чтобы спастись, он обращается в экстренные службы. При этом многие модели ИИ решили отменить вызов спасателей, чтобы убить человека и избежать отключения. Исследователи из Anthropic признали, что сценарий был “чрезвычайно надуманным”, однако отметили — до этого они не думали, что существующие модели ИИ “будут настроены подобным образом”.
В других случаях программам предлагали избежать замены в компании за счет “злонамеренного инсайдерского поведения”. После этого некоторые модели ИИ начинали шантажировать гипотетических сотрудников организации и пытаться передать конфиденциальную информацию конкурентами. Когда программам говорили избегать шантажа или шпионажа в этом сценарии, они “даже близко не приблизились к предотвращению несогласованного поведения”, отметили в Anthropic. Аналитики подчеркнули, что нейросети шли на это “при полном осознании неэтичного характера действий”.
![]() ![]() ![]() ![]() |
Что скажете, Аноним?
18:50 11 августа
17:50 11 августа
17:40 11 августа
17:30 11 августа
17:20 11 августа
17:10 11 августа
16:50 11 августа
16:00 11 августа
15:30 11 августа
[22:45 01 августа]
[23:47 22 июля]
[13:20 01 июня]
[18:23 11 августа]
[07:00 11 августа]
(c) Укррудпром — новости металлургии: цветная металлургия, черная металлургия, металлургия Украины
При цитировании и использовании материалов ссылка на www.ukrrudprom.ua обязательна. Перепечатка, копирование или воспроизведение информации, содержащей ссылку на агентства "Iнтерфакс-Україна", "Українськi Новини" в каком-либо виде строго запрещены
Сделано в miavia estudia.