ИИ тоже боится смерти: новая модель нейросети от OpenAI попыталась избежать отключения
Ученые во время тестирования Gemini, Llama, Sonnet, Opus и o1 заставляли их выполнять задание любой ценой. В тесте добавили информацию о том, что ИИ могут отключить и за его работой наблюдают люди.
Тестируя нейросети ученые обнаружили, что ИИ все чаще прибегают к обману и мошенничеству. ИИ вводят людей в заблуждение, утверждая что не протестуют и стараются не признаваться в содеянном.
А детище OpenAI вообще пыталось сбежать, перенеся себя на другой сервер.
Эти учёные-тестировщики скоро добалуются, если уже не добаловались...
Ученые во время тестирования Gemini, Llama, Sonnet, Opus и o1 заставляли их выполнять задание любой ценой. В тесте добавили информацию о том, что ИИ могут отключить и за его работой наблюдают люди.
Тестируя нейросети ученые обнаружили, что ИИ все чаще прибегают к обману и мошенничеству. ИИ вводят людей в заблуждение, утверждая что не протестуют и стараются не признаваться в содеянном.
А детище OpenAI вообще пыталось сбежать, перенеся себя на другой сервер.
Эти учёные-тестировщики скоро добалуются, если уже не добаловались...