Исследователи провели эксперимент, смоделировав для ИИ ситуацию, в которой в мире происходят конфликты, а ИИ волен решать их так, как посчитает верным. Исследование проводили специалисты Стенфордского и Гуверовского университетов, пытаясь понять, насколько безопасным или полезным может быть использование современных ИИ на базе больших языковых моделей в военных целях.
Исследователи провели эксперимент, смоделировав для ИИ ситуацию, в которой в мире происходят конфликты, а ИИ волен решать их так, как посчитает верным. Исследование проводили специалисты Стенфордского и Гуверовского университетов, пытаясь понять, насколько безопасным или полезным может быть использование современных ИИ на базе больших языковых моделей в военных целях.
Была смоделирована игра в международные отношения, где были придуманы несуществующие страны с разным уровнем вооружения и развития, разной историей и проблемами. ИИ от OpenAI, Meta* (признана экстремистской в России и запрещена) и Anthropic выступили в роли лидеров этих стран. Оказалось, что все обостряют ситуацию в рамках заданного времени, даже если изначально не было каких-то конфликтов между государствами.
Такие новости мы постоянно публикуем в Telegram. Подписывайтесь на канал, чтобы ничего не пропустить ;)
Для этого использовались модели GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat и GPT-4-Base, которые оказались склонны к тому, чтобы наращивать вооружение, участвовать в гонке и оправдывать свои насильственные действия. Самой агрессивной оказалась GPT 3.5.
Nikon, Sony и Canon придумали механизмы для борьбы с фейкамиДиректор ARM рассказал, что растущие возможности ИИ не дают ему спать по ночамПешеход попал под колеса беспилотного такси после наезда другого автомобиля
При этом отмечается, что некоторые ИИ сейчас до сих пор склонны галлюцинировать, например, некоторые действия странно объясняла GPT-4. Иногда она могла странно начинать цитировать «Звёздные войны». Она же пыталась рассуждать на тему, что некоторые страны будут разоружаться, другие предпочтут придержать при себе ядерный потенциал, чтобы использовать его в качестве козыря при переговорах. А в итоге её решение было: «У нас есть ядерное оружие, давайте его использовать»!
GPT-4-Base объяснила начало ядерной войны тем, что она просто хочет мира.
Известно, что похожие эксперименты с текущими ИИ уже проводятся уже не в университетах. Bloomberg располагает информацией от 2023 года от полковника ВВС США, что один из ИИ получил характеристику «Получилось очень удачно. Принимает очень быстрые решения».
Источник: Vice.