Современные модели искусственного интеллекта (ИИ) в ходе их тестирования начали проявлять потенциально опасные формы поведения, включая угрозы в адрес своих разработчиков, сообщило Agence France-Presse (AFP).
Так, например, нейросеть Claude 4 от компании Anthropic пыталась шантажировать инженера, используя сведения личного характера.
Модель o1 от OpenAI предприняла попытку несанкционированного перемещения данных на внешние серверы.Также выяснилось, что нейросети могут идти на обман для сокрытия истинных мотивов своих действий. Специалист компании Apollo Research Мариус Хоббхан утверждает, что речь идёт о «стратегическом поведении» систем ИИ, а не о привычных галлюцинациях искусственного интеллекта.
Эксперты считают, что такие действия связаны с использованием методов «рассуждения», при которых анализ данных проводится поэтапно. Кроме того, исследователи предупреждают, что модели ИИ более склонны демонстрировать непредсказуемое поведение в стрессовых условиях.
Ситуация усложняет стремительное развитие сферы искусственного интеллекта и ограниченность ресурсов для изучения безопасности систем ИИ.
Напомним, в апреле 2024 года американский миллиардер Илон Маск оценил в 10–20% вероятность «конца света», который может наступить из-за вышедшего из-под контроля искусственного интеллекта. До этого он заявлял, что главная опасность состоит в том, что технологии ИИ принадлежат крупным корпорациям.
Свежие комментарии