Современные нейросети нередко допускают ошибки, поэтому ключевой задачей разработчиков является совершенствование алгоритмов, позволяющее системам перепроверять самих себя. Такое мнение в беседе с НСН высказал руководитель проекта по интеграции нейросетей в TenChat Александр Жадан.
По его словам, работа генеративных алгоритмов основана на поиске наиболее вероятного ответа, что не всегда гарантирует его точность.
В качестве примера он привёл ситуацию, когда нейросети ошибаются при подсчёте букв в словах, поскольку изначально не обладают навыками счёта. Эксперт отметил, что именно поэтому сегодня идёт активная работа над тем, чтобы нейросети не просто выдавали ответы, но и анализировали их, выявляя возможные ошибки и исправляя их в процессе генерации.Жадан подчеркнул, что распространение фейков связано не только с технологиями, но и с человеческим фактором.
«Проблема здесь не столько из-за нейросетей, она существует из-за природы людей. Так было в любое другое время. Любые фейковые новости можно сделать как с нейросетями, так и без них», — заявил он.
Ранее исследователи из Фуданьского университета в Китае обнаружили, что модели искусственного интеллекта (ИИ) научились создавать свои копии, опасаясь уничтожения.
Свежие комментарии