Онлайн-опросам грозит коллапс: ИИ научился почти идеально имитировать человека и накручивать нужные ответы

Летом этого года стало понятно, что так называемая капча (Captcha) в её простейшем виде более не является препятствием для ИИ-агентов к осуществлению действий, позволяющих выдавать себя за человека. Новое исследование показало, что ИИ способен проходить онлайн-опросы общественного мнения, правдоподобно выдавая себя за человека.

Смартфон HUAWEI Mate 70 Pro как выбор фотографа

Пять главных фишек камеры HONOR Magic 7 Pro

Обзор планшета HONOR Pad V9: нейросети спешат на помощь

Репортаж со стенда HONOR на выставке MWC 2025: передовые новинки и стратегические планы на будущее с ИИ

Обзор смартфона HONOR X9c Smart: прочность со скидкой

Обзор смартфона HUAWEI Pura 80: удобный флагман с «Алисой»

Hollow Knight: Silksong — песнь страданий и радостей. Рецензия

Наушники HUAWEI FreeBuds 6, которые понимают жесты

Лучший процессор за 20 тысяч рублей — сравнение и тесты

Успех созданного главой Polarization Research Lab Шоном Уэствудом (Sean Westwood) программного инструмента для работы с ИИ в рамках эксперимента достигался в 99,8 % случаев, позволяя с подобной вероятностью выдавать себя за живого респондента, участвующего в онлайн-опросах общественного мнения. Написанный на Python ИИ-агент обладает платформенной независимостью, позволяя сопрягать его с большинством популярных больших языковых моделей разных разработчиков.

Основную часть эксперимента автор использовал возможности o4-mini компании OpenAI, но программный агент часть испытаний преодолевал с опорой на другие языковые модели. Он настроен таким образом, что перед началом прохождения социологического опроса пользователь вводит краткое описание портрета того человека, чьи ответы ему предстоит имитировать. Постановка задачи должна быть изложена не более чем в 500 словах.

Агент был обучен обходить контрольные вопросы и ловушки, которые составители опросников обычно внедряют для выявления как невнимательных пользователей, так и ботов. Ему не были страшны даже специфические фильтры типа задач, которые решаются силами ИИ довольно просто, но не по плечу большинству реальных респондентов. Программа имитирует затраты времени на чтение вопросов в зависимости от уровня образованности симулируемого респондента, может медленно вводить в полях, подразумевающих свободную форму ответа, делать ошибки в словах и исправлять их при наличии такой возможности. К агенту в дальнейшем можно будет «прикрутить» инструмент для обхода капчи.

По словам автора исследования, фальсификация данных опросов общественного мнения при наличии подобных инструментов становится опасным средством манипуляции. Изучение опросов, проводимых до президентских выборов 2024 года в США, позволяет сделать вывод, что для склонения чаши весов в ту или иную сторону порой достаточно от 10 до 52 сфальсифицированных ответов, даже если речь идёт об общенациональном опросе.

Бороться с такими злоупотреблениями можно с использованием более контролируемых условий проведения опросов. С другой стороны, повышенные меры безопасности вроде идентификации личности по документам или биометрии могут затруднить проведение опросов и снизить степень искренности респондентов. Очевидно, что в условиях развития ИИ к достоверности результатов онлайн-опросов придётся подходить с повышенной настороженностью.

Оцените статью
Загородное строительство - Дома, дачи, коттеджи
Добавить комментарий