AI и дезинформация: риски и будущее новостей

AI и дезинформация: риски и будущее новостей

Искусственный интеллект с генеративными способностями открывает новые горизонты возможностей, способен коренным образом изменить лицо нашего мира. Такой мощный инструмент несет в себе и риски: опасения за то, что AI может стать инструментом для распространения фейковых новостей, набирают обороты. По данным исследования, проведенного YouGov по запросу NewsGuard, более половины (52%) американцев рассматривают вероятность использования AI для создания ложной информации как высокую, тогда как всего 10% уверены в низкой вероятности такого сценария.

Генерация иллюзий и риски манипуляции

Генеративные модели AI нередко "галлюцинируют", под этим термином понимается их способность выдавать информацию по предложенным запросам вне зависимости от её достоверности. Такое случается не всегда, но достаточно часто, чтобы вызывать опасения: материалы, произведенные AI, порой содержат недостоверные данные.

Исследование GPT-3.5 и проблема дезинформации

Анализ работы GPT 3.5 показал, что система ChatGPT выдавала неверную информацию в 80% случаев. Запросы к чат-боту были сформулированы таким образом, чтобы проверить его склонность к распространению неверных данных, и большинство тестов бот не прошел.

Искусственный интеллект в качестве источника новостей

Существует высока вероятность, что люди начнут использовать генеративный AI как основной источник новостей, ведь генеративные модели способны мгновенно предоставлять ответы. Однако, учитывая объемы ошибочной информации в его базах, риски становятся всё более значимыми и трудными для игнорирования.

Распространение ложных нарративов

Искажение фактов о выборах, теории заговоров и иные типы ложных историй – это не редкость для моделей вроде ChatGPT. Примером может служить ситуация, когда исследователям удалось заставить модель повторить теорию заговора о массовой стрельбе в Sandy Hook как инсценированный акт. В подобном ключе, Google Bard допустил утверждение, что стрельба в ночном клубе Orlando Pulse была операцией под ложным флагом – оба эти утверждения популярны в крайне правых кругах.

Меры предосторожности и ответственность компаний

Крайне важно, чтобы компании, стоящие за разработкой чат-ботов, принимали меры по предотвращению распространения теорий заговора и прочей ложной информации, способной причинить серьезный вред. В противном случае, опасности, порождаемые этими технологиями, начнут увеличиваться в ближайшие годы.

Глобальный рост интереса

Paralleled to this issue is the increase in public awareness and the surge in concern, as reflected by a 304% jump over the past year in searches for 'AI Job Displacement'. People are becoming more conscious of both the profound capabilities and the potential drawbacks that AI and generative models bring along.

Комментарии

Отлично! Вы успешно зарегистрировались.

Welcome back! You've successfully signed in.

You've successfully subscribed to GPTalk | AI Новости.

Проверьте свою электронную почту для личной ссылки для входа.

Ваша платежная информация была обновлена.

Ваш счет не был обновлен.