Фейковые сайты и ИИ‑технологии: что нужно знать, чтобы не попасться на обман
Программы ИИ, особенно большие языковые модели, которые учатся писать читаемый текст на основе огромных наборов данных, автоматизировали многие аспекты создания фейковых новостей. Новый инструмент мгновенной генерации видео Sora, способный создавать детализированные ролики качества «голливудских», вызывает дополнительные опасения по поводу распространения фейкового видеоконтента.
Эксперты Virginia Tech рассмотрели три разные стороны распространения сайтов с фейковыми новостями с помощью ИИ и усилия по борьбе с ними.
Как технологии помогают создавать и выявлять фейковые новости
Профессор инженерии и машинного обучения Валид Саад объясняет, что возможность создавать сайты с ложной информацией существует с первых дней интернета и предшествует эре ИИ. Но с появлением ИИ стало проще анализировать большие массивы информации и составлять правдоподобные тексты. LLM позволяют злоумышленникам генерировать то, что выглядит как точная информация, что делает такие сайты особенно опасными.
Он подчеркивает, что эти сайты будут функционировать, пока люди продолжают потреблять и делиться материалами с них. Распространение дезинформации в социальных сетях мотивирует создателей фейковых сайтов продолжать работу.
Чтобы решать эту проблему, нужны совместные усилия людей и технологий. ИИ не только способствует распространению фейков, но и может помочь в их обнаружении. Однако человеческий вклад — как со стороны читателей, так и администраторов — крайне важен. Пользователи и новостные агентства несут ответственность за то, чтобы не усиливать распространение ложной информации, а сообщения от пользователей об ошибочной информации помогают улучшать инструменты обнаружения на основе ИИ.
При этом меры по борьбе с дезинформацией должны уважать первую поправку к Конституции США и не препятствовать свободе слова.
Что могут и чего не могут добиться законы
Кейси Майерс, эксперт по коммуникационной политике, отмечает, что регулирование политической дезинформации вызывает множество практических и юридических проблем. Хотя во многих странах осознали необходимость действий перед выборами 2024 года, доступность ИИ делает создание дезинформации, включая дипфейки, проще, чем когда‑либо.
Законодательство сталкивается с трудностями — многие создатели фейкового контента остаются неизвестными, а если они находятся в других странах, еще сложнее привлечь их к ответственности. Кроме того, технологии вроде Sora демонстрируют, что высококачественный AI‑контент становится все доступнее для массового создания, и даже водяные знаки или пометки могут быть удалены или изменены.
В США сайты социальных сетей, на которых размещается политическая дезинформация, включая дипфейки, защищены от юридической ответственности по Разделу 230 Закона о декриминализации связи. Поэтому борьба с дезинформацией зачастую сводится к правилам самих платформ, что вызывает критику и вопросы о предвзятости. Также обсуждается вопрос привлечения к ответственности платформ, которые создают ИИ, но пока нет надежной системы, способной полностью предотвратить создание дезинформации с помощью ИИ.
Как самому защититься от дезинформации
Джулия Фиррар, библиотекарь и преподаватель цифровой грамотности, дает советы, как пользователям самим распознавать ложные материалы.
Она советует смотреть, откуда берется публикация: от профессионального, авторитетного источника или от неизвестного сайта. Если есть сомнения, стоит открыть новую вкладку и быстро найти информацию о сайте или проверить, есть ли о нем статья в Википедии. Это называется латеральным чтением — искать информацию вне самого текста и проверять, сообщают ли другие надежные СМИ ту же новость.
Другие советы:
— фейковые материалы часто апеллируют к эмоциям — стоит остановиться и подумать, если что‑то вызывает сильную реакцию
— проверяйте заголовки и изображения через поиск fact‑check
— очень общее название сайта может быть признаком ИИ‑генерированных новостей
— иногда в текстах можно увидеть сообщения об ошибках, оставленные ИИ‑инструментом, если создание текста нарушало правила использования — это может быть красным флагом
— при анализе изображений ИИ‑генерации специалисты указывают на необычную, слишком идеальную картинку, а также странные руки или ноги.
