
ИИ может генерировать ложные сведения и пропаганду
В исследовании «РИА-Аналитика» под названием «Влияние искусственного интеллекта на медиапространство» отмечается, что модели искусственного интеллекта могут создавать и распространять пропаганду и ложную информацию.
Исследования в области науки о данных уже выявили ряд проблем, связанных с сообщениями, созданными искусственным интеллектом. В частности, большие языковые модели могут статистически подбирать слова, не всегда понимая их смысл, что может приводить к непреднамеренному воспроизведению стереотипов.
"Более того, такие модели способны генерировать и усиливать ложные сведения и пропаганду, если обучены на смещённых данных", - считают аналитики.
В докладе отмечается, что когда алгоритм активно распространяет какую-то идею, часть общества начинает руководствоваться ею в своих действиях. Это делает идею "реальной" с социальной точки зрения.
"Убедительная дезинформация о кризисе может спровоцировать панические настроения или экономические решения, которые материализуют искусственно подготовленный кризис", - заявляют авторы исследования.
Аналитики утверждают, что неверифицированный ИИ в сочетании с данными из соцсетей может стать мощным инструментом дезинформации. Он способен быстро адаптироваться и учиться на реакциях людей, что делает его особенно опасным.
"Масштаб и скорость такого воздействия беспрецедентны, и традиционные методы опровержения фейков часто не успевают среагировать", - отмечают аналитики.






