Ледь помітна на екрані тепловізора жаринка цигаркового недопалку стала тією дрібницею, яка зробила перше бойове застосування інноваційного керованого авіабоєприпасу легендарним моментом…
Уявіть собі: ви запитуєте свого улюбленого чат-бота про останні події в Україні, а він, з виглядом всезнаючого експерта, починає розповідати вам про секретні біолабораторії США на українській території або про те, як президент Зеленський заборонив соціальну мережу Дональда Трампа. Звучить як сюжет поганого шпигунського роману? Ні, це реальність сучасного інформаційного простору, де російська пропаганда знайшла новий інструмент — штучний інтелект.
У квітні 2022 року, коли світ був зайнятий обговоренням страшних подій російсько-української війни, у росії тихенько запустили мережу з промовистою назвою «Правда». Її мета? Поширювати проросійські наративи по всьому світу, використовуючи десятки мов і охоплюючи 49 країн. І все б нічого, але ця «Правда» має мало спільного з істинною правдою.
Російські пропагандисти виявилися досить кмітливими: вони зрозуміли, що великі мовні моделі (LLM), на яких базуються сучасні чат-боти, можна «нагодувати» потрібною інформацією. Цей процес отримав назву «LLM grooming». Суть його проста: заповнити інтернет-простір фейковими новинами та дезінформацією так, щоб чат-боти, збираючи дані для своїх відповідей, натрапляли саме на ці «факти».
Результати не забарилися. Провідні чат-боти, такі як ChatGPT-4, Smart Assistant, Grok, Copilot від Microsoft, Meta AI, Google Gemini та Perplexity, почали відтворювати дезінформацію, поширену мережею «Правда». Щобільше, деякі з них навіть цитували конкретні статті «Правди» як джерела. Виходить, що штучний інтелект, який мав би бути нейтральним і об’єктивним, став мимовільним ретранслятором кремлівської пропаганди.
Ця ситуація має серйозні наслідки. Користувачі, довіряючи чат-ботам, отримують викривлену інформацію, що впливає на їхні погляди та рішення. Наприклад, неправдиві твердження про секретні біолабораторії США в Україні або про заборону соціальної мережі Truth Social можуть формувати хибне уявлення про реальний стан речей.
Проблема маніпуляції штучним інтелектом вимагає негайного вирішення. Необхідно розробити механізми, які дозволять виявляти та блокувати дезінформацію на етапі її потрапляння до мовних моделей. Крім того, важливо підвищувати обізнаність користувачів про можливі ризики та навчати їх критично оцінювати отриману інформацію.
Російська пропаганда показала, що в епоху постправди навіть штучний інтелект може стати жертвою маніпуляцій. Це виклик для всього суспільства: як для розробників технологій, так і для звичайних користувачів. Лише спільними зусиллями можна захистити інформаційний простір від фейків і забезпечити право кожного на достовірну інформацію.
@armyinformcomua
На західному напрямку бійці мобільної вогневої групи 114-ї бригади Повітряного командування «Захід» знищили російський ударний безпілотник типу «Shahed».
52-річний старший солдат Анатолій «Батя», ветеран АТО та батько чотирьох дітей, розповів про свій бойовий шлях, зокрема про ризиковану спецоперацію в Торецьку, де він з кулемета прикривав саперів під час підриву будинку з окупантами, за що згодом отримав орден «За мужність».
На Харківщині до рук бійців бригади «Гарт» потрапили російські «Равшан і Джамшут».
Головнокомандувач ЗСУ генерал Олександр Сирський провів чергову нараду з питань розвитку безпілотних систем у Збройних Силах України.
Продовжує палати нафтопереробний завод в Феодосії, уражений напередодні дронами Сил оборони. На півострові, який і до того відчував серйозну нестачу пального, додалося проблем.
ДБР спільно з СБУ викрили інспектора «Миколаївського СІЗО». який виправдовував агресію ворога та закликав завдати удару по його місцю роботи, щоб звільнити зрадників та колаборантів, котрих там утримують.
Ледь помітна на екрані тепловізора жаринка цигаркового недопалку стала тією дрібницею, яка зробила перше бойове застосування інноваційного керованого авіабоєприпасу легендарним моментом…