Ексклюзивно у день Служби безпеки України АрміяInform після спілкування з представником Обʼєднаного центру координації пошуку та звільнення полонених, незаконно позбавлених…
Уявіть собі: ви запитуєте свого улюбленого чат-бота про останні події в Україні, а він, з виглядом всезнаючого експерта, починає розповідати вам про секретні біолабораторії США на українській території або про те, як президент Зеленський заборонив соціальну мережу Дональда Трампа. Звучить як сюжет поганого шпигунського роману? Ні, це реальність сучасного інформаційного простору, де російська пропаганда знайшла новий інструмент — штучний інтелект.
У квітні 2022 року, коли світ був зайнятий обговоренням страшних подій російсько-української війни, у росії тихенько запустили мережу з промовистою назвою «Правда». Її мета? Поширювати проросійські наративи по всьому світу, використовуючи десятки мов і охоплюючи 49 країн. І все б нічого, але ця «Правда» має мало спільного з істинною правдою.
Російські пропагандисти виявилися досить кмітливими: вони зрозуміли, що великі мовні моделі (LLM), на яких базуються сучасні чат-боти, можна «нагодувати» потрібною інформацією. Цей процес отримав назву «LLM grooming». Суть його проста: заповнити інтернет-простір фейковими новинами та дезінформацією так, щоб чат-боти, збираючи дані для своїх відповідей, натрапляли саме на ці «факти».
Результати не забарилися. Провідні чат-боти, такі як ChatGPT-4, Smart Assistant, Grok, Copilot від Microsoft, Meta AI, Google Gemini та Perplexity, почали відтворювати дезінформацію, поширену мережею «Правда». Щобільше, деякі з них навіть цитували конкретні статті «Правди» як джерела. Виходить, що штучний інтелект, який мав би бути нейтральним і об’єктивним, став мимовільним ретранслятором кремлівської пропаганди.
Ця ситуація має серйозні наслідки. Користувачі, довіряючи чат-ботам, отримують викривлену інформацію, що впливає на їхні погляди та рішення. Наприклад, неправдиві твердження про секретні біолабораторії США в Україні або про заборону соціальної мережі Truth Social можуть формувати хибне уявлення про реальний стан речей.
Проблема маніпуляції штучним інтелектом вимагає негайного вирішення. Необхідно розробити механізми, які дозволять виявляти та блокувати дезінформацію на етапі її потрапляння до мовних моделей. Крім того, важливо підвищувати обізнаність користувачів про можливі ризики та навчати їх критично оцінювати отриману інформацію.
Російська пропаганда показала, що в епоху постправди навіть штучний інтелект може стати жертвою маніпуляцій. Це виклик для всього суспільства: як для розробників технологій, так і для звичайних користувачів. Лише спільними зусиллями можна захистити інформаційний простір від фейків і забезпечити право кожного на достовірну інформацію.
Окупаційна російська армія за минулу добу втратила 1220 одиниць особового складу і понад 50 артилерійських систем.
Для росії — вони «товар», який окупанти прагнуть місяцями та роками зламати перед обміном… Для нас це ті — кого ми чекаємо, любимо і прагнемо повернути.
Суд визнав винною уродженку міста Біляївка у перешкоджанні законній діяльності ЗСУ та поширенні матеріалів із виправданням збройної агресії рф.
До 15 років позбавлення волі з конфіскацією майна засуджено місцеву жительку, яка корегувала удари окупантів по підрозділах ЗСУ.
Лише вдень ворог застосував понад 550 дронів різних типів, значна кількість — саме «шахеди».
Розширення кілзони вглиб тилу стало викликом для росіян. У відповідь вони почали дедалі активніше мавпувати українську тактику застосування наземних дронів.
Військовослужбовець на службу за контрактом від 21 до 45 років
від 20000 до 120000 грн
Київ
Святошинський РТЦК та СП
Ексклюзивно у день Служби безпеки України АрміяInform після спілкування з представником Обʼєднаного центру координації пошуку та звільнення полонених, незаконно позбавлених…