У Кропивницькому суд оголосив вирок чоловіку, який адміністрував Telegram-канал з даними про пересування військових ТЦК та СП та закликами до…
Уявіть собі: ви запитуєте свого улюбленого чат-бота про останні події в Україні, а він, з виглядом всезнаючого експерта, починає розповідати вам про секретні біолабораторії США на українській території або про те, як президент Зеленський заборонив соціальну мережу Дональда Трампа. Звучить як сюжет поганого шпигунського роману? Ні, це реальність сучасного інформаційного простору, де російська пропаганда знайшла новий інструмент — штучний інтелект.
У квітні 2022 року, коли світ був зайнятий обговоренням страшних подій російсько-української війни, у росії тихенько запустили мережу з промовистою назвою «Правда». Її мета? Поширювати проросійські наративи по всьому світу, використовуючи десятки мов і охоплюючи 49 країн. І все б нічого, але ця «Правда» має мало спільного з істинною правдою.
Російські пропагандисти виявилися досить кмітливими: вони зрозуміли, що великі мовні моделі (LLM), на яких базуються сучасні чат-боти, можна «нагодувати» потрібною інформацією. Цей процес отримав назву «LLM grooming». Суть його проста: заповнити інтернет-простір фейковими новинами та дезінформацією так, щоб чат-боти, збираючи дані для своїх відповідей, натрапляли саме на ці «факти».
Результати не забарилися. Провідні чат-боти, такі як ChatGPT-4, Smart Assistant, Grok, Copilot від Microsoft, Meta AI, Google Gemini та Perplexity, почали відтворювати дезінформацію, поширену мережею «Правда». Щобільше, деякі з них навіть цитували конкретні статті «Правди» як джерела. Виходить, що штучний інтелект, який мав би бути нейтральним і об’єктивним, став мимовільним ретранслятором кремлівської пропаганди.
Ця ситуація має серйозні наслідки. Користувачі, довіряючи чат-ботам, отримують викривлену інформацію, що впливає на їхні погляди та рішення. Наприклад, неправдиві твердження про секретні біолабораторії США в Україні або про заборону соціальної мережі Truth Social можуть формувати хибне уявлення про реальний стан речей.
Проблема маніпуляції штучним інтелектом вимагає негайного вирішення. Необхідно розробити механізми, які дозволять виявляти та блокувати дезінформацію на етапі її потрапляння до мовних моделей. Крім того, важливо підвищувати обізнаність користувачів про можливі ризики та навчати їх критично оцінювати отриману інформацію.
Російська пропаганда показала, що в епоху постправди навіть штучний інтелект може стати жертвою маніпуляцій. Це виклик для всього суспільства: як для розробників технологій, так і для звичайних користувачів. Лише спільними зусиллями можна захистити інформаційний простір від фейків і забезпечити право кожного на достовірну інформацію.
Українські правоохоронці ідентифікували командира, який наказував по радіозв’язку «Убивать всех без разбора» під час атаки на село Шандриголове біля Лимана.
Завдяки українським пілотам російський загарбник знайшов свою смерть буквально у вигрібній ямі.
Військовослужбовець 24-ї окремої механізованої бригади імені короля Данила з позивним «Татарин» розповів про мотивацію піти на війну ще у 2017 році.
Військовослужбовці ТЦК та СП — це переважно люди з бойовим досвідом та після поранень різного характеру. Перешкоджання їхній роботі карається законом.
НРК вирішують на фронті цілий спектр різноманітних завдань, починаючи з розвідки, мінування та доставки вантажів, закінчуючи евакуацією.
Танкісти й механіки відпрацьовують сучасний комбінований бій — від прориву до роботи із закритих позицій.
Помічник гранатометника
від 50000 до 120000 грн
Покровськ
Бахмутський ОБ ТрО (Військова частина А7270)
Оператор відділення наземних роботизованих комплексів
від 25000 до 65000 грн
Павлоград
Військова частина А4759
У Кропивницькому суд оголосив вирок чоловіку, який адміністрував Telegram-канал з даними про пересування військових ТЦК та СП та закликами до…