ГАРЯЧА ЛІНІЯ(050) 447-70-63
на зв’язку 24 години
Залиште свої дані
і ми зв’яжемося з вами
дякуємо за звернення

Або ж зв’яжіться з нами:

[email protected]

(050) 447-70-63

Подай скаргу

Випускниця УКУ розробила модель для виявлення прихованих російських маніпуляцій у Wikipedia

Випускниця Українського католицького університету (УКУ) Вікторія Маковська створила модель на основі машинного навчання, яка допомагає виявляти приховані пропагандистські правки у Wikipedia – навіть ті, що видаються нейтральними формулюваннями. Про це повідомляє Mind.

Як зазначає видання, на відміну від інструментів, що зосереджені на виявленні очевидного вандалізму (зловживання капслоком, образи, жарти чи недоречні вставки), розробка Вікторії Маковської спрямована на виявлення тонких текстових маніпуляцій. У центрі уваги – ідеологічно забарвлена лексика, зміщення акцентів, легітимізація сумнівних фактів та інші мовні індикатори, які можуть впливати на сприйняття інформації.

Вікторія Маковська. Фото Mind

Її дипломний проєкт “Вандалізм чи маніпуляція знаннями? Виявлення наративів у редагуваннях Wikipedia” визнано одним з найкращих серед випускників УКУ 2025 року. Модель аналізує не фінальний текст статті, а окремі зміни (revision), які вносять користувачі. На виході система видає оцінку від 0 до 1, що відображає ймовірність маніпулятивного характеру редагування.

За словами дослідниці, підхід може бути застосований і за межами Wikipedia – наприклад, у телеграм-каналах чи новинних стрічках, де пропаганда часто маскується під “альтернативну думку”. Особливу загрозу становить той факт, що Wikipedia використовується як джерело даних для навчання великих мовних моделей (LLM). Якщо до енциклопедії потрапляє викривлена інформація, вона згодом може опинитись і в чат-ботах, створених на основі таких моделей. Цей процес уже отримав назву LLM grooming і, за дослідженнями, активно використовується російською пропагандою.

Для навчання моделі було створено власний датасет із прикладів нейтральних та пропагандистських текстів, відібраних з української та російської вікіпедії, а також із дзеркального ресурсу RuWiki Fork. Це дозволило виявляти специфічні правки, що з’являлися лише в російській версії. Наприклад, фрагменти, які виправдовують окупацію Маріуполя.

Нерівномірність вибірки – коли маніпулятивних правок значно менше, ніж звичайних, – ускладнила процес навчання. Щоб зменшити ризик втрати рідкісних прикладів, Маковська застосувала техніки балансування даних та альтернативні метрики оцінювання, релевантніші для таких завдань.

Наразі проєкт існує як прототип без графічного інтерфейсу. Модель працює за принципом Human in the Loop: вона не замінює модератора, а допомагає йому, відсіюючи найпідозріліші редагування для перевірки. Дослідниця вважає, що інтеграція подібного функціоналу до чинної системи Wikipedia LiftWing могла б суттєво підвищити ефективність виявлення прихованих маніпуляцій.

Модель уже протестували на текстах з телеграм-каналів, де вона продемонструвала здатність ідентифікувати мовні ознаки дезінформації. Це відкриває можливість подальшого використання в моніторингу соціальних мереж, новинних платформ і месенджерів, де інформаційні викривлення поширені масово.

Як повідомляв ІМІ, 21 жовтня 2024 року видання Texty.org.ua  оприлюднило дослідження “Карусель емоцій”. У ньому команда медіа навчила штучний інтелект (велику мовну модель) розпізнавати найпоширеніші техніки маніпуляцій у публікаціях телеграм-каналів.

Liked the article?
Help us be even more cool!