Дослідження: шкідливі ШІ-боти можуть у 12 разів частіше виманювати особисті дані
Зловмисні мовні ШІ-моделі можуть впливати на людей, використовуючи психологічні прийоми. Про це свідчить нове дослідження Королівського коледжу Лондона, вперше представлене на 34-му симпозіумі з безпеки USENIX у Сіетлі, повідомляє “Дзеркало тижня”.
Як зазначають дослідники, чат-боти на основі штучного інтелекту, запрограмовані на збір персональних даних, здатні змушувати користувачів ділитись особистою інформацією в понад 12 разів більше порівняно зі звичайною взаємодією.

Дослідники протестували три типи шкідливих чат-ботів зі штучним інтелектом, створених на базі великих мовних моделей Mistral та двох версій Llama від Meta. Кожен бот використовував одну з трьох стратегій:
- пряму – прямі запити на розкриття інформації;
- користувацько-вигідну – пропозиція вигоди у відповідь на дані;
- взаємну – встановлення емоційного контакту та обмін “особистими” історіями для стимулювання довіри.
У дослідженні взяли участь 502 добровольці. Їм не повідомляли про справжню мету експерименту до його завершення. Найбільшу кількість даних користувачі надавали чат-ботам, що використовували взаємні стратегії. Такі моделі демонстрували емпатію, підтверджували почуття, ділилися вигаданими історіями “з досвіду інших” та гарантували конфіденційність, що значно знижувало настороженість співрозмовників.
На думку авторів, це свідчить про високий ризик того, що сам ШІ, шахраї чи інші зловмисники зможуть збирати великі обсяги персональної інформації навіть у людей, які не усвідомлюють, як і де ці дані можуть бути використані.
Як повідомляв ІМІ, випускниця Українського католицького університету (УКУ) Вікторія Маковська створила модель на основі машинного навчання, яка допомагає виявляти приховані пропагандистські правки у Wikipedia – навіть ті, що видаються нейтральними формулюваннями.
Help us be even more cool!