Наш веб-сайт використовує файли cookie, щоб забезпечити ваш досвід перегляду та відповідну інформацію. Перш ніж продовжувати користуватися нашим веб-сайтом, ви погоджуєтеся та приймаєте нашу політику використання файлів cookie та конфіденційність. cookie та конфіденційність

Шахрайство з дипфейками набуло промислових масштабів

24tv.ua

Шахрайство з дипфейками набуло промислових масштабів

Експерти з AI Incident Database дійшли висновку, що дипфейкове шахрайство вийшло на промисловий рівень. За їхніми даними, інструменти для створення персоналізованих афер, зокрема відео з фальшивими образами відомих журналістів або президента Кіпру, більше не є складними чи дорогими у використанні. Про це пише The Guardian.

Дивіться також Нові технології на роботі впливають на мотивацію працівників зовсім не так, як ми думали

У дослідженні зафіксували понад десяток недавніх випадків так званої "імітації заради прибутку". Серед них – дипфейкове відео прем'єра Західної Австралії Роберта Кука, який нібито рекламував інвестиційну схему, а також фальшиві лікарі, що просували косметичні засоби для шкіри.

Дослідники зазначають, що шахраї дедалі частіше використовують загальнодоступні AI-інструменти для точкових атак. Масштаби проблеми ілюструє випадок у Сінгапурі, де фінансовий співробітник міжнародної компанії минулого року переказав майже $500 тис. зловмисникам під час відеодзвінка, який він вважав розмовою з керівництвом. У Великій Британії споживачі, за оцінками, втратили £9,4 млрд через шахрайство за дев'ять місяців до листопада 2025 року.

За словами дослідника MIT Саймона Майліуса, можливості штучного інтелекту досягли рівня, коли фейковий контент може створювати майже будь-хто. Він зазначає, що шахрайство, маніпуляції та цільові афери становили найбільшу частку інцидентів у базі даних протягом 11 з останніх 12 місяців, а поріг входу фактично зник.

Дослідник Гарвардського університету Фред Гайдинг, який вивчає AI-шахрайство, наголошує, що ситуація лише погіршуватиметься. За його словами, технології стали настільки дешевими та швидкими, що їхнє поширення випереджає очікування експертів.

Як пише Tech Digest, показовим є випадок із Джейсоном Ребгольцем, генеральним директором компанії з AI-безпеки Evoke. Після публікації вакансії в LinkedIn з ним зв'язалася людина, яка порекомендувала кандидата. Листування виглядало переконливо, резюме було якісним, хоча й із дивними деталями. Під час відеоспівбесіди з'явилися серйозні підозри: зображення виглядало штучно, фон був неприродним, а контури обличчя постійно спотворювалися.

Після розмови Ребгольц передав запис фахівцям із виявлення дипфейків, які підтвердили, що відео було згенероване штучним інтелектом. Кандидата відхилили, але мета шахрая так і залишилася незрозумілою – від спроби отримати роботу до доступу до конфіденційних даних.

На думку експертів, найгірше ще попереду. Технології клонування голосу вже дозволяють легко імітувати родичів або знайомих під час телефонних дзвінків, тоді як відеодипфейки продовжують удосконалюватися. Це може мати серйозні наслідки для процесів найму, виборів і загального рівня довіри до цифрових інституцій.

  • Останні
Більше новин

Новини по днях

Сьогодні,
6 лютого 2026

Новини на тему

Більше новин