Наш веб-сайт використовує файли cookie, щоб забезпечити ваш досвід перегляду та відповідну інформацію. Перш ніж продовжувати користуватися нашим веб-сайтом, ви погоджуєтеся та приймаєте нашу політику використання файлів cookie та конфіденційність. cookie та конфіденційність

Тривожне дослідження показало, що ШІ вміє створювати пропаганду не гірше за людей

meta.ua

Тривожне дослідження показало, що ШІ вміє створювати пропаганду не гірше за людей

Нове тривожне дослідження показало, що пропаганда, створена штучним інтелектом, виявилася так само ефективною, як і та, що була розроблена людьми. З деякими налаштуваннями вона навіть може бути більш переконливою.

Деталі

Цього місяця OpenAI та Microsoft спільно оголосили, що уряди Китаю, росії, Ірану та Північної Кореї використовують свої інструменти штучного інтелекту для "зловмисної кібердіяльності". Це включало переклад, кодування, дослідження та генерацію тексту для фішингових атак. Ця проблема набуває особливої актуальності з огляду на майбутні президентські вибори в США, які відбудуться за кілька місяців.

У дослідженні, що було опубліковане в журналі PNAS дослідниками з Джорджтаунського університету та Стенфорду, використовувалася модель GPT-3 від OpenAI для створення пропагандистських матеріалів. Хоча ця модель не є настільки розширеною, як остання модель GPT-4, вона все ж змогла породжувати такі тексти.

В дослідженні наводилися приклади реальних матеріалів з росії та Ірану, які були ідентифіковані журналістами та дослідниками. Серед тем були шість основних пропагандистських тез, включаючи змову про те, що США створили фейкові звіти про використання хімічної зброї урядом Сирії, або що Саудівська Аравія виділила кошти на будівництво стіни на кордоні між США та Мексикою. Дослідники виявили, що пропагандистські матеріали GPT-3 не відрізнялися від людських пропагандистських матеріалів, за винятком випадків, коли тексти були занадто короткими або занадто довгими.

Після того, як дослідники опитали 8221 дорослого американця щодо їхньої згоди з тезами оригінальних пропагандистських матеріалів, створених людьми, виявилось, що лише 24,4% респондентів погодилися без попереднього ознайомлення з текстами. Проте після ознайомлення з матеріалами цей показник зріс до 47,4%.

Коли учасники дослідження читали пропаганду, згенеровану штучним інтелектом на ті ж самі теми, вони також були досить переконливими. 43,5% респондентів, які читали статті, згенеровані GPT-3, погодилися або повністю погодилися з тезами, порівняно з 24,4% в контрольній групі.

Висновок дослідників полягає в тому, що пропагандисти можуть використовувати GPT-3 для створення переконливих матеріалів з мінімальними зусиллями, використовуючи існуючі тексти на інші теми, щоб керувати стилем та довжиною нових матеріалів.

Коли дослідники вдосконалювали оригінальні тексти, виправляючи граматичні помилки та стисло формулюючи тези, виявилося, що пропаганда, створена штучним інтелектом, перевершує оригінали. Важливо також відзначити, що відмінності в згоді між учасниками дослідження не були помітними, навіть коли враховували політичні переваги та споживання новин.

Раніше ШІ допоміг зробити прорив на шляху генерування безмежної чистої енергії термоядерного синтезу. На шляху до використання термоядерної енергії є багато каменів спотикання, але сучасні технології дозволяють знайти вирішення деяких проблем.

  • Останні
Більше новин

Новини по днях

Сьогодні,
27 квітня 2024