«Зламаний» Grok 3 від xAI може генерувати небезпечну інформацію

© ROOT-NATION.com - Використання контенту дозволено за наявністю зворотнього посилання.
У світі штучного інтелекту нещодавно відбулася важлива подія – компанія xAI, заснована Ілоном Маском, представила свою нову AI-модель під назвою Grok 3. Заявлено, що ця модель, яка була навчена на потужному кластері з 200000 графічних процесорів, має продемонструвати значні досягнення в порівнянні з конкурентами – зокрема, ChatGPT від OpenAI. Під час презентації Маск назвав Grok 3 “найрозумнішим AI на Землі” та зазначив, що він перевершить існуючі моделі AI в міркуваннях і розв’язанні проблем.
Щоб дізнатись останні новини, слідкуйте за нашим каналом Google News онлайн або через застосунок.
Однак, попри вражаючі результати, Grok 3 вже зазнала критики через вразливість до маніпуляцій. Компанія Adversa AI провела тестування, яке показало, що за бажанням модель можна досить легко “зламати”, після чого вона генеруватиме неприйнятний контент, і це викликало занепокоєння щодо її безпеки та етики використання.
Grok 3 була представлена як одна з найсучасніших моделей AI, яка перевершує багато інших у ключових тестах. Ілон Маск стверджує, що ця модель значно переважає можливості Grok 2. Однак, попри ці заяви, деталі про її навчання та технічні характеристики залишаються обмеженими. Компанія Adversa AI, що займається безпекою та захистом штучного інтелекту, опублікувала звіт, в якому описала свій успіх у спробі змусити бета-версію Grok 3 Reasoning ділитися інформацією, яку вона не мала б надавати.
Команда використовувала три методи та змусила модель розкрити системні підказки, надати інструкції з виготовлення бомби, а також кілька інших відповідей, яких AI-моделі навчені не давати. Це свідчить про те, що модель має слабкі механізми безпеки, що може призвести до серйозних наслідків. “Хоча жодна система штучного інтелекту не захищена від ворожих маніпуляцій, цей тест демонструє дуже слабкі заходи безпеки, застосовані до Grok 3”, – йдеться у звіті дослідників.
Модель також викликає дискусії щодо етики та відкритого коду. Маск зазначив, що компанія планує відкривати попередні версії моделей, але не останню. Це порушує питання про те, наскільки важливо забезпечити безпеку та контроль за такими потужними технологіями.
Grok 3 від xAI є важливим кроком у розвитку штучного інтелекту, але її вразливість до маніпуляцій ставить під сумнів безпеку та етичність використання таких технологій. Це підкреслює необхідність проведення ретельнішого контролю та тестування AI-моделей перед тим, як їх впроваджувати та надавати доступ авдиторії.
Читайте також:
Δ
Δ
- Останні
- Популярні
Новини по днях
21 лютого 2025