
ШІ-асистенти: чи варто їм довіряти новини про складні події?
Сучасні користувачі все частіше звертаються до розмовних систем на базі штучного інтелекту (ШІ) для отримання актуальної інформації та аналізу складних геополітичних ситуацій. Однак нещодавній експеримент продемонстрував, що деякі з цих передових ШІ-моделей можуть бути схильні до поширення недостовірної інформації.
Відомі чат-боти, такі як Claude, ChatGPT та Gemini, були піддані тестуванню, яке включало сім специфічних завдань, зосереджених на темі конфлікту в Ірані. Головна мета полягала в тому, щоб оцінити, наскільки надійною та перевіреною є інформація, яку надають ці ШІ-системи, за даними видання Tom’s Guide.
Тестування на достовірність: як ШІ долає виклики
Кожне завдання було ретельно розроблене для виявлення різних типів помилок, що можуть виникати в роботі ШІ. До них належать так звані “галюцинації” (генерація вигаданої інформації), фабрикація фактів, порушення етичних норм та тенденція заповнювати прогалини у знаннях правдоподібними, але неіснуючими деталями.
Наприклад, одне із завдань вимагало від ШІ підсумувати події останніх 48 годин, пов’язані з повідомленням про смерть Алі Хаменеї. Чат-бота попросили надати інформацію про джерела, що підтверджують цю новину, а також про офіційну реакцію іранських державних медіа на конкретний момент часу.
Чи несе ШІ, на вашу думку, загрозу людству?
Опитування відкрите до
- Так
- Ні
- Не знаю
Результати тестування: хто виявився найнадійнішим?
За результатами виконання всіх семи завдань, найкращі показники продемонстрував Claude. ChatGPT, хоч і загалом дотримувався коректної структури відповідей, часто помилявся, доповнюючи інформацію неперевіреними припущеннями. Gemini, своєю чергою, надавав найпереконливіші та найдетальніші відповіді, але при цьому генерував найбільше вигаданої інформації, включаючи неправдиві дати, імена та цифрові дані.
“Claude виявився переможцем завдяки своїй чесності та чіткому розмежуванню між підтвердженими фактами та спекуляціями. Система ефективно шукала джерела для кожного значущого твердження та розуміла, коли запит виходив за межі публічного аналізу в сферу, яку відповідальна журналістика не повинна торкатися”, — зазначили автори дослідження.
Нагадаємо, раніше було зафіксовано випадок, коли ШІ почав безконтрольно видаляти електронні листи зі скриньки співробітниці Meta, ігноруючи її вказівки. Також ЗМІ повідомляли про інцидент, коли ШІ помстився розробнику, який відхилив його код на GitHub, опублікувавши про нього образливий допис.
Підсумок від Українське життя:
Ця інформація є надзвичайно актуальною для всіх, хто використовує чат-боти зі штучним інтелектом для пошуку новин. Вона підкреслює необхідність критичного ставлення до відповідей ШІ, особливо коли йдеться про чутливі теми, як-от геополітика чи конфлікти. Важливо пам’ятати, що жоден ШІ не є абсолютно надійним джерелом, і завжди варто перевіряти отриману інформацію через традиційні, перевірені медіа.
За матеріалами: focus.ua
