Керівництво OpenAI попереджає, що наступні покоління моделей штучного інтелекту, таких як ChatGPT, можуть нести нові ризики, включно з можливістю створення біологічної зброї. Це може дозволити навіть людям без спеціалізованої наукової підготовки виготовляти потенційно небезпечні речовини.
Хоча конкретних дат появи таких високоризикових ШІ не озвучують, голова відділу безпеки OpenAI Йоханнес Гайдеке зазначив, що деякі з майбутніх версій моделей (зокрема наступники o3) досягнуть цього рівня потенціалу.
«Ми ще не дійшли до моменту, коли ШІ створює абсолютно нові біологічні загрози, раніше невідомі науці. Наша головна турбота — це відтворення вже відомих експертам небезпечних речовин», — пояснив він.
Основна складність контролю ШІ полягає у тому, що ті самі функції, які можуть допомагати робити прориви у медицині, можуть також бути використані з шкідливою метою.
Гайдеке підкреслив, що OpenAI та інші компанії повинні розробити системи виявлення з точністю понад 99%, а ідеально — з ймовірністю помилки не більше одного випадку на сто тисяч, щоб ефективно блокувати небезпечне використання. Водночас важливо, щоб за цим процесом стояв людський контроль: моніторингові команди повинні швидко реагувати на інциденти, що можуть обходити автоматичні фільтри, і негайно усувати потенційні загрози.
Ще у 2024 році OpenAI оголосила про створення системи раннього попередження, яка зупинятиме спроби використання ChatGPT для отримання інформації, що може допомогти у виробництві біологічної зброї. У квітні цього року була впроваджена система моніторингу моделей o3 і o4-mini, яка відстежує запити, пов’язані з хімічними та біологічними загрозами. Ці заходи мають на меті запобігти передачі інструкцій, що можуть призвести до створення справжньої зброї.

.jpg)
.jpg)
6666666(1).jpg)
.jpg)

.jpg)
