OpenAI шукає нового керівника, відповідального за вивчення нових ризиків, пов’язаних з штучним інтелектом, у таких сферах, як комп’ютерна безпека та психічне здоров’я.
У дописі на X генеральний директор компанії Сем Альтман визнав, що моделі штучного інтелекту “починають ставити справжні виклики”, зокрема “потенційний вплив моделей на психічне здоров’я”, а також моделі, які “настільки хороші в комп’ютерній безпеці, що вони починають знаходити критичні вразливості”.
“Якщо ви хочете допомогти світу знайти способи, як надати захисникам кібербезпеки передові можливості, одночасно гарантуючи, що зловмисники не зможуть їх використовувати для шкоди, і зробити всі системи більш безпечними, а також як ми звільняємо біологічні можливості та здобуваємо впевненість у безпеці систем, які можуть самостійно покращуватися, будь ласка, розгляньте можливість подати заявку”, — написав Альтман.
Оголошення OpenAI про вакансію на посаду керівника з підготовки описує роботу як таку, що відповідає за виконання компанійної програми підготовки, “нашої стратегії, яка пояснює підхід OpenAI до відстеження та підготовки до нових можливостей, що створюють нові ризики серйозної шкоди”.
Компенсація для цієї посади становить 555 000 доларів США плюс акції компанії.
Компанія вперше оголосила про створення команди підготовки у 2023 році, зазначивши, що вона буде відповідати за вивчення потенційних “катастрофічних ризиків”, чи то термінових, як фішингові атаки, чи більш спекулятивних, як ядерні загрози.
Менше ніж за рік OpenAI перепризначила керівника з підготовки Александера Мадрі на посаду, пов’язану з дослідженням штучного інтелекту. Інші керівники з безпеки також залишили компанію або перейшли на нові ролі поза сферою підготовки та безпеки.
Компанія також нещодавно оновила свою стратегію підготовки, зазначивши, що може “коригувати” свої вимоги до безпеки, якщо конкуренти в області штучного інтелекту випустять “високий ризик” модель без подібних захистів.
Як згадано в дописі Альтмана, генеративні чат-боти штучного інтелекту викликають все більшу увагу через їхній вплив на психічне здоров’я. Недавні позови стверджують, що ChatGPT від OpenAI посилив маячню користувачів, збільшив їх соціальну ізоляцію та навіть призвів до суїциду. (Компанія заявила, що продовжує працювати над покращенням здатності ChatGPT розпізнавати ознаки емоційного стресу та зв’язувати користувачів з реальними службами підтримки.)
Гадаємо, вас також зацікавить матеріал про те, що Google дозволить змінювати адреси в Gmail: як це працюватиме і коли буде доступно в Україні.

