Последнее обновление: 11.04.2025 16:50

OpenAI сокращает сроки тестирования безопасности ИИ-моделей

OpenAI, разработчик чат-бота ChatGPT, сократила сроки тестирования безопасности собственных моделей искусственного интеллекта, а также объемы ресурсов, выделяемых на эти цели. Об этом пишет Financial Times со ссылкой на информированные источники.

Скорее всего компания спешит выпускать новые технологии, чтобы сохранить конкурентное преимущество, без достаточной проверки их безопасности, отмечает газета.

По данным источников FT, сотрудникам и сторонним группам было выделено лишь несколько дней для проведения оценок последних LLM-моделей OpenAI на предмет рисков и производительности, тогда как ранее на это тратились месяцы.

Тестирование стало менее тщательным, а выделяемые на него время и ресурсы недостаточны для выявления и минимизации рисков, отмечают источники.

"Мы проводили более тщательное тестирование безопасности, когда технология была менее важной", - говорит один из источников, задействованный в тестировании ИИ-модели o3 OpenAI.

Дефицит времени на тестирование обусловлен "конкурентным давлением", учитывая, что OpenAI соревнуется с такими компаниями, как Meta Platforms Inc., Google, а также стартапами, включая xAI Илона Маска, отмечают другие источники.

OpenAI стремится выпустить свою новую ИИ-модель o3 на следующей неделе, причем некоторым тестировщикам было дано менее недели на проверку ее безопасности, говорят источники. По их словам, дата выпуска модели может измениться.

В прошлом компания выделяла по несколько месяцев на эти цели. Так, до запуска модели GPT-4 в 2023 году она тестировалась в течение шести месяцев на предмет безопасности.



<Март 2025
ПнВтСрЧтПтСбВс
242526272812
3456789
10111213141516
17181920212223
24252627282930
31123456
Апрель 2025
ПнВтСрЧтПтСбВс
31123456
78910111213
14151617181920
21222324252627
2829301234
567891011
Общество