OpenAI, разработчик чат-бота ChatGPT, сократила сроки тестирования безопасности собственных моделей искусственного интеллекта, а также объемы ресурсов, выделяемых на эти цели. Об этом пишет Financial Times со ссылкой на информированные источники.
Скорее всего компания спешит выпускать новые технологии, чтобы сохранить конкурентное преимущество, без достаточной проверки их безопасности, отмечает газета.
По данным источников FT, сотрудникам и сторонним группам было выделено лишь несколько дней для проведения оценок последних LLM-моделей OpenAI на предмет рисков и производительности, тогда как ранее на это тратились месяцы.
Тестирование стало менее тщательным, а выделяемые на него время и ресурсы недостаточны для выявления и минимизации рисков, отмечают источники.
"Мы проводили более тщательное тестирование безопасности, когда технология была менее важной", - говорит один из источников, задействованный в тестировании ИИ-модели o3 OpenAI.
Дефицит времени на тестирование обусловлен "конкурентным давлением", учитывая, что OpenAI соревнуется с такими компаниями, как Meta Platforms Inc., Google, а также стартапами, включая xAI Илона Маска, отмечают другие источники.
OpenAI стремится выпустить свою новую ИИ-модель o3 на следующей неделе, причем некоторым тестировщикам было дано менее недели на проверку ее безопасности, говорят источники. По их словам, дата выпуска модели может измениться.
В прошлом компания выделяла по несколько месяцев на эти цели. Так, до запуска модели GPT-4 в 2023 году она тестировалась в течение шести месяцев на предмет безопасности.