OpenAI усилит меры по защите детей

Компания OpenAI представила план, направленный укрепление системы безопасности детей во времена повсеместного распространения искусственного интеллекта и злоупотребления технологией.
Инициатива сосредоточена на трех ключевых приоритетах:
- модернизация законодательства для решения проблемы эксплуатации и насилия над детьми, создаваемого и изменяемого с помощью ИИ;
- улучшение отчетности и координации действий поставщиков услуг для поддержки более эффективных расследований;
- внедрение мер безопасности напрямую в ИИ-системы на этапе проектирования для предотвращения и выявления злоупотреблений.
«Не получится решить проблему с помощью точечных вмешательств. Данная концепция объединяет правовые, оперативные и технические подходы для более эффективного выявления рисков, ускорения реагирования и обеспечения подотчетности, одновременно гарантируя возможности для правоохранительных органов», — отметили в OpenAI.
По мнению представителей компании, эти шаги позволят отрасли решать проблемы безопасности на более ранних этапах.
План учитывает отзывы ряда ведущих американских организаций и экспертов в области защиты несовершеннолетних, включая NCMEC и прокуратуры различных юрисдикций.
«Сексуальная эксплуатация детей — одна из самых актуальных проблем цифровой эпохи. Искусственный интеллект быстро меняет как способы возникновения подобных преступлений в отрасли, так и методы борьбы с ними в масштабах всей страны», — подчеркнули в компании.
С середины 2025 года OpenAI делает шаги в этом направлении. Стартап уже внедрил меры родительского контроля, которые отслеживают и оповещают об опасных сигналах в поведении ребенка.
Компания также ввела новые правила использования сервисов, которые запрещают эксплуатацию детских образов.
Напомним, в сентябре FTC начала расследования в отношении семи технологических фирм, выпускающих чат-боты для несовершеннолетних. В их числе Alphabet, Character.AI, Instagram, Meta, OpenAI, Snap и xAI.