Crypto news

11.08.2025
12:20

Виталик Бутерин высказался против чрезмерной автономности ИИ 

Vitalik_Buterin Виталик Бутерин

Соучредитель Ethereum Виталик Бутерин раскритиковал тренд на создание «чрезмерно агентных» ИИ-моделей. Он призвал усиливать человеческий контроль для повышения качества и безопасности.

«Меня раздражает, что многие разработчики ИИ стремятся к максимальной автономности систем, хотя на самом деле больше возможностей для человеческого контроля не только улучшает результаты (как сейчас, так и в перспективе), но и повышает безопасность», — написал он. 

Бутерин отреагировал на пост экс-директора по ИИ в Tesla Андрея Карпатого, который отметил, что большие языковые модели становятся слишком самостоятельными из-за оптимизации под длительные задачи. Например, в программировании они долго анализируют даже самые простые запросы.

«Хотя это оправдано для продолжительных задач, такой подход менее применим к активной итеративной разработке или быстрым проверкам перед исполнением скрипта. Я регулярно прерываю ИИ командами: „Прекрати анализ. Ограничься этим файлом. Без дополнительных инструментов. Без избыточных решений“», — подчеркнул он. 

Бутерин поддержал его позицию, заявив, что чрезмерная автономность ИИ снижает эффективность. По его мнению, открытые модели с функциями редактирования намного лучше, чем создающие контент с нуля. 

Соучредитель Ethereum видит перспективы в интерфейсе мозг — компьютер, который в реальном времени отслеживает реакцию пользователя на генерируемый контент и адаптируется к ней. Это позволило бы ИИ учитывать намерения и ожидания. Текущие модели, по его словам, часто игнорируют такие нюансы, что снижает их полезность.

Реакция сообщества 

Помимо Бутерина, позицию Карпатого поддержали многие пользователи. 

«Вчера я отказался от Cursor именно по этой причине — он постоянно забегает на пять шагов вперед в неправильном направлении. Пока вернулся к ручному копированию ответов из ChatGPT/Claude/Gemini», — отметил ИИ-энтузиаст под ником barry farkus. 

Инженер-программист Кан Каракас добавил, что существующие модели на базе искусственного интеллекта склонны переусложнять. По его словам, «это хорошо для глубокого анализа, но замедляет простые проверки». 

Однако не все оказались согласны с точкой зрения ИИ-эксперта. Так, пользователь под ником Conor заявил, что Карпатый говорит о поведении по умолчанию, которое можно изменить. 

«Можно четко указать модели в промпте, чего вы хотите (например, буквально вставить этот твит в системные инструкции и написать что-то вроде: „обрати внимание на это при выполнении запроса“). Я не против, чтобы поведение по умолчанию было более автономным, но да — если ваши задачи выходят за эти рамки, придётся давать четкие инструкции», — прокомментировал он. 

Напомним, 8 августа OpenAI выпустила флагманскую ИИ-модель GPT-5.