Один из основателей OpenAI и бывший директор по ИИ в Tesla Андрей Карпати опубликовал в X развернутый тред о "растущем разрыве" в восприятии возможностей ИИ. По его мнению, даже среди тех, кто платит $200 в месяц за топовые модели, мало кто понимает, насколько "пиковыми" стали улучшения — прогресс сконцентрировался в программировании, математике и ресерче, а типовые задачи вроде поиска, письма и советов почти не сдвинулись с места.
Карпати выделил две группы, которые, по его словам, "говорят мимо друг друга". Первая — люди, составившие мнение об ИИ по бесплатному ChatGPT годичной давности. Именно они смеются над вирусными роликами, где Advanced Voice Mode от OpenAI не может решить элементарный вопрос — например, ехать на машине или идти до автомойки, которая в 50 метрах от твоего дома. По мнению Карпати, эти устаревшие и отчасти "осиротевшие" модели не отражают того, на что способны современные агентные системы.
Вторая группа — профессионалы, которые используют Codex от OpenAI и Claude Code в программировании, математике и исследованиях. Именно они, как пишет Карпати, сильнее всего подвержены "AI-психозу": когда такой модели дают доступ к терминалу, она за час связно переструктурирует целую кодовую базу или находит и эксплуатирует уязвимости в компьютерных системах — задачи, на которые у человека ушли бы дни и недели.
Разрыв Карпати объясняет двумя техническими и экономическими причинами. Во-первых, программирование и математика идеально подходят для обучения с подкреплением (RL) на верифицируемых наградах: юнит-тест либо пройден, либо нет — в отличие от текстов, качество которых алгоритмически не измеришь. Во-вторых, именно эти задачи приносят основные деньги в b2b-сегменте, поэтому крупнейшая часть команд в AI-лабораториях сфокусирована на их улучшении.
Итог Карпати формулирует так: голосовой режим ChatGPT действительно будет тупить в мемных роликах — и ровно в то же время топовый Codex будет час напролет перестраивать чужой проект. Обе картинки верны одновременно, просто они про разные модели и разные задачи.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
Россиянам предложили полететь в космос
Meta* переманила трех топ-менеджеров Stargate — а дата-центр в Великобритании поставлен на паузу
Как художественные фото помогают продвигать бизнес
В Москве работают почти 300 кружков по астрономии: что в них открывают школьники
«Роскосмос» передал «Яндексу» фотоархивы для обучения ИИ-моделей Alice AI
Искусственный интеллект в России необходимо подвергнуть цензуре, ограничивающей «на входе и на выходе» определённые запросы и вопросы от пользователей, заявил замглавы Минцифры Александр Шойтов. Я считаю, что искусственный интеллект должен быть подвержен цензуре в отличие от гражданина. Людей у нас цензурировать нельзя, у них есть права. Александр Шойтов, замглавы Минцифры Напомню: 10 апреля президент России поручил правительству совместно с регионами подготовить национальный план внедрения ИИ с учётом отраслевых и территориальных задач. К 2030 году (чудесный год планируется) технологии ИИ должны получить широкое распространение во всех ключевых сферах — от промышленности и логистики до энергетики, образования и госуправления, отметил президент на совещании по вопросам развития технологий. При этом регулирование отрасли должно не ограничивать развитие, а стимулировать ускоренное внедрение решений, поскольку избыточные барьеры (экая ирония) могут привести к отставанию в экономике и технологиях. В марте Минцифры вынесло на общественное обсуждение законопроект о регулировании ИИ. Документ предусматривает требования к разработчикам и пользователям, меры поддержки инфраструктуры, а также возможность ограничения иностранных решений. В случае принятия закон вступит в силу с 1 сентября 2027 года. Да-да, там и о реестре, и о «национальных» моделях, всё на месте.
Anthropic перехватила у OpenAI внимание ИИ-отрасли на конференции HumanX в Сан-Франциско, где присутствовали 6500 руководителей и основателей компаний. Главным предметом разговоров стал Claude Code — инструмент для написания программ, который укрепил позиции Anthropic среди крупных заказчиков и вывел компанию в центр самого быстрорастущего прикладного сегмента ИИ. Опрошенные изданием CNBC 19 руководителей и инвесторов называли Claude Code самым заметным продуктом, хотя отмечали сильные альтернативы со стороны OpenAI, Cursor и Google. Для Anthropic этот сдвиг важен из-за ранних успехов в работе с крупными заказчиками. Рост популярности средств, которые создают, редактируют и проверяют код, усиливает её шансы на контракты с самыми крупными покупателями. OpenAI запустила бум ИИ с выходом ChatGPT в 2022 году, но именно Anthropic сейчас выглядит лучше подготовленной к борьбе за самые большие бюджеты. Публичный спор с Пентагоном этому не помешал. В прошлом месяце конфликт быстро дошёл до суда: Министерство войны США (DoW) внесло Claude в чёрный список, однако после двух противоположных судебных решений Anthropic сохранила право работать с другими федеральными ведомствами, пока разбирательства продолжаются. Компания возникла в 2021 году, когда группа исследователей и руководителей ушла из OpenAI. Её стоимость оценивается в $380 млрд. Claude Code стал доступен широкой публике в мае 2025 года и по состоянию на февраль приносил более $2,5 млрд выручки в годовом исчислении. Anthropic представила ИИ-модель Claude Mythos Preview с расширенными возможностями в киберзащите, опирающимися на сильные навыки программирования и рассуждения. На HumanX эта новинка вызвала заметный интерес, хотя доступ к ней пока получили около 50 компаний. Глава Synthesia Виктор Рипарбелли объяснил успех Anthropic тем, что она не стала заниматься видео и голосовыми ИИ-моделями, а сосредоточилась на генерации кода. По его словам, OpenAI пришлось продвигать сразу 6 разных продуктов, и это рассеивало внимание потребителя. Один из инвесторов предупредил, что рынок ещё слишком молод, а нынешний импульс легко может уйти в другую сторону. Изменения происходят и в самих компаниях. Президент Decagon Эшвин Сринивас сказал, что появление средств для написания программ изменило и найм, и организацию работы. Соискателям разрешили пользоваться такими инструментами на собеседованиях, а проект, для которого раньше требовались 4-5 инженеров, теперь могут вести двое. Глава Credo AI Наврина Сингх сказала, что задачи, под которые в прошлом году пришлось бы нанимать 10 человек, теперь можно собрать за выходные и развернуть внутри компании. Одновременно, по её словам, стало сложнее удерживать под контролем план развития и обязательства перед крупными заказчиками, которым нужна большая ясность и большая устойчивость. Похожие сдвиги происходят и в Cisco. Президент компании Джиту Патель сказал, что ИИ уже используют около 85% инженерного состава, то есть примерно 18000 сотрудников. Cisco пришла к этому не тем путём, который ожидало руководство: сначала компании пришлось сделать приоритетом не результат, а само внедрение, исходя из того, что возможности ИИ-моделей будут и дальше расти. Патель предложил смотреть на такие системы не как на инструменты, а как на цифровых коллег: команда может состоять уже не из восьми человек, а из двух сотрудников и шести программных помощников или из двух сотрудников и бесконечного числа таких помощников. Большинство собеседников CNBC сильно беспокоят китайские ИИ-модели с открытыми весами. Так называют системы, у которых публично доступны параметры, улучшающие ответы и прогнозы в ходе обучения. По состоянию на апрель именно китайские ИИ-модели этого класса, включая GLM-5.1, Kimi K2.5 и Qwen3.5, лидировали в отраслевых испытаниях. Американские компании уже активно используют эти разработки. Cursor IDE построила свою ИИ-модель Composer 2 на Kimi 2.5, а глава Airbnb Брайан Чески говорил в октябре, что чат-бот компании в значительной степени зависит от Qwen компании Alibaba. Из-за этого сокращение отставания США в сегменте ИИ-моделей с открытыми весами стало одной из главных задач для части инвесторов: двое собеседников CNBC сказали, что направляют на это значительную долю времени и ресурсов, ещё один назвал проблему одной из ключевых для отрасли. Джайн добавил, что крупные компании всё осторожнее относятся к зависимости от одного или двух поставщиков ИИ: новые решения появляются у многих игроков, в том числе в среде открытой разработки, и заказчики хотят сохранять выбор.
После запуска нового плана Pro за 100 долларов пользователи так и не получили внятного ответа, чем он отличается от уже существующего тарифа за 200 долларов. Разъяснения дал сотрудник OpenAI Тибо Соттио, который признал, что компания сама запутала аудиторию формулировками на странице с ценами. Тариф Pro за $100 включает десятикратный объем использования относительно Plus - с учетом действующего до 31 мая промо-множителя 2x. План за $200 дает как двадцатикратный объём Plus на тех же условиях. Как уточнил разработчик, у максимальной подписки этот лимит не менялся с февральского запуска бонуса 2x (просто раньше компания нигде не документировала конкретную цифру). Источник путаницы - строка на странице тарифов «5x or 20x usage». Многие закономерно решили, что с учетом бонуса 2x речь идет о «10x и 40x». Соттио объяснил, что OpenAI смешала два разных сообщения: факт того, что Pro за $100 стартовал сразу с множителем 2x (что и дает итоговые 10x до 31 мая), и информацию о том, что Pro за $200 сохраняет свой бонус 2x, который публично приравняли к 20x от Plus. Тибо пообещал, что страницу с тарифами обновят, и извинился за неясные формулировки. По итогу: до конца мая старший тариф дает ровно вдвое больше запросов, а не вчетверо, как можно было подумать согласно прайс-листу.