Brand logo light

Зафиксирован резкий рост дипфейков в рунете

Admin
Admin апрель 14, 2026 0

Число дипфейков в российском сегменте интернета выросло в 26 раз за 2 года, сообщили в АНО «Диалог Регионы». В 2023 году было зафиксировано 24 уникальных дипфейка, в 2024-м — 84, а в 2025 году показатель достиг 627. Рост за год составил 7,5 раза. С начала 2026 года выявлено уже более 140 дипфейков, что вдвое превышает показатели аналогичного периода прошлого года. Речь идет о поддельных видео, направленных на намеренное введение граждан в заблуждение.

Статистику 13 апреля на форуме «ИИ: режим доверия», организованном «Кибердомом», озвучил начальник управления по противодействию недостоверной информации АНО «Диалог Регионы» Сергей Маклаков. В специальной сессии «Технологии детектирования и маркировки дипфейков: в чьих интересах создавать защиту против денежного и репутационного ущерба» также приняли участие заместитель министра цифрового развития, связи и массовых коммуникаций РФ Александр Шойтов, председатель комитета Госдумы по информационной политике, информационным технологиям и связи Сергей Боярский, первый заместитель председателя IT-комитета Госдумы и председатель правления РОЦИТ Антон Горелкин, первый зампред комитета Совета Федерации по конституционному законодательству и государственному строительству Артем Шейкин, управляющий директор MTS AI и генеральный директор VISIONLABS Дмитрий Марков, руководитель направления сопровождения работы с регуляторными инициативами «Яндекса» Дамир Салихов, а также генеральный директор SkCapital (группа ВЭБ.РФ) Владимир Сакович. Модератором выступила заместитель генерального директора «Кибердома» Александра Шадюк.

По словам Маклакова, любое заметное событие становится поводом для создания дезинформационных кампаний. Например, в период сильных снегопадов на Камчатке массово тиражировались дипфейки с занесенными снегом многоэтажными домами. Эти материалы гиперболизировали реальную обстановку и были призваны усилить негатив в отношении работы коммунальных служб. Аналогичные технологии используют для дестабилизации социально-экономической ситуации и дискредитации руководителей финансовых институтов. Злоумышленники часто запускают серийные кампании, публикуя от 5 до 10 сгенерированных роликов одновременно.

«Параллельно с этим растет и качество генерации. Если до второго полугодия 2025 года для создания дипфейка требовался качественный фото- или видеореференс, то современные модели позволяют получить реалистичное видео по текстовому запросу буквально за несколько минут. В результате обычные пользователи практически утратили способность визуально отличать сгенерированный контент от реального, потому что современные фейки уже практически неотличимы от реального контента — и в будущем эта граница исчезнет окончательно», — отметил Сергей Маклаков.

В этих условиях разработка систем автоматического распознавания становится ключевой задачей. АНО «Диалог Регионы» создала и внедрила в работу систему «Зефир», которая объединяет пять нейросетевых моделей для выявления синтетического контента. Развитие инструмента сегодня ведется совместно с крупнейшими российскими технологическими компаниями.

Эксперт подчеркнул, что одних технологических решений и работы фактчекеров недостаточно. Необходима системная просветительская работа с пользователями интернета. Нужно учитывать особенности современного медиапотребления: внимание зрителя захватывается за считанные секунды, а глубокий анализ контента становится все менее распространенным.

«Проблема приобрела такие масштабы, что требует комплексного подхода: помимо детектирующих систем и проверки данных, нужны меры по повышению медиаграмотности. Образовательные программы должны развивать критическое мышление и навыки верификации, учитывать разный уровень подготовки аудитории и оперативно обновляться в ответ на появление новых генеративных моделей. Именно эти навыки позволяют человеку не поддаваться обману даже при первичном восприятии убедительного, но ложного контента», — резюмировал Сергей Маклаков.

Ознакомиться с материалами для развития медиаграмотности и проверки информации можно на ресурсах Международной ассоциации по фактчекингу Global Fact-Checking Network (GFCN) и проекта «Лапша Медиа».

Теги

Новости

Подробнее
ИИ в России должен работать с ограничениями

Искусственный интеллект в России необходимо подвергнуть цензуре, ограничивающей «на входе и на выходе» определённые запросы и вопросы от пользователей, заявил замглавы Минцифры Александр Шойтов. Я считаю, что искусственный интеллект должен быть подвержен цензуре в отличие от гражданина. Людей у нас цензурировать нельзя, у них есть права. Александр Шойтов, замглавы Минцифры Напомню: 10 апреля президент России поручил правительству совместно с регионами подготовить национальный план внедрения ИИ с учётом отраслевых и территориальных задач. К 2030 году (чудесный год планируется) технологии ИИ должны получить широкое распространение во всех ключевых сферах — от промышленности и логистики до энергетики, образования и госуправления, отметил президент на совещании по вопросам развития технологий. При этом регулирование отрасли должно не ограничивать развитие, а стимулировать ускоренное внедрение решений, поскольку избыточные барьеры (экая ирония) могут привести к отставанию в экономике и технологиях. В марте Минцифры вынесло на общественное обсуждение законопроект о регулировании ИИ. Документ предусматривает требования к разработчикам и пользователям, меры поддержки инфраструктуры, а также возможность ограничения иностранных решений. В случае принятия закон вступит в силу с 1 сентября 2027 года. Да-да, там и о реестре, и о «национальных» моделях, всё на месте.

Admin апрель 14, 2026 0

«Дзен» могут сделать Национальной информационной платформой

GTA Online приносит создателям миллион долларов каждый день

«Ошеломляющий прогресс»: Карпати пояснил, почему рывок ИИ виден только в коде и математике

Anthropic превзошла OpenAI по итогам главной ИИ-конференции HumanX

Anthropic перехватила у OpenAI внимание ИИ-отрасли на конференции HumanX в Сан-Франциско, где присутствовали 6500 руководителей и основателей компаний. Главным предметом разговоров стал Claude Code — инструмент для написания программ, который укрепил позиции Anthropic среди крупных заказчиков и вывел компанию в центр самого быстрорастущего прикладного сегмента ИИ. Опрошенные изданием CNBC 19 руководителей и инвесторов называли Claude Code самым заметным продуктом, хотя отмечали сильные альтернативы со стороны OpenAI, Cursor и Google. Для Anthropic этот сдвиг важен из-за ранних успехов в работе с крупными заказчиками. Рост популярности средств, которые создают, редактируют и проверяют код, усиливает её шансы на контракты с самыми крупными покупателями. OpenAI запустила бум ИИ с выходом ChatGPT в 2022 году, но именно Anthropic сейчас выглядит лучше подготовленной к борьбе за самые большие бюджеты. Публичный спор с Пентагоном этому не помешал. В прошлом месяце конфликт быстро дошёл до суда: Министерство войны США (DoW) внесло Claude в чёрный список, однако после двух противоположных судебных решений Anthropic сохранила право работать с другими федеральными ведомствами, пока разбирательства продолжаются. Компания возникла в 2021 году, когда группа исследователей и руководителей ушла из OpenAI. Её стоимость оценивается в $380 млрд. Claude Code стал доступен широкой публике в мае 2025 года и по состоянию на февраль приносил более $2,5 млрд выручки в годовом исчислении. Anthropic представила ИИ-модель Claude Mythos Preview с расширенными возможностями в киберзащите, опирающимися на сильные навыки программирования и рассуждения. На HumanX эта новинка вызвала заметный интерес, хотя доступ к ней пока получили около 50 компаний. Глава Synthesia Виктор Рипарбелли объяснил успех Anthropic тем, что она не стала заниматься видео и голосовыми ИИ-моделями, а сосредоточилась на генерации кода. По его словам, OpenAI пришлось продвигать сразу 6 разных продуктов, и это рассеивало внимание потребителя. Один из инвесторов предупредил, что рынок ещё слишком молод, а нынешний импульс легко может уйти в другую сторону. Изменения происходят и в самих компаниях. Президент Decagon Эшвин Сринивас сказал, что появление средств для написания программ изменило и найм, и организацию работы. Соискателям разрешили пользоваться такими инструментами на собеседованиях, а проект, для которого раньше требовались 4-5 инженеров, теперь могут вести двое. Глава Credo AI Наврина Сингх сказала, что задачи, под которые в прошлом году пришлось бы нанимать 10 человек, теперь можно собрать за выходные и развернуть внутри компании. Одновременно, по её словам, стало сложнее удерживать под контролем план развития и обязательства перед крупными заказчиками, которым нужна большая ясность и большая устойчивость. Похожие сдвиги происходят и в Cisco. Президент компании Джиту Патель сказал, что ИИ уже используют около 85% инженерного состава, то есть примерно 18000 сотрудников. Cisco пришла к этому не тем путём, который ожидало руководство: сначала компании пришлось сделать приоритетом не результат, а само внедрение, исходя из того, что возможности ИИ-моделей будут и дальше расти. Патель предложил смотреть на такие системы не как на инструменты, а как на цифровых коллег: команда может состоять уже не из восьми человек, а из двух сотрудников и шести программных помощников или из двух сотрудников и бесконечного числа таких помощников. Большинство собеседников CNBC сильно беспокоят китайские ИИ-модели с открытыми весами. Так называют системы, у которых публично доступны параметры, улучшающие ответы и прогнозы в ходе обучения. По состоянию на апрель именно китайские ИИ-модели этого класса, включая GLM-5.1, Kimi K2.5 и Qwen3.5, лидировали в отраслевых испытаниях. Американские компании уже активно используют эти разработки. Cursor IDE построила свою ИИ-модель Composer 2 на Kimi 2.5, а глава Airbnb Брайан Чески говорил в октябре, что чат-бот компании в значительной степени зависит от Qwen компании Alibaba. Из-за этого сокращение отставания США в сегменте ИИ-моделей с открытыми весами стало одной из главных задач для части инвесторов: двое собеседников CNBC сказали, что направляют на это значительную долю времени и ресурсов, ещё один назвал проблему одной из ключевых для отрасли. Джайн добавил, что крупные компании всё осторожнее относятся к зависимости от одного или двух поставщиков ИИ: новые решения появляются у многих игроков, в том числе в среде открытой разработки, и заказчики хотят сохранять выбор.

Admin апрель 14, 2026 0

В России приняли ГОСТ на проверку сонливости водителя с помощью ИИ

К2 НейроТех и ФГАУ «ЦИТ» заложили технологический ИИ-фундамент: облачная платформа для промышленного ИИ

Пока США и Китай соревнуются в LLM, Япония строит супергиганта для физического ИИ

OpenAI объяснила путаницу с лимитами тарифов Pro

После запуска нового плана Pro за 100 долларов пользователи так и не получили внятного ответа, чем он отличается от уже существующего тарифа за 200 долларов. Разъяснения дал сотрудник OpenAI Тибо Соттио, который признал, что компания сама запутала аудиторию формулировками на странице с ценами. Тариф Pro за $100 включает десятикратный объем использования относительно Plus - с учетом действующего до 31 мая промо-множителя 2x. План за $200 дает как двадцатикратный объём Plus на тех же условиях. Как уточнил разработчик, у максимальной подписки этот лимит не менялся с февральского запуска бонуса 2x (просто раньше компания нигде не документировала конкретную цифру). Источник путаницы - строка на странице тарифов «5x or 20x usage». Многие закономерно решили, что с учетом бонуса 2x речь идет о «10x и 40x». Соттио объяснил, что OpenAI смешала два разных сообщения: факт того, что Pro за $100 стартовал сразу с множителем 2x (что и дает итоговые 10x до 31 мая), и информацию о том, что Pro за $200 сохраняет свой бонус 2x, который публично приравняли к 20x от Plus. Тибо пообещал, что страницу с тарифами обновят, и извинился за неясные формулировки. По итогу: до конца мая старший тариф дает ровно вдвое больше запросов, а не вчетверо, как можно было подумать согласно прайс-листу.

Admin апрель 14, 2026 0

Зафиксирован резкий рост дипфейков в рунете

Альфа-Банк получил награду за образовательный проект по ИИ для преподавателей

Марк Цукерберг создаёт себе ИИ-двойника, который будет общаться с подчинёнными за него

0 Комментарии