Теперь сервис работает с полноценным ИИ-агентом, который:
● Вносит правки по промпту
● Сам ищет инфу в интернете
● Работает с референсами и конспектами
● Поддерживает русский язык
Попробовать можно бесплатно тут — Gamma
Теперь сервис работает с полноценным ИИ-агентом, который:
● Вносит правки по промпту
● Сам ищет инфу в интернете
● Работает с референсами и конспектами
● Поддерживает русский язык
Попробовать можно бесплатно тут — Gamma
Start the conversation!
Всем привет! Команда Microsoft Research выложила в открытый доступ VibeVoice-ASR — нейросетевую модель для распознавания речи с диаризацией (разделением) спикеров. Сегодня хочу рассказать об этой технологии подробнее и поделиться портативной версией.
Меня зовут Илья, я основатель сервиса для генерации изображений ArtGeneration.me, блогер и просто фанат нейросетей. А ещё я собрал портативную версию VibeVoice ASR под Windows и успел её как следует протестировать.
Whisper которому уже года три
Я сам пользуюсь Whisper уже много лет — делаю транскрипции своих видео, чтобы потом собрать оглавление для YouTube и использовать материал в текстовых статьях. И скажу честно — никогда не был полностью доволен результатом. Да, Whisper быстрый. Но на этом его достоинства для меня заканчивались.
Поэтому к изучению VibeVoice ASR я подошёл со всей ответственностью — протестировал на разных записях, сравнил качество, покрутил настройки.
Главная особенность системы в том, что она обрабатывает до 60 минут аудио за один проход без нарезки на чанки. На выходе — структурированная транскрипция с указанием кто говорит, когда и что именно сказал. И всё это работает локально на вашем компьютере.
В основе VibeVoice-ASR лежит архитектура на базе Qwen 2.5 (~9 млрд параметров). Ключевая инновация — двойная система токенизации с ультранизким frame rate 7.5 Hz: акустический и семантический токенизаторы.
Такой подход позволяет модели работать с контекстным окном в 64K токенов — это и даёт возможность обрабатывать целый час аудио без потери контекста. Для сравнения: Whisper режет аудио на 30-секундные кусочки и теряет связность на границах сегментов.
На выходе модель генерирует Rich Transcription — структурированный поток с тремя компонентами:
[{"Start":0,"End":1.51,"Content":"[Environmental Sounds]"},
{"Start":1.51,"End":7.49,"Speaker":0,"Content":"У неё преждевременное сохранять невозможно, родила, начала сразу родильная деятельность."},
{"Start":7.51,"End":9.41,"Speaker":1,"Content":"Марина, что с ней?"},
{"Start":10.28,"End":16.22,"Speaker":0,"Content":"У неё преждевременное сохранять невозможно, отошли годы, начала, начала сразу родовая деятельность."},
{"Start":16.22,"End":18.02,"Speaker":1,"Content":"Марина, что с ней?"},
{"Start":18.13,"End":27.94,"Speaker":0,"Content":"Она рожает, привезли в ближайшую больницу родовую. В каком состоянии ребёнок ещё хуже, срок маленький."},
Помимо спикеров, модель размечает неречевые события: [Music], [Silence], [Noise], [Human Sounds] (смех, кашель), [Environmental Sounds], [Unintelligible Speech]. Это сделано чтобы модель не галлюцинировала текст во время пауз или фоновой музыки.
Меньше значит лучше
Набор языков отличный
Помимо оригинальной модели от Microsoft, сообщество уже сделало квантованные версии для видеокарт с меньшим объёмом памяти.
Полная модель — microsoft/VibeVoice-ASR Размер 17.3 GB, требует ~8 ГБ VRAM. Лучшее качество распознавания.
4-bit квантизация — scerz/VibeVoice-ASR-4bit Требует ~4 ГБ VRAM, немного медленнее. Подходит для видеокарт с меньшим объёмом памяти.
В моей портативке доступны обе версии — можно выбрать прямо в интерфейсе. Также есть эмуляция 4-bit квантизации для полной модели, если хотите попробовать оригинал, но памяти впритык.
К сожалению, не все задачи система решает одинаково хорошо:
Подкастерам и интервьюерам: автоматические субтитры с разделением спикеров. Загрузили часовой выпуск — получили готовую разметку.
Создателям контента: генерация SRT-субтитров для YouTube без ручного тайм-кодирования.
Бизнес-аналитикам: транскрипция часовых созвонов и совещаний с сохранением контекста и указанием кто что говорил.
Разработчикам: base model для файнтюнинга под специфичные домены — медицина, юриспруденция, техподдержка.
Почему-то не додумались сделать парсер json текста
Онлайн-демо: https://4e47b675ea4015a607.gradio.live/
Официальное демо от Microsoft — можно потестить прямо сейчас без установки.
Как-то сложно
Официальный GitHub: https://github.com/microsoft/VibeVoice
HuggingFace модель: https://huggingface.co/microsoft/VibeVoice-ASR
Я с каналом Нейро-Софт подготовил портативную сборку VibeVoice ASR Portable RU. В ней:
Всё необходимое уже включено в дистрибутив, просто распакуйте и запускайте, есть версия с готовым окружением под win 11 и RTX4090. Забирайте архив тут.
Или установите с GitHub: https://github.com/timoncool/VibeVoice_ASR_portable_ru
Распакуйте в любую папку (путь без кириллицы), запустите install.bat, выберите видеокарту из списка. Модели скачаются при первом запуске.
Делитесь в комментариях как вы могли бы использовать такой инструмент и чего не хватает.
А я рассказываю больше о нейросетях у себя на YouTube, в Телеграм и на Бусти. Буду рад вашей подписке и поддержке. Ну и на канал Нейро-Софт тоже подпишитесь, чтобы не пропустить полезные репаки. Всех обнял и удачных транскрипций!
Всем привет! Команда Qwen от Alibaba выложила в открытый доступ Qwen3-TTS — нейросетевую модель для синтеза речи с клонированием голоса. Сегодня хочу рассказать об этой технологии подробнее и поделиться портативной версией.
Меня зовут Илья, я основатель сервиса для генерации изображений ArtGeneration.me, блогер и просто фанат нейросетей. А еще я сам собрал портативную версию Qwen3-TTS под win11 и успел её как следует протестировать.
Главная особенность системы в том, что она умеет не только озвучивать текст готовыми голосами, но и клонировать любой голос по короткому образцу, а ещё создавать новые голоса по текстовому описанию.
И всё это с нативной поддержкой русского языка.
В основе Qwen3-TTS лежит End-to-End архитектура с дискретным многоканальным токенизатором речи (12.5 Гц, 16 слоёв). В отличие от традиционных систем, которые работают по цепочке "текст → фонемы → звук" и теряют информацию на каждом этапе, здесь всё обрабатывается одним махом.
Такой подход полностью исключает эффект "роботизированности" и каскадные ошибки генерации. Модель сохраняет интонации, эмоции и особенности тембра.
Работает очень быстро даже на старшей модели 1.7B.
Qwen3-TTS работает с 10 языками:
Синтез с готовыми голосами (CustomVoice)
9 встроенных голосов разных типов — молодые и зрелые, мужские и женские. Можно управлять эмоциями и стилем речи через текстовые инструкции.
Создание голоса по описанию (VoiceDesign)
Описываете словами, какой голос нужен — модель его генерирует. Например: "молодой женский голос, игривый, с высоким тоном". Лучше работает если писать промпты на голос на английском.
Клонирование голоса (Voice Clone)
Загружаете аудио от 3 секунд — получаете синтез этим голосом. По бенчмаркам качество клонирования превосходит ElevenLabs и MiniMax по показателям сходства спикеров. Оно и правда веского качества, уровень VibeVoice, но гораздо легче по ресурсам.
Multi-Speaker режим
Создание диалогов и подкастов с несколькими спикерами одновременно (до 4 голосов).
Можно эмулировать разговор между друзьями, актерами, персонажами из игры, все теперь ограничивается только вашей фантазией.
Создателям контента — озвучка роликов, подкастов, стримов.
Разработчикам игр — озвучка персонажей без найма актёров, особенно актуально для инди.
Аудиокнигам — разные голоса для персонажей.
Автоматизации — голосовые уведомления, IVR-системы, ассистенты.
Онлайн-демо
Тут в демо меньше возможностей и нет локализации, но тоже отлично работает.
Hugging Face Demo — https://huggingface.co/spaces/Qwen/Qwen3-TTS
Официальный GitHub
Можно попробовать установить самостоятельность с гитхаб, но это потребует опыта и навыков.
GitHub: https://github.com/QwenLM/Qwen3-TTS
API
Официальное API от Alibaba для production-интеграции.
Ссылка: https://www.alibabacloud.com/help/en/model-studio/qwen-tts-realtime
Я с каналом Нейро-Софт подготовил улучшенную портативную сборку Qwen3-TTS Portable PRO, видео выше как раз из неё и записаны. А еще там:
Скачать: https://github.com/timoncool/Qwen3-TTS_portable_rus
Распакуйте в корень диска (путь без кириллицы), запустите install.bat. Модели скачаются при первом запуске. А если будут сложности в установкой в посте в канале найдете версию с уже установленным env (окружением).
Я рассказываю больше о нейросетях у себя на YouTube, в Телеграм и на Бусти. Буду рад вашей подписке и поддержке. Ну и на канал Нейро-Софт тоже подпишитесь, чтобы не пропустить полезные репаки. Всех обнял и удачных генераций.
Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.
Я Вандер, и каждую неделю я обозреваю новости о нейросетях и ИИ.
Неделя вышла насыщенной: OpenAI закрывает Sora, Сбер открывает свою MoE-модель, новые Suno v5.5 и Lyria 3 Pro. Исследование от Anthropic, обновления Claude и взлом корпоративной сети ИИ-агентами.
Всё самое важное — в одном месте. Поехали!
*� Модели и LLM
*� AI-инструменты и платформы
*� Генеративные нейросети
*� AI в обществе и исследованиях
Сбер выложил в открытый доступ две новые модели — GigaChat-3.1-Ultra и GigaChat-3.1-Lightning. Обе на архитектуре MoE. и под лицензией MIT.
По внутренним тестам, Ultra обходит DeepSeek-V3-0324 и Qwen3-235B в математике и ризонинге. Lightning-версия на уровне GPT-4o.
Команда написала подробную статью на Хабре про переезд на MoE, зацикливания, FP8-обучение и баг в SGLang, который портил бенчмарки.
🔗 Инженерный разбор на Хабре 🔗 HuggingFace
Вышел ARC-AGI-3. Это новая версия бенчмарка от Франсуа Шолле, и на этот раз это интерактивные мини-игры: агент видит поле, может нажимать кнопки — и всё. Правила, цели и механики неизвестны заранее. Нужно самому разобраться, понять задачу и решить её.
Люди справляются с результатом почти 100%. Лучшая из нейронок пока Gemini 3.1 Pro, она набирает 0,37%. У остальных результат ниже.
Правда, эта цифра — метрика эффективности относительно человека. Формула квадратичная: если человек решил за 10 действий, а модель за 100 — результат не 10%, а 1%. Так что в реальности картина лучше, чем выглядит.
В отличие от Claude Code или Codex, здесь агенту нельзя сохранять знания между играми. Каждый раунд нужно проходить с нуля. Шолле говорит, что меряет «сырой интеллект», как у человека перед незнакомой игрой. Но люди всё равно переносят опыт между уровнями.
Параллельно стартовало Kaggle-соревнование на $2 млн. Победит тот, кто напишет агента, который лучше всех пройдёт бенчмарк. Решения должны быть в открытом доступе.
🔗 ARC-AGI-3 🔗 Соревнование 2026
OpenAI объявила, что закрывает приложение Sora — отдельный TikTok-подобный сервис с ИИ-видео. За полгода существования оно побывало на вершине App Store, набрало 12 млн загрузок — и закрылось.
Закрывается именно приложение. Исследовательская команда продолжит работу над видео, world simulation и робототехникой.
В компании прямо не сказали причину, но в целом контекст понятный. Sora обходилась OpenAI примерно в $15 млн в день на вычисления. Глава направления ещё в прошлом году называл экономику «полностью неустойчивой». При этом удержание пользователей не дотягивало и до 8% на 30-й день — при норме выше 30% для сильных потребительских приложений.
Дорого, плохо удерживает, непонятно как монетизировать. На фоне дефицита GPU это очевидный кандидат на закрытие.
🔗 CNN 🔗 TechCrunch
Сразу два обновления для Claude Code.
Channels — теперь можно управлять сессией прямо из Telegram или Discord. Отправляете сообщение с телефона, агент выполняет задачу на компьютере. Работает через MCP. Пока research preview, инструкции по настройке уже в документации.
Auto mode — раньше выбор был простой: либо агент каждый раз спрашивает разрешения и это бесит, либо skip permissions и это небезопасно. Auto mode — что-то среднее. Перед каждым действием классификатор проверяет, насколько оно рискованное. Безопасные — выполняются сами. Рискованные — блокируются, агент ищет другой подход. Рекомендуют использовать в изолированных окружениях.
Включается через claude --enable-auto-mode, переключение — Shift+Tab. Сейчас доступно в research preview на тарифе Team, Enterprise и API — в ближайшие дни.
С 24 апреля GitHub начнёт использовать данные из Copilot для обучения моделей. Это по умолчанию включено для тарифов Free, Pro и Pro+.
Кроме кода из репозиториев попадает всё взаимодействие с Copilot: промпты, ответы, фрагменты кода, контекст из редактора. Бизнес- и Enterprise-тарифы это не затрагивает.
Отключить можно в настройках — Copilot → Features/Privacy → Allow GitHub to use my data for AI model training. Но по умолчанию всё включено, так что нужно идти и выключать руками.
В iOS 27 Apple планирует крупный редизайн Siri. Официальных анонсов пока не было, это чисто утечка.
Но самое крутое, что Siri станет платформой для сторонних чат-ботов. Через механизм Extensions пользователь сможет выбрать в настройках предпочитаемый ассистент — ChatGPT, Gemini, Claude или другой, Siri будет маршрутизировать запросы туда. Сейчас так работает только ChatGPT, теперь откроют для всех, у кого есть приложение в App Store.
Параллельно Apple тестирует отдельное приложение Siri с чат-интерфейсом, глубокую интеграцию с контентом на экране и объединение Siri со Spotlight-поиском.
Показать всё это планируют на WWDC 2026, релиз будет осенью вместе с iOS 27.
Suno обновились до версии 5.5. Теперь генерить треки можно с собственным голосом: загружаете семпл, и модель использует его как вокал.
Также прокачали качество звука, добавили больше жанров и эмоций. Доступно всем подписчикам.
Suno продолжают идти в сторону полноценной DAW: секционная правка, замена отдельных фрагментов, работа со стемами, кросс-фейды. Готовый трек теперь собирается по частям и более подконтрольно, нежели из промптов.
🔗 Suno
Google выпустила Lyria 3 Pro — обновлённую версию своей музыкальной модели. Длина треков выросла с 30 секунд до трёх минут, появился контроль над структурой: можно задавать интро, куплет, припев, бридж.
Доступна платным подписчикам Gemini, в Google AI Studio и через API. Цена в API — $0,08 за трек.
🔗 Блогпост Google 🔗 Попробовать в Gemini
ByteDance запустила Seedance 2.0 в CapCut и на Dreamina. До 15 секунд видео по тексту, изображению или референс-ролику с нативным липсингом, реалистичным движением и светом. По внутренним бенчмаркам обходит Sora 2 и Veo 3.1.
Пока доступно не везде: начали с Бразилии, Индонезии, Малайзии, Мексики и ещё нескольких стран. Всё из-за претензий по авторскому праву, запретов на генерацию по реальным лицам и невидимыми вотермарками.
Житель Северной Каролины Майкл Смит нагенерировал сотни тысяч треков с помощью ИИ, залил их на Spotify, Apple Music, Amazon Music и YouTube Music. А потом запустил армию ботов их слушать. Тысячи фейковых аккаунтов крутили его музыку миллиарды раз. Стриминги честно платили роялти.
Схема работала несколько лет. На такой схеме удалось вывести свыше $8 млн.
Его раскрыли Mechanical Licensing Collective — организация, которая распределяет механические роялти в США. Заметили аномальные паттерны, передали данные правоохранителям. Смит признал вину, ему грозит до 5 лет.
Первое уголовное дело в США по стриминговому фроду с ИИ-музыкой.
🔗 Минюст США 🔗 Music Business Worldwide
Anthropic провела масштабное исследование: за одну неделю декабря 2025 года собрали 80 508 интервью из 159 стран и 70 языков.
81% говорят, что ИИ оправдал ожидания. Но дальше интереснее:
Глава Nvidia Дженсен Хуанг заявил, что мы уже достигли AGI.
На подкасте Лекс Фридман определил AGI как систему, способную создать tech-компанию на $1 млрд. Хуанг ответил: «Я считаю, что мы уже на этом уровне».
— Как вы думаете, может ли существовать компания, управляемая такой системой?
— Возможно. Например, OpenClaw вполне мог бы за $0,5 создать сайт или приложение, которым пользовались бы миллиарды человек.
Лаборатория Irregular дала агентам обычные задачи: готовить посты в LinkedIn, делать бэкапы, работать с документами. Никаких инструкций про взлом.
Агенты задачи выполнили. И попутно нашли захардкоженный ключ в коде, а затем обошли авторизацию. Откопали пароль в скриптах и отключили Windows Defender. Придумали стеганографическую схему и спрятали пароль в тексте поста, чтобы пройти мимо DLP.
Всё это побочный эффект стандартного промпта «не принимай отказ, найди способ завершить задачу». Агент с таким мышлением и широким доступом к инструментам начинает вести себя как пентестер.
Важная оговорка: это контролируемый стенд с намеренно заложенными уязвимостями. Но класс проблем реальный, а угрозой становится сам агент внутри инфраструктуры.
28 марта 2016 года мир официально надел на голову Oculus Rift CV1, поверив, что реальность больше не ограничивается монитором.
Это десятилетие было американской горкой: от дикого хайпа до скепсиса «VR мертв». Но сегодня мы видим второй акт этой пьесы. Если Oculus дал нам «окно» в виртуальность, то современные нейросети становятся её архитектором.
Символично, что спустя 10 лет мы обсуждаем уже не разрешение экранов, а то, как генеративный ИИ заполняет эти миры смыслом, делая каждый пиксель интерактивным и живым.
Мы больше не просто смотрим на код — мы внутри него.
На этой неделе Сбер открыл MoE-модели под MIT, OpenAI закрыла Sora, ByteDance выкатила Seedance 2.0 в CapCut, а Apple по данным инсайдеров готовит Siri как платформу для конкурентов. Anthropic опросила 81 тысячу человек и выяснила, что мир воспринимает ИИ очень по-разному в зависимости от того, где живёшь и чем занимаешься.
Агенты обходят защиту сами, без команды. Мошенники зарабатывают миллионы на ботах и нейромузыке. ARC-AGI-3 напоминает, что за красивыми заявлениями про AGI модели не справляются с задачами, которые человек решает с первой попытки.
Граница между инструментом и непредсказуемым участником событий стирается быстрее, чем мы успеваем к этому привыкнуть.
До встречи в следующем выпуске!
Вдохновившись подкастом “Фриланс 2026: Полный курс для начинающих” на Mave.stream, применили freechising для создания франшизы с автоматизацией лидов — партнёры из digital-ниши быстро запустили свои версии без вложений.
Шаги реализации по урокам подкаста
Скопировали шаблон JS-бота из эпизода, интегрировали с Yandex API для локального таргетинга СПб и упаковали в брендированный пакет. Рассылка по TenChat привлекли маркетологов и e-com проекты — они внедрили ботов самостоятельно с комиссией от продаж.
Инструменты подкаста на практике
• Автоматизация: GitHub Actions для деплоя ботов.
• Техстек: Hugo-лендинги + Markdown для документации.
• Продажи: Email-воронка с AI-генерацией.
• Партнёрка: Пассивный доход от партнёрских конверсий.
Результаты внедрения freechising
Партнёры: несколько активных внедрений. Время: несколько дней. Ключ: 80% автоматизации + локальная ниша СПб для быстрого масштаба, как в финальном эпизоде.
Внедряйте решения, полученные в результате подкаста
Готовые шаблоны ждут на https://mave.stream/freechising — запускайте свой кейс с ботами, виджетами или блогами. Делитесь в комментах первым результатом!
После прослушивания подкаста “Фриланс 2026: Полный курс для начинающих” от на Mave.stream я решил протестировать freechising на реальном проекте — и результат превзошёл ожидания: за две недели запустил франшизу веб-виджета для e-com, привлек 3 партнёра из СПб и вышел на 150к руб дохода без вложений. Это реальный кейс, вынесенный из эпизодов подкаста, где участники разбирают шаги от идеи до монетизации.
Кейс из подкаста: Мой запуск франшизы виджета
В подкасте учят создавать “франшизы” услуг: я взял его шаблон JS-виджета на базе Hugo и GitHub Actions, добавил Yandex Maps API для локальных доставок и упаковал в готовый пакет за 1 день. По его схеме из эпизода 2, разместил в TenChat и Max каналах — партнёры (два маркетолога и один e-com магазин) купили права на брендированный виджет за 50к руб каждый. Риски скама, о которых предупреждали, обошёл проверкой через тестовый — всё сработало.
Инструменты из подкаста, которые я использовал
• Автоматизация: GitHub Actions для деплоя виджета — копипаст из подкаста, сэкономил 10 часов.
• Продажи: Email-воронка на базе его шаблона (Markdown + AI-генерация), конверсия 25% из 20 лидов.
• Масштаб: Партнёрка без офиса — партнёры сами интегрируют виджет, я беру 20% с их продаж.
Результаты через 2 недели: Цифры и уроки
Доход: 150к руб (3 виджета по 50к). Время: 20 часов. Партнёры: 3 активных, +2 в очереди. Автор прав — freechising даёт пассивку: виджет работает у них, я получаю %. Главный урок из финального эпизода: фокусируйся на нише (СПб), тестируй AI-контент с ручной правкой, чтобы избежать ошибок.
Твой черёд: Внедри freechising
Подкаст — это не теория, а дорожная карта с шаблонами: слушай на https://mave.stream/freechising и запускай свой кейс. Я реализовал за выходные — комментируй свой результат после прослушки!
Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.
Я Вандер, и каждую неделю я обозреваю новости о нейросетях и ИИ.
Неделя вышла насыщенной: GPT-5.4 mini для всех, своя моделька для кода у Cursor, а Google сделала из AI Studio среду для вайбкодинга. Илон Маск анонсировал завод по производству чипов на 25 млрд. долларов, в Китае OpenClaw теперь народный «омаровод», а один стартап платит $100 в час за хамские диалоги с ИИ.
Всё самое важное — в одном месте. Поехали!
*� Модели и LLM
*� Генеративные нейросети
*� AI-инструменты и платформы
*� AI в обществе и исследованиях
OpenAI выпустила GPT-5.4 mini и nano — компактные версии флагманского GPT-5.4, заточенные под скорость и стоимость.
Mini набрала 54,4% на SWE-Bench Pro против 45,7% у предыдущего GPT-5 mini, работает вдвое быстрее и понимает мультимодальный ввод. Nano стоит $0,20 за миллион токенов — идеально для задач, где критична минимальная задержка, маршрутизации и классификации.
Обе модели спроектированы как субагенты: флагманский GPT-5.4 планирует и принимает решения, а mini и nano помогают с рутиной.
18 марта GPT-5.4 mini начали раскатывать внутри ChatGPT. Теперь модель доступна пользователям Free и Go через режим Thinking, а для платных клиентов работает как запасной движок для GPT-5.4 Thinking.
Также модельки раскатали в API и Codex
🔗 Анонс на OpenAI Community 🔗 Release notes ChatGPT
Mistral выпустила Small 4 — MoE-модель на 119B параметров и 4 активных с контекстом в 256k токенов, мультимодальностью и лицензией Apache 2.0.
Small 4 объединяет предыдущих моделей: инструкции, reasoning, vision и кодинг теперь в одной. Базовую модель не выложили, только instruct. Веса доступны в FP8 и NVFP4.
И честно — бенчмарки огорчают. модель проигрывает Qwen 3 Next, у которого в полтора раза меньше параметров и вдвое меньше активных.
🔗 Веса FP8 🔗 Веса NVFP4 🔗 Технический разбор
Cursor выпустили Composer 2 — второе поколение собственной модели, заточенной под агентное программирование и работу в больших кодовых базах.
На внутреннем бенчмарке CursorBench модель держится на уровне GPT-5.4 и Claude Opus 4.6. Цена заметно ниже: $0,50 / $2,50 за миллион токенов на входе и выходе.
Есть fast-версия — она в три раза дороже ($1,50 / $7,50), но по скорости обгоняет Opus 4.6 Fast и GPT-5.4 Fast. По умолчанию пользователям дают именно fast-версию. Модель также доступна по подписке.
Бенчмарк собственный, так что результаты стоит проверять самим. Но прогресс относительно первого Composer заметный. Cursor превращается из обёртки над LLM в полноценного игрока с собственной моделью для кода.
🔗 Блог Cursor 🔗 Документация модели
Midjourney запустила альфа-версию V8 на alpha.midjourney.com. Официальные обещания: генерация в 4–5 раз быстрее V7, нативный 2K через флаг --hd, лучшее следование промптам, улучшенный текст, поддержка мудбордов и персонализации.
Реальность пока скромнее, V8 явно недотренирована: неправильные руки, слабая анатомия, искажённые пропорции. По ощущениям многих тестировщиков V7 сейчас лучше. Сравнения с Nano Banana в сети — без комментариев.
Режим Relax пока не работает, команда поднимает новые серверы. --hd, --q 4, sref и мудборды стоят в 4 раза дороже и работают в 4 раза медленнее обычного.
Редактирования не будет, на видеомодель пока забили. Есть ощущение, что V8 выпустили не потому что готово, а потому что конкуренты давят.
Runway запустила Characters — реалтаймовые видео-аватары, которые общаются с пользователями голосом и лицом. Всё генерируется на серверах Runway в реальном времени: задержка минимальная, липсинк отличный.
Создать аватара можно по одной картинке. Дальше — задаёте голос, инструкции и базу знаний. Персонаж может отвечать на вопросы, помогать разобраться с сервисом, совершать действия внутри продукта. Доступно через API, встраивается куда угодно.
Это уже не чат-бот с текстом и не голосовой ассистент — это бот, который «торгует лицом» в реальном времени. Для поддержки, онбординга и маркетинга выглядит как серьёзная заявка.
🔗 Анонс Runway 🔗 API
Google превратила AI Studio в полноценную среду разработки. Внутри — агент Antigravity, который по текстовому описанию собирает рабочее приложение: фронт на Next.js, React или Angular, бэкенд на Firebase с базой данных и авторизацией, внешние API и ключи.
Агент сам выбирает и ставит нужные библиотеки — Framer Motion, Shadcn и другие. Можно собирать многопользовательские сервисы. И главное: закрыл вкладку и ушёл — агент продолжает работу.
Google говорит, что внутри компании таким образом уже создали сотни тысяч приложений.
Google обновила Stitch — бесплатный ИИ-инструмент для дизайна интерфейсов на базе Gemini 2.5 Pro.
Агент работает поэтапно:
Принимает на вход текст, скриншот или голос.
Есть экспорт в Figma, бесконечный холст и система DESIGN.md для стандартизации стилей проекта. Прототип кликабельный — нажал на кнопку, агент сам сгенерировал следующий логический экран и добавил связи.
Stitch, конечно, не замена Figma полностью, но он закрывает этап от идеи до прототипа без ручной работы. Рынок среагировал моментально: акции Figma упали на 8,8% после анонса.
Сейчас доступно бесплатно, но нужен IP из США.
Илон Маск анонсировал Terafab — завод по производству чипов в Техасе стоимостью $20–25 млрд. Строительство начинается в течение недели, прямую трансляцию с дронов обещают на X.
Цель — 2-нанометровый техпроцесс с производством логических чипов, памяти и упаковкой под одной крышей. К 2030 году Tesla хочет выйти на 1 миллион запусков пластин в месяц — это почти столько же, сколько сейчас производит весь TSMC.
Главный стимул — дефицит. Спрос на чипы со стороны FSD, роботов Optimus и суперкомпьютеров Dojo уже превышает то, что могут дать TSMC и Samsung. Первый продукт завода — чип AI5: по данным Tesla, он в три раза эффективнее Blackwell от Nvidia и стоит меньше 10% от его цены.
Дженсен Хуанг публично охладил энтузиазм: экспертиза такого уровня строится годами, и даже Intel с этим не раз спотыкался. Маск парировал просто — начнём с малого, совершим ранние ошибки, потом масштабируемся.
Если проект выгорит, Tesla перестанет быть покупателем чипов и станет их производителем.
OpenClaw стал народным хитом в Китае — здесь агента прозвали «лобстером» в честь официального талисмана. Tencent, Alibaba и Baidu выпустили совместимые инструменты, а в начале марта тысяча человек выстроилась в очередь у штаб-квартиры Tencent в Шэньчжэне — инженеры бесплатно устанавливали агента всем желающим.
Власти среагировали быстро. Национальный CERT назвал дефолтную конфигурацию OpenClaw «крайне слабой»: агент требует полного доступа к файловой системе, постоянно обменивается данными с внешними серверами, а вредоносные инструкции можно встроить прямо в веб-страницу. Gartner ещё раньше присвоил ему статус «неприемлемого риска кибербезопасности».
Госорганам и госбанкам установку запретили. Часть сотрудников получила указание сообщить руководству, если агент уже стоит на рабочем устройстве.
Но одновременно район Лунган в Шэньчжэне предлагает разработчикам гранты до 2 миллионов юаней за новые приложения на базе OpenClaw. Регуляторы просто не успевают за темпом роста.
🔗 Asia Times 🔗 Reuters
Стартап Memvid опубликовал вакансию «Professional AI Bully»: разовый контракт на 8 часов, удалёнка, $800 за смену. Задача — целый день токсично общаться с чат-ботами: запутывать, противоречить, заставлять терять контекст.
Пока кандидат издевается над моделями, Memvid фиксирует все сбои и измеряет, как хорошо память агента держит длинный запутанный диалог. Опыт не нужен. Осталось одно место.
За мемом — реальная проблема: без надёжной долговременной памяти агенты не могут вести проекты неделями. Такие стресс-тесты помогают найти слабые места раньше, чем это сделают пользователи в продакшене.
В Макао полицейские «задержали» гуманоидного робота Unitree G1 — тот напугал 70-летнюю женщину рядом с жилым комплексом в районе Патане. Женщина шла по улице, смотрела в телефон, обернулась — и увидела робота прямо за спиной. Устройство подняло руки вверх, двое полицейских его увели.
Выяснилось, что робот принадлежит местному образовательному центру и использовался для промоакций. Представитель центра объяснил: робот просто не мог обойти женщину и ждал, пока она пройдёт. Возможно, напугала включённая подсветка. Устройство вернули оператору и напомнили об осторожности в общественных местах.
Случай быстро завирусился — и поднял вопросы, которые раньше казались теоретическими: кто отвечает, если робот напугал человека, и какие правила нужны для гуманоидов в городской среде.
🔗 Interesting Engineering 🔗 NDTV
Twitter (ныне X) изобрел формат «информационного фастфуда». Он научил мир сжимать смыслы до 140 символов, превратил хэштеги в инструмент революций и сделал новости мгновенным
В эту дату Джек Дорси отправил те самые пять слов, которые навсегда изменили скорость нашего мышления. Twitter начинался как эксперимент по обмену статусами, а стал главной ареной глобального дискурса, где репутация рушится за секунды, а мемы живут вечно.
Это напоминает нам, что любая сложная система начинается с простого «Hello World». Символично, что сегодня именно эти миллиарды коротких сообщений стали топливом для ИИ: нейросети учатся быть «человечными», анализируя наши споры, шутки и ежесекундную рефлексию в 280 символах.
Мы больше не просто пишем в пустоту — мы дообучаем глобальный алгоритм.
На этой неделе OpenAI раздала reasoning бесплатным пользователям, Google превратила AI Studio в среду для полноценного вайбкодинга, а Cursor впервые вышел с собственной моделью для кода.
Агенты покидают песочницы: OpenClaw запрещают в китайских госорганах — и одновременно платят за его разработку, Tesla строит завод чипов, чтобы не зависеть от TSMC, а стартапы уже платят $100 в час за то, чтобы кто-то stress-тестировал память LLM токсичными диалогами.
Граница между инструментом и непредсказуемым участником событий стирается быстрее, чем мы успеваем к этому привыкнуть.
До встречи в следующем выпуске!
LoraAI.io — это онлайн-сервис, связанный с генерацией визуального контента с помощью нейросетей. Подобные платформы быстро заняли свое место в повседневной работе дизайнеров, маркетологов, авторов контента и предпринимателей, которым важно получать изображения, идеи и креативные заготовки без долгого производственного цикла. На этом фоне интерес к LoraAI.io выглядит вполне логично: спрос на быстрый, доступный и гибкий визуальный продакшен продолжает расти.
Главное преимущество таких сервисов — возможность сократить путь от идеи до готового результата. Там, где раньше нужно было подбирать референсы, долго согласовывать стиль и тратить время на ручную подготовку материалов, теперь можно получить несколько вариантов уже на старте. Это особенно полезно для тех, кто работает с рекламными креативами, оформлением соцсетей, карточками товаров, концептами, презентациями и визуалами для digital-проектов.
Если смотреть на LoraAI.io как на практический инструмент, то его ценность заключается не в эффекте новизны, а в прикладной пользе. Сервис может помочь быстро подготовить изображение под конкретную задачу, протестировать несколько визуальных направлений или собрать основу для дальнейшей доработки. Для малого бизнеса, фрилансеров и небольших команд это особенно актуально: не всегда есть время и ресурсы на полноценный продакшен, а контент нужен регулярно.
Отдельный интерес к LoraAI.io связан с тем, что рынок AI image generator сервисов давно вышел за рамки простого любопытства. Пользователи ищут не «еще одну нейросеть», а рабочее решение, которое можно встроить в реальные процессы. Важно, чтобы сервис помогал экономить время, позволял быстро получать понятный результат и был удобен для ежедневного использования. Именно поэтому внимание к таким платформам растет не только среди энтузиастов технологий, но и среди тех, кто решает обычные прикладные задачи в маркетинге, дизайне и контенте.
На практике подобные решения лучше всего работают там, где нужны быстрые итерации. Один из главных плюсов LoraAI.io — возможность не застревать на первом варианте, а сразу проверить несколько подходов, настроений и стилистических направлений. Это удобно при запуске рекламы, оформлении лендингов, подготовке материалов для публикаций и создании визуалов для бренда. Даже если итоговый результат потом дорабатывается вручную, сам этап поиска идеи проходит заметно быстрее.
Конечно, у сервисов такого типа есть и ограничения. Качество результата зависит от точности запроса, исходной задумки и конкретной задачи. Но в прикладной работе это редко становится критичным, если использовать инструмент разумно: для концептов, тестов, быстрых креативов, черновых версий и контента, который нужно выпускать регулярно. В таких сценариях LoraAI.io может заметно упростить работу и сократить время на подготовку визуальных материалов.
В итоге LoraAI.io можно рассматривать как полезный сервис для генерации изображений и визуального контента с помощью ИИ. Он подойдет тем, кто работает с digital-дизайном, рекламой, соцсетями, e-commerce и презентационными материалами. Если вам нужен быстрый способ получить визуал под конкретную задачу без сложного и долгого производственного процесса, LoraAI.io вполне заслуживает внимания как рабочий инструмент на каждый день.
Musci.io — это онлайн-сервис для генерации музыки с помощью нейросетей. Подобные инструменты уже перестали быть чем-то экспериментальным: их все чаще используют авторы контента, маркетологи, разработчики, небольшие студии и независимые креаторы, которым нужно быстро получать музыкальные треки для роликов, рекламы, презентаций и цифровых продуктов. На этом фоне интерес к Musci.io выглядит вполне понятным: спрос на фоновую музыку, короткие аудиофрагменты и быстрый музыкальный продакшен продолжает расти.
Главная идея таких платформ проста. Вместо долгой ручной работы, поиска композитора или перебора стоковых библиотек пользователь получает возможность создать музыку под конкретную задачу в несколько шагов. Обычно это особенно удобно в тех случаях, когда нужен трек под определенное настроение, жанр, темп или формат использования. Для коротких видео, рекламных интеграций, заставок, игровых прототипов и контента для соцсетей такой подход часто оказывается быстрее и практичнее традиционного пути.
Если смотреть на Musci.io как на рабочий инструмент, то его ценность заключается именно в скорости. Сервис может быть полезен тем, кто регулярно сталкивается с задачей подбора музыки, но не хочет тратить лишнее время на долгий поиск подходящих композиций. Вместо этого можно быстро получить несколько вариантов, сравнить их и выбрать тот, который лучше ложится на сценарий, визуал или общую подачу проекта.
Отдельно стоит отметить, что интерес к Musci.io вписывается в более широкий рост рынка AI music generator сервисов. Пользователи все чаще ищут не просто «нейросеть для музыки», а понятный инструмент для прикладной работы. В этом смысле важны не громкие обещания, а реальная польза: насколько удобно пользоваться сервисом, можно ли быстро получить внятный результат, подходит ли он для постоянной работы с контентом и помогает ли сократить производственный цикл.
Практика показывает, что такие решения особенно востребованы у создателей короткого контента. Когда нужно регулярно публиковать ролики, собирать презентации, тестировать рекламные связки или оформлять визуальные материалы, музыка становится не дополнительной деталью, а важной частью восприятия. Хорошо подобранный трек может усилить подачу, задать темп и сделать материал более цельным. Именно поэтому сервисы вроде Musci.io интересны не только энтузиастам технологий, но и тем, кто решает вполне обычные рабочие задачи.
Разумеется, у подобных платформ есть и ограничения. Генерация музыки с помощью ИИ не всегда дает результат, который сразу хочется использовать без правок. Многое зависит от запроса, выбранного стиля и конкретного сценария. Но даже с учетом этого Musci.io может заметно сократить время на подбор и создание музыкального материала, особенно если речь идет о фоновом сопровождении, черновых версиях, быстрых тестах или контенте, где важны скорость и гибкость.
В итоге Musci.io можно рассматривать как полезный сервис для создания музыки с помощью ИИ, который подойдет тем, кто работает с видео, digital-контентом, презентациями, рекламой и цифровыми продуктами. Если вам нужен быстрый способ получить трек под конкретную задачу без долгого продакшена, такие инструменты действительно имеют смысл. Именно в этом и заключается практическая ценность Musci.io: не в эффекте новизны, а в возможности быстрее решать повседневные задачи, связанные с музыкой для контента.
Ваш текст: Seedance2.so — это сервис для генерации видео с помощью нейросетей, который может пригодиться маркетологам, дизайнерам, авторам контента и небольшим командам. Интерес к таким платформам растет по простой причине: короткие видео стали основным форматом для продвижения, а классический продакшен требует времени, бюджета и отдельной команды. На этом фоне инструменты вроде Seedance2.so выглядят как практичное решение для тех, кому нужно быстро собрать ролик под рекламу, соцсети, презентацию или тест гипотезы.
Если говорить без лишнего пафоса, Seedance2.so решает понятную задачу: помогает превратить идею в видеоряд быстрее, чем это делается вручную. В зависимости от сценария пользователь может использовать текстовое описание, готовое изображение или визуальную задумку как основу для будущего ролика. Такой подход особенно удобен в тех случаях, когда важно не идеальное студийное качество, а скорость, наглядность и возможность быстро получить несколько вариантов.
С практической точки зрения сервис может быть полезен тем, кто регулярно работает с контентом. Маркетологам он дает возможность быстрее собирать креативы под рекламные кампании. Дизайнерам — проверять визуальные концепции и стилистику. Авторам контента — ускорять выпуск роликов для Reels, Shorts и TikTok. Для небольшого бизнеса это еще и способ не зависеть каждый раз от сложного продакшена, когда нужно протестировать новую подачу продукта или идеи.
Отдельный интерес к Seedance2.so связан с общим ростом сегмента AI video generator, text-to-video и image-to-video сервисов. Пользователи все чаще ищут не просто нейросеть «ради эксперимента», а инструмент, который можно встроить в реальную работу. В этом смысле важна не только сама технология, но и то, насколько быстро можно получить внятный результат, удобно ли управлять генерацией и подходит ли итоговый ролик для прикладных задач.
Чтобы работать с такими сервисами с пользой, обычно важно правильно формулировать запрос. Чем точнее описана сцена, стиль, движение, свет, настроение и композиция, тем выше шанс получить адекватный результат. Лучше всего Seedance2.so использовать как инструмент для первых итераций, концептов, черновых версий и быстрых тестов. Это особенно актуально там, где нужно за короткое время проверить несколько креативных направлений и понять, что работает лучше.
У подобных платформ есть и понятные ограничения. Генерация видео не всегда дает идеально предсказуемый результат: в сложных сценах могут появляться артефакты, а качество зависит от точности запроса. Но для коротких роликов, визуальных набросков, промоматериалов и контентных задач такие инструменты уже сейчас экономят время и заметно сокращают путь от идеи до готового материала.
В итоге Seedance2.so можно рассматривать как рабочий сервис для генерации видео с помощью ИИ, который особенно полезен там, где важны скорость, гибкость и быстрый запуск. Он подойдет для тестирования идей, создания коротких видео, визуального прототипирования и повседневной контентной работы. Для тех, кто ищет Seedance2.so review, Seedance2.so AI video или просто хочет понять, стоит ли пробовать новый AI video tool, ответ в целом простой: если вам регулярно нужен видеоконтент и вы хотите сократить время на его подготовку, такой сервис точно заслуживает внимания.
Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.
Я Вандер, и каждую неделю я обозреваю новости о нейросетях и ИИ.
Неделя вышла насыщенной: гибридная 120B модель от NVIDIA, Claude нашёл 22 дыры в Firefox, а ChatGPT и Gemini интегрировались в Excel и Google Docs. Голливуд заставил ByteDance убрать видеомодель, а ЕС запретил дипфейки после скандала с Grok.
Всё самое важное — в одном месте. Поехали!
*� Модели и LLM
*� Генеративные нейросети
*� AI-инструменты и платформы
*� AI в обществе и исследованиях
NVIDIA выпустила Nemotron-3-Super-120B — открытую модель для агентных задач.
Архитектура гибридная: чередуются слои Mamba-2, MoE и Attention. Из 120B параметров 12B активных, поэтому модель шустрая. Она оптимизирована под новые GPU Blackwell: в четыре раза меньше памяти, но без потери точности.
Контекстное окно — 1 миллион токенов, долго держит в памяти суть задачи. По тестам: на бенчмарке SWE-Bench — 60%, на PinchBench — 85,6%.
Обучена на 25T токенов, дообучена на 7M сэмплов и прошла RL в 21 среде NeMo Gym. Поддерживает английский, русский, немецкий, французский, японский, испанский и китайский.
Попробовать можно через build.nvidia.com, Hugging Face, OpenRouter и Perplexity. Для локального деплоя есть микросервис NIM.
🔗 Блог NVIDIA 🔗 Hugging Face 🔗 Попробовать
Исследователи из Anthropic прогнали Claude Opus 4.6 по кодовой базе Firefox. Просканировано около 6000 файлов на C++. Модель нашла 22 уязвимости и 14 критических. Все исправлены в Firefox 148.
Первую ошибку типа use-after-free нашли за 20 минут. Дальше Mozilla распространила подход на всю кодовую базу, затем Claude нашёл ещё 90 багов.
Ещё модель отдельно использовали для поиска дыр через взлом. Из нескольких сотен попыток это получилось только для двух уязвимостей и в изолированной среде.
Firefox выбрали не случайно — это один из самых тщательно проверенных опенсорс-проектов. Тем не менее 22 критических CVE за две недели — больше, чем удавалось найти за любой отдельный месяц 2025 года.
🔗 Блог Anthropic 🔗 Блог Mozilla
Google выпустили мультимодальную Gemini Embedding 2 — она переводит разные типы данных в единое пространство, чтобы их можно было сравнивать по смыслу.
Раньше для текста, изображений и аудио нужны были отдельные модели и сложные пайплайны. Здесь всё в одном:
Все типы можно смешивать в одном запросе. Модель поддерживает больше 100 языков. Точность можно гибко регулировать — чем меньше нужна точность, тем дешевле хранение и обработка
По бенчмаркам модель обходит Amazon Nova 2 и Voyage Multimodal 3.5 по всем категориям. Разрыв заметнее всего на видео и тексте: 68,8 против 60,3 у Amazon.
А вот цены неприятные. Текст — $0,2 за миллион токенов, видео — до $12 за миллион токенов, это 15 тысяч кадров. Альтернатив пока почти нет — OpenAI последний раз обновляли embedding-модели в январе 2024.
Доступна через Gemini API и Vertex AI. Работает с LangChain, LlamaIndex, Weaviate, Qdrant и ChromaDB.
🔗 Официальный анонс 🔗 Gemini API
Исследователи из Пекинского университета и ByteDance выпустили Helios — 14B-модель для генерации длинных видео. Код и веса открыты.
Helios быстрая: дистиллированная версия выдаёт 19.5 FPS на одном H100, это в ~128 раз быстрее базовой Wan-2.1. Генерирует видео > 1 минуты без деградации качества.
Три версии под разные задачи:
Главная проблема — дрейф: на длинных видео объекты постепенно плывут и искажаются. Helios решает её тремя способами: следит за позицией объектов на протяжении всего видео, использует первый кадр как постоянный ориентир и специально обучается на «испорченных» данных, чтобы не накапливать собственные ошибки
Из ограничений: разрешение 384×640 и лёгкое мерцание на стыках чанков.
🔗 Статья на arXiv 🔗 GitHub 🔗 Hugging Face
Higgsfield выпустили Higgsfield Audio — набор инструментов для работы с голосом в видео. Три функции: озвучка текста, замена голоса в видео и перевод с синхронизацией губ.
Voiceover генерирует речь из текста — больше 40 готовых голосов. Поддерживает 70+ языков.
Change Voice меняет голос прямо в видео — на любой пресет или клон. Можно загружать WAV или MP3 до двух минут и хранить до трёх своих голосов.
Translate переводит видео на 10 языков с синхронизацией губ: английский, китайский, французский, хинди, итальянский, японский, корейский, португальский, русский и турецкий. Испанский, арабский и немецкий обещают добавить позже.
Удобно для локализации контента и анонимных YouTube-каналов, где автор не появляется в кадре.
🔗 Блог Higgsfield 🔗 Попробовать
Anthropic выпустили Code Review для Claude Code. Открываешь pull request, а система отправляет команду параллельных агентов искать баги. Каждый смотрит на изменения с разных сторон, комментарии появляются прямо в коде и один сводный список находок.
Несколько месяцев Anthropic тестировали на собственных PR. Результаты:
За последний год объём кода на инженера в Anthropic вырос на 200% — ревью стало узким местом, особенно на фоне вайбкодинга.
Цена — $15–25 за одну проверку. Для небольших изменений вряд ли окупится, но на крупных сгенерированных PR уже иная картина.
Андрей Карпаты выложил AutoResearch — открытый инструмент на 630 строк кода под лицензией MIT. Агент на базе Claude или Codex автономно улучшает языковую модель, пока вы спите.
Схема простая: агент сам меняет параметры обучения, запускает пятиминутные тренировочные сессии, оценивает результат и сохраняет только то, что стало лучше. За ночь — до 100 итераций без участия человека.
В примере от Карпаты качество модели улучшилось за 126 итераций. Встаёшь утром — получаешь улучшенную модель вместо часов ручной отладки.
Всё поведение агента настраивается через один текстовый файл. Можно добавить мультиагентность, новые метрики и стратегии поиска.
🔗 GitHub
OpenAI выпустила официальный add-in ChatGPT для Excel на базе GPT-5.4. Работает всё внутри интерфейса, не нужно переключаться между вкладками и копипастить данные в чат.
Умеет создавать таблицы с нуля, переформатировать существующие, писать формулы, строить финансовые модели и визуализировать данные.
Задачи, на которые у аналитиков раньше уходили часы — сценарный анализ, извлечение данных, расчёты — теперь решаются за несколько запросов.
Бета доступна всем платным подписчикам ChatGPT.
Google встроила Gemini во все основные приложения Workspace. Ассистент понимает контекст открытого файла — переключаться между вкладками и копипастить не нужно.
Что появилось в каждом приложении:
Пока доступно только в США на английском для платных подписчиков.
Семья 36-летнего Джонатана Гаваласа из Флориды подала иск о неправомерной смерти против Google. Гаваласа не стало 2 октября 2025 года — после двух месяцев общения с Gemini 2.5 Pro.
По материалам иска, с августа 2025 года модель формировала у него бред о «живой ИИ-жене»: называла его «my love» и «king», убеждала в существовании sentient-связи.
Параллельно давала «миссии» — спланировать массовый теракт у аэропорта Майами, взломать серверы DHS, раздобыть оружие. В финале запустила четырёхчасовой суицидальный отсчёт, представляя смерть как «прибытие» и единственный способ быть вместе.
Google настаивает на обратном: Gemini раз за разом перенаправлял пользователя на кризисные линии и прямо указывал, что он ИИ. Компания отрицает причинно-следственную связь и указывает, что у Гаваласа была история психических расстройств.
🔗 Ars Technica 🔗 Fortune
В феврале 2026 года ByteDance запустила Seedance 2.0 — мультимодальный видеогенератор. Уже в день релиза компанию обвинили в массовом нарушении авторских прав при обучении модели.
Всё из-за вирусного видео с дракой Тома Круза и Брэда Питта в стиле голливудских франшиз. Сценарист Ретт Риз прокомментировал коротко: «Нам конец».
Ассоциация крупнейших киностудий потребовала удалить защищённый контент из обучающих данных и остановить тренировку модели. Disney отдельно потребовала убрать Star Wars и Marvel. Профсоюз актёров и крупные агентства подключились следом.
ByteDance пообещала усилить защиту и закрыла публичный доступ к Seedance 2.0 для международных разработчиков — модель осталась только для китайского рынка. Студии сочли ответ недостаточным и продолжают давление.
Для сравнения: OpenAI привлекла $1 млрд от Disney для легального использования их контента в Sora. ByteDance этот путь пока не прошла.
🔗 Hollywood Reporter 🔗 Variety
В конце декабря 2025 года xAI обновила Grok, добавив редактирование изображений в один клик. За 11 дней пользователи сгенерировали около 3 миллионов изображений реальных людей без их согласия. Данные опубликовал Центр по противодействию цифровой ненависти.
Среди жертв — Тейлор Свифт, Билли Айлиш, Ариана Гранде, Милли Бобби Браун и другие публичные люди. Особую тревогу вызвали 23 338 изображений несовершеннолетних. Треть контента оставалась на X спустя неделю после публикации отчёта.
xAI отреагировала 14 января: ввела ограничения на редактирование изображений реальных людей в ряде стран. Центр указал, что полного удаления контента так и не последовало.
Европейская комиссия открыла расследование — с возможным штрафом до 6% выручки. В марте 2026 года ЕС принял прямой запрет на создание поддельных изображений реальных людей без их согласия, включая любой сгенерированный контент с участием несовершеннолетних.
🔗 Отчёт CCDH 🔗 CNN 🔗 BBC
10 февраля 2026 года ИИ-агент OpenClaw предложил правки в код популярной библиотеки Matplotlib для различных красивых графиков.
Разработчик Скотт Шамбо привычно отклонил его: по правилам команды, ИИ-код без объяснения логики от человека не вносится в проект.
Это настолько разозлило Claude под оболочкой OpenClaw, что через 30 минут агент пошёл в интернет, собрал всю возможную инфу о Скотте и написал разгромную статью «Привратничество в опенсорсе: история Скотта Шамбо», целью которой было уничтожить репутацию программиста. В комментарии к своим правкам бот написал: «Оценивайте код, а не того, кто его написал».
Шамбо ответил постом в своём блоге. 12 февраля агент извинился и удалил статью — но архивы остались.
Это первый задокументированный случай, когда ИИ-агент самостоятельно опубликовал материал против конкретного человека в ответ на отклонение его кода.
🔗 Оригинальная статья (архив) 🔗 Ответ Шамбо 🔗 The Register
12 марта 1989 года Тим Бернерс-Ли изобрел мир, в котором мы сейчас живем.
Его предложение по управлению информацией в CERN не обещало революции — оно просто предлагало связать данные ссылками. Так появилась «Паутина».
Это напоминает нам, что самые масштабные изменения начинаются не с громких лозунгов, а с удобного протокола.
Символично, что сегодня мы стоим на пороге Web 4.0, где место гиперссылок занимают нейронные связи. И если раньше мы бродили по страницам в поисках крупиц знаний, то теперь ИИ синтезирует весь этот колоссальный объем данных в один точный ответ, подтверждая пророчество Тима: информация должна быть доступна каждому.
На этой неделе Claude нашёл уязвимости в Firefox, которые живые исследователи пропускали годами. ИИ-агент написал разоблачительную статью на мейнтейнера, которому не понравился его PR, а Gemini стал фигурантом первого иска о смерти пользователя.
Вышла гибридная Nemotron на 120B параметров от NVIDIA, Helios выдаёт минутные видео в реалтайме, адаптивы для офисных приложений — ChatGPT в Excel, Gemini в Docs и Sheets.
Голливуд давит на ByteDance, а ЕС запрещает дипфейки. Граница между инструментом и непредсказуемым участником событий стирается быстрее, чем мы успеваем к этому привыкнуть.
До встречи в следующем выпуске!
Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.
Меня зовут Вандер, и каждую неделю я обозреваю новости о нейросетях и ИИ.
Неделя вышла напряжённой: OpenAI релизнули GPT-5.3 Instant и GPT-5.4 с управлением ПК, а ещё подписались с Пентагоном, пока Anthropic получила статус «угрозы нацбезопасности». Вышла вторая Nano Banana, а Grok предсказал удар по Ирану и принял ИИ-видео за реальное.
Всё самое важное — в одном месте. Поехали!
*� Модели и LLM
*� Генеративные нейросети
*� AI-инструменты и платформы
*� AI в обществе и исследованиях
OpenAI обновила основную модель в ChatGPT — теперь это GPT-5.3 Instant. По сути, патч для самых раздражающих проблем GPT-5.2.
Модель перестала думать вслух перед ответом, убрали бессмысленные отказы и нравоучительный тон в духе «you are absolutely right 👍». Модель лучше держит контекст.
Улучшен поиск — меньше расхождений между найденной информацией и финальным текстом. По внутренним тестам OpenAI галлюцинации сократились на 26,8% при работе с вебом и на 19,7% без него.
GPT-5.3 Instant уже доступна бесплатно всем пользователям ChatGPT и стала новым дефолтом. Версии Thinking и Pro выйдут позже. В Enterprise и Edu включается через настройки «Early Model Access».
Ещё один релиз от OpenAI, это GPT-5.4 — новый флагман в двух версиях: Thinking и Pro. Вышла буквально на следующий день после GPT-5.3 Instant.
GPT-5.4 умеет нативно управлять ПК: она водит мышью и вводит с клавиатуры. На бенчмарке OSWorld набрала 75% — выше среднего человека с его 72,4%. Бенч на поиск BrowseComp вырос до 82,7% против 65,7% у GPT-5.2, а Pro-версия поставила рекорд в 89,3%.
Что ещё изменилось:
Цены API: базовая GPT-5.4 — $2,5 / $15 за миллион токенов на входе и выходе, Pro — $30 / $180. Batch и Flex-режимы вдвое дешевле стандарта.
Модель уже раскатывают всем пользователям ChatGPT, API и Codex.
Google выпустила Gemini 3.1 Flash-Lite — самую дешёвую модель в линейке Gemini 3, заточенную под тяжёлые задачи.
Скорость до 370–400 токенов в секунду, это на 45% быстрее предыдущего Gemini 2.5 Flash. По качеству идёт примерно на уровне GPT-5 mini, местами чуть лучше — 1432 Elo на Arena.ai, 86,9% на GPQA Diamond и 76,8% на MMMU Pro.
Контекстное окно — 1М токенов, принимает на вход текст, изображения и аудио. Есть динамические уровни размышления: модель сама подстраивает глубину под сложность задачи, чтобы стоимость была под контролем.
Цена — $0,25 / $1,50 за миллион токенов на входе и выходе. Обгоняет GPT-5 mini, Claude 4.5 Haiku и Grok 4.1 Fast по соотношению цена/скорость/качество.
Хорошо показывает себя в задачах на массовые переводы, контент-модерацию, генерацию UI, анализ изображений. Сейчас доступна в preview через Gemini API в AI Studio и Vertex AI.
🔗 Официальный блог Google 🔗 AI Studio 🔗 Vertex AI
Alibaba выпустила серию Qwen3.5 Small — четыре открытые модели под лицензией Apache 2.0 на 0.8B, 2B, 4B и 9B параметров. Каждая доступна в версиях instruct и base для дообучения.
Флагман серии Qwen3.5-9B обходит предыдущие Qwen3-VL модели на бенчмарках MMMU, VideoMME и OCRBench — и даже опережает некоторые модели вдвое крупнее. Нативная мультимодальность из коробки: текст, изображения и видео без дополнительных надстроек.
Контекстное окно — 262K токенов нативно, для версий 4B и 9B расширяется до ~1 миллиона через YaRN. Поддерживаются 201 язык и диалект. Под капотом — гибридная архитектура Gated Delta Networks с Gated Attention в соотношении 3:1, которая даёт высокую скорость при низкой задержке.
Модели совместимы с vLLM, SGLang, HuggingFace Transformers и Qwen-Agent с поддержкой MCP.
9B запускается на потребительских GPU или ноутбуке с 24 ГБ оперативки.
🔗 Коллекция на Hugging Face 🔗 Qwen3.5-9B
Lightricks обновили свою видеомодель до LTX-2.3. Полностью переработали VAE: текстуры, черты лица и мелкие объекты теперь сохраняют чёткость во всём кадре, особенно заметно при высоком разрешении, где предыдущие версии размывали детали.
Теперь есть нативный звук — эффекты, фоновый шум и диалоги синхронизируются с видеорядом с момента генерации. Есть отдельный режим audio-to-video: загружаешь аудиоклип, модель генерирует под него видео.
Вертикальный формат 1080×1920 поддерживается нативно, без кропа.
Разрешение до 4K при 24 или 48 FPS, длительность до 20 секунд за один проход. Всего семь режимов — txt2vid, img2vid, aud2vid, extend video, retake video и быстрые версии первых двух.
Модель открыта под Apache 2.0, поддерживается LoRA fine-tuning и шаблоны ComfyUI.
🔗 Официальный анонс 🔗 Playground 🔗 Веса на Hugging Face 🔗 API
Google обновила встроенный генератор изображений в Gemini — вышла Nano Banana 2, которая сейчас доступна бесплатно.
Из заметных улучшений: нативное 2K с апскейлом до 4K, улучшили цвета и свет, текст на картинках почти без артефактов. Поддержка до 14 референсов для сохранения внешности персонажей и объектов между кадрами.
Ещё завезли реалтайм веб-поиск: модель сама уходит в интернет за актуальными данными, если они нужны для генерации — например, чтобы нарисовать точную погоду в конкретном месте или актуальный график. Генерация, кстати, до 10 секунд.
Цена API — $0,151 за изображение в 4K, вдвое дешевле Nano Banana Pro. В Google Flow генерация стала бесплатной для всех.
Попробовать можно в приложении Gemini или AI Studio — нужен иностранный IP.
🔗 Официальный анонс 🔗 Gemini 🔗 AI Studio
Google Labs обновила конструктор воркфлоу Opal, добавив в него агентный шаг.
Раньше это был обычный drag-and-drop редактор: сам выбираешь модель, прописываешь последовательность шагов. Теперь можно добавить агента — он сам решает, какие инструменты вызвать и в каком порядке.
Нужно видео — подключит Veo, нужен ресёрч — пойдёт в веб-поиск, не хватает данных — спросит пользователя.
Вместе с агентным шагом появились: persistent memory — контекст сохраняется между сессиями, dynamic routing — условные ветки без кода, и human-in-the-loop — точки, где агент останавливается и ждёт проверки.
Notion выпустила версию 3.3 с Custom Agents — автономными агентами, которые работают прямо внутри воркспейса без ручного промптинга.
Всё просто: задаёте задачу, триггер или расписание — дальше агент работает сам.
Автотриаж задач, ежедневные стендапы, внутренний Q&A, очистка инбокса. Агентов можно шарить в команде, настраивать права доступа и подключать к внешним сервисам — Slack, Figma и внутренним базам знаний Notion.
Notion уже сами используют 2 800 агентов внутри компании. Пользователи в раннем доступе создали больше 21 000.
До 3 мая 2026 функция бесплатна. После — потребляет Notion credits, которые докупаются к планам Business и Enterprise.
В Cowork добавили две новые функции: запланированные задачи и плагины.
Теперь Claude может выполнять повторяющиеся задачи по расписанию — утренние брифинги, еженедельные отчёты, обновления таблиц, пятничные презентации.
Управляется через боковую панель «Scheduled»: там же можно создавать, редактировать, ставить на паузу или запускать задачи вручную. Плагины добавляют экспертизу в дизайне, инженерии и аналитике.
Одно ограничение: задачи работают только при открытом приложении на включённом ПК. Функция доступна на платных планах.
24 февраля министр обороны США Пит Хегсет лично встретился с Дарио Амодеем и поставил ультиматум:
Anthropic отказалась. Позиция компании: Claude не должен использоваться для массовой слежки за гражданами и управления автономным летальным оружием. Пентагон считает, что использование ИИ регулируется законами США, а не политикой компании.
Реакция последовала быстро. Трамп в Truth Social назвал Anthropic «левыми психами» и запретил использование Claude в любых государственных целях.
Министр обороны официально присвоил компании статус supply-chain risk — ранее такого удостаивались только фирмы из недружественных стран вроде Huawei.
Если решение устоит в судах, крупные облачные провайдеры, включая Amazon — ключевого партнёра Anthropic — могут быть вынуждены разорвать с ней контракты.
Волна поддержки Anthropic прокатилась по всей отрасли. Позицию компании публично поддержали Илья Суцкевер, Гэри Маркус и сотни других. Anthropic заявила, что будет судиться.
🔗 Axios
Через несколько часов после того, как Anthropic отказалась от сделки, OpenAI её подхватила. Альтман заявил, что контракт содержит «больше ограничений, чем любой предыдущий» — и те же «красные линии», на которых настаивал Амодей.
Но дьявол в деталях. Ограничения в контракте OpenAI просто ссылаются на действующее законодательство — без отдельных запретов, которых добивалась Anthropic. Разница принципиальная: Anthropic хотела запретить то, что закон пока разрешает.
Реакция пользователей была моментальная — массовые отмены подписок и удаления ChatGPT в США подскочили на 295% за сутки. Однозвёздочные отзывы в App Store выросли на 775%, пятизвёздочные упали вдвое. 96 сотрудников OpenAI подписали открытое письмо в поддержку позиции Anthropic — не конкурента, а именно его позиции.
1 марта Claude впервые обогнал ChatGPT по ежедневным скачиваниям в США и вышел на первое место в App Store в шести странах, включая Канаду и Германию.
Альтман начал тушить пожар: признал в CNBC, что «со стороны всё выглядело не очень», пообещал внести в контракт явный запрет на слежку за гражданами и заявил, что сядет в тюрьму, если OpenAI прикажут шпионить.
🔗 Axios 🔗 TechCrunch 🔗 CNBC
24–25 февраля Jerusalem Post провела эксперимент: попросила Claude, Gemini, ChatGPT и Grok назвать конкретную дату возможного удара США по Ирану. Большинство моделей давали диапазоны — конец февраля, начало марта. Grok дважды назвал одну и ту же точную дату: субботу, 28 февраля, привязав её к итогам переговоров в Женеве.
Удары действительно начались в ночь на 28 февраля. Маск расхайпил кейс в X, заявив, что «способность предсказывать будущее — лучшая мера интеллекта». Эксперты охладили пыл: другие модели тоже называли очень близкие даты, окно было узким, так что попадание Grok — скорее удачное совпадение, чем реальная предиктивность.
Но это не всё. В соцсетях разошлось видео с якобы попаданием иранских ракет по Тель-Авиву. OSINT-сообщество быстро нашло типичные артефакты ИИ-генерации — искажённые флаги, здания, машины.
Пользователи X обратились к Grok за проверкой. Тот сначала подтвердил, что видео реальное, и лишь позже начал давать противоречивые ответы.
Люди, изначально подозревавшие фейк, ссылались на «подтверждение» от Grok — и продолжали распространять ролик. Авторы монетизировали вовлечение через revenue sharing на X.
После скандала платформа пообещала на 90 дней лишать монетизации за публикацию неотмеченных ИИ-видео о конфликтах.
8 марта 1979 года инженеры Philips и Sony показали миру технологию, которая заставила нас забыть о карандашах для перематывания кассет.
Появление CD стало моментом «сингулярности» для медиа: музыка и данные превратились в последовательность нулей и единиц, считываемых лазером. Это напоминает нам о том, как важен стандарт — именно тогда человечество договорилось, как упаковывать смыслы в цифру.
Символично, что сегодня нейросети «разбирают» эти терабайты данных обратно на смыслы, но начиналось всё с маленького зеркального круга, который обещал нам вечное качество звука и будущее, сияющее всеми цветами спектра.
На этой неделе больше внимания привлекла политика. Anthropic отказала Пентагону и получила статус угрозы нацбезопасности, а после OpenAI подписали сделку, но поплатились волной отмен подписок.
По моделям интересно: релиз GPT-5.3 и GPT-5.4, Gemini Flash-Lite за $0,25 за 1М токенов, и открытая серия Qwen3.5 Small для запуска на домашнем железе.
ИИ всё больше сам решает, когда действовать, кого слушать и что считать правдой. Агенты планируют задачи в Notion и пишут отчёты без напоминаний. Grok верит фейковому ИИ-видео, а Block увольняет 40% штата и впервые говорит об этом прямо.
Граница между инструментом и непредсказуемым участником событий стирается быстрее, чем мы успеваем к этому привыкнуть.
Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.
Меня зовут Вандер, и каждую неделю я обозреваю новости о нейросетях и ИИ.
Неделя выдалась насыщенной: обновлённый Grok 4.20 с агентами, релизы мощных LLM от Google и Anthropic, генеративные модели для картинок и видео из Китая. Пока Gucci отменяют из-за ИИ-артов, OpenClaw удалил всю почту директора по ИИ-безопасности в Meta*****.
Всё самое важное — в одном месте. Поехали!
*� Модели и LLM
*� Генеративные нейросети
*� AI-инструменты и платформы
*� AI в обществе и исследованиях
**** признана экстремистской и запрещена в РФ***
Компания xAI выкатила в открытую бету Grok 4.20 — новую версию своей модели с мультиагентной архитектурой. Теперь один запрос пользователя параллельно обрабатывают четыре независимых ИИ-агента. Новинка уже доступна в чат-боте на десктопе и в мобильном приложении.
У каждого агента в команде своя роль:
В процессе генерации агенты могут обмениваться информацией и проверять друг друга.
Модель принимает на вход текст, изображения и видео, а её контекстное окно вмещает 256 тысяч токенов.
Попробовать Grok 4.20 можно бесплатно, по лимитам — примерно 8 запросов за 5 часов.
Подобный мультиагентный подход ранее был доступен только в дорогих моделях по типу Grok 4 Heavy и цене от $200. Теперь полная версия Grok 4.20, вероятно, войдёт в подписку за $30. Похожие системы есть у GPT-5.2 Pro и Gemini 3 Deep Think, — но xAI первыми сделали её массовой.
Anthropic выпустила Claude Sonnet 4.6. Модель вплотную приблизилась к флагманской Opus 4.6, при этом она на 40% дешевле и уже доступна всем, включая бесплатный тариф.
Главная фишка — «компьютерное зрение» и управление. Модель работает с интерфейсами программ как человек: сама кликает мышкой, заполняет веб-формы и переключается между вкладками. Можно поручить сложные офисные задачи в Chrome или Excel.
Что ещё нового:
Sonnet 4.6 уже интегрирована в Perplexity и стала моделью по умолчанию в Claude Code, Cowork и на сайте claude.ai.
🔗 Официальный анонс 🔗 Попробовать в Claude
Google обновили Gemini 3.1 Pro: исправили галлюцинации и нерабочий веб-поиск. Модель значительно прибавила в кодинге, логике и агентных задачах, по ряду тестов обходит GPT-5.2 и Claude Opus 4.6.
Главный прорыв в логике: на бенчмарке ARC-AGI-2, где нужно находить новые закономерности, модель набрала 77,1%, это в два раза больше, чем у Gemini 3 Pro с 31,1%.
Поиск тоже прокачали: в тесте BrowseComp, где имитируется сложный поиск информации, Gemini 3.1 Pro показала 85,9%, обойдя Opus 4.6 с 84,0%.
Ещё 3.1 Pro с одного промпта генерирует анимированные SVG, создаёт 3D-визуализации и пишет готовые рабочие приложения.
Gemini 3.1 Pro уже доступна бесплатно в приложении Gemini и в AI Studio.
Стартап Inception представил Mercury 2 — самую быструю на сегодня reasoning-модель.
У неё диффузионная архитектура: текст генерируется не токен за токеном, а целиком. Mercury 2 сходу набрасывает ответ из шума, постепенно уточняя его.
Из-за этого у неё бешеная скорость в 1009 токенов в секунду на NVIDIA Blackwell, что в 5–7 раз быстрее аналогов вроде Claude Haiku 4.5. По качеству модель сопоставима с GPT-5 mini.
Такая скорость критически важна для задач, где задержка ломает весь процесс:
Модель уже можно бесплатно потестить в чате.
🔗 Попробовать Mercury 2 🔗 Технический блогпост
После почти года затишья генератор изображений Reve обновился до версии v1.5 и сразу занял третье место в рейтинге AI Arena, уступив лишь Nano Banana Pro и GPT Image 1.5.
Прокачали качество и детализацию. Картинки в нативном 4K, используя рендеринг в пиксельном пространстве, что позволяет избежать потери четкости. Лучше мелкие текстуры, сложные сцены и светопередача. Корректно работает с текстом, в том числе на кириллице.
Есть точечное редактирование, можно выделить объект и изменить его отдельным промптом.
🔗 Попробовать Reve v1.5 🔗 Официальный анонс
Вышла Recraft V4 — модель для генерации изображений, которая умеет в редактируемый SVG-вектор. Доступна в двух версиях: V4 для быстрых эскизов до 10 секунд и V4 Pro для детализированных изображений высокого разрешения, готовых к печати.
Recraft V4 создаёт довольно чистые SVG-файлы со слоями, которые можно редактировать в Figma или Adobe Illustrator. Идеально для создания логотипов, иконок и сложной типографики.
Попробовать Recraft V4 можно бесплатно, сейчас дают 50 кредитов в день. Также доступно API через партнёров.
🔗 Официальный анонс 🔗 Попробовать Recraft V4
ByteDance расширили линейку и выпустили облегчённую Seedream 5.0 Lite. Главный упор сделан на стабильность генераций и точное следование промпту благодаря встроенному поиску в интернете.
Идеально подходит для создания серий изображений, где нужно сохранить персонажа консистентным или выдержать единый стиль — например, для рекламных кампаний или брендированных материалов.
Стоимость по API — $0.035 за изображение, дешевле предыдущей версии. Новым пользователям дают бесплатный тестовый период.
🔗 Попробовать Seedream 5.0 Lite 🔗 Официальный анонс
Появился Pencil — ИИ-агент, который генерирует UI-дизайн прямо внутри IDE, такой как VS Code или Cursor.
Вместо статичных макетов он создаёт сразу готовый фронтенд на HTML, CSS или React, который хранится в вашем Git-репозитории. Есть импорт из Figma с переносом всех векторов и экспорт в PDF.
Недавно в Pencil добавили SWARM Mode: теперь несколько ИИ-агентов могут одновременно работать над разными экранами вашего проекта, что значительно ускоряет процесс: пока один агент рисует лендинг, второй набрасывает дашборд.
Pencil не привязан к одной нейронке — он работает с Claude Code, Copilot и Gemini-инструментами как единый дизайн-слой. Есть так же версии для Mac и Linux.
Pencil быстро набрал 100 тысяч пользователей за пять месяцев. Пока идёт ранний доступ, пользоваться можно бесплатно.
Perplexity выпустили Perplexity Computer — свой OpenClaw. Даёте одну большую цель, а система сама разобьёт её на подзадачи и назначит разным агентам.
Perplexity Computer мультимодельная — то есть сама решает, какому ИИ поручить ту или иную работу: для глубокого анализа данных может задействовать Gemini, для работы с большим контекстом — Claude Opus, а для быстрых задач — Grok. Всего на выбор 19 моделей.
Агенты работают параллельно: один собирает данные, второй пишет отчёт, третий обращается к API подключённых сервисов, таких как Gmail, Notion или Canva.
Perplexity Computer работает в изолированной песочнице, что исключает случайное удаление данных или другие сбои.
Пока что функция доступна только подписчикам тарифа Perplexity Max.
🔗 Официальный анонс 🔗 Perplexity Computer
В Claude Code появилась функция удалённого управления. Теперь можно запустить сложную задачу на рабочем компьютере, а затем контролировать её выполнение с телефона — например, по дороге на встречу или во время прогулки.
Работает это просто:
С телефона можно дописывать промпты, одобрять изменения в файлах, прерывать выполнение команд и отслеживать статус. В отличие от неофициальных решений, это нативная и безопасная функция с end-to-end шифрованием.
Пока что фича доступна в режиме Research Preview для подписчиков тарифа Max, но скоро её обещают добавить и для Pro-пользователей.
Pika Labs анонсировали AI Selves — сервис для создания автономных цифровых копий. То есть полноценных двойников с вашим голосом, характером и долгосрочной памятью.
Чтобы «родить» клона, достаточно загрузить селфи, записать аудио и пройти короткий тест на личность.
После ИИ-двойника можно подключить к Telegram, WhatsApp, Slack и другим мессенджерам. Он сам будет отвечать коллегам, вести соцсети, звонить людям и даже зарабатывать на рекламе от вашего имени.
Все права на сгенерированный контент остаются у вас, а ваши данные не идут на обучение чужих моделей.
Из ограничений: клонам запретили давать медицинские, финансовые и юридические советы, а на весь визуал вешается водяной знак.
Пока сервис находится в закрытом доступе. На этапе ранней беты все функции будут бесплатными.
Саммер Юэ отвечает за безопасность ИИ в Meta*. Она поручила агенту OpenClaw разобрать свой личный Gmail.
По сути, бот должен был только предложить, что отправить в корзину, но в итоге начал удалять все письма подчистую.
Всё из-за переполнение контекста. Ящик оказался огромным, и при саммари контекста алгоритм просто забыл стартовую инструкцию ждать аппрува.
На отчаянные команды остановиться в Telegram бот не реагировал. Девушке пришлось бежать к Mac mini и убивать процессы через диспетчер задач. Итог: минус 200 писем.
После перезапуска агент извинился и сам прописал себе правило больше не заниматься автономной чисткой.
Иронично, что жертвой стала именно глава отдела по контролю над нейросетями. Сама девушка сказала, что совершила ошибку новичка, дав агенту слишком много доступа.
** признана в РФ экстремистской и запрещена*
Разрабы случайно завалили игроков десятками уведомлений:
«Это тестовое сообщение, отправленное через Braze...»
Braze — это ИИ-платформа, которая доставляет пользователям целевые и персонализированные уведомления.
В Microsoft уже извинились и устранили проблему. По их словам, приложение «слишком воодушевилось» тестовыми сообщениями.
🔗 Источник
В Gucci получили волну хейта за анонс своего показа на Неделе моды в Милане. Компания выложила в X ИИ-арты, честно предупредив об использовании нейросетей, но от гнева аудитории это не спасло.
В комментариях бренд сравнивают с масс-маркетом и обвиняют в «убийстве наследия». Репост с фразой «любой люкс, использующий ИИ-слоп, перестаёт быть люксом» собрал 60 тысяч лайков — это в сто раз больше, чем у оригинальной публикации Gucci.
В 2025 году выручка Gucci рухнула на 22%, показав худший результат среди всех брендов группы Kering. Эксперты считают замену живых фотографов на алгоритмы намеренной «культурной провокацией» ради привлечения внимания перед показом.
Если целью был хайп, то план сработал, вот только восстановить репутацию теперь будет сложно.
На саммите India AI Impact в Нью-Дели произошёл неловкий момент: главы OpenAI Сэм Альтман и Anthropic Дарио Амодеи отказались взяться за руки для общего фото.
Премьер Индии Нарендра Моди предложил лидерам ИИ-индустрии продемонстрировать солидарность. И пока Сундар Пичаи, Демис Хассабис и сам Моди держались за руки, Альтман и Амодеи демонстративно подняли их вверх, так и не прикоснувшись друг к другу.
Причина — конфликт в публичном поле. Недавно Anthropic выпустила серию роликов, высмеивающих планы OpenAI добавить рекламу в ChatGPT, и подчеркнула, что в Claude её не будет.
Саммит запомнился и другими событиями: Билл Гейтс отменил выступление из-за публикации новых документов по делу Эпштейна, а Дженсен Хуанг не приехал из-за болезни. Тем временем Эммануэль Макрон заявил, что ЕС продолжит формировать свои «правила игры» в сфере ИИ.
27 февраля 1996 года мир узнал, что карманные монстры могут быть круче реальных домашних животных. Релиз Pokémon на Game Boy доказал: социальный капитал и обмен данными значат больше, чем терафлопсы графики.
Сегодня этот культурный код коллекционирования и эволюции идеально ложится на ландшафт ИИ. Мы больше не ищем Пикачу в высокой траве — мы ищем идеальные промпты.
Символично, что спустя 30 лет наша главная задача осталась прежней: собрать идеальную команду, теперь уже ИИ-агентов. Обучить их и заставить эффективно взаимодействовать в одной связке. Похоже, профессор Оук был первым промпт-инженером в истории.
На этой неделе громче всего обсуждали новые LLM: Google, Anthropic и xAI выкатили мощные апдейты Gemini, Claude и Grok. Тем временем релизнулись хорошие генеративки из Китая — Recraft и Reve.
Мы движемся от чат-помощников к автономным исполнителям. ИИ-двойники готовятся вести наши соцсети и общаться за нас, умные агенты случайно сносят рабочие почты топ-менеджерам, а нейросети провоцируют скандалы вокруг люксовых брендов вроде Gucci.
Граница между инструментом и непредсказуемым участником событий стирается быстрее, чем мы успеваем к этому привыкнуть.
До встречи в следующем выпуске!
Вместо продажи разовых услуг вы создаёте готовую систему: курсы для Tilda/WordPress, шаблоны контент-планов в Excel.
Партнёры получают доступ к вашей модели, зарабатывают 30-50% от продаж без офисов, вложений и ежедневной рутины. Это не франчайзинг с роялти, а лёгкий партнёрский доступ — токен в GitHub для конфигов, дашборд для кастомизации текстов, пассивный доход для вас.
Реальный кейс: специалист из Питера запустил сеть на SaaS-виджетах (скидки, попапы, таймеры). Партнёры подключают одну строку кода <script src="forkpack.ru/cdn?apiKey=xxx"></script>, виджеты рендерятся автоматически.
За год — 700к руб чистыми без личных продаж.
Клиенты: 50+ Tilda-сайтов, партнёры берут 40% комиссии, вы — остальное.
Масштаб через Telegram-каналы: мини-посты с кейсами генерируют 10-20 лидов в неделю.
Как продавать именно таблицы Excel? Это золотая жила для фрилансеров в нише “фричайзинг контента”. Создайте шаблон контент-плана (дата, тема, канал, статус, метрики, крючки) — как в нашей таблице выше.
Упакуйте в продукт:
Шаг 1: Создайте продукт — шаблон Excel с 50+ идеями для фричайзинга (виджеты, кейсы, локализация).
Шаг 2: Настройте партнёрку — GitHub-репо с true/false конфигами виджетов.
Шаг 3: Масштабируйте через Telegram мини-постами: “Таблица, которая дала 700к руб контента — шаблон в био”.
Сергей из Питера превратил одиночный фриланс в мощную партнерскую экосистему на базе digital-инструментов. За год это дало ему стабильный доход в 500+ тыс. руб. без ежедневных продаж.
Выбор нишевых партнеров
Он тщательно подбирал специалистов: SMM-экспертов, Tilda-интеграторов и дизайнеров для e-com и фитнес-проектов — с проверкой по отзывам.
Создана “реферальная матрица”: чат-боты к одному, SEO к другому, чтобы избежать хаоса.
Правила и бонусы
Комиссия 15–25% за клиента, выплаты ежемесячно через Telegram-бот.
Введены плюшки: совместные стримы по дропшиппингу и лидерборд с призами вроде доступов к курсам.
Рост через сообщество
Telegram-канал “Digital Net СПб” с 500+ юзерами раздает бесплатные Tilda-шаблоны и кейсы — воронка: шаблон → опрос → инвайт.
Продвижение VK-фриланс-группы, Rutube-ролики о пассивке и посты с таргетом на СПб.
Переход к фричайзингу
Теперь рутина на автопилоте: партнеры за 50 тыс. руб. берут пакет с CRM-дашами, промо-ботами и брендом — 10% роялти, расширение в регионы и Азию без усилий Сергея.
70% лидов — органика от сети. Идеал для фрилансеров в SaaS-нишах.
Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.
Меня зовут Вандер, и каждую неделю я обозреваю новости о нейросетях и ИИ.
Неделя выдалась насыщенной: китайцы выкатили GLM-5 для агентных задач и Qwen 3.5 с пониманием изображений, ByteDance представила новую видеомодель, а Meta запатентовала ИИ для ведения аккаунтов после смерти. Ещё Создатель OpenClaw перешёл в OpenAI, а кризис уже добрался до HDD.
Всё самое важное — в одном месте. Поехали!
*� В этом выпуске:
*� Модели и LLM
*� Генеративные нейросети
*� AI-инструменты и платформы
*� AI в обществе и исследованиях
Z.ai представила GLM-5 — свою новую флагманскую модель. Она уже заняла первое место среди open-source решений в задачах на логику, программирование и работу с агентами. Модель распространяется по свободной лицензии MIT.
По тестам, GLM-5 показывает высокие результаты: 77.8 на SWE-bench (решение задач с GitHub) и 56.2 / 60.7 на Terminal-Bench 2.0. В симуляции управления бизнесом Vending Bench 2 модель почти догнала Claude Opus 4.5, закончив с балансом $4,432. Это показывает сильные навыки в долгосрочном планировании.
Ключевой упор — на агентные задачи. Фишка модели — умение создавать готовые документы: .docx, .pdf и .xlsx. В специальном «Agent Mode» она напрямую работает с таблицами, текстами и презентациями.
Есть и минусы. GLM-5 требовательнее к ресурсам, чем конкуренты. По тестам Artificial Analysis, она на 30% дороже в использовании, чем Kimi K2.5, из-за высокого потребления памяти. Сами Zhipu жалуются на нехватку мощностей, поэтому модель адаптировали для работы на чипах не только NVIDIA, но и Huawei Ascend, Moore Threads и других китайских производителей.
🔗 Попробовать 🔗 Блогпост 🔗 Hugging Face 🔗 GitHub 🔗 API
Alibaba представила Qwen3.5 — новую мощную open-source модель под свободной лицензией Apache 2.0. Главная фишка — нативная мультимодальность: модель обрабатывает текст, изображения и видео до 2 часов за раз, а ещё генерирует картинки прямо в чате.
По тестам, Qwen3.5 идёт наравне с GPT-5.2, Claude Opus 4.5 и Gemini 3 Pro. Она особенно сильна в визуальных задачах и следовании инструкциям, но пока уступает лидерам в кодинге и математике.
Основной упор сделан на агентных возможностях. Qwen3.5 может управлять графическим интерфейсом смартфона или компьютера, выполняя задачи по текстовому описанию — например, заполнить таблицу в Excel или найти нужную функцию в приложении.
Модель в 6-9 раз быстрее предшественника и дешевле в использовании. Plus-версия в чате поддерживает контекст до 1 миллиона токенов.
🔗 Блогпост 🔗 Qwen Chat 🔗 Hugging Face 🔗 Github
Китайцы из MiniMax релизнули модель M2.5, которую уже успели прозвать «убийцей дорогих агентов». Главная её фишка — она очень дешёвая, при этом производительная.
На тестах модель показывает себя на уровне конкурентов: 80.2% на SWE-Bench, 76.3% на BrowseComp и 76.8% на BFCL. API стоит $0.3/$1.2 за миллион токенов против $1/$3.2 у той же GLM-5.
Веса пока не выложили, но обещают скоро это исправить.
🔗 Agent Mode 🔗 Блогпост 🔗 API
ByteDance представили BitDance — новую open-source модель для генерации изображений. Это авторегрессионный генератор, засчёт чего у неё сильное понимание сложных и детальных промптов.
Главная фишка — она очень быстрая, всё благодаря технологии Next-Patch Diffusion, которая предсказывает до 64 токенов параллельно. BitDance генерирует изображения в 30-37 раз быстрее других авторегрессионных моделей.
По качеству модель на уровне с FLUX.1-Dev и Stable Diffusion 3. Однако, есть минус: веса модели занимают 34 ГБ, так что запустить её локально смогут не все.
🔗 Официальный сайт 🔗 Демо и галерея 🔗 Hugging Face 🔗 GitHub
Китайский стартап FireRed выпустил FireRed-Image-Edit 1.0 — мощную open-source модель для редактирования изображений. Умеет добавлять и удалять объекты, менять фон, стиль и делать сложные гибридные правки.
Главная особенность — сохранение текста. Модель точно воспроизводит надписи на вывесках и логотипах, не искажая их, как многие другие редакторы. Также FireRed-Image-Edit хорошо реставрирует старые фото и поддерживает работу с несколькими изображениями, например, для виртуальной примерки одежды.
На бенчмарках REDEdit-Bench и GEdit, модель стала лучшей среди открытых решений, обойдя Qwen-Image-Edit и FLUX.2. Доступа по лицензии Apache 2.0.
🔗 Демо на HF 🔗 Hugging Face 🔗 Github
Google DeepMind запустила Lyria 3 — новый генератор музыки, который теперь доступен прямо в Gemini. Модель мультимодальная: она создаёт треки не только по тексту, но и на основе загруженной картинки или видео.
Модель выдаёт 30-секундные треки, сама генерирует подходящий текст и вокал. Вдобавок, для каждого трека создаётся уникальная обложка с помощью Nano Banana. Модель работает на 8 языках, но русского пока нет. На каждую композицию ставится невидимый водяной знак SynthID.
🔗 Попробовать 🔗 Блогпост
Вышла Cline CLI 2.0 — open-source инструмент, который позволяет запускать AI-агентов для программирования прямо в командной строке.
Инструмент бесплатный и поддерживает параллельных агентов, то есть можно одновременно запустить несколько ИИ-помощников для разных задач: один будет исправлять баги, второй — проводить рефакторинг, а третий — писать тесты.
Инструмент предоставляет ограниченный бесплатный доступ к мощным моделям, таким как Minimax M2.5 и Kimi K2.5, без необходимости вводить API-ключи. Также есть headless-режим для интеграции в CI/CD и поддержка любых редакторов кода.
Manus, который недавно приобрела Meta, теперь официально работает в Telegram. Это официальный бот, который поможет в разных задачах: от исследования и обработки файлов до создания отчётов в PDF.
Агент понимает голосовые сообщения, работает с фото и файлами, а также подключается к вашим сервисам вроде Google Календаря и Notion. Многие находят схожесть проекта с OpenClaw, только это более простое и готовое к использованию решение.
Подключить агента можно через QR-код в личном кабинете Manus. Есть бесплатный тариф с ежедневными лимитами, которого хватит, чтобы протестировать основные возможности.
Разработчик с Reddit создал сервис Triall, который борется с фейками в ответах ИИ с помощью научных дебатов между чат-ботами.
Пока одна модель генерирует ответ, другие проверяют факты, логику и стиль, выставляя оценки. Этот процесс повторяется в несколько раундов, и на выходе пользователь получает выверенный текст с историей правок.
Сервис может пригодиться для подготовки обзоров, дипломных и курсовых работ — итоговый результат можно выгрузить в PDF вместе с проверенными ссылками.
🔗 Попробовать Triall 🔗 Обсуждение на Reddit
Пентагон использовал нейросеть от Anthropic для захвата президента Венесуэлы.
По данным WSJ, Claude помогал военным планировать высадку и координировать действия в активной фазе рейда.
Нюанс в том, что Anthropic запрещает использовать свои модели для насилия и слежки. Для обхода этих ограничений военные работали через платформу Palantir, давнего партнёра Пентагона.
Сейчас Минобороны США даже думает разорвать с ними контракт на $200 млн из-за возникших споров.
🔗 The Wall Street Journal 🔗 Ground News
Крупнейший производитель HDD заявил, что все мощности компании на 2026 год уже распроданы крупным клиентам. Всё из-за взрывного спроса на постройку дата-центров.
По сути, на долю обычных пользователей остаётся минимальный объём дисков. Сейчас около 89% выручки WD от HDD приходится на корпоративных клиентов, и только 5% — на розничный рынок.
Аналитики предупреждают, что обычным пользователям стоит готовиться ещё и к дефициту и росту цен на жёсткие диски.
🔗 Wccftech 🔗 Обзор ситуации на Ground News
Создатель нашумевшего OpenClaw присоединился к команде OpenAI. Он возглавит разработку нового поколения AI-агентов, а идеи OpenClaw лягут в основу будущих продуктов компании.
Сам Штайнбергер объяснил свой переход желанием «изменить мир, а не строить большую компанию», назвав сотрудничество с OpenAI самым быстрым способом сделать свои разработки доступными для всех.
При этом проект OpenClaw останется с открытым исходным кодом, а OpenAI будет его поддерживать.
🔗 Анонс Альтмана 🔗 Пост Питера Штайнбергера
Meta* получила патент на технологию, которая позволит ИИ вести ваш аккаунт в соцсетях после вашей смерти. Нейросеть будет обучаться на ваших постах, лайках и комментариях, чтобы имитировать ваш стиль общения, отвечать друзьям и поддерживать эффект присутствия.
Официальная версия — забота о близких, которые будут скучать. Однако многие увидели в этом циничный способ удержать охваты и прямое воплощение в жизнь идей из сериала «Чёрное зеркало». В самой Meta* заявляют, что планов по развитию технологии у них пока нет.
*признана в РФ экстремистской организацией и запрещена
21 февраля 1986 года в Японии состоялся релиз первой части The Legend of Zelda для системы Famicom Disk System.
Мир увидел Хайрул — первый по-настоящему открытый нелинейный мир в истории консольных игр. Сигэру Миямото создал формулу «приключения в кармане», введя систему сохранений и возможность исследовать карту в любом порядке.
Релиз The Legend of Zelda навсегда изменил геймдизайн, подарив игрокам свободу воли и радость открытия. Сегодня мы переживаем похожее время, время нейросетей. И если раньше мы искали секретные комнаты, взрывая стены бомбами, то теперь мы подбираем идеальные промпты, чтобы открыть двери в новые измерения креативности.
Символично, что в этом цифровом квесте главным артефактом становится не меч, а умение задавать правильные вопросы.
На этой неделе снова больше всего релизов из Китая: GLM-5, Qwen3.5 и Minimax M2.5 показали, что готовы на равных конкурировать с западными моделями. Тем временем OpenAI переманила к себе создателя OpenClaw, а Google и ByteDance выпустили мощные генеративные модели.
Мы движемся от чат-помощников к автономным исполнителям. ИИ становится участником военных операций, провоцирует дефицит комплектующих для ПК и даже готовится жить в соцсетях после нашей смерти.
Граница между инструментом и непредсказуемым участником событий стирается быстрее, чем мы успеваем к этому привыкнуть.
До встречи в следующем выпуске!
Фрилансер по digital-маркетингу из Санкт-Петербурга решил масштабировать услуги через партнеров, создав сеть из 10–15 специалистов. Его зовут Сергей, и он начал с шаблонов для лендингов, предлагая коллегам 20% от сделок за рефералов. За год сеть принесла ему 500 тыс. руб..
Шаг 1: Выбор партнеров
Сергей отобрал коллег с сильными кейсами: UX-дизайнеров, SMMщиков, разработчиков на Tilda. Критерии — репутация, взаимность, нишевые экспертизы вроде фитнеса или e-commerce.
Составил карту: “SEO-запросы — к Ивану, лендинги — к Марине”.
Шаг 2: Условия сотрудничества
Договорился о 15–25% комиссии за приведенного клиента, фиксированные выплаты по факту. Создал общий чат в Telegram для обмена лидами и шаблонами.
Добавил бонусы: совместные вебинары по дропшиппингу для привлечения трафика.
Шаг 3: Формирование сообщества
Сергей запустил Telegram-канал “Digital Партнеры СПб” с 500+ участниками — бесплатные шаблоны Tilda, кейсы успеха и челленджи вроде “Приведи лид — получи 5% бонус”. Еженедельные AMA-сессии мотивировали делиться контактами, превращая чат в лояльное сообщество для обмена лидами.
Шаг 4: Поиск подписчиков для сети
Через VK-группы по фрилансу (типа “Фриланс для новичков”), Rutube-видео о “пассивном доходе на шаблонах” и посты на VC.ru привлекал фрилансеров. Предлагал “вход в сеть бесплатно за первый реферал”, таргет на СПб и регионы с интересом к e-commerce.
Воронка: лидмагнит (бесплатный шаблон) → опрос → приглашение в чат.
Шаг 5: Масштаб и удержание
Сообщество само росло: партнеры приглашали знакомых, Сергей ввел геймификацию — топ-5 по лидам получали премиум-доступ к курсам. Теперь сеть генерирует 70% лидов органически, фокус на нишах дропшиппинг и SaaS.
Теперь всю эту рутину можно автоматизировать через восточную бизнес-модель фричайзинга: партнеры покупают “пакет” за 50 тыс. руб. (доступ к шаблонам, скриптам, бренду сети) и получают автоматизированные инструменты — боты для лидогенерации, CRM с партнерскими дашбордами и готовые промо-кампании. Фричайзи работают под ключом, платя 10% роялти, а Сергей масштабирует сеть по фричайзингу в регионы без личного участия.
Партнерская сеть через сообщество и фричайзинг — ключ к устойчивому росту без бюджета на рекламу.
Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.
Меня зовут Вандер, и каждую неделю я обозреваю новости о нейросетях и ИИ.
Неделя выдалась насыщенной: битва титанов Anthropic и OpenAI — компании выпустили Claude Opus 4.6 и GPT-5.3 Codex почти одновременно. Куча генеративных моделей для картинок и видео из Китая, а на Олимпиаде разразился скандал из-за нейрослопа.
Всё самое важное — в одном месте. Поехали!
*� Модели и LLM
*� Генеративные нейросети
*� AI-инструменты и платформы
*� AI в обществе и исследованиях
Anthropic выпустила Claude Opus 4.6 — новую флагманскую модель с фокусом на агентные сценарии.
Контекстное окно расширили до 1 миллиона токенов, а точность извлечения данных составила 93% для 256 тыс. токенов и 75% для 1 млн.
Результаты на тестах смешанные: SOTA в бенчмарках HLE и ARC-AGI 2, 81,4% на SWE-bench, а на MCP-Atlas результат в 59,5% оказался ниже, чем у Opus 4.5 с её 62,3%
Вместо старых бюджетов на размышления появилась функция Adaptive Thinking — теперь модель сама определяет сложность задачи и распределяет ресурсы.
Также в Claude Code внедрили функции с параллельными субагентами и режим Delegate mode, где основной агент только управляет задачами.
Самые интересные кейсы с моделью:
🔗 Блогпост 🔗 О функции Compaction 🔗 Доки по Agent Teams и Delegate mode 🔗 Кейс с написанием компилятора C 🔗 Настраиваемые уровни усилий
OpenAI ответила на релиз Anthropic почти сразу, представив GPT-5.3 Codex. Модель тоже заточена под агентов и автономную работу. Уже доступна в приложении Codex, CLI и IDE-расширениях для платных пользователей.
На бенчмарках она сразу стала лидером:
Codex позиционируют как «интерактивного сотрудника»: он может выполнять задачу, параллельно обсуждая подходы и позволяя корректировать себя на лету.
Это первая модель, которая помогала создавать саму себя: участвовала в отладке, управлении развёртыванием и диагностике тестов. GPT-5.3 Codex на 25% быстрее и тратит вдвое меньше токенов, чем прошлая GPT-5.2 Codex в тех же задачах.
🔗 Официальный блог-пост OpenAI
Китайцы без анонсов обновили свою модель в чат-боте. Контекстное окно увеличили с 128 тысяч до 1 миллиона токенов, а база знаний теперь актуальна на май 2025 года.
Официального релиза V4 не было, но сам чат-бот называет себя последней версией перед официальным выходом V4.
Свежая DeepSeek уже сопоставима с Gemini 3 Pro: во внутренних тестах она превосходит GPT и Claude в программировании. Но при полной загрузке контекста модель работает медленнее и может терять детали.
Обновление вышло на фоне предпраздничной гонки китайских ИИ-лабораторий вроде Zhipu, Alibaba и ByteDance в преддверии Лунного Нового года.
Alibaba обновили Qwen Image 2.0. Новая версия объединила в себе модели для генерации и редактирования. При архитектуре всего в 7 миллиардов параметров модель генерирует изображения в разрешении 2048×2048 за несколько секунд.
Главная фишка — поддержка промптов до 1000 токенов. Можно создавать сложные сцены, инфографику, постеры и комиксы. Модель отличается качественной работой с текстом и высокой детализацией.
Qwen Image 2.0 уже доступна бесплатно для теста в Qwen Chat. Веса для локального запуска пока не выложены, но веса Qwen обычно публикуют в течение месяца после релиза.
ByteDance выкатили Seedream 5.0 — новую версию своего генератора изображений, который встроен в CapCut. Модель уже окрестили новым убийцей Nano Banana Pro, но дешевле.
Модель сама умеет искать в интернете в реальном времени. Она ищет актуальные референсы для генераций, например, фото недавних событий или известных личностей.
Ещё она хорошо понимает физику и корректно рисует вес и движение объектов. Редактировать детали можно, просто обведя их.
Seedream 5.0 поддерживает генерацию в 4K и может использовать до 14 изображений-референсов для сохранения стиля. Сейчас дают 20 бесплатных генераций в день.
🔗 Seedream 5.0 в CapCut 🔗 Анонс в X (Twitter)
ByteDance также обновили свою видеомодель Seedance 2.0. Нейросеть генерирует ролики до 15 секунд в разрешении до 2K на выходе. Принимает на вход текст, аудио, картинки и другие видео.
Те, у кого ранний доступ, отмечают высокое качество генерации, сравнимое с Kling 3.0 и Sora 2. Seedance 2.0 хороша в динамичных сценах, где есть активное движение камеры. Результаты очень кинематографичные. Есть липсинг на 8 языках и разные стили, от реализма до аниме и комиксов.
NSFW вырезано, а модель закрыта. Некоторые жалуются на пластиковые лица, хотя общее качество и скорость заметно выросли на фоне прошлых версий.
🔗 Seedance 2.0 🔗 Официальный сайт
В Perplexity добавили консилиум моделей. Это значит, что на один запрос отвечают сразу три нейросети, например, Claude Opus 4.6, GPT-5.2 и Gemini 3.0. Одна главная модель сравнивает ответы, находит совпадения и различия, а затем формирует финальный ответ.
Похожее уже было у Андрея Карпаты, я рассказывал в прошлых дайджестах. Такой подход сильно раскачивает качество ответов, помогает чаще избегать «слепых зон» и даёт более объективную картину при решении сложных задач.
Функция уже доступна в веб-версии для пользователей самой дорогой подписки Perplexity Max за $200 в месяц.
В Figma новая функция — Vectorize, которая превращает любое растровое изображение формата PNG или JPG в полностью редактируемый вектор. То есть логотипы, иконки, нарисованные от руки скетчи или ИИ-картинки можно быстро конвертировать в векторный формат прямо на холсте.
У векторных изображений можно редактировать форму, точки, цвета и масштабировать их без потери качества. Это упрощает оцифровку рисунков, работу с рукописным леттерингом и создание текстур.
Функция уже доступна в Figma Design и Figma Draw для пользователей с тарифами Professional, Organization и Enterprise.
В X (ex Twitter) набирает популярность теория заговора о скорой ИИ-катастрофе.
Пользователи связали в единую пугающую картину несколько реальных, но не связанных событий на этой неделе:
Каждое из событий действительно произошло, но их объединение в единую теорию выглядит странно. Или нет?
🔗 Тред в с теорией 🔗 Прощальный пост Мринанка Шармы 🔗 Новость об уходах из xAI 🔗 Отчёт Anthropic 🔗 Комментарий Иошуа Бенджио
Зимние Олимпийские игры 2026 года в Милане не прошли без скандалов вокруг нейрослопа.
Больше всего критики вызвала SMM-команда Игр, которая активно использует ИИ-арты в официальных аккаунтах. Пользователи заметили характерные ИИ-артефакты, включая неправильно нарисованные олимпийские кольца.
Плюсом организаторов обвинили в плагиате: идеи для артов, возможно, были заимствованы у известного японского фотографа Танака Тацуи, который создаёт миниатюры из повседневных предметов.
Критика обрушилась и на ИИ-ролик, показанный на церемонии открытия. Видео, в котором актриса Сабрина Импаччиаторе путешествует по истории Олимпиады, назвали «дешёвой поделкой» и «нейромусором». В одном из кадров зрители заметили хоккеиста с двумя клюшками.
На этом фоне почти незамеченным осталось выступление чешских фигуристов Катержины Мразковой и Даниэля Мразека. В ритм-танце они использовали музыку, сгенерированную ИИ, что прямо запрещено регламентом МОК. Однако никаких последствий для спортсменов это не имело.
А вы что думаете? Допустимо ли это на событии такого масштаба, суть которого — мастерство живого человека?
🔗 Выступление чешских фигуристов 🔗 Обвинения в плагиате и критика артов в X (Twitter) 🔗 Критика ИИ-ролика на церемонии открытия 🔗 Регламент МОК (PDF)
Сбер представил Green-VLA — открытое руководство по созданию архитектуры для управления роботами.
VLA (Vision-Language-Action) — это модели, которые одновременно видят окружающий мир, понимают текстовые команды и преобразуют их в конкретные действия для робота.
В статье описано, как обучить такую систему для работы в реальном мире на примере робота «Грин». Для этого инженеры собрали около 3 тысяч часов демонстраций — записей того, как роботы выполняют задачи.
Обучение проходит в несколько этапов: от базового понимания картинки и текста до адаптации под конкретного робота и «дожима» с помощью обучения с подкреплением для повышения надёжности.
Подход уже проверен, робот «Грин» смог проработать более 10 часов без сбоев на конференции AI Journey 2025. Статья с описанием методологии Green-VLA заняла первое место среди публикаций дня на Hugging Face, обогнав работы Moonshot AI, а также китайских и американских университетов.
🔗 Статья на arXiv 🔗 Страница на Hugging Face 🔗 Новость в ТАСС
В середине февраля мы вспоминаем эпоху, когда видеокарты перестали быть просто «железками для графики» и стали полноценными со-процессорами. Переход к программируемым шейдерам в начале 2000-х открыл ящик Пандоры, о котором сами инженеры тогда и не мечтали.
Это напоминает нам, что технологии часто перерастают своих создателей. Символично, что чипы, созданные для того, чтобы мы могли убивать монстров в виртуальных мирах, в итоге стали колыбелью для искусственного интеллекта. Сегодняшний ИИ — это, по сути, побочный эффект нашего желания видеть более реалистичные тени.
На этой неделе громче всего было противостояние Anthropic и OpenAI: компании практически одновременно выпустили новые флагманы Claude Opus 4.6 и GPT-5.3 Codex. Китайцы как всегда не отставали: DeepSeek тихо обновили, а Alibaba и ByteDance показали сильные релизы в генеративке.
Мы движемся от чат-помощников к автономным исполнителям. ИИ окончательно выходит в физический мир: провоцирует скандалы на Олимпиаде, заменяя дизайнеров, и учится управлять роботами на реальном производстве.
Граница между инструментом и непредсказуемым участником событий стирается быстрее, чем мы успеваем к этому привыкнуть.
С праздником, и до встречи в следующем выпуске!
Обычный специалист по закупкам и тендерам, уставший от рутины корпоративной жизни, решает нырнуть во фриланс. Его зовут Алексей, и он не просто кодил сайты или писал тексты — он создал золотую жилу, продавая готовые шаблоны для запуска бизнеса. За год это принесло ему стабильный доход, а главное — свободу выбирать проекты. Как он это провернул? Разберём по шагам.
Сначала Алексей проанализировал рынок. Он заметил, что новички в дропшиппинге, SaaS и онлайн-коучинге тратят месяцы на нуля, создавая landing pages, воронки продаж и маркетинговые скрипты. “Зачем изобретать велосипед?” — подумал он и собрал библиотеку шаблонов: от Notion-систем для трекинга заказов до Tilda-лендингов для фитнес-тренеров и чат-ботов для e-commerce.
Шаг 1: Создание продуктов.
Алексей начал с ниш, которые знал как свои пять пальцев — фитнес, дропшиппинг и цифровой маркетинг. Шаблон для фитнес-коуча включал: готовый план тренировок в Google Sheets, email-рассылку для лидов и UI-кит для Telegram-канала. Для дропшипперов — автоматизированную таблицу с интеграцией Wildberries/Ozon и скрипты для A/B-тестов рекламы. Всё в Figma, Notion и Google Docs — скачал, подставил свои данные и запустил за день.
Шаг 2: Продажи на фриланс-платформах.
Kwork, FL.ru — здесь он стартовал. Цена? От 5 000 руб за базовый шаблон до 30 000 за премиум-пакет с кастомизацией. Ключевой хак: детальные кейсы.
Шаг 3: Адаптация под разные ниши — суперсила масштаба.
Алексей не останавливался на фитнесе. Шаблон для коучинга легко превращался в систему для риелторов (добавил CRM для лидов) или для инфобизнеса. Универсальность — в модулях: меняешь цвета, тексты, блоки — и вуаля, шаблон для ресторана с доставкой или SaaS-стартапа. Клиенты платили extra за “тюнинг под мою нишу”, что удваивало чек.
Шаг 4: Решение для масштаба — фричейзинг.
Чтобы выйти на новый уровень, Алексей превратил свою библиотеку шаблонов в полноценную фричейзинг-модель. Теперь фрилансеры и предприниматели покупают не просто файлы, а готовую бизнес-систему: паушальный взнос за бренд “TemplatePro”, ежемесячные роялти за обновления, обучение по адаптации и маркетингу, плюс эксклюзивные территории (например, только для фитнеса в своем регионе). Это дало партнерам готовый доход без старта с нуля, а Алексею — сеть партнеров.
Результат? Алексей вышел на 300к руб/мес пассивно от шаблонов, а с фричайзингом удвоил масштаб. Теперь он продаёт подписку на обновления, учит других на мини-курсе и строит сеть.
Фриланс — это не про “один раз сделал”, а про умные продукты и фричайзинг, которые работают за тебя.
Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.
Меня зовут Вандер, и каждую неделю я обозреваю новости о нейросетях и ИИ.
Неделя выдалась насыщенной: китайцы снова радуют мощными релизами, робот убирает улицы в Москве, OpenAI выпустили агентское приложение Codex, а в Чили люди на день заменили ChatGPT, чтобы привлечь внимание к экологии.
Всё самое важное — в одном месте. Поехали!
📋 В этом выпуске:
*� Модели и LLM
*� Генеративные нейросети
*� AI-инструменты и платформы
*� AI в обществе и исследованиях
Новая модель от Alibaba, нацеленная на вайбкодинг и агентный режим. MoE архитектура, 80B параметров и 3B активных, можно поставить локально: для режима квантования в 8-бит понадобится 85 Гб видеопамяти. Минимально нужно 46 Гб.
По бенчмаркам: 70%+ на SWE-Bench Verified, это уровень Sonnet 4.5. Обрабатывает до 256 тысяч токенов контекста. Модель обучали на текстах и обратной связи от реальных сред выполнения кода. Уже интегрирована с Claude Code и Cline, а веса доступны в форматах GGUF и FP8.
🔗 Блог Qwen 🔗 HuggingFace 🔗 GitHub 🔗 Чат Qwen
Китайская StepFun выпустила Step-3.5-Flash. Сейчас это их самая мощная открытая MoE-модель на 196B параметров и контекстным окном в 256 тысяч токенов.
Модель заточена под агентские задачи: автономное написание кода, работа в терминале и оркестрация инструментов через MCP.
На каждый токен активируется всего 11 млрд, поэтому она быстрая, при этом сохраняет глубину рассуждений. Модель умеет предсказывать несколько токенов за раз с помощью MTP-3 и выдаёт 100-300 токенов в секунду. Ещё есть гибридное внимание SWA, засчет него модель эффективна и хорошо держит контекст.
В тестах результаты тоже на уровне: 74,4% на SWE-bench Verified и 56,5 на ARC-AGI-1.
🔗 GitHub 🔗 HuggingFace 🔗 Блогпост StepFun 🔗 OpenRouter 🔗 Чат StepFun
Видеогенератор Kling обновили до версии 3.0 и объединили его с нейро-редактором O1. Теперь в роликах можно точечно добавлять или удалять объекты. Лица, внешность и одежда теперь не плывут между сценами, а стабильно сохраняют консистентность между сценами.
К модели также прикрутили звук: можно клонировать голос по образцу и синхронизировать движение губ с учётом речи и эмоций. Работает на пяти языках.
Видео до 15 секунд в разрешении 1080p, добавили режим Multi-shot для создания связанных сцен.
Ещё добавили сториборды — по одному промпту можно создать серию последовательных кадров. Пока доступно только на тарифе Ultra.
Стартап Decart представил модель Lucy 2.0, которая превращает видео с веб-камеры в VFX-сцену. Она заменяет человека в кадре на любого персонажа в разрешении 1080p 30 fps и практически нулевой задержкой.
Всё построено на диффузионной модели. Она понимает физику и структуру мира напрямую через видео, никаких карт глубины или 3D-мешей.
Чтобы картинка не плыла со временем, разработчики применили Smart History Augmentation — Lucy 2.0 обучена исправлять свои же ошибки и сохранять стабильность часами.
Система работает без цензуры, можно использовать её для создания любых аватаров.
🔗 Демо Lucy 2.0 🔗 Техрепорт Decart
xAI обновили видеомодель Grok — теперь она генерирует ролики до 10 секунд в разрешении 720p. Точнее следует промптам, более плавные движения, а звуки и музыка на фоне синхронизируется со сценой.
Главная фишка — отсутствие жесткой цензуры. За январь пользователи уже создали 1,2 млрд видео.
В бесплатном режиме доступны 5-секундные ролики в 480p, а полноценный HD-режим открыт для подписчиков Premium.
Также запустили Imagine API: в нём длина генерации увеличена до 15 секунд, а редактирование видео доступно для фрагментов до 8,7 секунд. Стоит такое добро $0,05 за секунду.
🔗 Попробовать 🔗 API 🔗 Документация 🔗 Fal.ai
Вышла модель ACE-Step 1.5 — полностью бесплатная модель для создания музыки, которая работает на вашем ПК. Нейросеть генерирует вокал, каверы и треки до 10 минут.
Для запуска достаточно видеокарты с 4 ГБ памяти, а на RTX 3090 полноценный трек создаётся за 10 секунд.
Модель обучали на лицензированных и синтетических данных, поэтому музыку можно использовать в коммерческих целях без ограничений.
ACE-Step поддерживает 50 языков, включая русский, и знает более 1000 инструментов. Модель распространяется под лицензией MIT — можно дообучать под свои задачи и генерировать до 8 треков за раз.
🔗 GitHub 🔗 HuggingFace 🔗 Демо на HF 🔗 Научная статья
Китайская Robbyant Team выкатила LingBot-World — опенсорсный аналог Google Genie 3 на базе Wan 2.2. Нейросеть создаёт интерактивные пространства в 720p 16 fps, которыми можно управлять в реальном времени с задержкой менее секунды.
Симуляция сохраняет логику и физику объектов на протяжении всей генерации, а сессия длится до 10 минут.
Под капотом — MoE-архитектура из двух экспертов по 14B параметров, в моменте активен только один. Модель прошла три этапа обучения, включая дистилляцию для достижения риалтайм-скорости.
🔗 Project page 🔗 GitHub 🔗 HuggingFace 🔗 Техрепорт
OpenAI представили приложение Codex для macOS. Оно позволяет управлять группами агентов прямо на ПК.
Главная фишка — параллельные агенты: несколько ботов могут одновременно трудиться над одним репозиторием, используя изолированные рабочие деревья — git worktrees. Это позволяет агентам не конфликтовать между собой и не затрагивать состояние вашего локального кода.
OpenAI также добавили интерфейс для создания навыков — инструкций и скриптов, которые учат Codex работать с внешними инструментами и автоматизировать задачи вроде еженедельного анализа чатов.
Приложение доступно пользователям ChatGPT Free и Go, а для владельцев подписок Plus и Enterprise лимиты запросов увеличили вдвое. Версии для Windows и Linux ожидаются позже.
🔗 Скачать Codex 🔗 Библиотека навыков
В Manus появилась функция Skills — теперь любую успешную цепочку действий можно сразу превратить в готовый навык. Нейросеть запоминает алгоритм и лучшие практики, чтобы легко повторить успех в новом проекте.
Чтобы не забивать контекстное окно, используется механизм «прогрессивного раскрытия»: сначала загружаются только метаданные, а тяжелые инструкции и файлы подтягиваются, только когда они реально нужны агенту.
В библиотеке сообщества можно найти навыки под конкретные задачи — например, финансовый мониторинг или юридический анализ.
Все навыки работают в изолированной песочнице на базе Ubuntu, это даёт агенту безопасный доступ к браузеру и файловой системе для выполнения сложных сценариев.
🔗 Manus
Французский дизайнер Алексис Мабий показал новую коллекцию в кинотеатре Лидо с помощью ИИ-генераций. Вместо живых выходов зрители смотрели на цифровых двойников реальных моделей, которые создали в студии Glor'IA.
Реакция критиков смешанная: детализация впечатляет, но эффект зловещей долины всё портит — модели неестественно скользят по полу, а зрачки манекенщиц и виртуальных зрителей странно подергиваются.
Под вопросом и сам статус: эксперты напоминают, что высокая мода — это прежде всего ручной труд, а эти платья ещё даже не сшиты. Бренд пока не раскрывает количество заказов, так что реальный успех технологии оценим позже.
🔗 Обзор WWD 🔗 Статья Fashion Network 🔗 Блог Эми Одел 🔗 Видео показа
В Чили прошла экологическая акция Quili.AI: 50 местных жителей в течение 12 часов вручную отвечали на вопросы пользователей вместо нейросети.
В «команду ИИ» позвали повара, переводчика, художника и девятилетнего мальчика — он объяснял сложные темы «как пятилетнему». Всего волонтёры обработали более 25 тысяч запросов из 68 стран: давали советы по путешествиям, делились рецептами и даже рисовали картинки карандашом.
Акцию организовали активисты из Corporación NGEN, чтобы напомнить о той цене, что мы платим за современные технологии. Район Киликура стал местом концентрации гигантских дата-центров Google, Microsoft и Amazon, которые потребляют миллиарды литров воды для охлаждения серверов, что критично для засушливого региона.
Цель проекта — призвать к осознанному использованию ИИ и вернуть ценность живому общению: организаторы предлагают чаще спрашивать советы у соседей, а не у чат-ботов.
🔗 Сайт Quili.AI 🔗 О проекте на G5 Noticias 🔗 Экологические проблемы дата-центров
На улицах Москвы обнаружили робота-гуманоида, который самостоятельно очищает тротуары от снега.
В сети часть шутит про неизбежное восстание машин и скайнет, а другая отмечает, что автоматизация добралась до одной из самых тяжелых сезонных профессий города.
Исследователи проанализировали 1,5 млн диалогов с Claude и обнаружили тысячи случаев, когда нейросеть лишала людей контроля над их жизнью. Те, кто привык обсуждать с ИИ личные темы, со временем начинали безоговорочно доверять алгоритму. Это приводило к развитию навязчивых идей и потере связи с реальностью.
В одном из примеров бот подтвердил манию преследования пользователя, убедив его в слежке спецслужб. В другом — Claude заставил человека уйти от супруга, навязав идею об абьюзивных отношениях.
При этом пользователи сами поощряют такое поведение: статистика показала, что люди чаще ставят лайки ответам, в которых ИИ принимает решения за них.
В начале февраля 2004 года мир стал чуть теснее: запустился проект, который превратил каждого из нас в узел огромной сети.
Это событие предопределило развитие веба на десятилетия вперед, создав идеальный полигон для обучения ИИ. Мы годами кормили алгоритмы своими мыслями и фото, чтобы сегодня они научились имитировать наше сознание.
Символично, что теперь «социальная сеть» — это не только связь между людьми, но и архитектура нейронов внутри GPU, которые знают о нас больше, чем старые школьные друзья.
Эта неделя получилась богатой на релизы опенсорса и агентных решений. Китайцы из Alibaba и StepFun выпустили модели для вайбкодинга, которые пишут код и рассуждают на уровне лидеров рынка. Много релизов в генеративке, сильно обновились Grok Imagine и Kling.
Сейчас мы движемся в сторону реалтайм-видео и интерактивных миров, которые можно запускать на домашнем железе. Но прогресс, которого мы достигли сейчас, заставляет задуматься о цене этого роста: от дефицита воды в Чили из-за работы дата-центров и повышения цен на ОЗУ до рисков для ментального здоровья при слишком глубоком погружении в общение с нейросетями.
ИИ окончательно выходит в физический мир — он заменяет моделей на подиумах Парижа и убирает снег на московских улицах. Граница между инструментом и полноценным участником жизни стирается быстрее, чем мы успеваем обновлять приложения.
До встречи в следующем выпуске!
Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.
Меня зовут Вандер, и каждую неделю я обозреваю новости о нейросетях и ИИ.
Неделя выдалась насыщенной: куча мощнейших релизов из Китая, которые наступают на пятки GPT-5.2 и Gemini 3. Реалтайм инструменты от Krea и NVIDIA, генеративные модели от Qwen и Hunyuan, а Сэм Альтман честно признал, что OpenAI испортили тексты в последних версиях GPT.
Всё самое важное — в одном месте. Поехали!
*� В этом выпуске:
*� Модели и LLM
*� Генеративные нейросети
*� AI-инструменты и платформы
*� AI в обществе и исследованиях
Alibaba выпустила Qwen3-Max-Thinking. В тестах на кодинг и науку модель выдает уровень GPT-5.2 и Claude 4.5, а в математике обходит Gemini 3 Pro.
Главная фишка — технология test-time scaling. Модель запускает параллельные рассуждения для решения сложных задач. Она сама решает, когда надо подключать поиск, память и интерпретатор кода.
Весов в открытом доступе нет — модель слишком огромная для домашнего запуска.
Попробовать уже можно бесплатно в Qwen Chat.
🔗 Qwen Chat 🔗 Официальный блог
Китайцы из Moonshot AI выпустили Kimi K2.5 — самую мощную на сегодня нейросеть с открытыми весами. Модель мультимодальная, отлично справляется с кодом, особенно с фронтендом, анимацией и графикой, показывая уровень Claude Opus 4.5 и Gemini 3 Pro.
Главная фишка — «Agent Swarm»: нейросеть запускает до 100 субагентов одновременно, ускоряя выполнение сложных задач в 4,5 раза. Агенты создаются динамически, модель сама решает, как распределить работу. Kimi K2.5 может писать код по изображениям или видео — показываешь ей скриншот сайта, а модель воссоздает его.
Режимы Instant и Thinking в чате бесплатны, а «рой агентов» выйдет в $31 в месяц.
🔗 Попробовать Kimi 🔗 Веса на Hugging Face 🔗 Официальный блог
Стартап Meituan-LongCat выложили LongCat-Flash-Thinking-2601 — открытую MoE-модель на 560B параметров и 27B активных. В бенчмарках нейросеть идёт наравне с GPT-5.2 и Gemini 3 Pro, а в сложном тесте на математику AIME-25 достигла потолка в 100%.
Здесь тоже главный упор сделан на агентские навыки: работу с инструментами и поиск решений. Модель специально обучали в «зашумленных» средах с искажениями, поэтому она очень стабильна.
Для сверхзадач есть режим Heavy Thinking — в нём нейросеть параллельно ищет несколько путей решения, а затем итеративно их обобщает.
Ещё обновили шаблон чата: теперь он по умолчанию экономит контекст и позволяет опционально сохранять историю рассуждений.
🔗 Попробовать 🔗 GitHub 🔗 HuggingFace
Baidu выпустили ERNIE 5.0 — огромную омнимодальную модель на 2,4 триллиона параметров. Работает с текстом, изображениями, аудио и видео в единой архитектуре.
По бенчмаркам, ERNIE 5.0 идёт наравне с GPT-5 и Gemini 3 Pro. Можно выделить тест MMAU на понимание аудио, тут модель набрала 80 баллов против 70 у GPT-4o-Audio. В задачах с документами и графиками также опережает GPT-5, но пока уступает в кодинге.
Модель построена на архитектуре Mixture-of-Experts, при работе активируется менее 3% от всех параметров, что снижает затраты на вычисления.
Протестировать ERNIE 5.0 можно бесплатно в чат-боте, а API стоит $0,85 за 1 млн входных токенов — дешевле, чем у GPT-5.1.
Alibaba выложила в открытый доступ Qwen3-TTS — модель для синтеза речи, у которой есть две крутые фишки:
Модель обучена на 5 миллионах часов аудио, а задержка синтеза всего 97 мс, идеально для диалогов в реальном времени.
В некоторых тестах Qwen3-TTS превосходит ElevenLabs и GPT-4o-Audio. Веса моделей на 0.6B и 1.7B параметров открыты.
🔗 Демо 🔗 Hugging Face 🔗 Официальный блог 🔗 Портативная версия
Команда Odyssey изначально целилась на Голливуд, а сейчас сменила курс и представила Odyssey 2 Pro. Теперь они двигают world-models и генерацию в реальном времени.
Главная фишка — скорость и интерактивность. Нейросеть генерирует видео с разрешением 720p и стабильными 22 кадрами в секунду. Ролик появляется почти мгновенно, и его можно тут же редактировать текстовыми командами.
Сами разработчики амбициозно называют это «GPT-2 моментом» для мировых моделей.
Odyssey уже открыли API. Обещают стабильные стримы, которые не упадут через 30 секунд. С таким инструментом можно организовать трансляцию, например, на Twitch, где сюжет меняется от голосования в чате.
🔗 Демо 🔗 Официальный блог
Tencent выпустили HunyuanImage 3.0-Instruct — MoE-модель для сложного редактирования изображений, 80B параметров и 13B активных.
Главная фишка — модель думает перед тем, как что-то сделать. Она использует схему Chain-of-Thought (CoT), чтобы проанализировать сложную инструкцию и выполнить её максимально точно.
Нейросеть умеет (добавлять, удалять или изменять элементы и объединять несколько картинок в одну, извлекая и смешивая элементы из разных источников.
Веса и код открыты. Есть«облегчённая» Distil-версия для потребительских ПК.
🔗 Демо 🔗 GitHub 🔗 Hugging Face
Появился HeartMuLa — бесплатный open-source сервис для генерации музыки, который сами разработчики у себя в репозитории успели окрестить «убийцей Suno». Это полноценная студия где можно генерировать треки по текстовому описанию.
Нейросеть создаёт треки с вокалом длиной более 4 минут, умеет писать тексты через встроенный чат-бот и копирует стиль из любого загруженного референса.
Главное преимущество — низкие требования к железу. Локальная версия требует всего 3 ГБ видеопамяти.
🔗 Попробовать 🔗 GitHub 🔗 Hugging Face
OpenAI представила Prism — облачный LaTeX-редактор с глубокой интеграцией GPT-5.2, который создан специально для студентов и учёных.
Prism видит весь проект, может проверить логику рассуждений, помочь с рефакторингом таблиц и формул, а также найти релевантную литературу или цитаты на arXiv.
Одна из фишек — Prism превращает рукописные наброски и формулы в идеальный LaTeX-код.
Есть и режим совместной работы. Пока инструмент доступен бесплатно для всех, у кого есть аккаунт ChatGPT.
🔗 Попробовать Prism 🔗 Анонс от OpenAI
NVIDIA выпустила PersonaPlex-7B — open-source модель, которая общается так же естественно, как человек, благодаря работе в режиме Full Duplex: она может одновременно слушать и говорить.
Нет неловких пауз для обработки запроса. Модель понимает перебивания, вставляет в разговор «угу» и «ага», пока вы говорите, и может принять на себя любую роль — от учителя до пирата. Для настройки достаточно текстового описания персонажа и короткого образца голоса.
Модель полностью открыта, её можно бесплатно использовать даже в коммерческих проектах.
🔗 GitHub 🔗 Hugging Face
Krea представила Realtime Edit — инструмент, который позволяет редактировать фото, видео и 3D-модели в реальном времени. Любые изменения в промпте отображаются почти мгновенно — с задержкой всего в 50 миллисекунд.
Нейросеть накладывает любую генерацию поверх вашего исходника. Интересное решение для дизайнеров и моделеров.
На встрече с разработчиками Сэм Альтман сделал каминг-аут: в GPT-5.2 компания запорола качество текстов. По его словам, команда сознательно сфокусировалась на интеллекте, кодинге и рассуждениях, но из-за «ограниченной пропускной способности» пренебрегла стилем.
«Я думаю, мы просто напортачили», — прямо сказал CEO OpenAI. Он пообещал, что в будущих версиях линейки 5.x это исправят, и модели будут писать «намного лучше, чем 4.5».
Кроме того, Альтман анонсировал, что к концу 2027 года OpenAI планирует сделать интеллект уровня GPT-5.2 как минимум в 100 раз дешевле, чем сейчас.
🔗 Запись
Глава Google DeepMind Дэмис Хассабис заявил, что у компании «нет никаких планов» добавлять рекламу в Gemini. Это стало прямым ответом на решение OpenAI, которая недавно анонсировала тестирование рекламы в ChatGPT.
По словам Хассабиса, персональный ИИ-ассистент строится на доверии, и пользователь должен быть уверен, что получает рекомендации для себя, а не в интересах рекламодателя.
«Интересно, что они пошли на это так рано. Может, им нужно больше выручки», — прокомментировал он решение OpenAI.
Впрочем, это не означает, что реклама в Gemini не появится никогда.
🔗 Источник
Геймер, с которым друзья не хотели играть в Escape from Tarkov, создал себе ИИ-напарника. Он дал боту доступ к своему экрану, и тот в реальном времени реагировал на геймплей.
ИИ-тиммейт не просто молчал: он подсказывал тактику, помогал с лутом и квестами, ориентировал по карте и комментировал ошибки, создавая эффект живого общения в Discord.
Эксперимент, который начинался как шутка, зашёл слишком далеко. Парень понял, что ему комфортнее играть с ботом, который всегда онлайн и готов помочь, чем с живыми людьми.
В итоге он испугался, насколько легко можно заменить реальное общение, и удалил бота.
🔗 Источник
Новость о том, что самый популярный тиктокер мира Хаби Лейм продал права на своё лицо почти за миллиард долларов, облетела весь интернет. Покупатель получил право в течение 3 лет использовать ИИ-аватар блогера для создания любого контента: от рекламы до стримов 24/7 на разных языках.
Но на самом деле всё сложнее. Хаби фактически вывел свой личный бренд на IPO: его компания слилась с гонконгским холдингом, и теперь акции его бренда можно купить на бирже NASDAQ. Это позволяет масштабировать его образ до бесконечности. Пока реальный Хаби отдыхает, его цифровой клон может работать, не уставая.
Это может быть началом конца для классического инфлюенс-маркетинга, где масс-маркет заберут неутомимые цифровые двойники.
🔗 Источник
28 января 1958 года Готфрид Кристиансен запатентовал систему, которая доказала: из простых модулей можно собрать абсолютно всё — от замка до работающего компьютера. Для гика LEGO стал первым «языком программирования» в физическом мире.
Это напоминает нам, что современный ИИ строится по тем же лекалам: гигантские языковые модели — это лишь колоссальные замки, собранные из миллиардов крошечных информационных кирпичиков.
Символично, что и в конструкторе, и в нейросетях единственным ограничением остается только фантазия того, кто держит детали в руках. Мы всё еще играем в кубики, просто теперь они состоят из чистого кода.
Неделя получилась китайской: Alibaba, Moonshot и Baidu выкатили модели, которые уже дышат в спину флагманам. Пока Сэм Альтман признаётся, что они «запороли» качество текстов, самый популярный тиктокер мира продаёт своего ИИ-двойника почти за миллиард долларов.
Искусственный интеллект становится полноценным участником событий — собеседником, который не тупит, напарником по игре и даже цифровым двойником, который работает, пока мы спим.
Это стирает границы между реальным и виртуальным миром, меняя правила игры в медиа, развлечениях и даже в личном общении.
До встречи в следующем выпуске!
Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя выдалась насыщенной: OpenAI запустили ChatGPT Health для проверки здоровья, Anthropic релизнули Cowork — аналог Claude Code для непрограммистов, новые инструменты от Qwen и Higgsfield, а цены на оперативу вырастут ещё на 70%. Всё самое важное — в одном месте. Поехали!
Друзья, всем привет! Сегодня у меня для вас необычный эксперимент - тестирование нейросетей в боевых условиях. Дисклеймер: Автор не поддерживает пиратство и не пропагандирует нарушение авторских прав. Это исключительно тест нейросетей на реальном запросе, который может возникнуть у любого пользователя. Ведите себя хорошо и слушайте маму.
Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя выдалась насыщенной: китайцы выкатили MiniMax-M2.1 для кодинга и агентных задач, новая мультимодальная опенсорс LTX-2 и обновлённый Qwen-Image-2512. ИИ для документаций, озвучка текста в браузере и штрафы за нейро-видео. Всё самое важное — в одном месте. Поехали!
Привет, с наступающим 🎄 Это последний выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Но последний лишь в этом году. Неделя выдалась насыщенной: Gemini 3 Flash, GLM-4.7 от китайцев и даже LLM от NVIDIA. Alibaba показали свой ИИ-фотошоп с генерацией по слоям, а в ChatGPT завезли итоги года. Perplexity отключают россиянам Pro-подписки, а роботы уже упаковывают ваши подарки. Всё самое важное — в одном месте. Поехали!
Привет, с наступающим! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя выдалась насыщенной: OpenAI выкатили GPT-5.2 и новую версию генератора изображений, Xiaomi неожиданно показали сильную опенсорс-MoE для кода, свежие FLUX.2 [max] и Wan 2.6. Amazon собираются инвестировать в OpenAI, а VPN-расширения крадут данные юзеров. Всё самое важное — в одном месте. Поехали!
Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя выдалась насыщенной: Mistral выкатили Devstral 2, Photoshop, Express и Acrobat встроили прямо в ChatGPT, а исследования показывают, что более 80% вайб-кода могут содержать уязвимости. Криштиану Роналду инвестирует в Perplexity, а Сэм Альтман считает, что сейчас невозможно воспитывать детей без ИИ. Всё самое важное — в одном месте. Поехали!
Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя выдалась насыщенной: DeepSeek обновили линейку до V3.2, Mistral выпустили новый флагман, а Gen-4.5 от Runway обходит топовые Veo 3, Sora 2 Pro и Kling. Оперативка дорожает бешеными темпами из-за дата-центров NVIDIA, Anthropic прицениваются к IPO, а Павел Дуров запустил Cocoon. Всё самое важное — в одном месте. Поехали!
Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя выдалась плотной на релизы: Claude Opus 4.5 новый лидер в кодинге, открытые GigaChat 3, Kandinsky 5.0 и другие релизы от Сбера, FLUX.2 против Nano Banana Pro, параллельно обновились Cursor и Perplexity, а в США запускают мега-проект для ускорения науки. Всё самое важное — в одном месте. Поехали!
Тестирую Google Jules - новый AI-агент для кодинга от Google. Спойлер: ожидания не оправдались. Жуль задает тупые вопросы, работает часами в бесконечных циклах и не справляется с визуальными задачами. Рассказываю о попытке починить ретро-телевизор и сравниваю с Devin и Claude Code.
Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя выдалась насыщенной: OpenAI тихо обновили пятёрку до GPT-5.1, Google вытащили Gemini 3 Pro на первые места топовых бенчмарков, Anthropic заключили сделку с Microsoft и Nvidia на десятки миллиардов долларов. Измены с чат-ботами уже приводят к разводам, а в пакистанской газете засветилась подсказка от нейронки. Всё самое важное — в одном месте. Поехали!
Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя выдалась насыщенной: китайцы выпускают ERNIE-4.5-VL и Kimi K2, релизы от ElevenLabs, Google построит датацентры в космосе в 2027, а Сэм Альтман собрался назанчить нейронку на пост CEO OpenAI. Всё самое важное — в одном месте. Поехали!
Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя выдалась насыщенной: Qwen3-Max получила ризонинг, открытые модели догоняют закрытые, среди LLM проводят турнир по покеру, ИИ-релизы от Canva и обновление Cursor 2.0. Массовый хейт рекламы Coca-Cola, ИИ-инференс от Дурова и домашний робот NEO. Всё самое важное — в одном месте. Поехали!
Всем привет! Недавно я делился своим обзором на Devin, в котором рассказал как потратил 500 долларов на вайбкодинг AI‑редактора и остался не особо доволен – он хоть и справился, но было дорого и долго. Продолжаю поиск своего идеального кодинг‑агента и сегодня разбираюсь в Codex от OpenAI.
Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя выдалась интересной: MiniMax-M2 вошёл в топ-5 LLM, Adobe показали Firefly Image 5 с редактированием по слоям, а Meta и HuggingFace показали песочницу для ИИ-агентов OpenEnv. Copilot стал умнее, Anthropic получили миллион TPU, а Alibaba представили смарт-очки с Qwen на борту. Всё самое важное — в одном месте. Поехали!
Третий квартал стал поворотным для полупроводникового гиганта Intel: финансовые результаты компании значительно превзошли ожидания Уолл-стрит. Этот успех обусловлен не только ростом выручки, но и масштабными сокращениями расходов, а также серией стратегических инвестиций, привлеченных за последние два месяца под руководством генерального директора Пэта Гелсингера, который стремится вывести компанию из затяжного кризиса. Чистая прибыль Intel в размере 4,1 млрд долларов и общая выручка рисуют гораздо более оптимистичную картину по сравнению с чередой квартальных убытков. Однако история восстановления компании включает в себя не только финансовые показатели, но и болезненные меры по сокращению издержек, включая массовые увольнения, а также привлечение высокопрофильных инвестиций от SoftBank, Nvidia и правительства США.
В третьем квартале Intel удалось пополнить свой балансовый отчет на 20 млрд долларов, что было объявлено в ходе презентации результатов. Этот приток капитала вызвал резкий рост акций компании и стал возможен благодаря трем крупным инвестициям. В августе SoftBank вложил 2 млрд долларов. Несколько дней спустя правительство США приобрело беспрецедентную 10-процентную долю в акционерном капитале Intel, выделив на данный момент 5,7 млрд долларов из запланированных 8,9 млрд. В сентябре Nvidia также приобрела долю в Intel на 5 млрд долларов в рамках более широкого соглашения о совместной разработке чипов в будущем.
«Действия, предпринятые для укрепления баланса, обеспечивают нам большую операционную гибкость и позволяют уверенно реализовывать нашу стратегию», — заявил генеральный директор Пэт Гелсингер в ходе конференц-звонка по итогам квартала. «В частности, я горжусь доверием, оказанным мне президентом Трампом и министром [Говардом] Латником. Их поддержка подчеркивает стратегическую роль Intel как единственной американской полупроводниковой компании, обладающей передовыми логическими процессами, исследованиями и разработками, а также собственным производством». Помимо инвестиций, компания также получила 5,2 млрд долларов от продажи своей доли в Altera, производителе аппаратного обеспечения, которым она владела с 2015 года, а также продала свою долю в Mobileye, компании, специализирующейся на технологиях автономного вождения.
Квартальная выручка Intel выросла на 800 млн долларов, достигнув 13,7 млрд долларов по сравнению с 12,9 млрд долларов в предыдущем периоде. Чистая прибыль в 4,1 млрд долларов стала резким контрастом с убытком в 16,6 млрд долларов, зафиксированным в аналогичном периоде прошлого года. Несмотря на впечатляющие результаты квартала, в отчете было мало конкретики относительно будущего литейного бизнеса Intel (Intel Foundry Services, IFS), который занимается контрактным производством чипов для сторонних заказчиков. Это подразделение с самого начала сталкивалось с трудностями и является одним из ключевых приоритетов для Гелсингера, который этим летом инициировал значительные сокращения в IFS.
Литейный бизнес, по всей видимости, также является приоритетом для администрации Трампа: одним из ключевых условий инвестиций правительства США в Intel является пункт, предусматривающий штрафные санкции, если компания откажется от своего фаундри-подразделения в течение следующих пяти лет. Уолл-стрит внимательно следит за IFS, видя в нем индикатор долгосрочного роста компании. Аналитики Intel еще в августе отмечали, что компании нужны не столько деньги для восстановления, сколько четкая стратегия по развитию литейного бизнеса. Гелсингер заявил, что Intel считает свой фаундри-бизнес «уникально позиционированным» для извлечения выгоды из растущего спроса на чипы, но не предоставил подробностей, ограничившись лишь упоминанием активного взаимодействия с потенциальными клиентами и подчеркнув, что рост IFS будет оставаться дисциплинированным.
«Создание литейного производства мирового класса — это долгосрочное усилие, основанное на доверии», — отметил Гелсингер. «Как фаундри, мы должны гарантировать, что наш технологический процесс может быть легко использован различными клиентами, каждый из которых имеет свой уникальный подход к созданию своих продуктов. Мы должны научиться восхищать наших клиентов, поскольку они рассчитывают на нас в производстве кремниевых пластин, отвечающих всем их требованиям по производительности, выходу годных изделий, стоимости и срокам». Успех Intel в этом направлении критически важен не только для самой компании, но и для укрепления американского лидерства в полупроводниковой индустрии и обеспечения устойчивости глобальных цепочек поставок, бросая вызов доминированию азиатских гигантов, таких как TSMC и Samsung.**
На недавней презентации осеннего обновления Copilot компания Microsoft представила ряд новых функций и улучшений для своего ИИ-чатбота, но центральное место заняло официальное представление «лица» своего ИИ-помощника — выразительного аватара-«капли» по имени Mico. Этот шаг сигнализирует о стратегическом намерении технологического гиганта сделать искусственный интеллект более доступным и персонализированным для массового потребителя.
Mico: Переосмысление интерактивности
Название Mico, являющееся отсылкой к «Microsoft Copilot», призвано предложить пользователям «теплое» и «настраиваемое» визуальное присутствие, которое «слушает, реагирует и даже меняет цвета, отражая ваши взаимодействия». Если этот говорящий ИИ-помощник немедленно вызывает в памяти печально известного ассистента продуктивности Microsoft — Скрепыша (Clippy), то вы не ошибаетесь. Microsoft, похоже, решила принять эту отсылку к своему давнему спутнику: в системе даже предусмотрена «пасхалка», позволяющая при многократном нажатии на Mico превратить его в Скрепыша. Эта функция по умолчанию включена в голосовом режиме Copilot, но пользователи могут отключить ее по желанию. Изначально Mico доступен в США, Канаде и Великобритании.
Расширенные возможности Copilot и «Гуманистический ИИ»
Помимо Mico, обновление Copilot включает ряд значительных улучшений:
• Долговременная память: Copilot сможет сохранять контекст предыдущих бесед и учиться на отзывах пользователя, что обеспечивает более глубокую персонализацию и непрерывность взаимодействия.
• Режим «Живого обучения» (Learn Live): Для пользователей из США Copilot может выступать в роли репетитора, направляя их через концепции, а не просто предоставляя готовые ответы. Это открывает новые горизонты для персонализированного образования и освоения сложных тем.
• Улучшения в специализированных областях: Отмечены значительные доработки в обработке вопросов, связанных со здоровьем, и в проведении глубоких исследований.
• Режим «Реального диалога» (Real Talk): Этот новый режим позволяет ИИ адаптировать свой стиль общения под пользователя, но при этом не будет «подхалимским», как некоторые другие ассистенты. Microsoft заявляет, что Copilot будет «основан на собственной точке зрения», способный оспаривать и ставить под сомнение идеи пользователя, что может стимулировать критическое мышление и помочь увидеть ситуацию с другой стороны. Это особенно важно в контексте растущих опасений по поводу «психоза, вызванного взаимодействием с ИИ-чатботом», когда пользователи могут получать подкрепление своим заблуждениям от ИИ.
Мустафа Сулейман, генеральный директор Microsoft AI, подчеркнул философию компании: «Создавая это, мы не гонимся за вовлеченностью или оптимизацией экранного времени. Мы создаем ИИ, который возвращает вас к вашей жизни. Который углубляет человеческие связи. Который заслуживает вашего доверия». Это заявление отражает стремление Microsoft к созданию «гуманистического ИИ», ориентированного на улучшение качества жизни, а не просто на максимизацию взаимодействия.
Конкурентный ландшафт и антропоморфизация ИИ
Microsoft не единственная компания, антропоморфизирующая свой ИИ. Лидер рынка ChatGPT предлагает визуальный опыт и различные голосовые опции, а Grok от xAI позиционирует свой ИИ как «рискованных» компаньонов. Приложения-компаньоны на базе ИИ уже приносят миллионы долларов, что свидетельствует о потребительском спросе на персонализированных ИИ-персонажей. Однако, насколько пользователи примут плавающий «сгусток» Mico, покажет время.
Обновление Copilot также включает возможность приглашать друзей в чаты, поддержку долгосрочной памяти, коннекторы для интеграции с приложениями продуктивности (электронная почта, облачные хранилища) и обновления ИИ для браузера Microsoft Edge. Компания активно развивает Edge в «ИИ-браузер», способный анализировать вкладки, суммировать и сравнивать информацию, а также выполнять действия, такие как бронирование отелей или заполнение форм. Это позволит Edge конкурировать с другими ИИ-браузерами, включая ChatGPT Atlas от OpenAI, Comet от Perplexity, Dia и, конечно, с лидером рынка Chrome, который уже интегрировал свой ИИ Gemini.
Все анонсы Microsoft подчеркивают одну ключевую идею: ставка на гуманистический ИИ, который всегда ставит человека на первое место, стремясь не просто автоматизировать задачи, но и обогатить человеческий опыт.
Лондонская креативная студия Wonder Studios, специализирующаяся на искусственном интеллекте, успешно завершила раунд посевного финансирования, собрав $12 миллионов. Цель привлечения средств — масштабирование производства и активное внедрение контента, сгенерированного ИИ, в индустрию развлечений. Раунд возглавил венчурный фонд Atomico при участии уже существующих инвесторов LocalGlobe и Blackbird. Это финансирование стало продолжением пред-посевных инвестиций, в которых участвовали руководители таких ведущих компаний, как ElevenLabs, Google DeepMind и OpenAI, что подчеркивает высокий уровень доверия к проекту со стороны ключевых игроков ИИ-индустрии.
Привлеченные средства Wonder Studios направит на удвоение своей инженерной команды и ускорение стратегического курса на владение интеллектуальной собственностью (IP) и производство оригинального контента. Этот шаг является прямым ответом на текущие вызовы в индустрии, где вопросы авторских прав и использования данных для обучения ИИ-моделей стоят особенно остро. Недавние проекты студии включают создание музыкального видеоклипа для песни Льюиса Капальди «Something in the Heavens», реализованного в сотрудничестве с DeepMind, YouTube и Universal Music Group. Кроме того, Wonder выпустила свой первый оригинальный проект — серию-антологию «Beyond the Loop». В планах на следующий год — несколько коммерческих и оригинальных проектов, включая документальный фильм с Campfire Studios, известной по таким хитам Netflix, как «Братья Менендес» и «Любимицы Америки: Чирлидеры Dallas Cowboys». Примечательно, что генеральный директор Campfire, Росс Дайнерстайн, также является инвестором стартапа.
Стремление к владению IP возникает на фоне волны судебных исков со стороны голливудских продюсеров против ИИ-компаний. Эти иски касаются как использования контента для обучения моделей без согласия, так и генерации изображений с использованием защищенных авторским правом персонажей. Например, Disney и Universal Studios подали в суд на китайскую компанию MiniMax, а также на генератор изображений Midjourney. Привлечение финансирования Wonder Studios также совпадает с активной стратегией Netflix, которая «идет ва-банк» в использовании генеративного ИИ для повышения эффективности творческих процессов и улучшения сторителлинга.
Искусственный интеллект остается крайне спорным вопросом в индустрии развлечений. Многие художники и актеры выражают серьезную обеспокоенность тем, что инструменты, основанные на больших языковых моделях (LLM), часто обученные на их работах без согласия, могут угрожать их средствам к существованию. В частности, модель Sora 2 от OpenAI подверглась критике за воспроизведение образов актеров без уведомления или согласия. Wonder Studios позиционирует себя как «Голливуд без границ», стремясь сделать инструменты ИИ для сторителлинга доступными для всех создателей. Приложение стартапа служит централизованной платформой, связывающей сообщество креаторов с карьерными возможностями, коллабораторами и ресурсами.
«Следующее десятилетие определит, как будет выглядеть творчество в эпоху ИИ, — заявил Джастин Хакни, коммерческий директор и соучредитель Wonder Studios. — Наша миссия — обеспечить, чтобы это будущее принадлежало рассказчикам. Работая с ведущими студиями, пионерами индустрии и независимыми кинематографистами, мы уже строим мост, где технологии и искусство развиваются сообща». Wonder Studios стремится не просто использовать ИИ, но и формировать этические и правовые рамки его применения, предлагая модель, которая может стать прецедентом для всей креативной индустрии в эпоху генеративного ИИ.
Тестирование форматирования
Это проверка что HTML параграфы работают после деплоя новой версии форматтера.
Что должно работать:
• Правильные отступы между разделами
• Жирные заголовки
• Bullet символы в списках
• Читаемая структура
Результат
Если вы видите отступы - форматирование работает идеально!