Нейро-дайджест: ключевые события мира AI за 2-ю неделю ноября 2025
Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.
Меня зовут Вандер, и каждую неделю я обозреваю новости о нейросетях и ИИ.
Неделя выдалась насыщенной: китайцы выпускают ERNIE-4.5-VL и Kimi K2, релизы от ElevenLabs, Google построит датацентры в космосе в 2027, а Сэм Альтман собрался назанчить нейронку на пост CEO OpenAI.
Всё самое важное — в одном месте. Поехали!
📋 В этом выпуске:
🧠 Модели и LLM
Ernie-4.5-VL — китайская VL модель
Kimi K2 Thinking — открытая MoE хайпует на LMArena
GPT-5-Codex-Mini — в 4 раза больше лимитов
В llama.cpp добавили веб-интерфейс
🎨 Генеративные нейросети
Тизер Nano Banana 2 — 4К видео
Fish Audio S1 — модель для озвучки и клонирования голоса
Scribe v2 Realtime — реалтайм расшифровка речи
🔧 AI-инструменты и платформы
Google Opal — нодовый интерфейс
В Gemini завезли бесплатные презентации
🧩 AI в обществе и исследованиях
Космические датацентры Google на TPU к 2027 году
Учителя из Казахстана бесплатно получат доступ к ChatGPT Edu
Сэм Альтман допускает, что ИИ станет CEO OpenAI
Больше половины новых статей в интернете уже пишет ИИ
Нейросети забрали треть креативных рабочих мест всего за два года
🧠Модели и LLM
❯ Ernie-4.5-VL — визуальная MoE-модель
Китайцы из Baidu выпустили ERNIE-4.5-VL — открытую MoE-модель.
По заявлениям, с документами и диаграммами она справляется лучше Gemini 2.5 Pro и GPT-5 High. Всего у модели 28 млрд параметров.
В чём фишка: это размышляющая Visual Language модель.
ERNIE-4.5-VL мыслит образами, буквально: не просто один раз смотрит на изображение и сразу генерит ответ, а:
глубоко анализирует
приближает и поворачивает картинку
использует OCR
Практически имитация человеческих размышлений.
Параллельно Baidu уже тестирует ERNIE 5.0. В рейтинге LMArena она заняла второе место в мире по текстовым возможностям, особенно выделяясь в креативном письме.
🔗 Hugging Face 🔗 ModelScope 🔗 Baidu AI Studio
❯ Kimi K2 Thinking — китайцы обгоняют топов
Moonshot AI представили Kimi K2 Thinking — открытую MoE-модель на 1T параметров и 32B активных.
Ключевая фишка — агентность: Kimi может выполнять до 300 последовательных вызовов инструментов, вроде поиска в браузере или запуска кода. Сама разбивает сложные задачи на подзадачи.
Именно за счёт этого модель выходит в лидеры в бенчмарках на сбор и анализ информации HLE и BrowseComp, обгоняя GPT-5 и Claude Sonnet 4.5.
Именно квантизированная версия показывает результаты в бенчмарках. Контекст — 256k, лицензия MIT с ограничениями для крупных продуктов. Веса открыты, полноценный агентный режим обещают обновить позже.
K2 уже несколько дней держится в топе HuggingFace и обсуждается в Reddit — особенно после новостей, что обучение обошлось Moonshot всего в $4,6 млн. При этом часть сообщества сомневается в объективности отдельных тестов и советует проверять модель в практических сценариях — от программирования до сложных запросов с инструментами.
🔗 Попробовать Kimi K2 🔗 Веса на HuggingFace 🔗 Блогпост Moonshot 🔗 API Moonshot
❯ GPT-5-Codex-Mini — облегчённая модель для кодинга
OpenAI выпустили GPT-5-Codex-Mini — компактную версию Codex, рассчитанную на рутинные и средние задачки.
Лимиты подняли в 4 раза выше при более низкой цене. По качеству модель почти не уступает старшей версии: на SWE-bench Verified отстаёт всего на 3% .
Codex-Mini подключается автоматически: если вы расходуете 90% лимита, система предложит перейти на облегчённую модель, чтобы не прерывать работу. Она уже доступна в Codex CLI и расширениях для IDE, поддержка в API — скоро.
Отдельно OpenAI подняли лимиты для ChatGPT Plus, Business и Edu на 50%, улучшили распределение нагрузки и ускорили обработку запросов в Pro/Enterprise — теперь производительность стабильнее в течение дня.
🔗 Анонс GPT-5-Codex-Mini 🔗 Codex CLI
❯ Веб-интерфейс в llama.cpp
В llama.cpp появилась полноценная WebUI — интерфейс в стиле ChatGPT, который работает локально в браузере. Это заметно упрощает работу с движком: раньше всё приходилось делать через терминал, теперь запускается сервер — и вы получаете свой личный чат с поддержкой 150 000+ открытых моделей.
Интерфейс позволяет загружать картинки, файлы, документы, вести параллельные чаты, делиться сервером, настраивать structured outputs и экспортировать/импортировать истории.
На телефоне запускается почти мнгновенно, WebUI тоже спокойно работает.
🎨 Генеративные нейросети
❯ Тизер Nano Banana 2 и 4К видео
В X заметили первые тизеры Nano Banana 2. По слухам, модель будет генерировать до 4K и перейдёт на текстовый энкодер Gemini 3.0.
Короткий доступ к модели также появился на Media AI: пользователи успели проверить генерацию, и качество оказалось выше, чем у текущей Nano Banana. Модель уверенно справляется с деталями, на которых часто ошибаются другие ИИ — стрелки часов, заполненные объекты, интерфейсы.
По таймингу тоже есть совпадения: Google обновляет линейку примерно раз в три месяца, похоже, релиз совсем скоро
❯ Fish Audio S1 — бесплатная нейросеть для озвучки и клонирования голоса
ElevenLabs выпустили Fish Audio S1 — модель для озвучки, поддерживает 70+ языков, умеет клонировать голос и позволяет настраивать эмоции и тональность в премиум-режиме.
В библиотеке — 200 000+ голосов, а в бесплатном плане дают целый час озвучки, что делает S1 одним из самых доступных вариантов для видео, аудиокниг и учебных проектов.
🔗 Fish Audio S1 🔗 Текст-в-речь
❯ Scribe v2 — расшифровка речи в реальном времени
ElevenLabs представили Scribe v2 Realtime — модель Speech-to-Text, которая транскрибирует речь в реальном времени и использует предиктивную расшифровку: ИИ угадывает следующее слово и пунктуацию ещё до того, как фраза прозвучит полностью.
В тестах она обходит конкурентов вроде GPT-4o MiniTranscribe, Gemini 2.5 Flash и Deepgram Nova 3.
Scribe v2 поддерживает 90+ языков, включая русский, умеет автоматически различать говорящих и стабильно работает со сложными записями. В отдельных тестах, например, FLEURS модель показала до 93,5% точности.
Доступна через API.
🔧 AI-инструменты и платформы
❯ Google Opal — визуальный конструктор пайплайнов
Google тихо запустили Opal — экспериментальный нодовый конструктор, который внешне напоминает n8n, но работает только с экосистемой Google: Gemini, Imagen 4, Veo, Lyria 2.
В интерфейсе можно бесплатно собирать цепочки, редактировать шаги промптом и голосом.
Готовые приложения можно публиковать по ссылке — протестировать их может любой пользователь с Google-аккаунтом. Сейчас доступ ограничен Google Labs и работает только в США.
Функциональность пока ограничена. Подключить сторонние сервисы нельзя, а продвинутые сценарии часто ломаются.
В итоге инструмент подходит скорее для простых LLM-цепочек, где одна модель пишет план, несколько других — части текста, а затем всё собирается вместе.
На практике Opal сейчас ближе к расширенной версии Canvas в Gemini App — удобный вход в нодовый формат, но до n8n пока далеко. Для серьезных задач он сырой, но сойдёт поиграться и понять принцип построения цепочек.
🔗 Opal
❯ Бесплатные презентации в Gemini
Google открыл генератор презентаций в Gemini для всех.
Как сгенерировать презентацию:
1. Открываем Gemini
2. Открываем меню «Инструменты» и выбираем Canvas
3. Пишем промпт, описываем контекст и прикрепляем PDF или таблицу
Генерация занимает около минуты. Бот сам придумает структуру, подберёт дизайн, найдёт недостающую инфу и оформит слайды. Готовую презентацию можно скачать в PDF или доработать в Google Slides.
🔗 Gemini
🧩 AI в обществе и исследованиях
❯ Google в 2027 запустит первые космические дата-центры с TPU
Google объявили о проекте Suncatcher — орбитальных дата-центров на солнечной энергии. В начале 2027 года компания выведет два прототипа спутников, каждый с четырьмя TPU, чтобы проверить устойчивость системы в космосе. Испытания уже показали: чипы выдерживают радиацию в 15 раз выше требуемого минимума.
Главная идея — использовать преимущества орбиты: постоянное питание от Солнца и естественное вакуумное охлаждение, которое по расчётам снижает затраты почти на 40%. Спутники будут соединены оптическими каналами связи для быстрой передачи данных на Землю.
Google ожидает, что к середине 2030-х эксплуатация таких ЦОДов станет сопоставима по стоимости с земными, при этом без нагрузки на воду и землю. Интерес к космическим вычислениям проявляют и другие игроки — Starcloud с Nvidia и SpaceX также тестируют ИИ-оборудование на орбите.
❯ Казахстан предоставит 165 тыс. бесплатных лицензий ChatGPT Edu для учителей
Казахстан заключил соглашение с OpenAI, «Казахтелеком» и Freedom Holding Corp., по которому педагоги получат 165 000 лицензий ChatGPT Edu ежегодно в течение трёх лет. Это специализированная версия ChatGPT для образовательных учреждений — с защищённой средой и расширенными возможностями для преподавателей.
Параллельно на саммите C5+1 страна подписала меморандум с Groq, который планирует открыть представительство в РК, а Nvidia согласилась поставить чипы для Freedom Holding и Минцифры. Объём сделки оценивается в $2 млрд.
🔗 Новость правительства Казахстана 🔗 Соглашение с Groq и Nvidia
❯ Сэм Альтман готов отдать ИИ кресло CEO
Сэм Альтман заявил, что через несколько лет ИИ сможет управлять компанией на всех уровнях — вплоть до позиции гендиректора. По его словам, ему «будет стыдно», если именно OpenAI не станет первой крупной компанией с ИИ-CEO. Сроки он оценивает в меньше двух лет.
Высказывание уже обсуждают в индустрии: если раньше ИИ рассматривали как инструмент для сотрудников, то теперь разговор идёт о замене топ-менеджеров.
🔗 Источник
❯ ИИ впервые обогнал людей по количеству создаваемых статей
Аналитики Graphite изучили 65 000 статей из CommonCrawl (2020–2025) и выявили: с конца 2024 года доля материалов, созданных ИИ, впервые превысила человеческие. Классификацию проводили с помощью Surfer AI Detector: если более 50% текста определялось как AI-generated, статья считалась написанной ИИ.
Дополнительно проверили частоту ложных срабатываний по датам — до появления ChatGPT большинство материалов корректно классифицировались как человеческие.
Сейчас разрыв небольшой — около 52% против 48% в пользу ИИ, и динамика растёт. Но важно другое: в топе Google ситуация обратная — 86% переходов приходятся на статьи, написанные людьми.
Алгоритмы по-прежнему отдают приоритет авторским материалам, данным, ссылкам и экспертности — параметрам, где «сырые» ИИ-тексты часто проигрывают.
Авторы отчёта отмечают: рост ИИ-контента замедлился, а оптимальный подход для медиа остаётся прежним — использовать ИИ для структуры, черновиков и набросков, а финальную редактуру оставлять людям.
К счастью, ваши любимые дайджесты пишет человечек!
❯ ИИ за два года сократил треть рабочих мест в креативной сфере
Исследование Bloomberry проанализировало 180 млн вакансий (2023–2025) и показало: сильнее всего под давлением ИИ оказались исполнительные творческие роли. За два года число вакансий снизилось у:
— графических дизайнеров и 3D-артистов — на 33%
— фотографов — на 28%
— копирайтеров, редакторов и техрайтеров — на 21%
Это не разовый скачок: падение у этих специальностей продолжается второй год подряд. При этом стратегические позиции — creative directors, продюсеры, product/UX-design — чувствуют себя стабильнее и держатся выше рыночного тренда.
Авторы подчёркивают: ИИ сильнее влияет на исполнительские задачи (генерация изображений, текстов, базовый визуал), тогда как работы, требующие интерпретации, общения с клиентами и принятия решений, остаются востребованными.
В топ Google креативные ИИ-материалы почти не выходят: алгоритмы по-прежнему отдают приоритет текстам с экспертизой, новыми данными и авторской ответственностью — именно тем, что ИИ пока не воспроизводит.
❯ Аудиоверсия дайджеста
❯ Заключение
Китайские модели догоняют лидеров в reasoning и агентности, OpenAI снизили порог входа в Codex, а Google одновременно тестирует космические дата-центры и запускает свои нодовые конструкторы в догонку к n8n и make.com.
Появились новые интерфейсы для локальных LLM, свежие генеративные модели и инструменты для озвучки — Fish Audio и Scribe v2, Krea Nodes и WebUI в llama.cpp.
Параллельно растёт влияние ИИ на общественную жизнь и карьеру: от автоматизации учебных процессов до ощутимых сдвигов на рынке креативных вакансий.
ИИ всё меньше выглядит как эксперимент — и всё больше как стандарт.
До встречи в следующем выпуске!