Новости по тегу "llama"
Подборка публикаций, содержащих тег "llama". Актуальные темы и важные события.
10 лучших нейросетей-синонимайзеров: какую нейросеть выбрать для текста в 2025 году
Доброго времени суток, «Хабр»!Сегодня я стану вашим гидом по выбору лучших нейросетей-синонимайзеров 2025 года. Давайте узнаем, какие инструменты...
Запускаем Aider в Docker
Для локального вайб-кодинга понадобятся: Docker, make и видеокарта (либо арендованный сервер). Далее набираем шесть несложных команд и ловим вайб....
На входе аудио, на выходе — саммари. Собираем локальный транскрибатор из бесплатного софта
Однажды я устал расшифровывать аудио пачкой инструментов в духе «Балерино-Капучино и Бобрито-Бандито» и решил собрать свой пайплайн.В статье...
Как я начал писать своё автопротоколирование
Всем привет, это мой первый пост, если вдруг будет интересно, продолжу писать на эту тематику. Я не являюсь опытным и профессиональным...
Установил DeepSeek 1.5B на слабое железо, пока остывал мой борщ
DeepSeek 1.5B — маленький, но шустрый собрат больших языковых моделей. Работает локально, не требует железа на киловатт. Внутри — инструкция по...
Пишем (и используем) ИИ-агент на Gradle и Ollama
Справедливое желание автоматизировать всё подряд заставляет чуть иначе взглянуть на использование языковых моделей для написания кода.В этой...
Ян Лекун, создатель LeNet, формата DjVu и адвокат опенсорса
Ян Лекун, один из крёстных отцов современного ИИ, в своём твиттере резко критикует корпоративных исследователей ИИ, которые ведут проприетарные...
Почему GPT-чаты не крякают?
Эхо от кряканья лучше всего слышно в ситуации, когда утка и человек находятся рядом со стеной, хорошо отражающей звуки. [ Первомай ]
MLSecOps: защита машинного обучения в эпоху киберугроз
MLSecOps: защита машинного обучения в эпоху киберугрозНа днях исследователь Цзянь Чжоу сообщил о критической уязвимости (CVE-2025-32434),...
Как запустить локально LLM, если ее веса не помещаются в [видео]память
Некоторые люди предпочитают пользоваться не только облачными сервисами, но и запускать LLM у себя дома. Например, так можно запустить дообученные...
Больше 5090 — больше проблем? Тестируем связку из двух GPU NVIDIA
В предыдущей статье мы рассказывали, как тестировали сервер с одной RTX 5090. Теперь же мы решили установить в сервер две видеокарты RTX 5090. И...
Автодополнение кода своими руками (Docker Ollama + JetBrains IDE)
Я: хочу автодополнение кодаТакже я: у нас уже есть автодополнение кода домаАвтодополнение кода дома:Привет, Хабр! Я Саша, разработчик из Cloud4Y....