ИИ

Как я установил Ollama на Ubuntu 24.04 и начал обучать локальную LLM под свои задачи

Краткое резюме

Автор статьи установил Ollama на Ubuntu 24.04 для обучения локальной LLM-модели. Система позволяет работать автономно без подключения к интернету.

Я решил создать собственную локальную модель большого языкового алгоритма (LLM), подобную ChatGPT, на своём ноутбуке. Хотел добиться автономности и безопасности, чтобы система работала без подключения к интернету и находилась под моим полным контролем. Мой ноутбук оснащён операционной системой Ubuntu 24.04.3 LTS (noble) на архитектуре x86_64 с графическим процессором AMD Radeon Vega (Cezanne). Так как у меня нет видеокарты NVIDIA, классические модели, работающие с CUDA, мне не подходят. Я нашёл решение в виде движка Ollama, который позволяет запускать локальные LLM-модели одним кликом. В этой статье я расскажу о процессе установки Ollama, выборе моделей и методах их настройки под индивидуальные задачи.

Фильтры и сортировка