Как я установил Ollama на Ubuntu 24.04 и начал обучать локальную LLM под свои задачи
Краткое резюме
Автор статьи установил Ollama на Ubuntu 24.04 для обучения локальной LLM-модели. Система позволяет работать автономно без подключения к интернету.
Я решил создать собственную локальную модель большого языкового алгоритма (LLM), подобную ChatGPT, на своём ноутбуке. Хотел добиться автономности и безопасности, чтобы система работала без подключения к интернету и находилась под моим полным контролем.
Мой ноутбук оснащён операционной системой Ubuntu 24.04.3 LTS (noble) на архитектуре x86_64 с графическим процессором AMD Radeon Vega (Cezanne). Так как у меня нет видеокарты NVIDIA, классические модели, работающие с CUDA, мне не подходят.
Я нашёл решение в виде движка Ollama, который позволяет запускать локальные LLM-модели одним кликом. В этой статье я расскажу о процессе установки Ollama, выборе моделей и методах их настройки под индивидуальные задачи.