Ollama est un outil qui permet d'utiliser des modèles d'IA (Llama 2, Mistral, Gemma, etc...) localement sur son propre ordinateur ou serveur.
C'est ultra simple à utiliser, et ça permet de tester des modèles d'IA sans être un expert en IA.
Il supporte un grand nombre de modèles d'IA donc certains en version non censurés.
Rien de mieux pour tester des modèles d'IA non propriétaires !
Installation
Pour l'installer sur Linux :
curl -fsSL https://ollama.com/install.sh | sh# Oucurl -fsSL https://ollama.com/install.sh | OLLAMA_VERSION=0.1.32 sh # Pour une version spécifique
Pour l'installer sur Arch Linux :
sudo pacman -S ollama
Pour démarrer le service ollama :
sudo systemctl start ollama
Utilisation
Pour démarrer un modèle d'IA, il suffit de lancer la commande ollama run
suivi du nom du modèle.
Par exemple, pour démarrer Mistral :
ollama run mistral
Une fois le modèle démarré, vous pouvez directement interagir avec lui depuis votre terminal.
Pour supprimer le modèle :
ollama rm mistral
Il existe même une commande pour démarrer Ollama en mode serveur avec Docker :
docker run -d --name ollama -p 11434:11434 ollama/ollama
Vous pouvez interagir avec Ollama via le port 11434
avec des requêtes HTTP :
curl -X POST http://localhost:11434/api/generate -d '{"model": "mistral","prompt":"Here is a story about llamas eating grass"}'
Utilisation des modèles HuggingFace au format .gguf
Et si vous voulez utiliser un modèle au format .gguf, vous pouvez le faire :
ollama run hf.co/bartowski/Llama-3.2-1B-Instruct-GGUF
Utilisation avec un client web
Il est aussi possible d'utiliser un client web comme Open WebUI, Chatbot UI ou Lobe Chat
Cela donne un rendu très équivalent à ChatGPT.
Nos données restent privées et l'on peut discuter avec un modèle d'IA sans être censuré.
Désinstallation
Pour désintaller Ollama :
sudo systemctl disable --now ollamasudo rm -rf /var/lib/ollamasudo pacman -Rsn ollama
Références :