💻 Local
Ollama
Lancez et utilisez des grands modèles de langage localement.
1
Télécharger Ollama
Choisissez votre système d’exploitation pour télécharger Ollama.
macOS
Télécharger
Windows preview
Télécharger
Linux
2
Démarrer Ollama
Ouvrez un terminal et exécutez la commande suivante :
3
Utiliser Ollama
Vous pouvez maintenant utiliser Ollama pour exécuter des modèles de langage.
Commande
Commande | Description | Exemple |
---|---|---|
serve | Démarrer Ollama | ollama serve |
show | Afficher des informations sur un modèle | ollama show llama3 |
run | Exécuter un modèle | ollama run llama3 |
pull | Télécharger un modèle depuis un registre | ollama pull llama3 |
push | Pousser un modèle vers un registre | ollama push llama3 |
list | Lister les modèles | ollama list |
cp | Copier un modèle | ollama cp llama3 llama3_copy |
rm | Supprimer un modèle | ollama rm llama3 |
help | Aide sur une commande | ollama help run |
Modèles
Télécharger des modèles
Environs 100 modèles sont disponibles pour Ollama.