Ollama est un cadre léger et extensible pour construire et exécuter des modèles de langage sur une machine locale. Il fournit une API simple pour créer, exécuter et gérer des modèles, ainsi qu’une bibliothèque de modèles pré-construits qui peuvent être facilement utilisés dans diverses applications. Ollama permet de faire fonctionner des modèles de langage open-source, comme Llama 2, localement, en regroupant les poids du modèle, la configuration et les données dans un seul paquet, défini par un fichier Modelfile. Il optimise les détails de configuration, y compris l’utilisation du GPU, pour une variété de modèles et de variantes de modèles supportés.
Page de téléchargement : https://ollama.com/download
Installation :
macOS
Rendez-vous sur le site d’Ollama pour télécharger l’application spécifique à macOS.
Windows preview
Pour les utilisateurs de Windows, le processus est un peu différent et nécessite de suivre ces étapes :
Allez sur la page de prévisualisation d’Ollama pour Windows et commencez le téléchargement de l’installateur exécutable.
Trouvez le fichier .exe dans votre dossier de téléchargements, double-cliquez pour démarrer le processus, et suivez les instructions pour compléter l’installation.
Linux
curl -fsSL https://ollama.com/install.sh | sh
Exemple d’utilisation avec la bibliothèque llama2 :
Pour exécuter llama2 avec Ollama, suivez ces étapes simples :
Ouvrez l’application Ollama sur votre machine.
Ouvrez votre terminal.
Dans le terminal entrez la commande :
ollama run llama2
et appuyez sur Entrée.
Cette commande va télécharger et initier le modèle llllama2. Ollama se chargera de la configuration et du processus d’exécution. Une fois le modèle en cours d’exécution, vous pourrez interagir avec lui via votre terminal.
La page des librairies : https://ollama.com/library