Ollama : La Porte d’Entrée Locale vers les Géants de l’IA

Ollama : La Porte d’Entrée Locale vers les Géants de l’IA

Table des matières

Temps de lecture  - 2 minutes -

Ollama est un cadre léger et extensible pour construire et exécuter des modèles de langage sur une machine locale. Il fournit une API simple pour créer, exécuter et gérer des modèles, ainsi qu’une bibliothèque de modèles pré-construits qui peuvent être facilement utilisés dans diverses applications. Ollama permet de faire fonctionner des modèles de langage open-source, comme Llama 2, localement, en regroupant les poids du modèle, la configuration et les données dans un seul paquet, défini par un fichier Modelfile. Il optimise les détails de configuration, y compris l’utilisation du GPU, pour une variété de modèles et de variantes de modèles supportés​​.

Page de téléchargement : https://ollama.com/download

Installation :

macOS

Rendez-vous sur le site d’Ollama pour télécharger l’application spécifique à macOS.

Download

Windows preview

Pour les utilisateurs de Windows, le processus est un peu différent et nécessite de suivre ces étapes :

Allez sur la page de prévisualisation d’Ollama pour Windows et commencez le téléchargement de l’installateur exécutable.
Trouvez le fichier .exe dans votre dossier de téléchargements, double-cliquez pour démarrer le processus, et suivez les instructions pour compléter l’installation.

Download

Linux

curl -fsSL https://ollama.com/install.sh | sh

Exemple d’utilisation avec la bibliothèque llama2 :

Pour exécuter llama2 avec Ollama, suivez ces étapes simples :

Ouvrez l’application Ollama sur votre machine.
Ouvrez votre terminal.
Dans le terminal entrez la commande :

ollama run llama2

et appuyez sur Entrée.

Cette commande va télécharger et initier le modèle llllama2. Ollama se chargera de la configuration et du processus d’exécution. Une fois le modèle en cours d’exécution, vous pourrez interagir avec lui via votre terminal​​.
La page des librairies : https://ollama.com/library