Importer un modèle GUFF depuis Hunging Face
introduction
Sur le site Ollama.com, il y a de nombreux modèles qui peuvent être téléchargés et installer facilement avec une ligne de commande. Par exemple, on peut depuis le terminal taper "Ollama run llama3.1" et charger en mémoire vive le modèle Llama3.1 depuis votre disque dur et si le modèle n'est pas encore présent sur votre stockage local, il sera préalablement chargé depuis le site d'Ollama.com.
Il y a une centaine de modèles prêt à l'emploi sur le site Ollama.com
Vous pouvez aussi dans le cadre de l'utilisation que vous voulez faire de l'IA Générative, utiliser d'autres modèles qui ne sont pas encore disponible sur le site Ollama, par exemple des modèles qui sont sur le site Hugging Face qui en héberge plusieurs centaines de milliers.
choisir son modèle
Commencez par aller sur Hugging Face et recherchez un modèle qui vous intéressent. Par exemple nous allons importer le modèle Croissant LLM trouvé sur le site de central suppélec
vous pouvez aller sur Hugging Face, faire des recherches et choisir un modèle parmis les centaines de milliers de Modèles disponibles.
pré-requis
Avant d'importer un LLM au format GUFF, il va falloir le télécharger depuis le site d'HuggingFace, mais parfois les modèles sont composés de plusieurs fichiers et il y a un script qui permet de faire cette importation facilement sur votre Mac.
Pour faire tourner ce script, il faut l'installer sur votre Mac et pour l'installer on va utiliser HomeBrew qui est un utilitaire très connu pour installer des librairies et les mettre à jour.
Normalement, vous avez déjà installer HomeBrew .
Puis il faut installer si vous ne l'avez pas déjà: git lfs (Large file storage), cette extension vous aidera a gérer les fichiers lourds comme les GUFF .
Sur le terminal, entrer la commande:
git lfs install
Après cela il faut copier le répertoire qui contient le fichier GUFF que vous souhaitez importer:
git clone https://huggingface.co/<username>/<model-name>
il suffit just de remplacer les username & model-name avec ceux de votre fichier GUFF , par exemple avec le modèle Croissant LLM ca donnerait :
git clone https://huggingface.co/croissantllm/CroissantLLMBase-GGUF
Créer le Modelfile
Après avoir choisi votre modèle et importrer les librairies nécessaire il faut maintenant créer votre fichier modèle. Celui-ci va specifié a Ollama comment interpreter et utiliser le modèle.
soit vous créer un fichier sur le terminal avec la commande: nano Modelfile
ou vous pouvez créer votre fichier sur un editeur de code comme Visual Studio Code
dans les deux cas, il faudra y entrer ce script la :
# Modelfile
FROM "/path/to/downloaded/GGUF/file.gguf"
PARAMETER stop "<|im_start|>"
TEMPLATE """
<|im_start|>system
...
"""
Ajuster le contenu du FROM pour qu'il correspond a la location du téléchargements de votre fichier GUFF. Pas besoin de modifier le reste du script.
creer le modèle
Puis il va maintenant falloir "créer" le modèle avec la commande:
ollama create ><model-name -f Modelfile
Remplacer model-name par le nom que vous souhaitez donner a votre modèle.
utiliser le modèle
Avezc le Modelfile prêt, vous pouvez lancer et utiliser votre model avec la commande:
ollama run <model-name>:latest
cette commande lancera le modele et vous permettera d'intéragir avec en utilisant l'interface d'Ollama.
Il y a ces instructions en anglais et sur le site d'Ollama
et cet article de blog également en anglais qui est plus détaillé.
exporter le modèle sur le site Ollama.com
Maitenant que nous avons réussi à générer un modèle au format d'Ollama, nous pouvons aussi l'exporter sur le site d'Ollama.com pour le mettre à disposition de la communauté.