📄️ Ollama
Il est recommandé d'avoir un Mac M1, M2, M3 ou M4, mais si vous avez un Mac intel avec au minimum MacOS 11 big sur, ça pourra aussi fonctionner. Si vous êtes sur Windows, vous pouvez suivre les instructions du site Ollama pour l'installer sur Windows.
📄️ GPT4All
L'application GPT4All est une application open source proposée par la société Nomic. L'intérêt de GPTAAll est d'offrir une interface graphique assez facile à utiliser pour faire du RAG. Toutefois les mises à jour ne sont plus assurées sur cette application depuis la version 3.10 qui est sortie depuis le 25 février 2025. C'est dommage car dans les améliorations en attente de publication, il y a la francisation de l'application.
📄️ Serveur Local
Comme la confidentialité des informations est essentiel, on va voir comment on peut installer un mac local sur un réseau pour qu'il soit utilisable par les autres postes pour faire par exemple du contrôle de code source et pour partager des modèles.
📄️ Python
Python est un langage de programmation largement utilisé dans les applications Web, le développement de logiciels, la science des données et le machine learning¹. Il est efficace, facile à apprendre et peut s'exécuter sur de nombreuses plateformes¹. Python est également apprécié pour sa syntaxe claire et simple, ce qui facilite l'apprentissage des concepts de base de la programmation
📄️ conda
Conda est un gestionnaire de paquets et d'environnements open-source pour Python et d'autres langages. Il s'agit d'un outil puissant qui permet de :
📄️ node_npm
Node et npm sont des outils de programmation qui permettent d'installer et de faire tourner des applications.
📄️ Hugging Face
Hugging Face est un site qui permet de retrouver et de télécharger des modèles de données. La bibliothèque des modèles de données sur Hugging Face est beaucoup plus large que celle d'Ollama, mais c'est plus compliqué de les utiliser.
📄️ Bert
Bert (Bidirectional Encoder Representations from Transformers) est un modèle de langage développé par Google AI qui permet de transformer des séquences de texte en vecteurs d'apprentissage automatique.
📄️ Chat2DB
Chat2DB
📄️ ML-X
Pour affiner des modèles existants, il faut installer ML-X sur votre Mac.
📄️ Docker
Si vous êtes sur MacOS, il n'est pas conseillé d'utiliser Docker pour faire tourner Ollama, car Docker ne gère pas bien la mémoire allouée par MacOS à la GPU. Plus simplement avec Docker, Ollama va tourner, mais beaucoup plus lentement, ce qui est dommage.