Une intelligence artificielle local sur Docker
Voyons ensemble comment déployer une intelligence artificielle local sur Docker ! Ollama est un outil d’IA vous permettant d’exécuter localement de grands modèles de langage llm. Ensuite, vous pouvez créer ainsi que personnaliser des modèles de langages selon vos envies. En installant votre IA Ollama sur Docker, vous vous libérez des plateformes basées sur le cloud…