Il y a 45 articles disponibles !

Une intelligence artificielle local sur Docker

Dernière mise à jour le 29 mars 2024

Une intelligence artificielle local sur Docker

Ollama , une intelligence artificielle (IA) local sur Docker !!

Qu’est ce qu’Ollama ?

https://ollama.ai/

Pour commencer, bonjour et bienvenue sur mon blog Technologie Geek ! Voyons ensemble comment déployer une intelligence artificielle local sur Docker ! Ollama est un outil d’IA vous permettant d’exécuter localement de grands modèles de langage llm. Ensuite, vous pouvez créer ainsi que personnaliser des modèles de langages selon vos envies. En installant votre IA Ollama sur Docker, vous vous libérez des plateformes basées sur le cloud. Disponible sur MacOS, linux et bientôt Windows. Vous pourrez également vous connecter aux API tel que ChatGPT (Openai), Mistral AI…


Que vous faut-il ?

Pour installer une intelligence artificielle local comme Ollama, il vous faut :

Pour finir, nous allons utiliser le modèle llama2. Vous trouverez les modèles disponibles à l’adresse https://ollama.ai/library.


Installation de votre intelligence artificielle local Docker :

Tout d’abord, aller sur la page d’administration de Portainer, puis sélectionner votre « environnement local ». Ensuite, cliquer sur « Stacks », « add Stack » puis sur « Editor ». Donner lui un nom et enfin copier et coller le code ci-dessous :

version: '3.8'

services:
  ollama:
    volumes:
      - ollama:/root/.ollama
    container_name: ollama
    pull_policy: always
    tty: true
    restart: unless-stopped
    image: ollama/ollama:latest

  ollama-webui:
    build:
      context: .
      args:
        OLLAMA_API_BASE_URL: '/ollama/api'
      dockerfile: Dockerfile
    image: ghcr.io/ollama-webui/ollama-webui:main
    container_name: ollama-webui
    volumes:
      - ollama-webui:/app/backend/data
    depends_on:
      - ollama
    ports:
      - ${OLLAMA_WEBUI_PORT-3000}:8080
    environment:
      - 'OLLAMA_API_BASE_URL=http://ollama:11434/api'
    extra_hosts:
      - host.docker.internal:host-gateway
    restart: unless-stopped

volumes:
  ollama: {}
  ollama-webui: {}

Stack ollama

Ensuite, cliquer sur « Deploy the stack » pour installer votre intelligence artificielle local sur Docker. Une fois déployé, vous devez voir deux conteneurs apparaitre.

  • Premièrement, un conteneur « ollama ».
  • Deuxièmement, un autre nommé « ollama-webui ».
Une intelligence artificielle local sur Docker

Ça y est, votre IA sur Docker est prête ! Rendez-vous à l’adresse « http://ip-de-votre-serveur:3000 », pour ma part « http://192.168.1.226:3000 ». Ensuite, sur la page d’accueil cliquer sur « Sign up », puis renseigner un identifiant, une adresse mail ainsi qu’un mot de passe.

IA sur Docker

Une fois sur la page d’accueil de Votre intelligence artificielle sur Docker, rendez-vous dans votre compte en bas à gauche, puis dans « Settings » et enfin dans « Models ». Ensuite, dans « Pull a model from Ollama.ai » et saisisser le nom du modèle « llama2 » et télécharger le.

De retour sur l’accueil, vous pouvez maintenant lui poser votre première question !

En conclusion, Ollama vous permet de déployer une intelligence artificielle sur Docker très rapidement. L’utilisation de fichier llm en local est très gourmand en ressource mémoire, processeur ainsi qu’en disque dur (il est conseillé d’exploiter votre GPU si possible). Par contre, vous pourrez utiliser Ollama avec les API comme OpenAI ou Mistral AI par exemple.



2 réponses à “Une intelligence artificielle local sur Docker”

  1. Avatar de Jérome IAvarone - Formateur IA Générative

    Merci à vous pour cet article très instructif sur la mise en place d’une intelligence artificielle locale sur Docker. J’ai été particulièrement intéressé par la possibilité de créer et de personnaliser des modèles de langage en fonction de mes besoins. L’utilisation de fichiers llm en local est une excellente idée pour garantir la confidentialité et la sécurité des données. Je vais certainement essayer votre méthode.

    1. Avatar de Stéphane

      Bonjour Jérome,

      Merci à toi pour le commentaire ! C’est exactement pour la confidentialité que cela m’intéresse, j’aimerais le coupler à ma domotique.

Laisser un commentaire

Technologie Geek

bonjour !

Inscrivez-vous pour recevoir nos nouveaux articles !

Nous ne spammons pas ! Consultez notre politique de confidentialité pour plus d’informations.

Bienvenue sur mon blog Technologie Geek ! Je m'appelle Stéphane, je suis chef d'entreprise et Je suis un passionné de technologie, découvrez mes articles et mes test sur l'informatique, la domotique ainsi que la virtualisation.

Je crois que chacun peut apprendre quelque chose de nouveau chaque jour. Partager ses connaissances peut enrichir la vie des autres. C’est pourquoi j’ai créé ce blog pour offrir à notre communauté une plateforme pour partager des idées, des opinions et des expériences.