Ollama sur serveur Linux : installer, configurer et exposer une API
IA · LINUX · SELF-HOSTED Ollama permet de faire tourner des modèles de langage (LLM) localement sur votre serveur Linux, sans dépendre d'une API externe. Ce guide couvre l'installation pas…
Continuer la lecture
Ollama sur serveur Linux : installer, configurer et exposer une API