Ollama : faire tourner un LLM en local sans API key guide complet
Vous ne voulez pas payer pour des APIs ? Ollama vous permet de faire tourner Llama 3 et Mistral en local.
Ollama a change la donne : faire tourner un LLM decent sur votre machine locale sans dependre d OpenAI ou d Anthropic.
Performance ? 80 95 pourcent des performances de GPT 3.5 sur beaucoup de taches. Cout ? Zero apres le telechargement.
Installation : 5 minutes
1. Telechargez Ollama
2. Lancez l app
3. Terminal : ollama pull llama2
4. ollama serve
5. C est pret.
Modeles populaires et leurs performances
Llama 2 7B 13B
Temps gen : 50 100 ms par token
Accuracy : 82 pourcent
Memoire : 4GB pour 7B, 8GB pour 13B
Recommande pour : resumes, Q et A basique, generation de contenu
Mistral 7B
Temps gen : 40ms par token
Accuracy : 85 pourcent
Memoire : 4GB
Recommande pour : code, math, problemes complexes
Qwen 14B
Temps gen : 60ms par token
Accuracy : 87 pourcent
Memoire : 10GB
Recommande pour : taches multilingues
Neural Chat 7B
Temps gen : 35ms (le plus rapide)
Accuracy : 78 pourcent
Memoire : 4GB
Recommande pour : chat temps reel
Benchmark : Ollama vs GPT 3.5
Tache : Resumer un article
Ollama Llama2 local
Latence : 2.5s
Qualite : 7 sur 10
Cout : gratuit
GPT 3.5 API
Latence : 1.2s
Qualite : 9 sur 10
Cout : 0.02 euro
Verdict : Pour MVP et prototype, Ollama. Pour production client facing, GPT 3.5.
Installez Ollama. Telechargez Mistral. Testez sur vos donnees.
Source de référence
Blog Masterclass IA
Passez à la pratique
Maîtrisez l'IA avec nos masterclasses.
Dès 29€ · Accès à vie · Applicable dès demain
Voir le catalogue