Utilisation d'Ollama
Apprenez à configurer et utiliser Ollama comme backend IA local pour Arcania
Vous pouvez consulter la documentation complète d'Ollama ici.
Étapes d'Installation
Linux et WSL2
curl https://ollama.ai/install.sh | sh
Mac OSX
Windows
Pas encore pris en charge
Processus de Configuration
- 
Démarrez le serveur : ollama serve
- 
Téléchargez un modèle : Par exemple, nous utiliserons Mistral 7B. Il existe de nombreux modèles disponibles dans la bibliothèque. ollama run mistral
- 
Activez le serveur dans le client : paramètres -> ChatBot -> ChatBot Backend -> Ollama