DocumentationDémarrerPlateforme IkigeniaLearning HubArcaniaGuidesUtilisation d'Ollama

Utilisation d'Ollama

Apprenez à configurer et utiliser Ollama comme backend IA local pour Arcania

Vous pouvez consulter la documentation complète d'Ollama ici.

Étapes d'Installation

Linux et WSL2

curl https://ollama.ai/install.sh | sh

Mac OSX

Télécharger

Windows

Pas encore pris en charge

Processus de Configuration

  1. Démarrez le serveur :

    ollama serve
  2. Téléchargez un modèle : Par exemple, nous utiliserons Mistral 7B. Il existe de nombreux modèles disponibles dans la bibliothèque.

    ollama run mistral
  3. Activez le serveur dans le client :

    paramètres -> ChatBot -> ChatBot Backend -> Ollama

© Copyright 2025 Cyberesia SA [AG, Inc.]. Tous droits réservés. |Rue de la Corraterie 5, 1204 Geneva, Switzerland|VAT: CHE-190.342.567|contact@cyberesia.com