Utilisation de LM Studio
Apprenez à configurer et utiliser LM Studio comme backend IA local pour Arcania
Vous pouvez consulter la documentation complète de LM Studio ici.
Étapes d'Installation
- 
Installez LM Studio Rendez-vous sur le site de LM Studio et suivez les instructions pour installer l'interface graphique. 
- 
Téléchargez un modèle Depuis l'interface, téléchargez un modèle depuis la bibliothèque LM Studio. Si vous ne savez pas lequel choisir, essayez TheBloke/openchat_3.5.ggufversionopenchat_3.5.Q5.K_M.gguf.
- 
Démarrez le serveur Dans la partie gauche de l'interface, cliquez sur le bouton "Local Server". Puis, dans le menu déroulant en haut de l'écran, sélectionnez le modèle que vous avez téléchargé. Ensuite, dans le panneau des Options du Serveur, assurez-vous que Cross-Origin-Resource-Sharing (CORS) est activé. Enfin, cliquez sur "Start Server". 
Configuration
- 
Sélectionnez ChatGPT comme backend : paramètres -> ChatBot -> ChatBot Backend -> ChatGPT
- 
Configurez les paramètres ChatGPT : paramètres -> ChatBot -> ChatGPTDéfinissez OpenAI URLsurhttp://localhost:8080etOpenAI Keysurdefault. Si vous avez modifié le port dans l'interface de LM Studio, utilisez ce port à la place de8080.