Utilisation de LLaVA avec LLaMA.cpp
Apprenez à configurer et utiliser LLaVA/BakLLaVA avec LLaMA.cpp pour les capacités de vision
LLaVA / BakLLaVA peut être utilisé avec LLaMA.cpp.
Vous pouvez consulter la documentation complète de llama.cpp ici.
Étapes d'Installation
- 
Clonez le dépôt : git clone https://github.com/ggerganov/llama.cpp cd llama.cpp
- 
Téléchargez le modèle : Par exemple, nous utiliserons le modèle BakLLaVA-1, qui est celui utilisé sur l'instance de démonstration. Rendez-vous sur mys/ggml_bakllava-1 et téléchargez soit la version q4soitq5, ainsi que le fichiermmproj-model-f16.gguf.Le fichier mmproj-model-f16.ggufest nécessaire pour le modèle de vision.
- 
Compilez le serveur : make server
- 
Lancez le serveur : Consultez la documentation llama.cpp pour plus d'informations sur les options du serveur. Ou exécutez ./server --help../server -t 4 -c 4096 -ngl 35 -b 512 --mlock -m models/openchat_3.5.Q5_K_M.gguf --mmproj models/mmproj-model-f16.gguf
Configuration
Activez le serveur dans le client :
paramètres -> Vision -> Vision Backend -> LLaMA.cpp