Configurez Ollama et exécutez Llama 3, Mistral et Gemma en local. Paramétrez les modèles, construisez un serveur API local et intégrez-le dans des applications existantes.
Ce que vous allez construire
→Installer et exécuter des modèles de 7B à 70B paramètres sur du matériel local
→Exposer un endpoint API local compatible OpenAI
→Benchmarker la vitesse d'inférence et la mémoire selon la taille du modèle
49,00 €accès à vie
Paiement sécurisé via Stripe. Accès immédiat après achat.
Connectez-vous ou créez un compte pour finaliser votre achat.