S'inscrire

Obtenez un contenu authentique à votre boîte mail

Création d'un pipeline de traduction de contenu basée sur un modèle de langage large (LLM).

0:00
Log

Dans le post précédent , nous avons mis en place l’internationalisation avec Astro. L’étape suivante consiste à utiliser un grand modèle de langage (LLM) comme traducteur de contenu. L’objectif est de publier le contenu du site dans toutes les langues humaines appuyées par un LLM et d’enquêter sur la faisabilité de cela.

J’avais précédemment utilisé les modèles d’OpenAI directement via leur API, mais ce n’est pas complètement gratuit et je suis intrigué d’explorer le processus de téléchargement des modèles pour exécuter des inférences localement.

Il s’avère que cela est incroyablement facile grâce au projet Ollama. C’est pratiquement comme ça :

$ brew install ollama
$ ollama serve
$ ollama pull llama3

Le modèle par défaut llama3 semblait parfaitement suffisant pour commencer.

Ollama fournit une interface de ligne de commande (CLI) et une API REST pour l’interaction avec les modèles téléchargés, mais plutô…