GitLab now enforces expiry dates on tokens that originally had no set expiration date. Those tokens were given an expiration date of one year later. Please review your personal access tokens, project access tokens, and group access tokens to ensure you are aware of upcoming expirations. Administrators of GitLab can find more information on how to identify and mitigate interruption in our documentation.
@@ -51,3 +51,49 @@ Si vous travaillez à partir du script `assistant_mistral_a_completer.py`, il fa
- La fonction `get_openlibrary_data`
- La définition de la gestion de `get_openlibrary_data` dans la liste de ressources définies dans la variable `tools`.
- La gestion de la réponse de `get_openlibrary_data` dans la boucle principale de l'assistant : Comment gérer la réponse de la fonction pour intégrer ses résultats à la conversation, une fos que le modèle a détecté la demande de l'utilisateur·trice et appelé la fonction.
## Autres informations
### Création d'un client Mistral pour génération de texte étant donné un prompt :
Le client utilise l'endpoint `chat` de l'API de Mistral :
Pour créer un client Mistral, il faut donner la clé API comme argument, ici la clé était définie comme variable d'environnement.
La variable nommé ici `conversation` est une liste de dictionnaires qui sert à donner le prompt dans un dictionnaire dont la valeur de la clé `role` est `user`. La question posée au modèle est la valeur pour la clé `content` dans le même dictionnaire, ici *Where is the answer blowing?*. Le modèle va générer une réponse à cette question.
Il est optionnel d'inclure comme partie initiale du prompt une clé `role` avec la valeur `system` pour donner des informations au modèle sur la nature du sysstème. Un prompt neutre dans ce sens est quelque chose comme *You are a helpful assistant.*, mais on pourrait varier cette chaîne pour essayer d'obtenir un comportement différent du modèle.
La réponse est demandée ici dans la variable `response`. On appelle la méthode `complete` de `client.chat`, en donnant comme arguments le modèle (ici un modèle basique nommé `mistral-small-latest`) et le prompt complet comme la valeur de l'argument `messages`. La réponse générée par le modèle se trouvera dans `response.choices[0].message.content`.
```python
response=client.chat.complete(
model=model,
messages=conversation
)
```
Nous pouvons généraliser ce code pour créer un assistant qui lit le texte saisi par l'utilisateur·trice en boucle et génére des réponses, jusqu'à ce que l'utilisateur·trice écrit un texte de sortie. Ceci a été fait dans le script `assistant_mistral_a_completer.py`, avec `###` comme texte de sortie.