GitLab now enforces expiry dates on tokens that originally had no set expiration date. Those tokens were given an expiration date of one year later. Please review your personal access tokens, project access tokens, and group access tokens to ensure you are aware of upcoming expirations. Administrators of GitLab can find more information on how to identify and mitigate interruption in our documentation.
There was an error fetching the commit references. Please try again later.
@@ -50,9 +50,9 @@ La deuxième API ([Open Library](https://openlibrary.org/dev/docs/api/search)) n
<aname="tache-a-faire"></a>
## Tâche à faire
Le client Mistral dans `assistant_mistral_a_completer.py` permet d'interagir avec un modèle Mistral de façon libre, jusqu'à la saisie de `###` par l'utilisateur·trice. Le modèle peut aussi répondre à des questions sur la météo actuelle dans une ville. Pour cela, il utilise la fonction `get_weather` qui est déjà implémentée dans le fichier `functions.py`. Cette fonction appelle l'API de [Weather API](https://www.weatherapi.com/) pour obtenir les informations sur la météo.
Le client Mistral dans `assistant_mistral_a_completer.py` permet d'interagir avec un modèle Mistral de façon libre, jusqu'à la saisie de `###` par l'utilisateur·trice. Le modèle peut aussi répondre à des questions sur la météo actuelle dans une ville. Pour cela, il utilise la fonction `get_weather`. Cette fonction appelle l'API de [Weather API](https://www.weatherapi.com/) pour obtenir les informations sur la météo.
La tâche consiste à ajouter du code pour permettre à l'assistant de réagir à une requête utilisateur qui exploite des informations disponibles sur Open Library: obtenir des ouvrages par un auteur·trice dans une langue donnée ; une solution pour cette tâche concrète est disponible sur `assistant_mistral.py`. Le modèle détectera que le tour de parole consiste à une demande d'information sur les ouvrages par un auteur·trice et appellera `get_openlibrary_data ` avec les paramètres nécessaires.
**La tâche consiste à ajouter du code pour permettre à l'assistant de réagir à une requête utilisateur qui exploite des informations disponibles sur Open Library: obtenir des ouvrages par un auteur·trice dans une langue donnée ; une solution pour cette tâche concrète est disponible sur `assistant_mistral.py`. Le modèle détectera que le tour de parole consiste à une demande d'information sur les ouvrages par un auteur·trice, dans une langue donnée, et appellera `get_openlibrary_data ` avec les paramètres nécessaires.**
Vous pouvez compléter `assistant_mistral_a_completer.py` ou faire votre propre code du début.
...
...
@@ -62,7 +62,7 @@ Si vous travaillez à partir du script `assistant_mistral_a_completer.py`, il fa
- La définition de la gestion de `get_openlibrary_data` dans la liste de ressources définies dans la variable `tools`.
- La gestion de la réponse de `get_openlibrary_data` dans la boucle principale de l'assistant : Comment gérer la réponse de la fonction pour intégrer ses résultats à la conversation, une fos que le modèle a détecté la demande de l'utilisateur·trice et appelé la fonction.
Un exemple du type de conversation que cet assistant permet est ci-dessous. Les réponses sont précédées des mots suivants selon si le *function calling* s'est appliqué ou pas:
Un exemple du type de conversation que cet assistant permet (qui correspond à la solution dans `assistant_mistral.py`) est ci-dessous. Les réponses sont précédées des mots suivants selon si le *function calling* s'est appliqué ou pas: