LLM Course documentation
Quiz de fin de chapitre
0. Configuration
1. Les transformers
2. Utilisation de 🤗 Transformers
3. Finetuner un modèle pré-entraîné
4. Partager des modèles et des tokenizers
5. La bibliothèque 🤗 Datasets
IntroductionQue faire si mon jeu de données n'est pas sur le Hub ?Il est temps de trancher et de découperDonnées massives ? 🤗 Datasets à la rescousse !Création de votre propre jeu de donnéesRecherche sémantique avec FAISS🤗 Datasets, coché !Quiz de fin de chapitre
6. La bibliothèque 🤗 Tokenizer
7. Les principales tâches en NLP
8. Comment demander de l'aide
9. Construire et partager des démos
Evènements liés au cours
Glossaire
Quiz de fin de chapitre
Ce chapitre a couvert beaucoup de terrain ! Ne vous inquiétez pas si vous n’avez pas saisi tous les détails, les chapitres suivants vous aideront à comprendre comment les choses fonctionnent sous le capot.
Avant de poursuivre, testons ce que vous avez appris dans ce chapitre.
1. La fonction load_dataset() dans 🤗 Datasets vous permet de charger un jeu de données depuis lequel des emplacements suivants ?
2. Supposons que vous chargiez l’une des tâches du jeu de données GLUE comme suit :
from datasets import load_dataset
dataset = load_dataset("glue", "mrpc", split="train")Laquelle des commandes suivantes produira un échantillon aléatoire de 50 éléments à partir de dataset ?
3. Supposons que vous disposiez d’un jeu de données sur les animaux domestiques appelé pets_dataset qui comporte une colonne name indiquant le nom de chaque animal. Parmi les approches suivantes, laquelle vous permettrait de filtrer le jeu de données pour tous les animaux dont le nom commence par la lettre « L » ?
4. Qu’est-ce que le memory mapping ?
5. Parmi les éléments suivants, lesquels sont les principaux avantages du memory mapping ?
6. Pourquoi le code suivant échoue-t-il ?
from datasets import load_dataset
dataset = load_dataset("allocine", streaming=True, split="train")
dataset[0]