LLM Course documentation
Quiz de final de capitol
0. Configurare
1. Modele Transformer
2. Folosirea 🤗 Transformers
3. Fine-tuning unui model preantrenat
4. Partajarea modelelor și a tokenizatoarelor
5. Biblioteca 🤗 Datasets
IntroducereCe fac dacă dataset-ul meu nu este pe Hub?E timpul să tăiem și să analizăm dateleBig data? 🤗 Datasets vine în ajutor!Creează propriul tău datasetCăutare semantică cu FAISS🤗 Datasets, verificare!Quiz de final de capitol
6. Biblioteca 🤗 Tokenizers
7. Sarcini clasice NLP
8. Cum să ceri ajutor
9. Construirea și partajarea demo-urilor
10. Curățați seturi de date de înaltă calitate
11. Fine-tuning pentru modele mari de limbaj
12. Construiește Modele de Raționament new
Evenimente Curs
Quiz de final de capitol
Acest capitol a acoperit o mulțime de subiecte! Nu vă faceți griji dacă nu ați înțeles toate detaliile; capitolele următoare vă vor ajuta să înțelegeți cum funcționează lucrurile mai aprofundat.
Înainte de a trece mai departe, totuși trebuie să testăm ce ați învățat în acest capitol.
1. Funcția load_dataset() din 🤗 Datasets vă permite să încărcați un dataset din care dintre următoarele locații?
2. Presupunem că încărcați una dintre sarcinile GLUE astfel:
from datasets import load_dataset
dataset = load_dataset("glue", "mrpc", split="train")Care dintre următoarele comenzi va produce un exemplu aleatoriu de 50 de elemente din dataset?
3. Presupunem că aveți un set de date despre animale de companie numit pets_dataset , care are o coloană name care denotă numele fiecărui animal de companie. Care dintre următoarele abordări v-ar permite să filtrați setul de date pentru toate animalele de companie ale căror nume încep cu litera “L”?
4. Ce este memory mapping?
5. Care sunt principalele beneficii ale memory-mapping?
6. De ce codul următor eșuează?
from datasets import load_dataset
dataset = load_dataset("allocine", streaming=True, split="train")
dataset[0]