# Einführung

In [Kapitel 2](/course/chapter2) haben wir behandelt, wie man Tokenizer und vortrainierte Modelle verwendet, um Vorhersagen zu treffen. Was passiert aber, wenn wir ein vortrainiertes Modell für unseren eigenen Datensatz optimieren möchten? Das ist das Thema dieses Kapitels! Folgendes wirst du lernen:

{#if fw === 'pt'}
* Wie bereitet man einen großen Datensatz aus dem Hub vor?
* Wie nutzt man die höhere `Trainer` API um Modelle zu fein-tunen?
* Wie implementiert man eine benutzerdefinierte Trainingsschleife
* Wie nutzen wir die 🤗 Accelerate Bibliothek für benutzerdefinierte Trainingschleifen auf verteilten Systemen

{:else}
* Wie bereitet man einen großen Datensatz aus dem Hub vor?
* Wie nutzt man Keras um Modelle zu fein-tunen?
* Wie setzt man Keras für Vorhersagen ein?
* Wie implementiert benutzerdefinierte Metriken?

{/if}

Um deine trainierten Checkpoints auf den Hugging Face Hub hochzuladen, benötigst du ein huggingface.co-Konto: [Erstelle ein Konto](https://huggingface.co/join)

