Programme de Formation
Durée totale : 180
Préparer un corpus, fine-tuner GPT-2 avec la bibliothèque transformers, suivre la perte d'entraînement et évaluer la perplexité du modèle spécialisé.
Le programme détaillé sera bientôt disponible.
Contactez le centre pour plus d'informations.
Commentaires
0 commentaire
Aucun commentaire pour le moment
Soyez le premier à partager votre avis !
Se connecter pour commenter