Modèles Pré-entraînés
Les modèles !
Qu’est-ce que les modèles pré-entraînés ?
Lorsqu’il s’agit de formation, vous avez deux options principales : construire un modèle à partir de zéro ou affiner un modèle déjà existant. Ces modèles pré-entraînés sont conçus pour rationaliser votre processus de formation, économisant du temps et améliorant la qualité globale de vos résultats.
Comment créer des modèles pré-entraînés ?
Lors de la création d’un modèle pré-entraîné, vous avez deux options principales à considérer.
Tout d’abord, vous pouvez soit initier un processus de fine-tuning sur un autre modèle pré-entraîné, qui pourrait être l’un des originaux, soit commencer à construire un modèle à partir de zéro.
Si vous optez pour la construction à partir de zéro, l’approche idéale implique de rassembler une quantité substantielle de données modérément propres ; elles n’ont pas nécessairement besoin d’être parfaitement impeccables. Par la suite, affinez ce modèle avec des données de haute qualité.
Une considération essentielle est de construire des ensembles de données exemptes de matériel soumis à des droits d’auteur.
Alternativement, si vous choisissez de peaufiner un modèle pré-entraîné, l’essentiel réside dans la qualité des entrées audio. Vous pouvez le personnaliser pour une langue spécifique, incorporer divers locuteurs, et même intégrer différents accents. Les possibilités de personnalisation sont vastes. Cependant, il est crucial de trouver un équilibre ; évitez de sur-entraîner le modèle pré-entraîné. Plus vous le peaufinez efficacement maintenant, moins il nécessitera de formation plus tard lors de l’utilisation.
Pour commencer à construire un modèle à partir de zéro, effectuez une formation standard tout en désactivant l’option Pré-entraîné. Pour le fine-tuning, engagez-vous dans une formation ordinaire tout en chargeant le modèle pré-entraîné souhaité pour l’affiner.
Comment utiliser les modèles pré-entraînés ?
Dans l’onglet de formation, cochez la case ‘Custom Pretrained’, téléchargez les fichiers et sélectionnez-les dans les cases Pretrained G/D Path.
Où trouver des modèles pré-entraînés ?
Ov2 Super par SimplCup
Fonctionne bien pour les petits ensembles de données en anglais. De plus, il permet aux modèles de se former avec très peu d’époques par rapport aux pré-entraînements habituels. Cela ne prend en charge que les taux d’échantillonnage 32k et 40k.
RIN E3 par Mustar
Donne de bons résultats avec des ensembles de données propres et en anglais, mais il est plus sensible au bruit. Cela ne prend en charge que le taux d’échantillonnage 40k.
SnowieV3 par Mustar
Fonctionne bien avec des ensembles de données russes et aide également les modèles d’autres langues à bien prononcer le russe. Prend en charge tous les taux d’échantillonnage.
SnowieV3 X RIN_E3 par Mustar
Fonctionne bien avec des ensembles de données en russe ou en japonais et aide également les modèles d’autres langues à bien prononcer le russe ou le japon
ais. Cela ne prend en charge que le taux d’échantillonnage 40k.
https://huggingface.co/MUSTAR/SnowieV3.1-X-RinE3-40K/tree/main
KLM v7 par SeoulStreamingStation
Fonctionne bien avec les voix coréennes et certains types de voix japonaises. Contrairement aux modèles pré-entraînés typiques, il a une très large gamme vocale, ce qui devrait être très utile pour ceux qui couvrent des chansons, il prend en charge tous les taux d’échantillonnage.
https://huggingface.co/SeoulStreamingStation/KLMv7s/resolve/main/KLMv7s_Batch2.zip
TITAN par blaise-tk
Il donne des résultats plus propres comparés au pré-entraîné original, gère également mieux l’accent. Comme Ov2 Super, il permet aux modèles de se former avec quelques époques, il prend en charge uniquement les taux d’échantillonnage 32K et 40k.
32K: https://huggingface.co/blaise-tk/TITAN/tree/main/models/medium/32k/pretrained
40K: https://huggingface.co/blaise-tk/TITAN/tree/main/models/medium/40k/pretrained
Assurez-vous de sélectionner le taux d’échantillonnage selon le taux d’échantillonnage des modèles pré-entraînés personnalisés.