Le modèle JadeGPT est un fine tuning du modèle GPT2 en version française (Voir sur Hugging Face, gpt2-base-french) entraîné avec environ 500 000 phrases issues de la base Jade des arrêts du Conseil d'Etat et des cours administratives d'appel en prenant les arrêts les plus récents en style direct. Il ne s'agit pas de produire des morceaux de jugement mais de générer automatiquement des considérants plus ou moins syntaxiquement lisibles.
Le générateur de texte utilise une stratégie utilisant les paramètres température et top_k afin d'éviter autant que possible les redondances mais également de rester sur un texte plausible (mais pas nécessairement très cohérent). Le générateur propose trois alternatives. Il est possible de modifier la stratégie en jouant sur les paramètres top_k et le paramètre température. Le modèle est probabiliste et donc à chaque lancement les textes générés seront différents.
Il convient d'insister sur le fait qu'il ne s'agit pas d'un travail juridique mais d'un travail rédactionnel. Il peut tout au plus servir à générer des textes dont la cohérence juridique pourrait fournir un sujet d'examen !
La génération de texte peut être assez longue du fait du chargement du modèle (500 Mo environ).