Le message implicite est limpide. Les juridictions acceptent que les professionnels utilisent ces outils, mais elles refusent de leur reconnaître le statut d’alibi. L’IA peut assister, synthétiser, reformuler. Elle ne remplace ni la vérification, ni le raisonnement, ni le devoir de loyauté envers le tribunal. Ce durcissement arrive dans un contexte plus large : plusieurs décisions récentes, aux États-Unis notamment, ont sanctionné ou critiqué des avocats pour avoir repris du contenu généré par IA sans contrôle sérieux, jusqu’à intégrer des erreurs, voire des références douteuses.
Ce qui se joue ici dépasse le seul monde du droit australien. C’est une première formalisation institutionnelle d’un principe qui pourrait s’étendre : plus l’IA entre dans les professions réglementées, plus le droit humain devra reprendre la main. En clair, les outils deviennent plus puissants, mais la responsabilité, elle, reste irréductiblement humaine. Et c’est probablement la seule ligne de stabilité dans un paysage technologique qui bouge trop vite pour les métiers fondés sur la preuve.
Ce qui se joue ici dépasse le seul monde du droit australien. C’est une première formalisation institutionnelle d’un principe qui pourrait s’étendre : plus l’IA entre dans les professions réglementées, plus le droit humain devra reprendre la main. En clair, les outils deviennent plus puissants, mais la responsabilité, elle, reste irréductiblement humaine. Et c’est probablement la seule ligne de stabilité dans un paysage technologique qui bouge trop vite pour les métiers fondés sur la preuve.