Les régulateurs chinois ont probablement tiré les leçons de la loi européenne sur l’IA, déclare Jeffrey Ding, professeur adjoint de sciences politiques à l’Université George Washington. « Les décideurs politiques et les universitaires chinois ont déclaré qu'ils s'étaient inspirés des lois de l'UE pour s'inspirer des choses du passé. »
Mais dans le même temps, certaines mesures prises par les régulateurs chinois ne sont pas vraiment reproductibles dans d’autres pays. Par exemple, le gouvernement chinois demande aux plateformes sociales de filtrer le contenu téléchargé par les utilisateurs pour détecter l’IA. « Cela semble quelque selected de très nouveau et pourrait être propre au contexte chinois », dit Ding. « Cela n'existerait jamais dans le contexte américain, automobile les États-Unis sont réputés pour dire que la plateforme n'est pas responsable du contenu. »
Mais qu’en est-il de la liberté d’expression en ligne ?
Le projet de règlement sur l'étiquetage des contenus d'IA est sollicité jusqu'au 14 octobre, et il faudra peut-être encore plusieurs mois pour qu'il soit modifié et adopté. Mais il n’y a aucune raison pour que les entreprises chinoises tardent à se préparer à son entrée en vigueur.
Sima Huapeng, fondatrice et PDG de la société chinoise AIGC Silicon Intelligence, qui utilise des applied sciences de deepfake pour générer des brokers d'IA, des influenceurs et reproduire des personnes vivantes et mortes, affirme que son produit permet désormais aux utilisateurs de choisir volontairement de marquer le produit généré comme IA. Mais si la loi est adoptée, il devra peut-être la rendre obligatoire.
« Si une fonctionnalité est facultative, il est fort possible que les entreprises ne l'ajouteront pas à leurs produits. Mais si cela devient obligatoire par la loi, alors tout le monde doit le mettre en œuvre », déclare Sima. Il n'est pas techniquement difficile d'ajouter des filigranes ou des étiquettes de métadonnées, mais cela augmentera les coûts d'exploitation pour les entreprises conformes.
Des politiques comme celle-ci peuvent empêcher l’utilisation de l’IA à des fins d’escroquerie ou d’atteinte à la vie privée, dit-il, mais elles pourraient également déclencher la croissance d’un marché noir des providers d’IA où les entreprises tentent d’éviter la conformité légale et d’économiser sur les coûts.
Il existe également une frontière ténue entre la responsabilisation des producteurs de contenu IA et le contrôle des discours individuels grâce à un traçage plus sophistiqué.
« Le grand défi sous-jacent en matière de droits de l'homme est de s'assurer que ces approches ne compromettent pas davantage la vie privée ou la liberté d'expression », explique Gregory. Si les étiquettes et filigranes implicites peuvent être utilisés pour identifier les sources de désinformation et de contenu inapproprié, les mêmes outils peuvent permettre aux plateformes et au gouvernement d’exercer un contrôle plus strict sur ce que les utilisateurs publient sur Web. En fait, les inquiétudes quant à la manière dont les outils d'IA peuvent devenir malveillants ont été l'un des principaux moteurs des efforts proactifs de la Chine en matière de législation sur l'IA.
Dans le même temps, l’industrie chinoise de l’IA pousse le gouvernement à disposer de plus d’espace pour expérimenter et se développer, automobile elle est déjà en retard sur ses pairs occidentaux. Une précédente loi chinoise sur l’IA générative a été considérablement édulcorée entre le premier projet public et le projet de loi ultimate, supprimant les exigences en matière de vérification d’identité et réduisant les sanctions imposées aux entreprises.
« Ce que nous avons vu, c'est que le gouvernement chinois essaie vraiment de marcher sur la corde raide entre « s'assurer que nous maintenons le contrôle du contenu » et aussi « laisser à ces laboratoires d'IA situés dans un espace stratégique la liberté d'innover » », explique Ding. « C'est une autre tentative pour faire ça. »