mm

Google a interdit la formation de Deepfakes dans Colab

Au cours des deux dernières semaines, Google a discrètement modifié les conditions de service pour ses utilisateurs de Colab, ajoutant une stipulation selon laquelle les services Colab ne peuvent plus être utilisés pour former des deepfakes.

La mise à jour de mai apporte une interdiction profonde de Colab. Source : https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

La première version archivée sur le Web d’Internet Archive qui présente l’interdiction de deepfake a été capturée mardi dernier, le 24 mai. La dernière version capturée de la FAQ Colab qui ne ne pas mentionner que l’interdiction était le 14 mai.

Parmi les deux distributions de création de deepfake populaires, DeepFaceLab (DFL) et FaceSwap, qui sont toutes deux des fork du code controversé et anonyme publié sur Reddit en 2017, seul le DFL le plus notoire semble avoir été directement ciblé par l’interdiction. Selon le développeur deepfake “chervonij” du DFL Discord, l’exécution du logiciel dans Google Colab génère désormais un avertissement :

“Vous exécutez peut-être du code non autorisé, ce qui peut restreindre votre capacité à utiliser Colab à l’avenir. Veuillez noter les actions interdites spécifiées dans notre FAQ.’

Cependant, fait intéressant, l’utilisateur est actuellement autorisé à poursuivre l’exécution du code.

Le nouvel avertissement qui a accueilli les deepfakers DFL tentant d'exécuter le code sur Google Colab.  Source : https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

Le nouvel avertissement qui a accueilli les deepfakers DFL tentant d’exécuter le code sur Google Colab. Source : https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

Selon un utilisateur de Discord pour la distribution rivale FaceSwap, le code de ce projet ne déclenche apparemment pas encore l’avertissement, suggérant que le code pour DeepFaceLab (également l’architecture d’alimentation pour l’implémentation de streaming deepfake en temps réel DeepFaceLive), de loin la méthode de deepfakes la plus dominante , a été spécifiquement ciblé par Colab.

Le co-développeur principal de FaceSwap, Matt Tora, a commenté* :

“Je trouve très peu probable que Google fasse cela pour des raisons éthiques particulières, plus que la raison d’être de Colab est que les étudiants/data scientists/chercheurs puissent exécuter du code GPU coûteux en calculs de manière simple et accessible, sans charge. Cependant, je soupçonne qu’un nombre non négligeable d’utilisateurs exploitent cette ressource pour créer des modèles deepfake, à grande échelle, ce qui est à la fois coûteux en calcul et prend un temps de formation non négligeable pour produire des résultats.

“On pourrait dire que Colab se penche davantage sur le côté éducatif et de recherche de l’IA. L’exécution de scripts qui nécessitent peu d’intervention de l’utilisateur, ni de compréhension, a tendance à aller à l’encontre de cela. Chez Faceswap, nous essayons de nous concentrer sur l’éducation de l’utilisateur à l’IA et aux mécanismes impliqués, tout en abaissant la barrière à l’entrée. Nous encourageons vivement l’utilisation éthique du logiciel et pensons que rendre ces types d’outils accessibles à un public plus large aide à éduquer les gens sur ce qui est réalisable dans le monde d’aujourd’hui, plutôt que de le garder caché pour quelques privilégiés.

«Malheureusement, nous ne pouvons pas contrôler la façon dont nos outils sont finalement utilisés, ni où ils sont exécutés. Cela m’attriste qu’une avenue ait été fermée pour que les gens expérimentent notre code, cependant, en termes de protection de cette ressource particulière pour assurer sa disponibilité pour le public cible réel, je trouve cela compréhensible.

Rien ne prouve que la nouvelle restriction se limite uniquement au niveau gratuit de Google Colab – au bas de la liste des activités interdites auxquelles les deepfakes ont désormais été ajoutés, se trouve la note “Des restrictions supplémentaires existent pour les utilisateurs payants”indiquant qu’il s’agit de réglementations de base. En ce qui concerne l’interdiction des deepfakes, cela a dérouté certains, puisque ‘extraction de crypto-monnaie’ et ‘s’engager dans le partage de fichiers peer-to-peer’ sont inclus à la fois dans la section « Restrictions » gratuite et pro.

Selon cette logique, tout ce qui est interdit dans la section gratuite “Restrictions” est autorisé dans la version Pro, tant que la version Pro ne l’interdit pas explicitement, y compris ‘l’exécution d’attaques par déni de service‘ et ‘craquage de mot de passe’. Les restrictions supplémentaires pour le niveau Pro visent principalement à ne pas “sous-louer” l’accès pro Colab, malgré les interdictions de duplication déroutantes et sélectives.

Google Colab est une implémentation dédiée des environnements de bloc-notes Jupyter, qui permet la formation à distance de projets d’apprentissage automatique sur des GPU beaucoup plus puissants que ce que de nombreux utilisateurs peuvent se permettre.

Étant donné que la formation deepfake est une poursuite gourmande en VRAM, et depuis l’avènement de la famine GPU, de nombreux deepfakers ces dernières années ont évité la formation à domicile au profit de la formation à distance dans Colab, où il est possible, selon le hasard et le niveau, de former un deepfake modèle sur des cartes puissantes telles que la Tesla T4 (16 Go de VRAM, actuellement environ 2 000 USD), la V100 (32 Go de VRAM, environ 4 000 USD) et la puissante A100 (80 Go de VRAM, PDSF de 32 097,00 USD), entre autres.

L’interdiction de la formation Colab semble susceptible de réduire le bassin de deepfakers capables de former des modèles à plus haute résolution, où les images d’entrée et de sortie sont plus grandes, plus adaptées aux résultats à haute résolution et capables d’extraire et de reproduire de plus grands détails du visage.

Certains des amateurs et passionnés de deepfake les plus engagés, selon Discord et les messages du forum, ont investi massivement dans du matériel local au cours des deux dernières années, malgré les prix élevés des GPU.

Cependant, étant donné les coûts élevés impliqués, des sous-communautés ont émergé pour faire face aux défis de la formation de deepfakes sur Colabs, l’allocation aléatoire de GPU étant la plainte la plus courante depuis que Colab a limité l’utilisation de GPU haut de gamme aux utilisateurs gratuits.

* En messages privés sur Discord

Première publication le 28 mai 2022.
Révisé à 7 h 28 HNE, correction d’une faute de frappe.
Révisé à 12 h 40 HNE – ajout de précisions concernant les interdictions de deepfake de niveau gratuit et pro, comme on peut le comprendre au mieux à partir des listes d’interdictions «gratuites» et «pro».

Leave a Comment

Your email address will not be published.