Le projet de réglementation de la loi sur l’IA de l’UE pourrait avoir un effet dissuasif

Le projet de réglementation de la loi sur l'IA de l'UE pourrait avoir un effet dissuasif


En bref De nouvelles règles rédigées par l’Union européenne visant à réglementer l’IA pourraient empêcher les développeurs de publier des modèles open source, selon le groupe de réflexion américain Brookings.

La proposition de loi sur l’IA de l’UE, qui n’a pas encore été promulguée, stipule que les développeurs open source doivent s’assurer que leur logiciel d’IA est précis, sécurisé et transparent sur les risques et l’utilisation des données dans une documentation technique claire.

Brookings soutient que si une entreprise privée devait déployer le modèle public ou l’utiliser dans un produit, et qu’elle se trouvait en quelque sorte en difficulté en raison d’effets imprévus ou incontrôlables du modèle, l’entreprise essaierait alors probablement de blâmer les développeurs open source et les poursuivre.

Cela pourrait obliger la communauté open source à réfléchir à deux fois avant de publier son code et signifierait, malheureusement, que le développement de l’IA sera piloté par des entreprises privées. Le code propriétaire est difficile à analyser et à développer, ce qui signifie que l’innovation sera entravée.

Oren Etzioni, le PDG sortant de l’Allen Institute of AI, estime que les développeurs open source ne devraient pas être soumis aux mêmes règles strictes que les ingénieurs logiciels des entreprises privées.

“Les développeurs open source ne devraient pas être soumis au même fardeau que ceux qui développent des logiciels commerciaux. Il devrait toujours être vrai que le logiciel libre peut être fourni ‘tel quel’ – considérons le cas d’un seul étudiant développant une capacité d’IA ; il ne peut pas se permettre se conformer aux réglementations de l’UE et peuvent être contraints de ne pas distribuer leurs logiciels, ce qui a un effet dissuasif sur les progrès académiques et sur la reproductibilité des résultats scientifiques », a-t-il déclaré à TechCrunch.

Les nouveaux résultats MLPerf pour l’inférence sont sortis

Les résultats du test d’inférence annuel MLPerf, qui évalue les performances des puces IA de différents fournisseurs sur de nombreuses tâches dans diverses configurations, ont été publiés cette semaine.

Près de 5 300 résultats de performances et 2 400 mesures de puissance ont été signalés cette année pour l’inférence dans le centre de données et dans les périphériques de périphérie. Les tests examinent la vitesse à laquelle un système matériel est capable d’exécuter un modèle d’apprentissage automatique particulier. Le taux de traitement des données est signalé dans des feuilles de calcul.

Il n’est pas surprenant que Nvidia soit à nouveau en tête du classement cette année. “Lors de leurs débuts sur les benchmarks d’IA standard de l’industrie MLPerf, les GPU Nvidia H100 Tensor Core ont établi des records mondiaux d’inférence sur toutes les charges de travail, offrant jusqu’à 4,5 fois plus de performances que les GPU de la génération précédente”, a déclaré Nvidia dans un article de blog. “Les résultats démontrent que Hopper est le choix premium pour les utilisateurs qui exigent des performances optimales sur les modèles d’IA avancés.”

Bien que de plus en plus de fournisseurs participent au challenge MLPerf, il peut être difficile de se faire une bonne idée de la concurrence. Il n’y a pas de résultats rapportés pour les puces TPU de Google dans la piste des centres de données cette année, par exemple. Google a cependant semblé remporter le concours de formation de MLPerf plus tôt cette année.

Des artistes de l’IA découvrent un visage horrible caché derrière l’image

Un fil Twitter viral publié par un artiste numérique révèle à quel point les modèles texte-image peuvent être étranges sous la surface.

De nombreux internautes ont trouvé joie et désespoir en expérimentant ces systèmes pour générer des images en tapant des invites de texte. Il existe des sortes de hacks pour ajuster les sorties des modèles ; l’un d’eux, connu sous le nom de “invite négative”, permet aux utilisateurs de trouver l’image opposée à celle décrite dans l’invite.

Lorsqu’un artiste, qui s’appelle Supercomposite sur Twitter, a trouvé l’invite négative pour ce qui décrivait une image d’apparence innocente d’un faux logo, ils ont trouvé quelque chose de vraiment horrible : le visage de ce qui ressemble à une femme hantée. Supercomposite a nommé cette femme générée par l’IA “Loab” et quand ils ont croisé des images d’elle avec d’autres, ils ont toujours fini par ressembler à une scène d’un film d’horreur.

Supercomposite dit El Reg des images aléatoires de personnes générées par l’IA peuvent souvent apparaître dans des invites négatives. Le comportement étrange est encore un autre exemple de certaines des propriétés étranges que ces modèles peuvent avoir que les gens commencent seulement à sonder.

Pas de chatbots sensibles ici chez Google, déclare le PDG Sundar Pichai

Sundar Pichai a contredit les affirmations de l’ancien ingénieur, Blake Lemoine, selon lesquelles Google avait construit un chatbot sensible lors de son discours à la conférence Code cette semaine.

Lemoine a fait la une des journaux en juillet lorsqu’il a annoncé qu’il pensait que le chatbot LaMDA de Google était conscient et pourrait avoir une âme. Il a ensuite été licencié pour avoir apparemment violé les politiques de confidentialité de l’entreprise après avoir engagé un avocat pour discuter avec LaMDA et évaluer ses droits légaux, affirmant que la machine lui avait dit de le faire.

La plupart des gens – y compris le PDG de Google – ne sont pas d’accord avec Lemoine. “Je pense toujours qu’il y a un long chemin à parcourir. J’ai l’impression d’entrer souvent dans des discussions philosophiques ou métaphysiques sur ce qu’est la sensibilité et la conscience”, a déclaré Pichai, selon Fortune. “Nous en sommes loin et nous n’y arriverons peut-être jamais”, a-t-il ajouté.

Pour souligner davantage son point, il a admis que l’assistant vocal AI de Google ne parvient parfois pas à comprendre et à répondre de manière appropriée aux demandes. “La bonne nouvelle est que toute personne qui parle à Google Assistant – même si je pense que c’est le meilleur assistant pour l’IA conversationnelle – vous voyez toujours à quel point il est cassé dans certains cas”, a-t-il déclaré. ®

Leave a Comment