Home technologie Meta confirme qu'il peut entraîner son IA sur n'importe quelle picture que...

Meta confirme qu'il peut entraîner son IA sur n'importe quelle picture que vous demandez à Ray-Ban Meta AI d'analyser

34
0

Nous avons récemment demandé à Meta s'il entraînait l'IA sur les images et vidéos que les utilisateurs prennent avec les lunettes intelligentes Ray-Ban Meta. Au départ, l’entreprise n’avait pas grand-chose à dire.

Depuis, Meta a proposé à TechCrunch un peu plus de couleur.

En bref, toute picture que vous partagez avec Meta AI peut être utilisée pour entraîner son IA.

« (Dans) les endroits où l'IA multimodale est disponible (actuellement aux États-Unis et au Canada), les pictures et vidéos partagées avec Meta AI peuvent être utilisées pour l'améliorer conformément à notre politique de confidentialité », a déclaré Emil Vazquez, responsable des communications de la politique Meta, dans un e-mail à TechCrunch.

Dans une précédente déclaration envoyée par courrier électronique, un porte-parole a précisé que les images et vidéos capturées sur Ray-Ban Meta sont pas utilisé par Meta pour la formation tant que l'utilisateur ne les soumet pas à l'IA. Cependant, une fois que vous demandez à Meta AI de les analyser, ces images relèvent d’un ensemble de politiques complètement différentes.

En d’autres termes, l’entreprise utilise son premier appareil d’IA grand public pour créer un inventory massif de données qui pourraient être utilisées pour créer des générations de modèles d’IA toujours plus puissantes. La seule façon de « se désinscrire » est tout simplement de ne pas utiliser les fonctionnalités d’IA multimodales de Meta en premier lieu.

Les implications sont préoccupantes, automobile les utilisateurs de Ray-Ban Meta ne comprennent peut-être pas qu'ils donnent à Meta des tonnes d'pictures – montrant peut-être l'intérieur de leur maison, leurs proches ou leurs fichiers personnels – pour entraîner ses nouveaux modèles d'IA. Les porte-parole de Meta me disent que cela est clair dans l'interface utilisateur de Ray-Ban Meta, mais les dirigeants de l'entreprise ne savaient pas au départ ou ne voulaient pas partager ces détails avec TechCrunch. Nous savions déjà que Meta entraînait ses modèles Llama AI sur tout ce que les Américains publient publiquement sur Instagram et Facebook. Mais maintenant, Meta a étendu cette définition de « données accessibles au public » à tout ce que les gens regardent à travers ses lunettes intelligentes et demandent à son chatbot IA de l'analyser.

Ceci est particulièrement pertinent maintenant. Mercredi, Meta commencé à déployer de nouvelles fonctionnalités d'IA qui permettent aux utilisateurs de Ray-Ban Meta d'invoquer Meta AI de manière plus naturelle, ce qui signifie que les utilisateurs seront plus susceptibles de lui envoyer de nouvelles données pouvant également être utilisées pour la formation. En outre, la société a annoncé la semaine dernière une nouvelle fonctionnalité d'analyse vidéo en direct pour Ray-Ban Meta lors de sa conférence 2024 Join, qui envoie essentiellement un flux continu d'pictures dans les modèles d'IA multimodaux de Meta. Dans une vidéo promotionnelle, Meta a déclaré que vous pouviez utiliser cette fonctionnalité pour regarder autour de votre garde-robe, analyser le tout avec l'IA et choisir une tenue.

Ce que l'entreprise ne préconise pas, c'est que vous envoyez également ces pictures à Meta pour la formation du modèle.

Les porte-parole de Meta ont orienté TechCrunch vers son politique de confidentialitéqui indique clairement : « vos interactions avec les fonctionnalités de l’IA peuvent être utilisées pour entraîner des modèles d’IA ». Cela semble inclure les pictures partagées avec Meta AI through les lunettes intelligentes Ray-Bans, mais Meta n'a toujours pas voulu clarifier.

Les porte-parole ont également pointé TechCrunch vers Conditions d'utilisation de Meta AIqui indique qu'en partageant des pictures avec Meta AI, « vous acceptez que Meta analyse ces pictures, y compris les traits du visage, à l'aide de l'IA ».

Meta vient de verser 1,4 milliard de {dollars} à l'État du Texas pour régler une affaire judiciaire liée à l'utilisation par l'entreprise d'un logiciel de reconnaissance faciale. Cette affaire concernait une fonctionnalité Fb déployée en 2011 appelée « Recommendations de balises ». En 2021, Fb a explicitement activé cette fonctionnalité et supprimé des milliards d'informations biométriques de personnes qu'il avait collectées. Notamment, plusieurs fonctionnalités d'picture de Meta AI ne sont pas publiées au Texas.

Ailleurs dans les politiques de confidentialité de Metala société précise qu'elle stocke également toutes les transcriptions de vos conversations vocales avec Ray-Ban Meta, par défaut, pour entraîner les futurs modèles d'IA. En ce qui concerne les enregistrements vocaux proprement dits, il existe un moyen de se désinscrire. Lors de votre première connexion à l'software Ray-Ban Meta, les utilisateurs peuvent choisir si les enregistrements vocaux peuvent être utilisés pour entraîner les modèles d'IA de Meta.

Il est clair que Meta, Snap et d'autres sociétés technologiques font pression pour que les lunettes intelligentes soient un nouveau facteur de forme informatique. Tous ces appareils sont équipés de caméras que les gens portent sur leur visage et sont principalement alimentés par l'IA. Cela rappelle une tonne de problèmes de confidentialité dont nous avons entendu parler pour la première fois à l'ère des Google Glass. 404 Les médias ont rapporté que certains étudiants ont déjà piraté les lunettes Ray-Ban Meta pour révéler le nom, l'adresse et le numéro de téléphone de toute personne qu'ils regardent.

la source