Salut les amis, bienvenue dans la publication régulière sur l'IA de TechCrunch. Si vous voulez recevoir cela dans votre boîte de réception tous les mercredis, inscrivez-vous ici.
Après une brève interruption, nous sommes de retour avec quelques notes d'exposition lors du DevDay d'OpenAI.
Le discours prononcé hier matin à San Francisco a été remarquable par son ton sobre – un contraste avec le discours rah-rah et hypebeast-y du PDG Sam Altman l'année dernière. Ce DevDay, Altman n'est pas monté sur scène pour présenter de nouveaux projets brillants. Il n'a même pas fait une apparition ; Olivier Godement, chef de produit plateforme, animateur.
Au programme de ce premier d'une série d'OpenAI DevDays – le prochain aura lieu à Londres ce mois-ci, suivi du dernier à Singapour en novembre – figuraient l'amélioration de la qualité de vie. OpenAI a publié une API vocale en temps réel, ainsi qu'un réglage fin de la imaginative and prescient, qui permet aux développeurs de personnaliser son modèle GPT-4o à l'aide d'photographs. Et la société a lancé la distillation de modèles, qui prend un grand modèle d'IA comme GPT-4o et l'utilise pour affiner un modèle plus petit.
L'orientation étroite de l'événement n'était pas inattendue. OpenAI a tempéré les attentes cet été, affirmant que DevDay se concentrerait sur l'éducation des développeurs et non sur la présentation des produits. Néanmoins, ce qui a été omis lors du discours serré de 60 minutes de mardi a soulevé des questions sur les progrès – et le statut – des innombrables efforts d'IA d'OpenAI.
Nous n'avons pas entendu parler de ce qui pourrait succéder au générateur d'photographs d'OpenAI, DALL-E 3, vieux de près d'un an, et nous n'avons pas non plus eu de mise à jour sur l'aperçu limité de Voice Engine, l'outil de clonage vocal de l'entreprise. Il n'y a pas encore de calendrier de lancement pour le générateur vidéo d'OpenAI, Sora, et maman a le mot sur Media Supervisor, l'utility que la société dit développer pour permettre aux créateurs de contrôler la façon dont leur contenu est utilisé dans la formation des modèles.
Lorsqu'il a été contacté pour commenter, un porte-parole d'OpenAI a déclaré à TechCrunch qu'OpenAI «déploie lentement l'aperçu (Voice Engine) auprès de partenaires plus fiables» et que Media Supervisor est «toujours en développement».
Mais il semble clair qu’OpenAI est limité – et ce depuis un sure temps.
D'après des données récentes rapport Selon le Wall Avenue Journal, les équipes de l'entreprise travaillant sur le GPT-4o n'ont eu que neuf jours pour mener des évaluations de sécurité. Fortune rapports que de nombreux employés d'OpenAI pensaient que o1, le premier modèle de « raisonnement » de l'entreprise, n'était pas prêt à être dévoilé.
Alors qu’elle se dirige vers un cycle de financement qui pourrait rapporter jusqu’à 6,5 milliards de {dollars}, OpenAI met la foremost dans de nombreux gâteaux mal cuits. DALL-3 est moins performant que les générateurs d'photographs comme Flux dans de nombreux exams qualitatifs ; Sora est aurait si lent à générer des photographs qu'OpenAI réorganise le modèle ; et OpenAI proceed de retarder le déploiement du programme de partage des revenus pour son marché de robots, le GPT Retailer, qu'il avait initialement prévu pour le premier trimestre de cette année.
Je ne suis pas surpris qu'OpenAI se retrouve désormais aux prises avec épuisement du personnel et les départs de dirigeants. Lorsque vous essayez d’être un touche-à-tout, vous finissez par ne maîtriser rien et ne plaire à personne.
Nouvelles
Le projet de loi sur l’IA a été opposé : Le gouverneur de Californie, Gavin Newsom, a opposé son veto au SB 1047, un projet de loi très médiatisé qui aurait réglementé le développement de l'IA dans l'État. Dans un communiqué, Newsom a qualifié le projet de loi de « bien intentionné » mais de « (pas) la meilleure approche » pour protéger le public des risks de l’IA.
Projets de loi sur l'IA adoptés : Newsom a promulgué d’autres réglementations sur l’IA, notamment des projets de loi traitant de la divulgation de données de formation à l’IA, des deepfakes nus, and many others.
Y Combinator a critiqué : L'accélérateur de startups Y Combinator est critiqué après avoir soutenu une entreprise d'IA, PearAI, dont les fondateurs ont admis avoir essentiellement cloné un projet open supply appelé Proceed.
Copilot est mis à niveau : L'assistant Copilot de Microsoft, basé sur l'IA, a fait peau neuve mardi. Il peut désormais lire votre écran, réfléchir profondément et vous parler à voix haute, entre autres astuces.
Le co-fondateur d'OpenAI rejoint Anthropic : Durk Kingma, l'un des cofondateurs les moins connus d'OpenAI, cette semaine annoncé il rejoindra Anthropic. On ne sait cependant pas sur quoi il va travailler.
Formation de l'IA sur les images des shoppers : Les Ray-Ban alimentés par l'IA de Meta disposent d'une caméra à l'avant pour diverses fonctionnalités AR. Mais cela pourrait s'avérer être un problème de confidentialité : la société ne dira pas si elle envisage de former des modèles sur les photographs des utilisateurs.
Caméra AI du Raspberry Pi : Raspberry Pi, la société qui vend de petits ordinateurs monocarte bon marché, a lancé la Raspberry Pi AI Digital camera, un module complémentaire avec traitement IA intégré.
Doc de recherche de la semaine
Les plateformes de codage d’IA ont attiré des thousands and thousands d’utilisateurs et attiré des centaines de thousands and thousands de {dollars} de sociétés de capital-risque. Mais tiennent-ils leurs promesses d’augmentation de la productivité ?
Peut-être pas, selon un nouvelle analyse d'Uplevel, une société d'analyse d'ingénierie. Uplevel a comparé les données d'environ 800 de ses shoppers développeurs, dont certains ont déclaré utiliser l'outil de codage d'IA de GitHub, Copilot, et d'autres non. Uplevel a constaté que les développeurs s'appuyant sur Copilot introduisaient 41 % de bugs en plus et n'étaient pas moins susceptibles de s'épuiser que ceux qui n'utilisaient pas l'outil.
Les développeurs ont montré leur enthousiasme pour les outils de codage d'help basés sur l'IA malgré les préoccupations liées non seulement à la sécurité, mais également à la violation des droits d'auteur et à la confidentialité. Le grande majorité des développeurs ayant répondu au dernier sondage de GitHub ont déclaré avoir adopté les outils d'IA sous une forme ou une autre. Les entreprises sont également optimistes : Microsoft a rapporté en avril que Copilot avait plus de 50 000 entreprises clientes.
Modèle de la semaine
Liquid AI, une spin-off du MIT, a annoncé cette semaine sa première série de modèles d'IA génératifs : Liquid Basis Fashions, ou LFM en abrégé.
« Et alors ? » pourriez-vous demander. Les modèles sont une marchandise : de nouveaux modèles sortent pratiquement tous les jours. Eh bien, les LFM utilisent une nouvelle structure de modèle et obtiennent des scores compétitifs sur une gamme de références industrielles.
La plupart des modèles sont ce qu'on appelle un transformateur. Proposé par une équipe de chercheurs de Google en 2017, le transformateur est devenu l'structure de modèle d'IA générative dominante. de loin. Les transformateurs sous-tendent Sora et la dernière model de Secure Diffusion, ainsi que des modèles de génération de texte comme Claude d'Anthropic et Gemini de Google.
Mais les transformateurs ont des limites. En particulier, ils ne sont pas très efficaces pour traiter et analyser de grandes quantités de données.
Liquid affirme que ses LFM ont une empreinte mémoire réduite par rapport aux architectures de transformateur, ce qui leur permet d'absorber de plus grandes quantités de données sur le même matériel. « En compressant efficacement les entrées, les LFM peuvent traiter des séquences (de données) plus longues », a écrit la société dans un communiqué. article de blog.
Les LFM de Liquid sont disponibles sur un sure nombre de plates-formes cloud, et l'équipe prévoit de continuer à affiner l'structure avec les prochaines variations.
Sac à foremost
Si vous avez cligné des yeux, vous l'avez probablement manqué : une société d'IA a déposé une demande d'introduction en bourse cette semaine.
Appelée Cerebras, la startup basée à San Francisco développe du matériel pour exécuter et former des modèles d'IA, et elle est en concurrence directe avec Nvidia.
Alors, remark Cerebras espère-t-il rivaliser avec le géant des puces, qui commandé entre 70 % et 95 % du section des puces IA en juillet ? Sur les performances, dit Cerebras. La société affirme que sa puce IA phare, qu'elle vend directement et suggest en tant que service by way of son cloud, peut surpasser le matériel de Nvidia.
Mais Cerebras n’a pas encore traduit cet avantage en termes de performances en bénéfices. L'entreprise a enregistré une perte nette de 66,6 thousands and thousands de {dollars} au premier semestre 2024, par dépôt auprès de la SEC. Et pour l'année dernière, Cerebras a déclaré une perte nette de 127,2 thousands and thousands de {dollars} sur un chiffre d'affaires de 78,7 thousands and thousands de {dollars}.
Cerebras pourrait chercher à lever jusqu'à 1 milliard de {dollars} grâce à cette introduction en bourse, selon à Bloomberg. À ce jour, la société a levé 715 thousands and thousands de {dollars} en capital-risque et était évaluée à plus de 4 milliards de {dollars} il y a trois ans.