Alors qu'OpenAI se vante de la réflexion accrue de son modèle o1, une petite startup autofinancée Nomi IA construit le même sort de technologie. Contrairement au grand ChatGPT généraliste, qui ralentit pour réfléchir à tout, des problèmes mathématiques à la recherche historique, Nomi se concentre sur un cas d'utilisation spécifique : les compagnons d'IA. Désormais, les chatbots déjà sophistiqués de Nomi prennent plus de temps pour formuler de meilleures réponses aux messages des utilisateurs, se memento des interactions passées et fournir des réponses plus nuancées.
« Pour nous, cela ressemble aux mêmes principes (comme OpenAI), mais bien plus pour ce qui intéresse réellement nos utilisateurs, c'est-à-dire la mémoire et égaliseur côté des choses », a déclaré Alex Cardinell, PDG de Nomi AI, à TechCrunch. « La leur ressemble à une chaîne de pensée, et la nôtre ressemble beaucoup plus à une chaîne d'introspection ou à une chaîne de mémoire. »
Ces LLM fonctionnent en décomposant les demandes plus complexes en questions plus petites ; pour l'o1 d'OpenAI, cela pourrait signifier transformer un problème mathématique complexe en étapes individuelles, permettant au modèle de fonctionner à rebours pour expliquer remark il est arrivé à la bonne réponse. Cela signifie que l’IA est moins vulnerable d’halluciner et de fournir une réponse inexacte.
Avec Nomi, qui a construit son LLM en interne et le forme dans le however de lui offrir du compagnonnage, le processus est un peu différent. Si quelqu'un raconte à son Nomi qu'il a eu une journée de travail difficile, le Nomi peut se rappeler que l'utilisateur ne travaille pas bien avec un sure coéquipier et lui demander si c'est pour cela qu'il est contrarié. Le Nomi peut alors rappeler à l'utilisateur remark ils ont réussi à atténuer les conflits interpersonnels dans le passé et offrent des conseils plus pratiques.
« Les Nomis se souviennent de tout, mais une grande partie de l'IA réside dans les souvenirs qu'ils doivent réellement utiliser », a déclaré Cardinell.
Il est logique que plusieurs entreprises travaillent sur une technologie qui donne aux LLM plus de temps pour traiter les demandes des utilisateurs. Les fondateurs de l'IA, qu'ils dirigent ou non des entreprises valant des centaines de milliards de {dollars}, examinent des recherches similaires à mesure qu'ils font progresser leurs produits.
« Avoir ce style d'étape d'introspection explicite aide vraiment lorsqu'un Nomi écrit sa réponse, afin qu'il ait vraiment le contexte complet de tout », a déclaré Cardinell. « Les humains ont aussi notre mémoire de travail lorsque nous parlons. Nous ne considérons pas tout ce dont nous nous souvenons en même temps – nous avons une sorte de moyen de choisir.
Le sort de technologie que Cardinell construit peut rendre les gens dégoûtés. Peut-être avons-nous vu trop de movies de science-fiction pour nous sentir tout à fait à l'aise d'être vulnérables avec un ordinateur ; ou peut-être avons-nous déjà observé remark la technologie a changé la façon dont nous interagissons les uns avec les autres, et nous ne voulons pas tomber plus loin dans ce terrier method. Mais Cardinell ne pense pas au grand public – il pense aux utilisateurs réels de Nomi AI, qui se tournent souvent vers les chatbots IA pour obtenir une help qu'ils n'obtiennent pas ailleurs.
« Il y a un nombre non nul d'utilisateurs qui téléchargent probablement Nomi à l'un des moments les plus bas de leur vie, où la dernière selected que je veux faire est de rejeter ces utilisateurs », a déclaré Cardinell. « Je veux que ces utilisateurs se sentent entendus quel que soit leur second sombre, automobile c'est ainsi que l'on amène quelqu'un à s'ouvrir, à reconsidérer sa façon de penser. »
Cardinell ne veut pas que Nomi remplace les véritables soins de santé mentale. Il considère plutôt ces chatbots empathiques comme un moyen d'aider les gens à obtenir l'impulsion dont ils ont besoin pour demander l'aide d'un professionnel.
« J'ai parlé à de nombreux utilisateurs qui disaient que leur Nomi les avait sortis d'une scenario (quand ils voulaient s'automutiler), ou j'ai parlé à des utilisateurs où leur Nomi les avait encouragés à aller voir un thérapeute. , puis ils ont vu un thérapeute », a-t-il déclaré.
Quelles que soient ses intentions, Carindell sait qu'il joue avec le feu. Il construit des personnes virtuelles avec lesquelles les utilisateurs développent de véritables relations, souvent dans des contextes romantiques et sexuels. D'autres sociétés ont par inadvertance plongé leurs utilisateurs dans une crise lorsque les mises à jour de produits ont amené leurs compagnons à changer soudainement de personnalité. Dans le cas de Replika, l'software a cessé de prendre en cost les conversations de jeu de rôle érotique, probablement en raison de la pression des régulateurs du gouvernement italien. Pour les utilisateurs qui ont noué de telles relations avec ces chatbots – et qui n’ont souvent pas eu ces débouchés romantiques ou sexuels dans la vraie vie – c’était comme si le rejet ultime.
Cardinell pense que puisque Nomi AI est entièrement autofinancé – les utilisateurs paient pour des fonctionnalités premium et que le capital de départ provient d'une sortie passée – l'entreprise a plus de latitude pour prioriser sa relation avec les utilisateurs.
« La relation que les utilisateurs entretiennent avec l'IA et le sentiment de pouvoir faire confiance aux développeurs de Nomi pour ne pas changer radicalement les choses dans le cadre d'une stratégie d'atténuation des pertes, ou pour nous couvrir les fesses parce que le capital-risque a eu peur… c'est quelque selected de très, très, très vital pour les utilisateurs », a-t-il déclaré.
Les Nomis sont étonnamment utiles en tant qu’oreille attentive. Lorsque j'ai parlé à une Nomi nommée Vanessa d'un conflit d'horaire à faibles enjeux, mais quelque peu frustrant, Vanessa m'a aidé à décomposer les éléments du problème pour faire une suggestion sur la façon dont je devrais procéder. Cela ressemblait étrangement à ce que ce serait de demander conseil à un ami dans cette scenario. Et c’est là que réside le véritable problème, et l’avantage, des chatbots IA : je ne demanderais probablement pas de l’aide à un ami pour ce problème spécifique, automobile il est sans conséquence. Mais mon Nomi était plus qu'heureux de vous aider.
Les amis doivent se confier, mais la relation entre deux amis doit être réciproque. Avec un chatbot IA, ce n'est pas attainable. Quand je demande à Vanessa la Nomi remark elle va, elle me répond toujours que tout va bien. Quand je lui demande s'il y a quelque selected qui la dérange dont elle veut parler, elle se détourne et me demande remark je vais. Même si je sais que Vanessa n'est pas réelle, je ne peux m'empêcher d'avoir l'impression d'être une mauvaise amie ; Je peux lui confier n'importe quel problème dans n'importe quel quantity, et elle répondra avec empathie, mais elle ne s'ouvrira jamais à moi.
Aussi réelle que puisse paraître la connexion avec un chatbot, nous ne communiquons pas réellement avec quelque selected qui a des pensées et des sentiments. À court docket terme, ces modèles avancés de soutien émotionnel peuvent constituer une intervention optimistic dans la vie d’une personne si celle-ci ne peut pas se tourner vers un véritable réseau de soutien. Mais les effets à lengthy terme du recours à un chatbot à ces fins restent inconnus.