Rejoignez nos newsletters quotidiennes et hebdomadaires pour les dernières mises à jour et du contenu exclusif sur la couverture de l'IA de pointe. Apprendre encore plus
À mesure que l’IA générative proceed de progresser, disposer d’un easy chatbot pourrait ne plus suffire pour de nombreuses entreprises.
Les hyperscalers du cloud s'empressent de créer leurs bases de données et leurs outils pour aider les entreprises à déployer des données opérationnelles rapidement et efficacement, leur permettant de créer des purposes à la fois intelligentes et contextuelles.
Exemple concret : Google Cloud récent barrage de mises à jour pour plusieurs offres de bases de données, à commencer par AlloyDB.
Selon un article de weblog de l'entreprise, la base de données entièrement gérée, appropriate PostgreSQL, prend désormais en cost ScaNN (voisin le plus proche évolutif) indice vectoriel en disponibilité générale. La technologie alimente ses companies de recherche et YouTube et ouvre la voie à une création d'index et des requêtes vectorielles plus rapides tout en consommant beaucoup moins de mémoire.
En outre, la société a également annoncé un partenariat avec Aiven pour le déploiement géré d'AlloyDB ainsi que des mises à jour pour Mémoire pour Valkey et Firebase.
Comprendre la valeur de ScaNN pour AlloyDB
Les bases de données vectorielles sont essentielles pour alimenter les expenses de travail d'IA avancées, depuis les chatbots RAG jusqu'aux systèmes de recommandation.
Au cœur de ces systèmes se trouvent des fonctionnalités clés telles que le stockage et la gestion des intégrations vectorielles (représentation numérique des données) et la réalisation de recherches de similarité nécessaires aux purposes ciblées.
Comme la plupart des développeurs dans le monde préfèrent PostgreSQL comme base de données opérationnelle incontournable, son extension pour la recherche vectorielle, pgvector, est devenue très populaire. Google Cloud le prend déjà en cost sur AlloyDB pour PostgreSQL, avec un algorithme de pointe basé sur des graphiques appelé Hierarchical Navigable Small World (HNSW) gérant les tâches vectorielles.
Cependant, lorsque la cost de travail vectorielle est trop importante, les performances de l'algorithme peuvent diminuer, entraînant des latences d'utility et une utilisation élevée de la mémoire.
Pour résoudre ce problème, Google Cloud rend l'index vectoriel ScaNN dans AlloyDB généralement disponible. Ce nouvel index utilise la même technologie qui alimente la recherche Google et YouTube pour fournir des requêtes vectorielles jusqu'à quatre fois plus rapides et des temps de création d'index jusqu'à huit fois plus rapides, avec une empreinte mémoire 3 à 4 fois plus petite que l'index HNSW dans PostgreSQL normal.
« L'index ScaNN est le premier index appropriate PostgreSQL succesful d'évoluer pour prendre en cost plus d'un milliard de vecteurs tout en conservant des performances de requête de pointe, ce qui permet des expenses de travail hautes performances pour chaque entreprise », Andi Gutmans, directeur général et vice-président. d'ingénierie pour les bases de données chez Google Cloud, a écrit dans un article de blog.
Gutmans a également annoncé un partenariat avec Aiven pour rendre AlloyDB Omni, l'édition téléchargeable d'AlloyDB, disponible en tant que service géré qui s'exécute n'importe où, y compris sur web site ou dans le cloud.
« Vous pouvez désormais exécuter des expenses de travail transactionnelles, analytiques et vectorielles sur plusieurs cloud sur une seule plateforme, et commencer facilement à créer des purposes gen AI, également sur n'importe quel cloud. Il s'agit du premier partenariat qui ajoute une couche d'administration et de gestion pour AlloyDB Omni », a-t-il ajouté.
Quoi de neuf dans Memorystore pour Valkey et Firebase ?
En plus d'AlloyDB, Google Cloud a annoncé des améliorations pour Memorystore pour Valkey, le cluster entièrement géré pour la base de données en mémoire Valkey, et la plate-forme de développement d'purposes Firebase.
Pour l'offre Valkey, la société a annoncé qu'elle ajoutait des capacités de recherche vectorielle. Gutmans a noté qu'une seule occasion Memorystore pour Valkey peut désormais effectuer une recherche de similarité avec une latence d'une milliseconde à un chiffre sur plus d'un milliard de vecteurs, avec un rappel de plus de 99 %.
Il a également ajouté que la prochaine model de Memorystore pour Valkey, 8.0, est désormais en préversion publique avec une vitesse d'interrogation 2 fois plus rapide par rapport à Memorystore pour Redist Cluster, un nouveau schéma de réplication, des améliorations de mise en réseau et une visibilité détaillée des performances et de l'utilisation des ressources.
Quant à Firebase, Google Cloud ajoute Knowledge Join, un nouveau backend-as-a-service qui sera intégré à une base de données PostgreSQL entièrement gérée et optimisée par Nuage SQL. Il sera présenté en avant-première publique plus tard cette année.
Grâce à ces développements, Google Cloud espère que les développeurs disposeront d'un choix plus giant de capacités d'infrastructure et de bases de données, ainsi que de modèles de langage puissants, pour créer des purposes intelligentes pour leurs organisations. Il reste à voir remark ces nouvelles avancées seront déployées dans des cas d’utilisation réels, mais la tendance générale indique que le quantity des purposes d’IA de génération devrait augmenter considérablement.
Omdia estime que le marché des purposes d'IA générative passera de 6,2 milliards de {dollars} en 2023 à 58,5 milliards de {dollars} en 2028, soit un TCAC de 56 %.
la source