MongoDB, Inc. a annoncé la disponibilité générale de MongoDB Atlas Vector Search on Knowledge Bases pour Amazon Bedrock afin de permettre aux organisations de construire plus facilement des fonctionnalités d'application d'IA générative en utilisant des modèles de fondation (FM) entièrement gérés. MongoDB Atlas est la plateforme de données de développement la plus répandue au monde et offre des capacités de base de données vectorielles qui permettent aux organisations d'utiliser leurs données opérationnelles en temps réel pour alimenter les applications d'IA générative. Amazon Bedrock est un service entièrement géré par Amazon Web Services (AWS) qui offre un choix de FM très performants de grandes entreprises d'IA via une API unique, ainsi qu'un large éventail de capacités dont les organisations ont besoin pour créer des applications d'IA générative avec sécurité, confidentialité et IA responsable.

Les clients de tous les secteurs peuvent désormais utiliser l'intégration avec leurs données propriétaires pour créer plus facilement des applications qui utilisent l'IA générative pour accomplir de manière autonome des tâches complexes et pour fournir des réponses actualisées, précises et fiables aux demandes des utilisateurs finaux. La nouvelle intégration avec Amazon Bedrock permet aux organisations de déployer plus rapidement et plus facilement des applications d'IA générative sur AWS qui peuvent agir sur les données traitées par MongoDB Atlas Vector Search pour fournir des réponses plus précises, plus pertinentes et plus fiables. Contrairement aux solutions complémentaires qui ne font que stocker des données vectorielles, MongoDB Atlas Vector Search alimente les applications d'IA générative en fonctionnant comme une base de données vectorielle hautement performante et évolutive, avec l'avantage supplémentaire d'être intégrée à une base de données opérationnelle distribuée à l'échelle mondiale, capable de stocker et de traiter toutes les données d'une organisation.

Les clients peuvent utiliser l'intégration entre MongoDB Atlas Vector Search et Amazon Bedrock pour personnaliser de manière privée les MF tels que les grands modèles de langage (LLM) - d'AI21 Labs, Amazon, Anthropic, Cohere, Meta, Mistral AI, et Stability AI - avec leurs données opérationnelles en temps réel en les convertissant en embeddings vectoriels pour les utiliser avec les LLM. En utilisant Agents for Amazon Bedrock pour la génération augmentée de recherche (RAG), les clients peuvent ensuite créer des applications avec des LLM qui répondent aux requêtes des utilisateurs avec des réponses pertinentes et contextualisées ? sans avoir besoin de coder manuellement. Par exemple, une entreprise de vente au détail peut plus facilement développer une application d'IA générative qui utilise des agents autonomes pour des tâches telles que le traitement des demandes d'inventaire en temps réel ou pour aider à personnaliser les retours et les échanges des clients en suggérant automatiquement des marchandises en stock en fonction des commentaires des clients. Les organisations peuvent également isoler et mettre à l'échelle leurs charges de travail d'IA générative indépendamment de leur base de données opérationnelle principale avec MongoDB Atlas Search Nodes pour optimiser les coûts et les performances avec des temps de requête jusqu'à 60 % plus rapides.

Avec des capacités entièrement gérées, cette nouvelle intégration permet aux clients communs d'AWS et de MongoDB d'utiliser en toute sécurité l'IA générative avec leurs données propriétaires dans toute leur étendue au sein d'une organisation, et de réaliser une valeur commerciale plus rapidement... avec moins de frais généraux opérationnels et de travail manuel.