Hume AI crée des interactions vocales émotionnellement intelligentes avec Claude

Essayer Claude
Contact commercial
Secteur d'activité :
Logiciels
Taille de l'entreprise :
Petite
Produit :
Claude Platform
Région :
Amérique du Nord
Plus de 2 millions
de minutes de conversations vocales IA réalisées
36 % des utilisateurs
choisissent Claude, plus que tout autre LLM externe

Read more
Suivant

Video caption
Suivant

Read more
Suivant

Video caption
Suivant

Précédent
Suivant

Hume AI utilise Claude pour alimenter des conversations vocales naturelles et empathiques qui aident ses clients à établir une relation de confiance avec les utilisateurs dans les domaines de la santé, du service client et des applications grand public.

Indicateurs d'impact clés :

  • Plus de 2 millions de minutes de conversations vocales IA réalisées
  • 36 % des utilisateurs choisissent Claude, plus que tout autre LLM externe intégré au modèle de base parole-langage de Hume
  • 80 % de réduction des coûts et 10 % de diminution de la latence grâce à la mémorisation des requêtes

De la recherche sur les émotions à l'innovation en IA

Le parcours d'Alan Cowen vers la création de Hume AI a commencé il y a plus d'une décennie, lors de ses recherches doctorales en psychologie à Berkeley, où il a été l'un des premier à utiliser l'IA pour comprendre les émotions humaines. Cowen a déclaré : « Il y a environ 15 ans, les gens s'intéressaient à la compréhension du comportement expressif, de la voix et de l'expression faciale, et les classifiaient de manière réductrice. » Ses recherches révolutionnaires ont révélé que les approches traditionnelles passaient à côté de plus de 80 % des informations présentes dans les expressions humaines.

Ces travaux ont conduit à des collaborations avec les équipes de calcul affectif de Google et Facebook, où Cowen a préconisé l'intégration d'une compréhension émotionnelle plus approfondie dans les modèles d'IA. Cowen a déclaré : « J'ai été l'un des premiers défenseurs au sein de ces organisations à intégrer l'empathie dans les modèles d'IA. » Reconnaissant le besoin de données et de recherches plus complètes, il a fondé Hume AI en 2021 pour faire progresser le domaine de l'IA émotionnellement intelligente.

Une vision pour une IA émotionnellement intelligente

Hume AI a été fondée pour développer des systèmes d'IA optimisés pour le bien-être humain. « Nous voulons que l'IA comprenne ce qui vous frustre et vous déroute, parce qu'elle comprend votre voix et pas seulement ce que vous dites. Elle peut alors en tirer des enseignements et mieux comprendre vos préférences personnelles », a déclaré Cowen.

Hume product screen

Pourquoi Claude se distingue pour les interactions vocales

Après avoir évalué plusieurs modèles d'IA, Hume a choisi Claude pour sa combinaison unique de capacités. La décision a été motivée par l'ambiance et les capacités conversationnelles naturelles de Claude. « Claude est très éloquent », a déclaré Cowen. « Il a une très bonne personnalité qui rend les conversations agréables. »

La fiabilité de Claude dans le respect de requêtes complexes était cruciale pour divers cas d'usage, tandis que son intelligence émotionnelle excellait dans l'interprétation des expressions des utilisateurs. La capacité du modèle à gérer un contexte étendu pour de longues conversations et ses fonctionnalités de sécurité intégrées ont réduit les coûts de développement, ce qui le rendait idéal pour alimenter la plateforme vocale de Hume.

Alimenter EVI : la plateforme voix-à-voix de Hume

Au cœur de la technologie de Hume se trouve EVI, sa plateforme phare d'IA voix-à-voix. EVI représente une avancée majeure dans l'IA conversationnelle, capable de comprendre les utilisateurs et de leur répondre avec des interactions vocales naturelles et émotionnellement intelligentes. La plateforme peut détecter les nuances dans le ton de voix d'un utilisateur et générer des réponses avec une résonance émotionnelle appropriée, tout en prenant en charge un large éventail de personnalités, d'accents et de styles d'expression.

« En intégrant Claude à EVI, nous avons créé quelque chose de vraiment spécial. Les capacités de langage naturel et l'intelligence émotionnelle de Claude complètent parfaitement les capacités de traitement vocal d'EVI, permettant des conversations fluides et contextuelles qui semblent remarquablement humaines », a déclaré Cowen.

La plateforme EVI de Hume, alimentée par Claude, permet des cas d'usage convaincants :

  • Séances d'entraînement pour des interactions émotionnelles difficiles
  • Conversations de soutien en santé mentale
  • Interactions de service client
  • Tutorat par IA
  • Assistants numériques personnels
Hume product screen

Un impact mesurable pour les clients

L'intégration de Claude avec EVI a suscité un engouement et un engagement remarquables sur l'ensemble de la plateforme de Hume. Les utilisateurs ont mené plus d'un million de conversations distinctes, totalisant près de 2 millions de minutes d'interaction, avec une conversation moyenne de 3 minutes et de nombreuses conversations dépassant les 30 minutes. Les développeurs ont créé des centaines de milliers de configurations EVI personnalisées, les modèles Claude étant les plus populaires, représentant 36 % de toutes les sélections de modèles d'IA spécifiés.

« Nos utilisateurs disent qu'ils apprécient Claude 3.5 Sonnet et trouvent que sa personnalité s'accorde parfaitement avec EVI. Un client utilise EVI pour des simulations de coaching immersives, aidant les managers à s'entraîner à donner un retour à un collaborateur sur la défensive. Ils ont constaté que Sonnet via EVI s'adapte à des traits de personnalité complexes tout au long d'une longue conversation », a déclaré Cowen.

Les avantages techniques sont tout aussi impressionnants. La mémorisation des requêtes a permis à Hume de réduire ses coûts de 80 % et la latence de 10 % ou plus. Hume encourage ses clients à aller au-delà des métriques traditionnelles pour mesurer l'impact à travers le prisme du bien-être des utilisateurs. L'entreprise suit non seulement la satisfaction client, mais aussi la manière dont les interactions affectent l'expérience globale des utilisateurs dans le temps.

Vers un avenir centré sur la voix

Hume envisage un avenir où la voix deviendra l'interface principale pour l'interaction humain-IA, grâce à ses avantages intrinsèques en termes de rapidité et d'expression émotionnelle. Cowen a déclaré : « Dans quelques années, l'IA vocale sera omniprésente, servant d'interface principale pour les interactions humain-IA. Les IA vocales auront une intelligence émotionnelle équivalente à celle des humains et des voix indiscernables. Elles parleront toutes les langues et seront intégrées dans presque tous les logiciels, smartphones et appareils portables. »

À mesure que cet avenir approche, Hume considère la personnalisation comme essentielle pour instaurer la confiance. « Les gens auront besoin de leur propre IA personnelle », a déclaré Cowen. « D'un point de vue psychologique, il est logique que celle-ci ait une voix reconnaissable. Vous reconnaissez cette IA comme votre IA personnelle grâce à sa voix, et cela a un impact psychologique considérable. » Cette vision d'assistants IA personnels et de confiance sera cruciale à mesure que les interactions alimentées par l'IA deviendront plus présentes dans la vie quotidienne.

L'alignement entre les valeurs fondamentales et la vision à long terme de Hume et d'Anthropic rend leur collaboration puissante. Les deux entreprises sont engagées dans un développement axé sur la recherche et une IA responsable qui donne la priorité au bien-être humain. « Hume et Anthropic sont des entreprises motivées par leur mission, fondées sur la recherche, avec de fortes cultures scientifiques et une vision à long terme sur l'alignement de l'IA », a déclaré Cowen. Ensemble, nous voulons nous assurer que, à mesure que l'IA vocale se généralise, elle s'optimise pour le bien-être humain et instaure une véritable confiance avec les utilisateurs.

Suivant

Video caption
Suivant

Prev
Suivant