10 citations de Harrison Chase, cofondateur et PDG de LangChain, sur les agents d'IA
Harrison Chase est cofondateur et directeur général de LangChainLangChain est un framework open-source qui permet aux développeurs de créer facilement des applications basées sur de grands modèles de langage (LLM). Chase a lancé LangChain en octobre 2022 alors qu'il travaillait pour la startup Robust Intelligence spécialisée dans l'apprentissage automatique.. Le projet a rapidement gagné en popularité parmi les développeurs pour ses abstractions modulaires et ses intégrations étendues qui simplifient le processus de création d'applications pilotées par LLM..
Avant de fonder LangChainChase a dirigé l'équipe de ML chez Robust Intelligence et l'équipe de liaison d'entités chez Kensho, une startup de la fintech.. Il a étudié les statistiques et l'informatique à l'université de Harvard. En tant que PDG, M. Chase a supervisé la croissance rapide de LangChain, qui a levé plus de $30 millions de fonds à une valeur de $200M+ quelques mois seulement après sa création en 2023.
Compte tenu de ses importantes contributions au domaine de l'IA, et en particulier des agents d'IA, voici 10 citations de Harrison Chase sur le sujet :
- 1. "Je ne pense pas que nous ayons trouvé la bonne façon d'interagir avec ces applications d'agents. Je pense qu'un humain dans la boucle est toujours nécessaire parce qu'ils ne sont pas super fiables. Mais s'il est trop présent dans la boucle, il ne fait pas grand-chose d'utile. Il y a donc un drôle d'équilibre à trouver".
- 2. "Les agents sont comme des travailleurs numériques - capables de naviguer automatiquement sur le web, de parcourir nos fichiers à l'aide de nos applications, et peut-être même de contrôler nos appareils à notre place".
- 3. "Nous utilisons en permanence toute une série d'outils différents pour nous aider à accomplir une tâche donnée. C'est là que les agents sont un peu différents - au lieu que ce soit nous qui utilisions ces outils, nous décrivons simplement à une IA quelle est la tâche à accomplir et quel est l'objectif final, puis elle planifie les outils qu'elle doit utiliser et comment les utiliser, et enfin elle s'en charge elle-même."
- 4. "Non seulement ils peuvent accomplir la tâche beaucoup plus rapidement que nous, mais en théorie, nous n'aurions même pas besoin de savoir comment utiliser ces outils.
- 5. "Je pense qu'il y a probablement deux directions à prendre. L'une est l'utilisation d'outils plus génériques, c'est-à-dire que les humains spécifient un ensemble d'outils et que les agents utilisent ensuite ces outils de manière plus ouverte."
- 6. "Je pense que l'idée de la mémoire à long terme est vraiment intéressante, car les agents doivent se souvenir de choses au fil du temps et accumuler des connaissances.
- 7. "Nous avons en quelque sorte condensé ces informations et je pense qu'il s'agit d'une étape très intéressante dans l'idée d'agents plus personnalisés qui en savent plus sur vous.
- 8. "Je pense que cela résout un problème important, à savoir qu'il est très difficile d'évaluer tous ces modèles génératifs.
- 9. "C'est parce que vous ne produisez pas un seul chiffre sur lequel vous pouvez calculer l'EQM, la précision ou quelque chose comme ça, vous avez maintenant ce genre de réponses, je veux dire au moins une réponse en langage naturel.
- 10. "Je pense donc qu'il s'agit d'un domaine dans lequel nous sommes tous deux extrêmement enthousiastes, à savoir l'utilisation des modèles de langue eux-mêmes pour évaluer les résultats des modèles de langue.
1. "Je ne pense pas que nous ayons trouvé la bonne façon d'interagir avec ces applications d'agents. Je pense qu'un humain dans la boucle est toujours nécessaire parce qu'ils ne sont pas super fiables. Mais s'il est trop présent dans la boucle, il ne fait pas grand-chose d'utile. Il y a donc un drôle d'équilibre à trouver".
Dans cet extrait d'une présentation avec Sequoia Capital, M. Chase souligne les défis que pose la conception d'interactions efficaces entre les utilisateurs et les agents d'intelligence artificielle. Il insiste sur le délicat équilibre nécessaire entre la supervision humaine et l'autonomie de l'agent pour garantir la fiabilité tout en maximisant l'utilité de l'agent.
2. "Les agents sont comme des travailleurs numériques - capables de naviguer automatiquement sur le web, de parcourir nos fichiers à l'aide de nos applications, et peut-être même de contrôler nos appareils à notre place".
Au cours de sa Discours TEDChase introduit le concept d'agents d'intelligence artificielle en tant qu'entités numériques qui peut effectuer des tâchesde manière autonome, comme la navigation sur le web, la navigation dans les fichiers et le contrôle des appareils. Il les compare à une forme de travail numérique.
3. "Nous utilisons en permanence toute une série d'outils différents pour nous aider à accomplir une tâche donnée. C'est là que les agents sont un peu différents - au lieu que ce soit nous qui utilisions ces outils, nous décrivons simplement à une IA quelle est la tâche à accomplir et quel est l'objectif final, puis elle planifie les outils qu'elle doit utiliser et comment les utiliser, et enfin elle s'en charge elle-même."
Chase établit une distinction entre l'approche traditionnelle des humains qui utilisent des outils pour accomplir des tâches et l'approche de l'agent d'IA. Avec les agents, les utilisateurs décrivent simplement la tâche et l'objectif final, et l'agent sélectionne et utilise de manière autonome les outils nécessaires.
4. "Non seulement ils peuvent accomplir la tâche beaucoup plus rapidement que nous, mais en théorie, nous n'aurions même pas besoin de savoir comment utiliser ces outils.
En développant les avantages des agents d'IA, M. Chase souligne qu'ils peuvent accomplir des tâches plus rapidement que les humains. Il suggère également que les agents pourraient éliminer la nécessité pour les utilisateurs d'avoir une connaissance préalable des outils nécessaires à la réalisation de la tâche.
5. "Je pense qu'il y a probablement deux directions à prendre. L'une est l'utilisation d'outils plus génériques, c'est-à-dire que les humains spécifient un ensemble d'outils et que les agents utilisent ensuite ces outils de manière plus ouverte."
Dans un entretienChase aborde les orientations futures des agents d'intelligence artificielle. Il envisage comme domaine de développement des agents utilisant des outils spécifiés par l'utilisateur de manière plus flexible et plus ouverte.
6. "Je pense que l'idée de la mémoire à long terme est vraiment intéressante, car les agents doivent se souvenir de choses au fil du temps et accumuler des connaissances.
M. Chase considère la mémoire à long terme comme un autre domaine clé pour l'avancement des agents d'IA. Il est intrigué par la possibilité pour les agents d'accumuler des connaissances au fil du temps et de les utiliser pour informer leurs actions et leurs décisions.
7. "Nous avons en quelque sorte condensé ces informations et je pense qu'il s'agit d'une étape très intéressante dans l'idée d'agents plus personnalisés qui en savent plus sur vous.
Développant le concept d'agents personnalisés, Chase explore la manière dont les agents pourraient condenser les informations provenant des interactions et des préférences d'un utilisateur au fil du temps. Cela permettrait à l'agent d'offrir une expérience plus adaptée et individualisée.
8. "Je pense que cela résout un problème important, à savoir qu'il est très difficile d'évaluer tous ces modèles génératifs.
Chase aborde le défi que représente l'évaluation des modèles génératifs. Il suggère que les agents d'intelligence artificielle pourraient potentiellement aider à résoudre ce problème.
9. "C'est parce que vous ne produisez pas un seul chiffre sur lequel vous pouvez calculer l'EQM, la précision ou quelque chose comme ça, vous avez maintenant ce genre de réponses, je veux dire au moins une réponse en langage naturel.
M. Chase insiste sur la difficulté d'évaluer les modèles génératifs, notant que leurs résultats sont souvent des réponses en langage naturel plutôt que des mesures facilement quantifiables telles que l'erreur quadratique moyenne ou la précision.
10. "Je pense donc qu'il s'agit d'un domaine dans lequel nous sommes tous deux extrêmement enthousiastes, à savoir l'utilisation des modèles de langue eux-mêmes pour évaluer les résultats des modèles de langue.
Chase exprime son enthousiasme pour l'idée d'utiliser des modèles de langage pour évaluer les résultats d'autres modèles de langage, considérant qu'il s'agit d'une approche prometteuse pour relever les défis de l'évaluation des modèles génératifs.