10 citações sobre agentes de IA de Harrison Chase, cofundador e diretor executivo da LangChain
Harrison Chase é o cofundador e diretor executivo da LangChainuma estrutura de código aberto que permite aos programadores criar facilmente aplicações baseadas em grandes modelos de linguagem (LLM). Chase lançou o LangChain em outubro de 2022 enquanto trabalhava na startup de aprendizado de máquina Robust Intelligence. O projeto ganhou rapidamente popularidade entre os programadores pelas suas abstracções modulares e integrações extensivas que simplificam o processo de criação de aplicações orientadas para LLM.
Antes de fundar a LangChainChase liderou a equipa de ML na Robust Intelligence e a equipa de ligação de entidades na Kensho, uma startup de fintech. Estudou estatística e informática na Universidade de Harvard. Como CEO, Chase supervisionou o rápido crescimento da LangChain, com a empresa a angariar mais de $30 milhões em financiamento a uma avaliação de mais de $200M em apenas alguns meses após a incorporação em 2023
Dadas as suas importantes contribuições para o domínio da IA e, em particular, dos agentes de IA, vejamos 10 citações de Harrison Chase sobre o tema:
- 1. "Não creio que tenhamos conseguido encontrar a forma correcta de interagir com estas aplicações de agentes. Penso que um humano no circuito ainda é necessário porque não são muito fiáveis. Mas se estiver demasiado envolvido, então não está a fazer muita coisa útil. Por isso, há um equilíbrio estranho".
- 2. "Os agentes são como mão de obra digital - capazes de navegar automaticamente na Web, navegar nos nossos ficheiros utilizando as nossas aplicações e, potencialmente, até controlar os nossos dispositivos por nós."
- 3. "Basicamente, estamos constantemente a utilizar uma variedade de ferramentas diferentes para nos ajudar numa determinada tarefa. É aqui que os agentes são um pouco diferentes - em vez de sermos nós a utilizar essas ferramentas, limitamo-nos a descrever a uma IA qual é a tarefa e qual é o objetivo final, e depois ela planeia quais as ferramentas que precisa de utilizar e como as utilizar, e depois faz tudo sozinha."
- 4. "Não só podem completar a tarefa muito mais rapidamente do que nós, como, em teoria, nem sequer precisaríamos de saber como utilizar estas ferramentas".
- 5. "Penso que há provavelmente dois caminhos a seguir. Um deles é a utilização de ferramentas mais genéricas, ou seja, os humanos especificam um conjunto de ferramentas e depois os agentes utilizam essas ferramentas de uma forma mais aberta."
- 6. "Penso que a ideia de memória a longo prazo é muito interessante, o que significa que os agentes têm de se lembrar de coisas ao longo do tempo e construir conhecimento."
- 7. "Condensámos isso em informação e penso que é um passo muito interessante nesta ideia de agentes mais personalizados que sabem mais sobre si."
- 8. "Penso que há um grande problema que isto está a resolver, que é o facto de ser muito difícil avaliar todos estes modelos generativos".
- 9. "E isso deve-se ao facto de não estarmos a produzir um único número sobre o qual podemos fazer um MSE ou uma precisão ou algo do género, mas sim um conjunto de respostas em linguagem natural."
- 10. "Por isso, penso que essa é uma área que nos entusiasma bastante, nomeadamente a utilização dos próprios modelos de linguagem para avaliar os resultados dos modelos de linguagem."
1. "Não creio que tenhamos conseguido encontrar a forma correcta de interagir com estas aplicações de agentes. Penso que um humano no circuito ainda é necessário porque não são muito fiáveis. Mas se estiver demasiado envolvido, então não está a fazer muita coisa útil. Por isso, há um equilíbrio estranho".
Neste excerto de um apresentação com a Sequoia Capital, Chase destaca os desafios da conceção de interacções eficazes entre os utilizadores e os agentes de IA. Salienta o delicado equilíbrio necessário entre a supervisão humana e a autonomia do agente para garantir a fiabilidade e maximizar a utilidade do agente.
2. "Os agentes são como mão de obra digital - capazes de navegar automaticamente na Web, navegar nos nossos ficheiros utilizando as nossas aplicações e, potencialmente, até controlar os nossos dispositivos por nós."
Durante o seu Palestra TEDChase introduz o conceito de agentes de IA como entidades digitais que pode efetuar tarefasautonomamente, como a navegação na Web, a navegação em ficheiros e o controlo de dispositivos. Ele compara-os a uma forma de trabalho digital.
3. "Basicamente, estamos constantemente a utilizar uma variedade de ferramentas diferentes para nos ajudar numa determinada tarefa. É aqui que os agentes são um pouco diferentes - em vez de sermos nós a utilizar essas ferramentas, limitamo-nos a descrever a uma IA qual é a tarefa e qual é o objetivo final, e depois ela planeia quais as ferramentas que precisa de utilizar e como as utilizar, e depois faz tudo sozinha."
Chase estabelece uma distinção entre a abordagem tradicional dos seres humanos que utilizam ferramentas para realizar tarefas e a abordagem dos agentes de IA. Com os agentes, os utilizadores descrevem simplesmente a tarefa e o objetivo final, e o agente selecciona e utiliza autonomamente as ferramentas necessárias.
4. "Não só podem completar a tarefa muito mais rapidamente do que nós, como, em teoria, nem sequer precisaríamos de saber como utilizar estas ferramentas".
Para além dos benefícios dos agentes de IA, Chase refere o seu potencial para concluir tarefas mais rapidamente do que os humanos. Sugere também que os agentes podem eliminar a necessidade de os utilizadores terem um conhecimento prévio das ferramentas necessárias para a tarefa.
5. "Penso que há provavelmente dois caminhos a seguir. Um deles é a utilização de ferramentas mais genéricas, ou seja, os humanos especificam um conjunto de ferramentas e depois os agentes utilizam essas ferramentas de uma forma mais aberta."
Num entrevistaChase discute as direcções futuras dos agentes de IA. Prevê que os agentes utilizem ferramentas especificadas pelo utilizador de forma mais flexível e aberta como uma área de desenvolvimento.
6. "Penso que a ideia de memória a longo prazo é muito interessante, o que significa que os agentes têm de se lembrar de coisas ao longo do tempo e construir conhecimento."
Chase identifica a memória de longo prazo como outra área chave para o avanço dos agentes de IA. Está intrigado com o potencial dos agentes para acumularem conhecimentos ao longo do tempo e utilizá-los para informar as suas acções e decisões.
7. "Condensámos isso em informação e penso que é um passo muito interessante nesta ideia de agentes mais personalizados que sabem mais sobre si."
Desenvolvendo o conceito de agentes personalizados, Chase explora a forma como os agentes podem condensar a informação das interacções e preferências de um utilizador ao longo do tempo. Isto permitiria uma experiência de agente mais personalizada e individualizada.
8. "Penso que há um grande problema que isto está a resolver, que é o facto de ser muito difícil avaliar todos estes modelos generativos".
Chase discute o desafio de avaliar modelos generativos. Sugere que os agentes de IA podem potencialmente ajudar a resolver este problema.
9. "E isso deve-se ao facto de não estarmos a produzir um único número sobre o qual podemos fazer um MSE ou uma precisão ou algo do género, mas sim um conjunto de respostas em linguagem natural."
Chase explica a dificuldade de avaliar os modelos generativos, referindo que os seus resultados são frequentemente respostas em linguagem natural e não métricas facilmente quantificáveis como o erro quadrático médio ou a exatidão.
10. "Por isso, penso que essa é uma área que nos entusiasma bastante, nomeadamente a utilização dos próprios modelos de linguagem para avaliar os resultados dos modelos de linguagem."
Chase mostra-se entusiasmado com a ideia de utilizar modelos linguísticos para avaliar os resultados de outros modelos linguísticos, considerando-a uma abordagem promissora para enfrentar os desafios da avaliação de modelos generativos.