AI&YOU #9: O que o ChatGPT está a esconder de si!

Todos nós já recebemos esta mensagem de ChatGPT:

"Algo correu mal. Se o problema persistir, contacte-nos através do nosso centro de ajuda..."

Mas o que é que estas mensagens de erro significam realmente e como é que podemos comunicar melhor? Nem sempre é o que está a pensar.

Na edição desta semana de IA & YOU, estamos a aprofundar o raciocínio subjacente aos Modelos de Linguagem de Grande Dimensão (LLM), como o ChatGPT, explorando a forma como as "falhas" nem sempre são o que parecem e como o comando certo pode mudar o jogo. Em seguida, orientamo-lo sobre como codificar a compreensão através do ChatGPT engenharia rápida técnicas.

Como sempre, a nossa equipa de especialistas em IA está à disposição para ajudar a sua organização a aproveitar o poder da IA de forma eficaz e eficiente. Se está a criar sistemas empresariais que utilizam a API do ChatGPT (ou de outro LLM), as respostas imprevisíveis tornam as suas soluções menos fiáveis. Se a sua empresa precisa de ajuda para incorporar essas APIs em soluções ou criar soluções personalizadas para aproveitar os LLMs para responder a perguntas sobre os seus dados e bases de dados, marque uma chamada comigo abaixo.

Não se esqueça de subscrever e partilhar o nosso conteúdo se o considerar útil!

O que o seu LLM não está a dizer

no domínio da IA, Modelos linguísticos de grande dimensão (LLMs) tornaram-se ferramentas revolucionárias, remodelando o panorama de numerosos sectores e aplicações. Da assistência à escrita ao serviço de apoio ao cliente, do diagnóstico médico ao aconselhamento jurídico, estes modelos prometem um potencial sem precedentes.

Apesar das suas capacidades robustas, compreender os LLMs e o seu comportamento não é um processo simples. Embora eles possam falhar na realização de uma tarefa, essa 'falha' muitas vezes esconde um cenário mais complexo. Por vezes, quando o seu LLM (como o popular ChatGPT) parece estar a perder, não é devido à sua incapacidade de executar, mas devido a outros problemas menos óbvios, como um 'loop' na árvore de decisão ou um tempo limite de plug-in.

Compreender e ultrapassar essas mensagens de erro

Quando um LLM como o ChatGPT se depara com um problema e não consegue executar uma tarefa como esperado, normalmente não comunica a sua luta com palavras de derrota, mas sim através de mensagens de erro. Estas mensagens podem muitas vezes indicar a presença de um problema técnico interno que está a causar um impedimento, em vez de indicar uma limitação do próprio modelo.

230628-O que significa a minha mensagem de erro no ChatGPT.png

Como mencionámos, isto pode ser o resultado de o modelo ter ficado preso num ciclo durante a árvore de decisão do processo de tomada de decisões, fazendo com que repita determinados passos ou pare completamente. Isto não significa que o modelo seja incapaz de completar a tarefa, mas sim que encontrou um problema no seu algoritmo que precisa de ser resolvido.

Do mesmo modo, um tempo limite do plug-in pode ocorrer quando um plug-in específico, que é um componente de software adicional que amplia as capacidades do software principal, leva muito tempo para executar uma tarefa. Muitos LLMs não foram originalmente concebidos para o ambiente de ritmo acelerado das aplicações baseadas na Web e podem ter dificuldade em acompanhar os exigentes requisitos de velocidade, o que leva a tempos limite de plug-in.

230628-Como superar uma mensagem de erro do ChatGPT.png

Exemplos e soluções da vida real

Considere um exemplo em que um LLM, como o ChatGPT, está a ser utilizado para a criação automática de histórias. A tarefa consiste em gerar uma pequena história com base numa pergunta introduzida pelo utilizador. No entanto, o modelo fica preso num ciclo, gerando continuamente mais e mais conteúdo sem chegar a uma conclusão. Parece tratar-se de uma "falha", uma vez que o modelo não é capaz de produzir uma história concisa como esperado.

  • A verdadeira questão: O modelo ficou preso no seu ciclo de tomada de decisões, prolongando continuamente a história em vez de a terminar.

  • A solução: Um pequeno ajuste no prompt ou um ajuste subtil nos parâmetros do modelo pode tirar o modelo do loop, permitindo-lhe completar a tarefa com sucesso.

*Pode encontrar mais exemplos e soluções da vida real no nosso blogue.

Decifrar as mensagens silenciosas do LLM

Quando um LLM encontra um problema, não se trata necessariamente de uma "falha" no sentido convencional. Em vez disso, é muitas vezes um sinal silencioso - uma palavra não dita - que aponta para uma questão específica, como um ciclo de decisão, um problema de plug-in ou um comportamento inesperado que interferiu com a tarefa do modelo.

A compreensão destas mensagens silenciosas do LLM pode permitir-nos adaptar, otimizar e melhorar o seu desempenho. Portanto, a chave não está em concentrar-se apenas na mensagem de erro, mas em desvendar os significados mais profundos, muitas vezes ocultos, por trás dessas mensagens.

Ver o blogue completo: "O que significa a mensagem de erro do ChatGPT"

Como codificar a compreensão através da engenharia de prompts

A engenharia de prompts com modelos de linguagem de grande dimensão (LLM) como o ChatGPT e o Bard da Google é um aspeto essencial, mas muitas vezes negligenciado, destas poderosas ferramentas de IA. É semelhante a preparar o terreno para um diálogo alimentado por IA, oferecendo uma direção inicial para a conversa computacional. Quando está a interagir com um LLM, a sua pergunta inicial é o seu primeiro passo na vasta paisagem de possibilidades que estes modelos oferecem. É a sua forma de definir expectativas, orientar a conversa e, mais importante, moldar a resposta da IA.

O poder da codificação de um exemplo típico

Quando codificamos um exemplo típico no nosso pedido inicial, estamos a dar à IA uma ideia clara do que pretendemos. Isto é especialmente valioso quando se trata de lidar com pedidos ou tarefas complexas. Consideremos um cenário em que queremos que a nossa IA nos ajude a redigir uma proposta comercial. Em vez de uma instrução vaga como "Elaborar uma proposta comercial", podemos fornecer um exemplo típico: "Elabore uma proposta comercial semelhante à que fizemos para a ABC Corp. no ano passado". Aqui, estamos a codificar um exemplo típico no pedido inicial, fornecendo uma direção clara à IA.

230628-Encoding-an-Example-in-Your-Initial-Prompt.png

Influenciar a forma de pensar: Orientar a IA através de prompts

Através de engenharia rápida, cuidadosa e atentaSe a inteligência artificial for um instrumento de comunicação, podemos influenciar a "forma de pensar" da IA, orientando-a no sentido de gerar respostas mais próximas das que necessitamos ou antecipamos. No entanto, não se trata apenas de fornecer um comando claro ou um conjunto de instruções. Trata-se de captar a essência de um processo de pensamento ou de um caminho de raciocínio no prompt.

Por exemplo, digamos que queremos o IA para resolver um problema matemático. Em vez de pedir diretamente a solução, podemos orientar a IA para demonstrar os passos da resolução do problema. Uma pergunta do tipo "Como se fosses um explicador de matemática, mostra-me os passos para resolver esta equação..." pode influenciar significativamente a resposta da IA, provocando uma solução passo a passo que imita a forma de pensar de um explicador.

230628-Influencing-ChatGPT-Way-of-Thinking.png

O prompt inicial como guia do utilizador: Preparar o terreno para a interação

No domínio da interação com a IA, um aviso inicial pode ter uma função semelhante à de um manual do utilizador, dando-lhe orientações sobre o que é possível fazer. Ajuda a condicionar o utilizador, fornecendo um roteiro para a sua interação com a IA. É como um prelúdio, dando o tom para a conversa que se segue.

Uma sugestão inicial bem elaborada pode ser mais ou menos assim: "Imagine que é um escritor de viagens a escrever um artigo sobre os melhores cafés de Paris. Comece o seu artigo com uma descrição vívida de um café encantador junto ao Sena." Isto não só direcciona a IA para a tarefa desejada, como também estabelece uma expetativa para o utilizador sobre o tipo de resposta que pode ser gerado.

230628-Porque é que o discurso inicial é importante.png

Codificação de conhecimentos especializados em IA

À medida que desvendamos os meandros dos grandes modelos de linguagem, torna-se claro que a engenharia de mensagens não é apenas um requisito técnico - é uma ferramenta fundamental para codificar a nossa forma de pensar na inteligência artificial. Quer se trate de um simples lembrete ou de um guia completo, a mensagem inicial serve como pedra angular da interação homem-IA, definindo os limites e as possibilidades da conversa.

Ao utilizar eficazmente a pergunta inicial, podemos codificar um exemplo típico de como a IA deve responder, moldar a forma de pensar do utilizador e orientar as respostas da IA.

Ver o blogue completo: "Como codificar a compreensão através da engenharia de prompts"

Obrigado por ler AI & YOU!

*Desnatado A AI é uma empresa de consultoria em Aprendizagem Automática e Inteligência Artificial que educa executivos, efectua diligências prévias, aconselha, arquiteta, constrói, implementa, mantém, actualiza e melhora IA empresarial soluções baseadas na linguagem (PNL), na visão (CV) e na automatização.

*Fale comigo sobre IA empresarial

*Siga a Skim AI em LinkedIn

Vamos discutir a sua ideia

    Publicações relacionadas

    Pronto para impulsionar o seu negócio

    VAMOS
    TALK
    pt_PTPortuguês