AI&YOU #9: ¡Lo que ChatGPT te oculta!

Todos hemos recibido este mensaje de ChatGPT:

"Algo ha ido mal. Si este problema persiste, póngase en contacto con nosotros a través de nuestro centro de ayuda..."

Pero, ¿qué significan realmente estos mensajes de error y cómo podemos comunicarnos mejor? No siempre es lo que piensas.

En la edición de esta semana de AI & YOU, nos adentraremos en el razonamiento que subyace a los grandes modelos lingüísticos (LLM) como ChatGPT, explorando cómo los "fallos" no son siempre lo que parecen y cómo la indicación correcta puede cambiar el juego. A continuación, le guiaremos sobre cómo codificar la comprensión a través de ChatGPT. ingeniería rápida técnicas.

Como siempre, nuestro equipo de expertos en IA está a su disposición para ayudar a su organización a aprovechar el poder de la IA de forma eficaz y eficiente. Si está creando sistemas empresariales que utilizan la API de ChatGPT (u otro LLM), las respuestas impredecibles hacen que sus soluciones sean menos fiables. Si su empresa necesita ayuda para incorporar dichas API a sus soluciones, o para crear soluciones personalizadas que aprovechen los LLM para responder a preguntas sobre sus datos y bases de datos, reserve una llamada conmigo a continuación.

No olvides suscribirte y compartir nuestros contenidos si te resultan útiles.

Lo que tu LLM no dice

n el ámbito de la IA, Grandes modelos lingüísticos (LLM) se han convertido en herramientas revolucionarias que han reconfigurado el panorama de numerosas industrias y aplicaciones. Desde la ayuda a la escritura al servicio de atención al cliente, pasando por el diagnóstico médico o el asesoramiento jurídico, estos modelos prometen un potencial sin precedentes.

A pesar de sus sólidas capacidades, comprender los LLM y su comportamiento no es un proceso sencillo. Aunque pueden fallar en la realización de una tarea, este "fallo" a menudo esconde un escenario más complejo. A veces, cuando su LLM (como el popular ChatGPT) parece estar en una pérdida, no es debido a su incapacidad para llevar a cabo, pero debido a otras cuestiones menos evidentes, como un 'bucle' en el árbol de decisión o un tiempo de espera plug-in.

Comprender y superar esos mensajes de error

Cuando un LLM como ChatGPT se encuentra con un problema y no puede ejecutar una tarea como se esperaba, no suele comunicar su lucha con palabras de derrota, sino más bien a través de mensajes de error. Estos mensajes a menudo pueden indicar la presencia de un problema técnico interno que está causando un impedimento en lugar de indicar una limitación del propio modelo.

230628-What-does-my-ChatGPT-Error-Message-Mean.png

Como ya hemos dicho, esto puede deberse a que el modelo se ha quedado atrapado en un bucle durante el proceso de toma de decisiones del árbol de decisión, lo que provoca que repita ciertos pasos o que se detenga por completo. Esto no significa que el modelo sea incapaz de completar la tarea, sino más bien que se ha encontrado con un problema en su algoritmo que necesita ser resuelto.

Del mismo modo, un tiempo de espera del plug-in puede ocurrir cuando un plug-in específico, que es un componente de software adicional que amplía las capacidades del software principal, tarda demasiado en ejecutar una tarea. Muchos LLM no se diseñaron originalmente para el entorno acelerado de las aplicaciones basadas en web y pueden tener dificultades para mantener el ritmo de los exigentes requisitos de velocidad, lo que provoca tiempos de espera de los plug-ins.

230628-Cómo-Superar-un-Mensaje-de-Error-de-ChatGPT.png

Ejemplos reales y soluciones

Consideremos un caso en el que se utiliza un LLM, como ChatGPT, para la generación automática de historias. La tarea consiste en generar una historia corta a partir de una pregunta introducida por el usuario. Sin embargo, el modelo se queda atascado en un bucle, generando continuamente más y más contenido sin llegar a una conclusión. Parece ser un "fracaso", ya que el modelo no es capaz de generar una historia concisa como se esperaba.

  • El verdadero problema: El modelo se ha atascado en su bucle de toma de decisiones, ampliando continuamente la historia en lugar de concluirla.

  • La solución: Un pequeño retoque en la indicación o un sutil ajuste en los parámetros del modelo podrían sacarlo del bucle y permitirle completar la tarea con éxito.

*Puede encontrar más ejemplos reales y soluciones en nuestro blog.

Descifrando los mensajes silenciosos de LLM

Cuando un LLM encuentra un problema, no se trata necesariamente de un "fallo" en el sentido convencional. A menudo se trata más bien de una señal silenciosa -una palabra no dicha- que apunta a un problema específico, como un bucle de decisión, un problema de plug-in o un comportamiento inesperado que ha interferido con la tarea del modelo.

Comprender estos mensajes silenciosos del LLM puede permitirnos adaptar, optimizar y mejorar su rendimiento. Por lo tanto, la clave no reside en centrarse únicamente en el mensaje de error, sino en desentrañar los significados más profundos, a menudo ocultos, que se esconden tras estos mensajes.

Consulta el blog completo: "Qué significa el mensaje de error de ChatGPT"

Cómo codificar la comprensión mediante la ingeniería de instrucciones

La ingeniería de prompts con grandes modelos lingüísticos (LLM) como ChatGPT y Bard de Google es un aspecto esencial, aunque a menudo pasado por alto, de estas potentes herramientas de IA. Es como preparar el escenario para un diálogo potenciado por IA, ofreciendo una dirección inicial a la conversación computacional. Cuando entablas un diálogo con un LLM, tu pregunta inicial es el primer paso en el vasto panorama de posibilidades que ofrecen estos modelos. Es tu forma de establecer expectativas, guiar la conversación y, lo que es más importante, dar forma a la respuesta de la IA.

El poder de codificar un ejemplo típico

Cuando codificamos un ejemplo típico en nuestra solicitud inicial, estamos proporcionando a la IA una idea clara de lo que queremos. Esto es especialmente valioso cuando se trata de gestionar peticiones o tareas complejas. Pensemos en una situación en la que queremos que nuestra IA nos ayude a redactar una propuesta de negocio. En lugar de una instrucción vaga como "Redacta una propuesta de negocio", podemos poner un ejemplo típico: "Redacta una propuesta de negocio similar a la que hicimos para ABC Corp. el año pasado". En este caso, estamos codificando un ejemplo típico en la instrucción inicial, proporcionando una dirección clara a la IA.

230628-Encoding-an-Example-in-Your-Initial-Prompt.png

Influir en la forma de pensar: Guiar a la IA mediante estímulos

A través de ingeniería rápida, cuidadosa y reflexivaPodemos influir en la "forma de pensar" de la IA, orientándola hacia la generación de respuestas que se acerquen más a lo que necesitamos o anticipamos. Sin embargo, no se trata sólo de dar una orden clara o un conjunto de instrucciones. Se trata de captar la esencia de un proceso de pensamiento o una ruta de razonamiento en la instrucción.

Por ejemplo, digamos que queremos que el IA para resolver un problema matemático. En lugar de preguntar directamente por la solución, podemos guiar a la IA para que demuestre los pasos para resolver el problema. Una pregunta del tipo "Como si fueras un tutor de matemáticas, guíame por los pasos para resolver esta ecuación..." puede influir significativamente en la respuesta de la IA, obteniendo una solución paso a paso que imite la forma de pensar de un tutor.

230628-Influencing-ChatGPT-Modo-de-pensar.png

El aviso inicial como guía del usuario: Preparar el terreno para la interacción

En el ámbito de la interacción con la IA, un aviso inicial puede cumplir una función similar a la de un manual de usuario, orientándole sobre lo que es posible. Ayuda a condicionar al usuario, proporcionándole una hoja de ruta para su interacción con la IA. Es como un preludio que marca el tono de la conversación posterior.

Una frase inicial bien elaborada podría ser algo así: "Imagina que eres un escritor de viajes que escribe un artículo sobre los mejores cafés de París. Comienza tu artículo con una vívida descripción de una encantadora cafetería junto al Sena". Esto no sólo dirige a la IA hacia la tarea deseada, sino que también establece una expectativa para el usuario sobre el tipo de respuesta que se puede generar.

230628-Porqué-es-importante-el-prontuario-inicial.png

Codificar la experiencia en IA

A medida que desentrañamos los entresijos de los grandes modelos lingüísticos, queda claro que la ingeniería de las instrucciones no es sólo un requisito técnico, sino una herramienta fundamental para codificar nuestra forma de pensar en la inteligencia artificial. Tanto si se trata de un simple recordatorio como de una guía completa, la indicación inicial es la piedra angular de la interacción entre el ser humano y la inteligencia artificial, ya que define los límites y las posibilidades de la conversación.

Utilizando eficazmente la indicación inicial, podemos codificar un ejemplo típico de cómo debe responder la IA, moldear la forma de pensar del usuario y guiar las respuestas de la IA.

Consulta el blog completo: "Cómo codificar la comprensión mediante la ingeniería de instrucciones"

¡Gracias por tomarse el tiempo de leer AI & YOU!

*Desnatada AI es una consultora de Machine Learning e Inteligencia Artificial que forma a ejecutivos, realiza due-diligence, asesora, diseña, construye, despliega, mantiene, actualiza y mejora IA empresarial a través de soluciones basadas en el lenguaje (PNL), la visión (CV) y la automatización.

*Chatee conmigo sobre IA empresarial

*Siga a Skim AI en LinkedIn

Hablemos de su idea

    Entradas relacionadas

    Listo para potenciar su negocio

    VAMOS
    HABLAR
    es_ESEspañol