SKIM AI

Cómo codificar la comprensión mediante la ingeniería de instrucciones

Cómo codificar la comprensión mediante la ingeniería de instruccionesImagine que crea un programa informático. Como arquitecto del ámbito digital, no sólo codificas la funcionalidad, sino también la comprensión, creando un marco virtual para interactuar con los usuarios de una manera específica. Esta imagen de la creación de un programa no dista mucho de lo que se hace en la IA conversacional moderna cuando nos dedicamos a la ingeniería de instrucciones. La... ingeniería rápida.

Ingeniería de avisos con grandes modelos lingüísticos (LLM) como ChatGPT y El bardo de Google es un aspecto esencial, aunque a menudo pasado por alto, de estas potentes herramientas de IA. Es como preparar el escenario para un diálogo potenciado por la IA, ofreciendo una dirección inicial a la conversación computacional. Cuando entablas un diálogo con un LLM, tu pregunta inicial es el primer paso en el vasto panorama de posibilidades que ofrecen estos modelos. Es tu forma de establecer expectativas, guiar la conversación y, lo que es más importante, dar forma a la respuesta de la IA.

En este blog, profundizaremos en el poder de la ingeniería de instrucciones y en la importancia de codificar un ejemplo típico, una forma de pensar y posibles respuestas en las instrucciones iniciales. Comprender esto podría ayudar a los usuarios a ahorrar tokens, condicionar a su asistente de IA y saber mejor qué es posible. Al igual que aquellos primeros programas informáticos no visuales, un aviso bien elaborado puede actuar como una brújula, señalando la dirección correcta en el vasto mar de la conversación impulsada por la IA.

El poder de codificar un ejemplo típico

Imagina que intentas enseñar a alguien un concepto nuevo. ¿Qué haría usted? Puede explicar la idea en términos abstractos, pero lo más probable es que ponga un ejemplo típico para ilustrar el concepto. Un ejemplo aporta contexto, ilumina lo abstracto y hace familiar lo desconocido. El mismo principio se aplica a la inteligencia artificial conversacional, sobre todo en la ingeniería de avisos.

Cuando codificamos un ejemplo típico en nuestra solicitud inicial, estamos proporcionando a la IA una idea clara de lo que queremos. Esto es especialmente valioso cuando se trata de gestionar peticiones o tareas complejas. Pensemos en una situación en la que queremos que nuestra IA nos ayude a redactar una propuesta de negocio. En lugar de una instrucción vaga como "Redacta una propuesta de negocio", podemos poner un ejemplo típico: "Redacta una propuesta de negocio similar a la que hicimos para ABC Corp. el año pasado". En este caso, estamos codificando un ejemplo típico en la instrucción inicial, proporcionando una dirección clara a la IA.

230628 Codificación de un ejemplo en su pregunta inicial

La clave es la especificidad. Al dar a la IA un ejemplo concreto con el que trabajar, aumentamos las posibilidades de obtener el resultado deseado. Además, este método nos ayuda a ahorrar tokens: cada palabra o dato que proporcionamos en la pregunta utiliza una fracción del total de tokens de que dispone el modelo. Con un ejemplo claro, podemos obtener una respuesta más precisa en menos tokens, lo que aumenta la eficacia global de la interacción.

Al guiar a nuestro asistente de IA de este modo, lo estamos condicionando para que comprenda mejor nuestros requisitos, igual que un programador condiciona un programa informático. Esto no solo mejora la experiencia del usuario, sino que también amplía nuestra comprensión de lo que es posible con la ingeniería rápida.

Recuerde que el poder de un aviso bien estructurado no reside sólo en la información que contiene. También está en la forma en que aprovecha los ejemplos para guiar la comprensión y las acciones de la IA.

Influir en la forma de pensar: Guiar a la IA mediante estímulos

Como seres humanos, estamos muy influidos por nuestro entorno, nuestras experiencias y la información que consumimos, todo lo cual guía nuestra forma de pensar. Del mismo modo, los modelos de IA, como ChatGPT y Google Bard, se ven influidos por las indicaciones que les damos.

A través de ingeniería rápida, cuidadosa y reflexivaPodemos influir en la "forma de pensar" de la IA, orientándola hacia la generación de respuestas que se acerquen más a lo que necesitamos o anticipamos. Sin embargo, no se trata sólo de dar una orden clara o un conjunto de instrucciones. Se trata de captar la esencia de un proceso de pensamiento o una ruta de razonamiento en la instrucción.

230628 Influir en la forma de pensar ChatGPT 

Por ejemplo, supongamos que queremos que la IA resuelva un problema matemático. En lugar de pedirle directamente la solución, podemos guiar a la IA para que nos muestre los pasos a seguir para resolver el problema. Una pregunta del tipo "Como si fueras un tutor de matemáticas, guíame por los pasos para resolver esta ecuación..." puede influir significativamente en la respuesta de la IA, obteniendo una solución paso a paso que imite la forma de pensar de un tutor.

Este enfoque no sólo proporciona un camino claro que la IA debe seguir, sino que también condiciona al usuario a interactuar con la IA de una forma más estructurada, eficiente y rica en contextos. Proporciona una interacción más profunda y matizada entre el usuario y la IA.

La ingeniería inmediata nos permite influir estratégicamente en el proceso de toma de decisiones de la IA. Nos permite utilizar nuestra comprensión de la mecánica de la IA para moldear su "forma de pensar" y, por tanto, el resultado que genera. Es importante recordar, no obstante, que la precisión del resultado suele ser un reflejo directo de la reflexión de la entrada.

De este modo, el arte de crear un aviso se convierte cada vez menos en una orden y más en una guía. Ya no somos meros usuarios interactuando con una interfaz. En lugar de eso, nos convertimos en cocreadores de un diálogo continuo con la IA, influyendo activamente en su "forma de pensar" para obtener respuestas más deseables.

El aviso inicial como guía del usuario: Preparar el terreno para la interacción

Imagínese que le entregan un dispositivo nuevo con numerosos botones, mandos y pantallas, pero sin manual de instrucciones. El proceso de descifrar la funcionalidad de cada elemento puede ser desalentador, cuando no directamente frustrante. Del mismo modo, interactuar con modelos de IA como ChatGPT o Google Bard puede parecer inicialmente abrumador debido a la amplitud de sus aplicaciones potenciales.

Aquí es donde entra en juego la pregunta inicial. En el ámbito de la interacción con la IA, un mensaje inicial puede tener una función similar a la de un manual de usuario, orientándole sobre lo que es posible. Ayuda a condicionar al usuario, proporcionándole una hoja de ruta para su interacción con la IA. Es como un preludio que marca el tono de la conversación posterior.

230628 ¿Por qué es importante la pregunta inicial?

Supongamos que utilizamos un modelo de IA para la creación de contenidos. Una pregunta inicial bien elaborada podría ser algo así: "Imagina que eres un escritor de viajes que escribe un artículo sobre los mejores cafés de París. Comienza tu artículo con una vívida descripción de un encantador café junto al Sena". Esto no sólo dirige a la IA hacia la tarea deseada, sino que también establece una expectativa para el usuario sobre el tipo de respuesta que se puede generar.

Utilizar la pregunta inicial como guía del usuario también ayuda a ahorrar tokens. Cuando el usuario tiene una idea clara de cómo interactuar con la IA desde el principio, puede hacer preguntas más precisas o proporcionar una mejor orientación, utilizando así menos tokens.

Este uso estratégico de la indicación inicial puede mejorar enormemente la experiencia del usuario, haciendo que la interacción con la IA sea más intuitiva y gratificante. Es como la interfaz visual de un programa informático: ayuda a los usuarios a navegar por las capacidades de la IA y fomenta un uso más eficiente y agradable.

Al final, el aviso inicial es mucho más que el primer mensaje. Es una poderosa herramienta que, bien aprovechada, puede maximizar el potencial de nuestras interacciones con la IA. Es el punto de partida, la guía del usuario y la clave para una experiencia de IA más gratificante.

Codificar la experiencia en IA

A medida que desentrañamos los entresijos de los grandes modelos lingüísticos, queda claro que la ingeniería de las instrucciones no es sólo un requisito técnico, sino una herramienta fundamental para codificar nuestra forma de pensar en la inteligencia artificial. Tanto si se trata de un simple recordatorio como de una guía completa, la indicación inicial es la piedra angular de la interacción entre el ser humano y la inteligencia artificial, ya que define los límites y las posibilidades de la conversación.

Al utilizar eficazmente la pregunta inicial, podemos codificar un ejemplo típico de cómo debería responder la IA, moldear la forma de pensar del usuario y guiar las respuestas de la IA. Esta práctica mejora significativamente la eficiencia de la interacción con la IA al ahorrar fichas y condicionar al usuario para la conversación, salvando esencialmente la distancia entre las expectativas humanas y la capacidad de la IA.

En la evolución de la IA, es importante reconocer el papel esencial de la pregunta inicial como herramienta para guiar, enseñar y comunicarse con la IA. A medida que imaginamos la próxima ola de avances de la IA, podemos considerar la humilde indicación inicial como una herramienta clave para dar forma al futuro de la IA conversacional.

La ingeniería inmediata es mucho más que un punto de partida: es un arte y una ciencia que, cuando se domina, permite liberar todo el potencial de la IA.

Hablemos de su idea

    Entradas relacionadas

    • AI&YOU#68

      La estadística de la semana: El rendimiento de la CoT a tiro cero fue de sólo 5,55% para GPT-4-Turbo, 8,51% para Claude-3-Opus y 4,44% para GPT-4. ("¿Cadena de irreflexión?") La inducción de la cadena de pensamiento (CoT) se ha considerado un gran avance en el desarrollo de las capacidades de razonamiento de los grandes ordenadores.

      Ingeniería Prompt
    • qué es el estímulo de la cadena de pensamiento

      Los grandes modelos lingüísticos (LLM) demuestran notables capacidades en el procesamiento y la generación de lenguaje natural (PLN). Sin embargo, cuando se enfrentan a tareas de razonamiento complejas, estos modelos pueden tener dificultades para producir resultados precisos y fiables. Aquí es donde entra en juego la inducción de la cadena de pensamiento (CoT).

      Ingeniería Prompt
    • Cadena de pensamiento

      Las instrucciones de cadena de pensamiento (CoT) han sido consideradas un gran avance en el desarrollo de las capacidades de razonamiento de los grandes modelos lingüísticos (LLM). Esta técnica, que consiste en proporcionar ejemplos de razonamiento paso a paso para guiar a los LLM, ha suscitado una gran atención en la comunidad de la IA. Muchos sitios web

      Ingeniería Prompt

    Listo para potenciar su negocio

    VAMOS
    HABLAR
    es_ESEspañol