{"id":13060,"date":"2024-09-19T23:44:34","date_gmt":"2024-09-20T04:44:34","guid":{"rendered":"http:\/\/skimai.com\/?p=13060"},"modified":"2024-09-19T23:44:34","modified_gmt":"2024-09-20T04:44:34","slug":"necesitamos-repensar-la-cadena-de-pensamiento-cot-incitando-aiyou-68","status":"publish","type":"post","link":"https:\/\/skimai.com\/es\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/","title":{"rendered":"Debemos replantearnos la cadena de pensamiento (CdT) que impulsa la IA&amp;YOU #68"},"content":{"rendered":"<p><strong>La estad\u00edstica de la semana:<\/strong> El rendimiento CoT a tiro cero fue de s\u00f3lo 5,55% para GPT-4-Turbo, 8,51% para Claude-3-Opus y 4,44% para GPT-4. (\"\u00bfCadena de irreflexi\u00f3n?\" art\u00edculo)<\/p>\n\n\n<p>La inducci\u00f3n de la cadena de pensamiento (CoT) se ha considerado un gran avance en el desarrollo de las capacidades de razonamiento de los grandes modelos ling\u00fc\u00edsticos (LLM). Sin embargo, investigaciones recientes han cuestionado estas afirmaciones y nos han llevado a revisar la t\u00e9cnica.<\/p>\n\n\n<p><strong>En la edici\u00f3n de esta semana de AI&amp;YOU, exploramos las ideas de tres blogs que publicamos sobre el tema:<\/strong><\/p>\n\n\n<ul class=\"wp-block-list\">\n<li><p><a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/es\/que-es-la-cadena-de-pensamiento-cot-prompting\/\">\u00bfQu\u00e9 es el est\u00edmulo de la cadena de pensamiento?<\/a><\/p><\/li><li><p><a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/es\/ai-papel-de-investigacion-resumido-cadena-de-pensamiento-menos-incitacion\/\">Desglose del trabajo de investigaci\u00f3n sobre IA: \"\u00bfCadena de irreflexi\u00f3n?\"<\/a><\/p><\/li><li><p><a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/es\/las-10-mejores-tecnicas-para-maximizar-el-rendimiento-de-la-ai-en-llm\/\">Las 10 mejores t\u00e9cnicas de incitaci\u00f3n para los LLM<\/a><\/p><\/li>\n<\/ul>\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_1 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">\u00cdndice<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Alternar tabla de contenidos\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1' ><ul class='ez-toc-list-level-2' ><li class='ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/skimai.com\/es\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#We_need_to_rethink_chain-of-thought_CoT_prompting_AI_YOU_68\" >Debemos replantearnos la cadena de pensamiento (CdT) que impulsa la IA&amp;YOU #68<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/skimai.com\/es\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#How_CoT_Works\" >C\u00f3mo funciona CoT<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/skimai.com\/es\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Types_of_CoT_Prompting\" >Tipos de CoT Prompting<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-1'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/skimai.com\/es\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#AI_Research_Paper_Breakdown_%E2%80%9CChain_of_Thoughtlessness%E2%80%9D\" >Desglose del trabajo de investigaci\u00f3n sobre IA: \"\u00bfCadena de irreflexi\u00f3n?\"<\/a><ul class='ez-toc-list-level-2' ><li class='ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/skimai.com\/es\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Key_Findings_Unveiled\" >Principales conclusiones<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/skimai.com\/es\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Implications_for_AI_Development\" >Implicaciones para el desarrollo de la IA<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-7\" href=\"https:\/\/skimai.com\/es\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Recommendations_for_AI_Practitioners\" >Recomendaciones para los profesionales de la IA:<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-1'><a class=\"ez-toc-link ez-toc-heading-8\" href=\"https:\/\/skimai.com\/es\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#10_Best_Prompting_Techniques_for_LLMs\" >Las 10 mejores t\u00e9cnicas de incitaci\u00f3n para los LLM<\/a><ul class='ez-toc-list-level-2' ><li class='ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-9\" href=\"https:\/\/skimai.com\/es\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#Thank_you_for_taking_the_time_to_read_AI_YOU\" >\u00a1Gracias por tomarse el tiempo de leer AI &amp; YOU!<\/a><\/li><\/ul><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"We_need_to_rethink_chain-of-thought_CoT_prompting_AI_YOU_68\"><\/span><strong>Debemos replantearnos la cadena de pensamiento (CdT) que impulsa la IA&amp;YOU #68<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Los LLM demuestran notables capacidades en el procesamiento y la generaci\u00f3n de lenguaje natural (PLN). Sin embargo, cuando se enfrentan a tareas de razonamiento complejas, estos modelos pueden tener dificultades para producir resultados precisos y fiables. Aqu\u00ed es donde entra en juego la inducci\u00f3n de la cadena de pensamiento (CoT), una t\u00e9cnica que pretende mejorar la capacidad de resoluci\u00f3n de problemas de los LLM.<\/p>\n\n\n<p>Un avanzado <a rel=\"noopener noreferrer\" href=\"http:\/\/skimai.com\/es\/que-es-la-ingenieria-rapida\/\">ingenier\u00eda r\u00e1pida<\/a> est\u00e1 dise\u00f1ado para guiar a los LLM a trav\u00e9s de un proceso de razonamiento paso a paso. A diferencia de los m\u00e9todos est\u00e1ndar que buscan respuestas directas, el m\u00e9todo CoT anima al modelo a generar pasos intermedios de razonamiento antes de llegar a una respuesta final.<\/p>\n\n\n<p>En esencia, las instrucciones de CoT consisten en estructurar las instrucciones de entrada de forma que provoquen una secuencia l\u00f3gica de pensamientos en el modelo. Al dividir los problemas complejos en pasos m\u00e1s peque\u00f1os y manejables, CoT intenta permitir que los LLM naveguen por rutas de razonamiento intrincadas de forma m\u00e1s eficaz.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/b09a9a44-caab-4b70-ab0b-37bcbf039925.png\" \/>\n<\/figure>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"How_CoT_Works\"><\/span>C\u00f3mo funciona CoT<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>En esencia, las instrucciones CoT gu\u00edan a los modelos ling\u00fc\u00edsticos a trav\u00e9s de una serie de pasos intermedios de razonamiento antes de llegar a una respuesta final. Este proceso suele implicar:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Descomposici\u00f3n del problema:<\/strong> La tarea compleja se descompone en pasos m\u00e1s peque\u00f1os y manejables.<\/p><\/li><li><p><strong>Razonamiento paso a paso:<\/strong> Se pide al modelo que piense expl\u00edcitamente en cada paso.<\/p><\/li><li><p><strong>Progresi\u00f3n l\u00f3gica:<\/strong> Cada paso se basa en el anterior, creando una cadena de pensamientos.<\/p><\/li><li><p><strong>Conclusi\u00f3n:<\/strong> La respuesta final se obtiene a partir de los pasos de razonamiento acumulados.<\/p><\/li>\n<\/ol>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Types_of_CoT_Prompting\"><\/span>Tipos de CoT Prompting<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>La incitaci\u00f3n a la cadena de pensamiento puede aplicarse de varias formas, entre las que destacan dos tipos principales:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>CoT de disparo cero:<\/strong> CoT no requiere ejemplos de tareas espec\u00edficas. En su lugar, utiliza una simple indicaci\u00f3n como \"Vamos a abordar esto paso a paso\" para animar al modelo a desglosar su proceso de razonamiento.****<\/p><\/li><li><p><strong>CoT de pocos disparos:<\/strong> La CoT de pocos intentos consiste en proporcionar al modelo un peque\u00f1o n\u00famero de ejemplos que demuestren el proceso de razonamiento deseado. Estos ejemplos sirven de plantilla para que el modelo aborde problemas nuevos y desconocidos.<\/p><\/li>\n<\/ol>\n\n\n<p><strong><u>CoT de disparo cero<\/u><\/strong><\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/275993ad-9125-47d7-86b8-db87250913d6.png\" \/>\n<\/figure>\n\n\n<p><strong><u>CoT de pocos disparos<\/u><\/strong><\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/773c3c88-21c2-41b6-be04-4c8a80329933.png\" \/>\n<\/figure>\n\n\n<h1 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"AI_Research_Paper_Breakdown_%E2%80%9CChain_of_Thoughtlessness%E2%80%9D\"><\/span>Desglose del trabajo de investigaci\u00f3n sobre IA: \"\u00bfCadena de irreflexi\u00f3n?\"<span class=\"ez-toc-section-end\"><\/span><\/h1>\n\n\n<p>Ahora que ya sabes qu\u00e9 es el CoT prompting, podemos sumergirnos en algunas investigaciones recientes que cuestionan algunos de sus beneficios y ofrecen algunas ideas sobre cu\u00e1ndo es realmente \u00fatil.<\/p>\n\n\n<p>El trabajo de investigaci\u00f3n, titulado \"<a rel=\"noopener noreferrer\" href=\"https:\/\/arxiv.org\/pdf\/2405.04776\">\u00bfCadena de irreflexi\u00f3n? Un an\u00e1lisis de la CoT en la planificaci\u00f3n,<\/a>\"ofrece un examen cr\u00edtico de la eficacia y la generalizabilidad de las instrucciones CoT. Como profesionales de la IA, es crucial comprender estas conclusiones y sus implicaciones para el desarrollo de aplicaciones de IA que requieran capacidades de razonamiento sofisticadas.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/3ba0bde5-4dd5-4cad-b56e-d84fa715c2d1.png\" \/>\n<\/figure>\n\n\n<p>Los investigadores eligieron un dominio de planificaci\u00f3n cl\u00e1sico llamado Blocksworld como principal campo de pruebas. En Blocksworld, la tarea consiste en reorganizar un conjunto de bloques desde una configuraci\u00f3n inicial hasta una configuraci\u00f3n objetivo mediante una serie de acciones de movimiento. Este dominio es ideal para probar las capacidades de razonamiento y planificaci\u00f3n porque:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p>Permite generar problemas de complejidad variable<\/p><\/li><li><p>Tiene soluciones claras y verificables algor\u00edtmicamente.<\/p><\/li><li><p>Es poco probable que est\u00e9 muy representado en los datos de formaci\u00f3n del LLM<\/p><\/li>\n<\/ol>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/96c5ef3f-d5b0-4d8a-af26-92be9c553340.png\" \/>\n<\/figure>\n\n\n<p>El estudio examin\u00f3 tres LLM de \u00faltima generaci\u00f3n: GPT-4, Claude-3-Opus y GPT-4-Turbo. Estos modelos se probaron con instrucciones de distinta especificidad:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Cadena de pensamiento Zero-Shot (Universal):<\/strong> Simplemente a\u00f1adiendo \"pensemos paso a paso\" a la indicaci\u00f3n.<\/p><\/li><li><p><strong>Prueba de progresi\u00f3n (espec\u00edfica para PDDL):<\/strong> Explicaci\u00f3n general de la correcci\u00f3n del plan con ejemplos.<\/p><\/li><li><p><strong>Algoritmo universal Blocksworld:<\/strong> Demostraci\u00f3n de un algoritmo general para resolver cualquier problema de Blocksworld.<\/p><\/li><li><p><strong>Stacking Prompt:<\/strong> Centrarse en una subclase espec\u00edfica de problemas de Blocksworld (tabla a pila).<\/p><\/li><li><p><strong>Apilamiento lexicogr\u00e1fico:<\/strong> Limitarse a\u00fan m\u00e1s a una forma sint\u00e1ctica concreta del estado objetivo.<\/p><\/li>\n<\/ol>\n\n\n<p>Al probar estas indicaciones en problemas de complejidad creciente, los investigadores pretend\u00edan evaluar hasta qu\u00e9 punto los LLM pod\u00edan generalizar el razonamiento demostrado en los ejemplos.<\/p>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Key_Findings_Unveiled\"><\/span>Principales conclusiones<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Los resultados de este estudio ponen en tela de juicio muchas de las hip\u00f3tesis predominantes sobre la incitaci\u00f3n al TdC:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Eficacia limitada del CdT:<\/strong> Contrariamente a lo que se hab\u00eda afirmado hasta ahora, el rendimiento de CoT s\u00f3lo mejoraba significativamente cuando los ejemplos eran muy similares al problema consultado. En cuanto los problemas se desviaban del formato exacto de los ejemplos, el rendimiento disminu\u00eda dr\u00e1sticamente.<\/p><\/li><li><p><strong>R\u00e1pida degradaci\u00f3n del rendimiento:<\/strong> A medida que aumentaba la complejidad de los problemas (medida por el n\u00famero de bloques implicados), la precisi\u00f3n de todos los modelos disminu\u00eda dr\u00e1sticamente, independientemente de la indicaci\u00f3n de CoT utilizada. Esto sugiere que los LLM tienen dificultades para extender el razonamiento demostrado en ejemplos sencillos a escenarios m\u00e1s complejos.<\/p><\/li><li><p><strong>Ineficacia de los avisos generales:<\/strong> Sorprendentemente, las indicaciones m\u00e1s generales de CoT a menudo dieron peores resultados que las indicaciones est\u00e1ndar sin ning\u00fan ejemplo de razonamiento. Esto contradice la idea de que el CdT ayuda a los LLM a aprender estrategias generalizables de resoluci\u00f3n de problemas.<\/p><\/li><li><p><strong>Compromiso de especificidad:<\/strong> El estudio revel\u00f3 que las instrucciones muy espec\u00edficas pod\u00edan lograr una gran precisi\u00f3n, pero s\u00f3lo en un subconjunto muy reducido de problemas. Esto pone de manifiesto la existencia de un claro equilibrio entre el aumento del rendimiento y la aplicabilidad de la indicaci\u00f3n.<\/p><\/li><li><p><strong>Falta de verdadero aprendizaje algor\u00edtmico:<\/strong> Los resultados sugieren claramente que los LLM no aprenden a aplicar procedimientos algor\u00edtmicos generales a partir de los ejemplos del CdT. En su lugar, parecen basarse en la concordancia de patrones, que se rompe r\u00e1pidamente cuando se enfrentan a problemas nuevos o m\u00e1s complejos.<\/p><\/li>\n<\/ol>\n\n\n<p>Estos resultados tienen importantes implicaciones para los profesionales de la IA y las empresas que deseen aprovechar la inducci\u00f3n CoT en sus aplicaciones. Sugieren que, aunque el CoT puede mejorar el rendimiento en determinados escenarios, puede que no sea la panacea para tareas de razonamiento complejas que muchos esperaban.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/c76d6112-c7ee-420a-8aa5-67c5b89614b5.png\" \/>\n<\/figure>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Implications_for_AI_Development\"><\/span>Implicaciones para el desarrollo de la IA<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p>Las conclusiones de este estudio tienen importantes implicaciones para el desarrollo de la IA, sobre todo para las empresas que trabajan en aplicaciones que requieren capacidades complejas de razonamiento o planificaci\u00f3n:<\/p>\n\n\n<ol class=\"wp-block-list\">\n<li><p><strong>Reevaluaci\u00f3n de la eficacia del CdT:<\/strong> Los desarrolladores de IA deben ser cautos a la hora de confiar en CoT para tareas que requieran un verdadero pensamiento algor\u00edtmico o la generalizaci\u00f3n a escenarios novedosos.<\/p><\/li><li><p><strong>Limitaciones de los LLM actuales:<\/strong> Pueden ser necesarios enfoques alternativos para aplicaciones que requieran una planificaci\u00f3n s\u00f3lida o la resoluci\u00f3n de problemas en varios pasos.<\/p><\/li><li><p><strong>El coste de la ingenier\u00eda r\u00e1pida:<\/strong> Aunque las instrucciones muy espec\u00edficas del TdC pueden dar buenos resultados en conjuntos de problemas limitados, el esfuerzo humano necesario para elaborarlas puede compensar los beneficios, sobre todo si se tiene en cuenta su limitada generalizabilidad.<\/p><\/li><li><p><strong>Repensar las m\u00e9tricas de evaluaci\u00f3n:<\/strong> Basarse \u00fanicamente en conjuntos de pruebas est\u00e1ticas puede sobreestimar las verdaderas capacidades de razonamiento de un modelo.<\/p><\/li><li><p><strong>La brecha entre percepci\u00f3n y realidad:<\/strong> Existe una discrepancia significativa entre las capacidades de razonamiento percibidas de los LLM (a menudo antropomorfizadas en el discurso popular) y sus capacidades reales, como demuestra este estudio.<\/p><\/li>\n<\/ol>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Recommendations_for_AI_Practitioners\"><\/span>Recomendaciones para los profesionales de la IA:<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<ul class=\"wp-block-list\">\n<li><p><strong>Evaluaci\u00f3n:<\/strong> Implementar diversos marcos de pruebas para evaluar la verdadera generalizaci\u00f3n a trav\u00e9s de las complejidades del problema.<\/p><\/li><li><p><strong>Uso de CoT:<\/strong> Aplicar juiciosamente el est\u00edmulo de la cadena de pensamiento, reconociendo sus limitaciones en la generalizaci\u00f3n.<\/p><\/li><li><p><strong>Soluciones h\u00edbridas<\/strong>: Considere la posibilidad de combinar LLM con algoritmos tradicionales para tareas de razonamiento complejas.<\/p><\/li><li><p><strong>Transparencia:<\/strong> Comunicar claramente las limitaciones del sistema de IA, especialmente para tareas de razonamiento o planificaci\u00f3n.<\/p><\/li><li><p><strong>Enfoque I+D:<\/strong> Invertir en investigaci\u00f3n para mejorar la capacidad de razonamiento real de los sistemas de IA.<\/p><\/li><li><p><strong>Puesta a punto:<\/strong> Considere la posibilidad de realizar ajustes espec\u00edficos para cada \u00e1mbito, pero tenga en cuenta los posibles l\u00edmites de la generalizaci\u00f3n.<\/p><\/li>\n<\/ul>\n\n\n<p>Para los profesionales de la IA y las empresas, estos resultados ponen de relieve la importancia de combinar los puntos fuertes del LLM con enfoques de razonamiento especializados, invertir en soluciones espec\u00edficas para cada \u00e1mbito cuando sea necesario y mantener la transparencia sobre las limitaciones de los sistemas de IA. A medida que avanzamos, la comunidad de la IA debe centrarse en el desarrollo de nuevas arquitecturas y m\u00e9todos de entrenamiento que puedan salvar la distancia entre la concordancia de patrones y el verdadero razonamiento algor\u00edtmico.<\/p>\n\n\n<h1 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"10_Best_Prompting_Techniques_for_LLMs\"><\/span>Las 10 mejores t\u00e9cnicas de incitaci\u00f3n para los LLM<span class=\"ez-toc-section-end\"><\/span><\/h1>\n\n\n<p>Esta semana tambi\u00e9n analizaremos diez de las t\u00e9cnicas de incitaci\u00f3n m\u00e1s potentes y comunes, ofreciendo informaci\u00f3n sobre sus aplicaciones y mejores pr\u00e1cticas.<\/p>\n\n\n<figure class=\"wp-block-image\">\n<img decoding=\"async\" src=\"http:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/8fe201b3-003e-4190-a06f-e5553d6b1126.png\" \/>\n<\/figure>\n\n\n<p>Unas instrucciones bien dise\u00f1adas pueden mejorar significativamente el rendimiento de un LLM, permitiendo resultados m\u00e1s precisos, relevantes y creativos. Tanto si eres un desarrollador de IA experimentado como si acabas de empezar con los LLM, estas t\u00e9cnicas te ayudar\u00e1n a liberar todo el potencial de los modelos de IA.<\/p>\n\n\n<p>No deje de consultar el blog completo para saber m\u00e1s sobre cada uno de ellos.<\/p>\n\n\n<hr class=\"wp-block-separator\" \/>\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Thank_you_for_taking_the_time_to_read_AI_YOU\"><\/span><strong>\u00a1Gracias por tomarse el tiempo de leer AI &amp; YOU!<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n<p><strong>Para obtener m\u00e1s contenido sobre IA empresarial, como infograf\u00edas, estad\u00edsticas, gu\u00edas pr\u00e1cticas, art\u00edculos y v\u00eddeos, siga a Skim AI en <\/strong><a rel=\"noopener noreferrer\" href=\"https:\/\/linkedin.com\/company\/skim-ai\"><strong>LinkedIn<\/strong><\/a><\/p>\n\n\n<p>\u00bfEs usted fundador, director general, inversor o capitalista de riesgo y busca servicios de asesoramiento sobre IA, desarrollo fraccionado de IA o diligencia debida? Obtenga la orientaci\u00f3n que necesita para tomar decisiones informadas sobre la estrategia de productos de IA y las oportunidades de inversi\u00f3n de su empresa.<\/p>\n\n\n<p><a rel=\"noopener noreferrer\" href=\"https:\/\/meetings.hubspot.com\/gregg15\/15-min-about-enterprise-ai?utm_source=hs_email&utm_medium=email\">\u00bfNecesita ayuda para lanzar su soluci\u00f3n empresarial de IA? \u00bfQuiere crear sus propios trabajadores de IA con nuestra plataforma AI Workforce Management? Hablemos<\/a><\/p>\n\n\n<p>Creamos soluciones de IA personalizadas para empresas respaldadas por capital riesgo y capital privado en los siguientes sectores: Tecnolog\u00eda M\u00e9dica, Noticias\/Agregaci\u00f3n de Contenidos, Producci\u00f3n de Cine y Fotograf\u00eda, Tecnolog\u00eda Educativa, Tecnolog\u00eda Legal, Fintech y Criptomoneda.<\/p>","protected":false},"excerpt":{"rendered":"<p>Stat of the Week: Zero-shot CoT performance was only 5.55% for GPT-4-Turbo, 8.51% for Claude-3-Opus, and 4.44% for GPT-4. (&#8220;Chain of Thoughtlessness?&#8221; paper) Chain-of-Thought (CoT) prompting has been hailed as a breakthrough in unlocking the reasoning capabilities of large language models (LLMs). However, recent research has challenged these claims and prompted us to revisit the [&hellip;]<\/p>\n","protected":false},"author":1003,"featured_media":13098,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"single-custom-post-template.php","format":"standard","meta":{"_et_pb_use_builder":"","_et_pb_old_content":"","_et_gb_content_width":"","footnotes":""},"categories":[109,119],"tags":[],"class_list":["post-13060","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-newsletter","category-prompt-engineering"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v24.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>We need to rethink chain-of-thought (CoT) prompting AI&amp;YOU #68 - Skim AI<\/title>\n<meta name=\"description\" content=\"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT&#039;s effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/skimai.com\/es\/necesitamos-repensar-la-cadena-de-pensamiento-cot-incitando-aiyou-68\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"We need to rethink chain-of-thought (CoT) prompting AI&amp;YOU #68 - Skim AI\" \/>\n<meta property=\"og:description\" content=\"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT&#039;s effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/skimai.com\/es\/necesitamos-repensar-la-cadena-de-pensamiento-cot-incitando-aiyou-68\/\" \/>\n<meta property=\"og:site_name\" content=\"Skim AI\" \/>\n<meta property=\"article:published_time\" content=\"2024-09-20T04:44:34+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1092\" \/>\n\t<meta property=\"og:image:height\" content=\"612\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Greggory Elias\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Greggory Elias\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"8 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\"},\"author\":{\"name\":\"Greggory Elias\",\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6\"},\"headline\":\"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68\",\"datePublished\":\"2024-09-20T04:44:34+00:00\",\"dateModified\":\"2024-09-20T04:44:34+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\"},\"wordCount\":1446,\"publisher\":{\"@id\":\"https:\/\/skimai.com\/uk\/#organization\"},\"image\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"articleSection\":[\"Newsletter\",\"Prompt Engineering\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\",\"url\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\",\"name\":\"We need to rethink chain-of-thought (CoT) prompting AI&YOU #68 - Skim AI\",\"isPartOf\":{\"@id\":\"https:\/\/skimai.com\/uk\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"datePublished\":\"2024-09-20T04:44:34+00:00\",\"dateModified\":\"2024-09-20T04:44:34+00:00\",\"description\":\"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT's effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.\",\"breadcrumb\":{\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage\",\"url\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"contentUrl\":\"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png\",\"width\":1092,\"height\":612,\"caption\":\"AI&YOU#68\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/skimai.com\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/skimai.com\/uk\/#website\",\"url\":\"https:\/\/skimai.com\/uk\/\",\"name\":\"Skim AI\",\"description\":\"The AI Agent Workforce Platform\",\"publisher\":{\"@id\":\"https:\/\/skimai.com\/uk\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/skimai.com\/uk\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/skimai.com\/uk\/#organization\",\"name\":\"Skim AI\",\"url\":\"https:\/\/skimai.com\/uk\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/\",\"url\":\"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png\",\"contentUrl\":\"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png\",\"width\":194,\"height\":58,\"caption\":\"Skim AI\"},\"image\":{\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.linkedin.com\/company\/skim-ai\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6\",\"name\":\"Greggory Elias\",\"url\":\"https:\/\/skimai.com\/es\/author\/gregg\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Tenemos que replantearnos la cadena de pensamiento (CdT) AI&amp;YOU #68 - Skim AI","description":"Una nueva investigaci\u00f3n revela que el est\u00edmulo de la cadena de pensamiento (CoT) puede no ser el gran avance de la IA que esper\u00e1bamos. Descubra por qu\u00e9 la eficacia de CoT es limitada en tareas de razonamiento complejas y c\u00f3mo los LLM tienen problemas con la generalizaci\u00f3n. Descubra c\u00f3mo replantearse las t\u00e9cnicas de incitaci\u00f3n de la IA para mejorar el rendimiento.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/skimai.com\/es\/necesitamos-repensar-la-cadena-de-pensamiento-cot-incitando-aiyou-68\/","og_locale":"es_ES","og_type":"article","og_title":"We need to rethink chain-of-thought (CoT) prompting AI&YOU #68 - Skim AI","og_description":"New research reveals that Chain-of-Thought (CoT) prompting may not be the AI breakthrough we hoped for. Learn why CoT's effectiveness is limited in complex reasoning tasks and how LLMs struggle with generalization. Discover how to rethink AI prompting techniques for better performance.","og_url":"https:\/\/skimai.com\/es\/necesitamos-repensar-la-cadena-de-pensamiento-cot-incitando-aiyou-68\/","og_site_name":"Skim AI","article_published_time":"2024-09-20T04:44:34+00:00","og_image":[{"width":1092,"height":612,"url":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","type":"image\/png"}],"author":"Greggory Elias","twitter_card":"summary_large_image","twitter_misc":{"Escrito por":"Greggory Elias","Tiempo de lectura":"8 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#article","isPartOf":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/"},"author":{"name":"Greggory Elias","@id":"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6"},"headline":"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68","datePublished":"2024-09-20T04:44:34+00:00","dateModified":"2024-09-20T04:44:34+00:00","mainEntityOfPage":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/"},"wordCount":1446,"publisher":{"@id":"https:\/\/skimai.com\/uk\/#organization"},"image":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage"},"thumbnailUrl":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","articleSection":["Newsletter","Prompt Engineering"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/","url":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/","name":"Tenemos que replantearnos la cadena de pensamiento (CdT) AI&amp;YOU #68 - Skim AI","isPartOf":{"@id":"https:\/\/skimai.com\/uk\/#website"},"primaryImageOfPage":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage"},"image":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage"},"thumbnailUrl":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","datePublished":"2024-09-20T04:44:34+00:00","dateModified":"2024-09-20T04:44:34+00:00","description":"Una nueva investigaci\u00f3n revela que el est\u00edmulo de la cadena de pensamiento (CoT) puede no ser el gran avance de la IA que esper\u00e1bamos. Descubra por qu\u00e9 la eficacia de CoT es limitada en tareas de razonamiento complejas y c\u00f3mo los LLM tienen problemas con la generalizaci\u00f3n. Descubra c\u00f3mo replantearse las t\u00e9cnicas de incitaci\u00f3n de la IA para mejorar el rendimiento.","breadcrumb":{"@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#primaryimage","url":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","contentUrl":"https:\/\/skimai.com\/wp-content\/uploads\/2024\/08\/AIYOU68.png","width":1092,"height":612,"caption":"AI&YOU#68"},{"@type":"BreadcrumbList","@id":"https:\/\/skimai.com\/we-need-to-rethink-chain-of-thought-cot-prompting-aiyou-68\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/skimai.com\/"},{"@type":"ListItem","position":2,"name":"We need to rethink chain-of-thought (CoT) prompting AI&#038;YOU #68"}]},{"@type":"WebSite","@id":"https:\/\/skimai.com\/uk\/#website","url":"https:\/\/skimai.com\/uk\/","name":"Desnatado AI","description":"La plataforma AI Agent Workforce","publisher":{"@id":"https:\/\/skimai.com\/uk\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/skimai.com\/uk\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Organization","@id":"https:\/\/skimai.com\/uk\/#organization","name":"Desnatado AI","url":"https:\/\/skimai.com\/uk\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/","url":"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png","contentUrl":"http:\/\/skimai.com\/wp-content\/uploads\/2020\/07\/SKIM-AI-Header-Logo.png","width":194,"height":58,"caption":"Skim AI"},"image":{"@id":"https:\/\/skimai.com\/uk\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.linkedin.com\/company\/skim-ai"]},{"@type":"Person","@id":"https:\/\/skimai.com\/uk\/#\/schema\/person\/7a883b4a2d2ea22040f42a7975eb86c6","name":"Greggory Elias","url":"https:\/\/skimai.com\/es\/author\/gregg\/"}]}},"_links":{"self":[{"href":"https:\/\/skimai.com\/es\/wp-json\/wp\/v2\/posts\/13060","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/skimai.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/skimai.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/skimai.com\/es\/wp-json\/wp\/v2\/users\/1003"}],"replies":[{"embeddable":true,"href":"https:\/\/skimai.com\/es\/wp-json\/wp\/v2\/comments?post=13060"}],"version-history":[{"count":0,"href":"https:\/\/skimai.com\/es\/wp-json\/wp\/v2\/posts\/13060\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/skimai.com\/es\/wp-json\/wp\/v2\/media\/13098"}],"wp:attachment":[{"href":"https:\/\/skimai.com\/es\/wp-json\/wp\/v2\/media?parent=13060"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/skimai.com\/es\/wp-json\/wp\/v2\/categories?post=13060"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/skimai.com\/es\/wp-json\/wp\/v2\/tags?post=13060"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}