{"id":21,"date":"2026-03-05T04:19:40","date_gmt":"2026-03-05T04:19:40","guid":{"rendered":"https:\/\/blog.rebalai.com\/es\/2026\/03\/05\/tcnicas-avanzadas-de-prompt-engineering-chain-of-t\/"},"modified":"2026-03-18T22:00:27","modified_gmt":"2026-03-18T22:00:27","slug":"tcnicas-avanzadas-de-prompt-engineering-chain-of-t","status":"publish","type":"post","link":"https:\/\/blog.rebalai.com\/es\/2026\/03\/05\/tcnicas-avanzadas-de-prompt-engineering-chain-of-t\/","title":{"rendered":"Prompt Engineering avanzado: lo que aprend\u00ed despu\u00e9s de dos semanas rompiendo producciones"},"content":{"rendered":"<p><script type=\"application\/ld+json\">\n{\n  \"@context\": \"https:\/\/schema.org\",\n  \"@type\": \"BlogPosting\",\n  \"headline\": \"Prompt Engineering avanzado: <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/05\/autogen-vs-langgraph-vs-crewai-el-mejor-framework\/\" title=\"Lo que\">lo que<\/a> aprend\u00ed <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/05\/autogen-vs-langgraph-vs-crewai-el-mejor-framework\/\" title=\"despu\u00e9s de\">despu\u00e9s de<\/a> dos semanas rompiendo producciones\",\n  \"description\": \"Hace tres meses, un compa\u00f1ero de trabajo me mand\u00f3 un Slack diciendo que el extractor <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/04\/rag-vector-database-production\/\" title=\"de Datos\">de datos<\/a> que yo hab\u00eda construido estaba devolviendo JSON malformado en\",\n  \"url\": \"https:\/\/blog.rebalai.com\/es\/2026\/03\/05\/tcnicas-avanzadas-de-prompt-engineering-chain-of-t\/\",\n  \"datePublished\": \"2026-03-05T04:19:40\",\n  \"dateModified\": \"2026-03-05T17:39:40\",\n  \"inLanguage\": \"es_ES\",\n  \"author\": {\n    \"@type\": \"Organization\",\n    \"name\": \"RebalAI\",\n    \"url\": \"https:\/\/blog.rebalai.com\/es\/\"\n  },\n  \"publisher\": {\n    \"@type\": \"Organization\",\n    \"name\": \"RebalAI\",\n    \"logo\": {\n      \"@type\": \"ImageObject\",\n      \"url\": \"https:\/\/blog.rebalai.com\/wp-content\/uploads\/logo.png\"\n    }\n  },\n  \"mainEntityOfPage\": {\n    \"@type\": \"WebPage\",\n    \"@id\": \"https:\/\/blog.rebalai.com\/es\/2026\/03\/05\/tcnicas-avanzadas-de-prompt-engineering-chain-of-t\/\"\n  }\n}\n<\/script><\/p>\n<p>Hace tres meses, un compa\u00f1ero de trabajo me mand\u00f3 un Slack diciendo que el extractor <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/08\/rag-profundo-estrategias-de-chunking-bases-de-dato\/\" title=\"de Datos\">de datos<\/a> que yo hab\u00eda construido estaba devolviendo JSON malformado <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/05\/autogen-vs-langgraph-vs-crewai-el-mejor-framework\/\" title=\"en producci\u00f3n\">en producci\u00f3n<\/a>. El modelo era GPT-4o, el prompt era &#8220;razonablemente bueno&#8221; (eso pensaba yo), y el sistema hab\u00eda fallado silenciosamente durante cuatro horas antes de que alguien se diera cuenta. Ese fue el momento <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/05\/claude-vs-gpt-4o-vs-gemini-20-qu-modelo-de-ia-usar\/\" title=\"en el\">en el<\/a> que decid\u00ed tomarme el prompt engineering en serio.<\/p>\n<p>Pas\u00e9 las dos semanas siguientes probando sistem\u00e1ticamente <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/05\/rag-vs-fine-tuning-cundo-usar-cada-tcnica-en-aplic\/\" title=\"Cada T\u00e9cnica\">cada t\u00e9cnica<\/a> que pude encontrar. <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/09\/configuracin-de-github-actions-para-aplicaciones-p\/\" title=\"lo que\">Lo que<\/a> sigue <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/08\/benchmarks-de-asistentes-de-cdigo-ia-pruebas-de-re\/\" title=\"es lo que realmente\">es lo que realmente<\/a> funciona, qu\u00e9 no funciona como dicen los tutoriales, y d\u00f3nde perd\u00ed tiempo que no voy a recuperar.<\/p>\n<hr \/>\n<h2>Few-Shot no es solo &#8220;poner ejemplos ah\u00ed&#8221;<\/h2>\n<p>La mayor\u00eda de los tutoriales que le\u00ed sobre Few-Shot prompting lo presentan como: pon tres ejemplos y el modelo lo entiende. T\u00e9cnicamente es verdad. Pero hay mucho espacio entre &#8220;el modelo lo entiende&#8221; y &#8220;el modelo hace exactamente <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/09\/configuracin-de-github-actions-para-aplicaciones-p\/\" title=\"lo que\">lo que<\/a> necesitas de forma consistente&#8221;.<\/p>\n<p>El problema con el que me top\u00e9 primero fue la calidad de los ejemplos. Para un clasificador de intenciones que estaba construyendo para un chatbot de soporte, mis primeros ejemplos eran demasiado &#8220;limpios&#8221; \u2014 casos perfectos que no reflejaban c\u00f3mo los usuarios reales escriben. Resultado: 78% de precisi\u00f3n <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/05\/autogen-vs-langgraph-vs-crewai-el-mejor-framework\/\" title=\"en producci\u00f3n\">en producci\u00f3n<\/a> contra el 94% que ve\u00eda en mis pruebas manuales.<\/p>\n<p>El ajuste fue espec\u00edfico: us\u00e9 ejemplos reales de logs de <a href=\"https:\/\/m.do.co\/c\/06956e5e2802\" title=\"DigitalOcean para Producci\u00f3n\" rel=\"nofollow sponsored\" target=\"_blank\">producci\u00f3n<\/a>, con errores ortogr\u00e1ficos incluidos, con frases incompletas, con mezcla de idiomas (nuestros usuarios a veces mezclan espa\u00f1ol e ingl\u00e9s). Eso subi\u00f3 la precisi\u00f3n a 91%. No es perfecto, pero es honesto.<\/p>\n<p>Otro detalle que marca diferencia: el orden de los ejemplos importa m\u00e1s de <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/09\/configuracin-de-github-actions-para-aplicaciones-p\/\" title=\"lo que\">lo que<\/a> parece. Los modelos tienen un sesgo hacia los \u00faltimos ejemplos que vieron (primacy\/recency bias). Si tu tarea tiene clases desbalanceadas, pon los ejemplos de la clase minoritaria al final. Lo descubr\u00ed por accidente cuando reorganic\u00e9 los ejemplos para &#8220;que se vieran m\u00e1s limpios&#8221; y el rendimiento cay\u00f3 6 puntos.<\/p>\n<pre><code class=\"language-python\"># <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/08\/benchmarks-de-asistentes-de-cdigo-ia-pruebas-de-re\/\" title=\"esto <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/08\/benchmarks-de-asistentes-de-cdigo-ia-pruebas-de-re\/\" title=\"es lo\">es lo<\/a> que\">Esto <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/08\/benchmarks-de-asistentes-de-cdigo-ia-pruebas-de-re\/\" title=\"es lo\">es lo<\/a> que<\/a> termin\u00e9 usando para el clasificador de intenciones\n# F\u00edjate en los ejemplos: no son perfectos, reflejan inputs reales\n\nSYSTEM_PROMPT = &quot;&quot;&quot;Clasifica la intenci\u00f3n del usuario en: REEMBOLSO, SOPORTE_TECNICO, CONSULTA_PRODUCTO, OTRO.\nResponde solo con la etiqueta, nada m\u00e1s.\n\nEjemplos:\nUsuario: &quot;quier devolver el producto que compre ayer&quot;\nIntenci\u00f3n: REEMBOLSO\n\nUsuario: &quot;la app no abre desde ayer, intente reinstalar y nada&quot;\nIntenci\u00f3n: SOPORTE_TECNICO\n\nUsuario: &quot;cuanto cuesta el plan premium? tiene descuento <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/09\/serverless-vs-containers-in-2026-a-practical-decis\/\" title=\"para Equipos\">para equipos<\/a>?&quot;\nIntenci\u00f3n: CONSULTA_PRODUCTO\n\nUsuario: &quot;ok gracias&quot;\nIntenci\u00f3n: OTRO\n\nUsuario: &quot;necesito help con mi cuenta no puedo login&quot;\nIntenci\u00f3n: SOPORTE_TECNICO&quot;&quot;&quot;\n\n# El \u00faltimo ejemplo mezcla idiomas \u2014 porque nuestros usuarios lo hacen\n<\/code><\/pre>\n<p>So, la regla pr\u00e1ctica que sigo ahora: construye tus ejemplos Few-Shot a partir <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/08\/rag-profundo-estrategias-de-chunking-bases-de-dato\/\" title=\"de Datos\">de datos<\/a> reales, no de <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/09\/configuracin-de-github-actions-para-aplicaciones-p\/\" title=\"lo que\">lo que<\/a> t\u00fa crees que deber\u00eda escribir un usuario ideal. Si no tienes datos reales todav\u00eda, al menos var\u00eda intencionalmente el formato, longitud y estilo.<\/p>\n<hr \/>\n<h2>Chain-of-Thought: cu\u00e1ndo funciona y cu\u00e1ndo es puro overhead<\/h2>\n<p>Chain-of-Thought (CoT) es la t\u00e9cnica donde le pides al modelo que &#8220;piense paso a paso&#8221; antes de dar una respuesta. El paper original de Wei et al. (2022) mostr\u00f3 mejoras dram\u00e1ticas en tareas de razonamiento matem\u00e1tico. <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/09\/configuracin-de-github-actions-para-aplicaciones-p\/\" title=\"lo que\">Lo que<\/a> no siempre mencionan es que tiene un costo real en tokens y latencia, y que para muchas tareas simplemente no ayuda.<\/p>\n<p>Lo prob\u00e9 durante una semana completa en cuatro tipos de tareas distintas:<\/p>\n<p><strong>Extracci\u00f3n <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/08\/rag-profundo-estrategias-de-chunking-bases-de-dato\/\" title=\"de Datos\">de datos<\/a> estructurados<\/strong>: CoT no ayud\u00f3. El modelo ya sab\u00eda qu\u00e9 hacer, solo necesitaba instrucciones claras sobre el formato de salida. A\u00f1adir &#8220;piensa paso a paso&#8221; aument\u00f3 el costo de tokens un 40% sin mejorar la precisi\u00f3n.<\/p>\n<p><strong>Clasificaci\u00f3n de sentimientos en rese\u00f1as largas<\/strong>: CoT ayud\u00f3 moderadamente (+4% en casos ambiguos). No justificaba el costo en mi caso, pero podr\u00eda ser diferente si la precisi\u00f3n fuera cr\u00edtica.<\/p>\n<p><strong>Resoluci\u00f3n de problemas de l\u00f3gica \/ reglas de negocio complejas<\/strong>: aqu\u00ed CoT brill\u00f3. Ten\u00eda un sistema que verificaba si ciertos descuentos eran aplicables bas\u00e1ndose en 12 reglas de negocio con dependencias entre ellas. Sin CoT, el modelo fallaba en un 23% de los casos complejos. Con CoT, ese n\u00famero baj\u00f3 a 8%.<\/p>\n<p><strong>Generaci\u00f3n de c\u00f3digo<\/strong>: depende completamente de la complejidad. Para funciones simples, no. Para arquitecturas que requieren considerar m\u00faltiples tradeoffs, s\u00ed.<\/p>\n<p>La implementaci\u00f3n que me funcion\u00f3 mejor no es el simplista &#8220;piensa paso a paso&#8221; \u2014 <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/08\/benchmarks-de-asistentes-de-cdigo-ia-pruebas-de-re\/\" title=\"es lo que\">es lo que<\/a> algunos llaman Zero-Shot CoT con estructura forzada:<\/p>\n<pre><code class=\"language-python\"># En vez de esto (demasiado abierto):\nprompt_malo = &quot;Piensa paso a paso y determina si el descuento aplica.&quot;\n\n# Uso esto (estructura forzada):\nprompt_bueno = &quot;&quot;&quot;Determina si el descuento aplica. Sigue este proceso exacto:\n\n1. ELEGIBILIDAD_USUARIO: [analiza si el usuario cumple los requisitos de membres\u00eda]\n2. ELEGIBILIDAD_PRODUCTO: [analiza si el producto est\u00e1 incluido en la promoci\u00f3n]  \n3. RESTRICCIONES: [verifica si hay restricciones temporales o de cantidad]\n4. CONFLICTOS: [verifica si hay otro descuento ya aplicado que sea incompatible]\n5. DECISI\u00d3N: [S\u00cd\/NO con raz\u00f3n <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/09\/postgresql-performance-tuning-what-i-learned-optim\/\" title=\"en una\">en una<\/a> l\u00ednea]\n\nResponde con exactamente esta estructura.&quot;&quot;&quot;\n\n# La diferencia clave: le digo QU\u00c9 pensar, no solo que piense\n# Esto reduce variabilidad y hace el output m\u00e1s parseable\n<\/code><\/pre>\n<p>One thing I noticed: cuando el CoT est\u00e1 bien estructurado, el &#8220;razonamiento&#8221; que produce el modelo tambi\u00e9n te sirve como log de auditor\u00eda. En mi caso, lo guardo en base <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/08\/rag-profundo-estrategias-de-chunking-bases-de-dato\/\" title=\"de Datos\">de datos<\/a> porque si alguien pregunta &#8220;\u00bf<a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/09\/arquitectura-impulsada-por-eventos-2026-por-qu-los\/\" title=\"Por Qu\u00e9\">por qu\u00e9<\/a> no me aplicaron el descuento?&#8221;, tengo una explicaci\u00f3n generada autom\u00e1ticamente. Eso solo ya pag\u00f3 el costo extra de tokens.<\/p>\n<hr \/>\n<h2>El error que me cost\u00f3 m\u00e1s caro: confundir complejidad con efectividad<\/h2>\n<p>Aqu\u00ed va el gotcha que promet\u00ed.<\/p>\n<p>Despu\u00e9s de ver resultados con CoT, me fui por las ramas. Empec\u00e9 a implementar Tree-of-Thought (ToT) \u2014 una extensi\u00f3n donde el modelo explora m\u00faltiples &#8220;ramas&#8221; de razonamiento antes de elegir la mejor. Hay papers impresionantes, implementaciones en GitHub con miles de estrellas. Me convenc\u00ed de que era <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/09\/configuracin-de-github-actions-para-aplicaciones-p\/\" title=\"lo que\">lo que<\/a> necesitaba para mi caso de uso.<\/p>\n<p>Pas\u00e9 cinco d\u00edas implement\u00e1ndolo. El resultado: peor rendimiento que CoT simple, cuatro veces m\u00e1s caro en tokens, y latencia de 8-12 segundos por request (inaceptable para un chatbot interactivo). El problema no era la t\u00e9cnica \u2014 ToT <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/09\/webassembly-in-2026-where-it-actually-makes-sense\/\" title=\"Tiene Sentido\">tiene sentido<\/a> para problemas donde el espacio de b\u00fasqueda es realmente amplio. Pero yo lo apliqu\u00e9 a clasificaci\u00f3n de intenciones, que simplemente no es ese tipo de problema.<\/p>\n<p>La lecci\u00f3n que me quedo: antes de implementar una t\u00e9cnica avanzada, preg\u00fantate si tu problema es fundamentalmente un problema de razonamiento complejo o si es un problema de instrucciones claras + buenos ejemplos. La mayor\u00eda de los casos que encuentro <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/05\/rag-vs-fine-tuning-cundo-usar-cada-tcnica-en-aplic\/\" title=\"en Aplicaciones\">en aplicaciones<\/a> web reales son lo segundo.<\/p>\n<p>Self-Consistency s\u00ed fue \u00fatil, aunque m\u00e1s modesta. La idea: genera m\u00faltiples respuestas con temperatura &gt; 0 y toma la respuesta m\u00e1s frecuente (mayor\u00eda de votos). Lo implement\u00e9 para decisiones binarias de alto impacto (\u00bfeste mensaje viola los t\u00e9rminos de servicio?) con tres muestras y mayor\u00eda simple. Subi\u00f3 la precisi\u00f3n ~5% en casos l\u00edmite. El tradeoff es que triplica el costo y la latencia, as\u00ed que solo lo uso donde los falsos negativos tienen consecuencias reales.<\/p>\n<hr \/>\n<h2>Structured Outputs y <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/09\/arquitectura-impulsada-por-eventos-2026-por-qu-los\/\" title=\"Por Qu\u00e9\">por qu\u00e9<\/a> cambi\u00f3 mi flujo de trabajo<\/h2>\n<p>Esto no es exactamente una t\u00e9cnica de prompting, pero tiene tanto impacto en la confiabilidad que no puedo no mencionarlo.<\/p>\n<p>Desde que OpenAI lanz\u00f3 Structured Outputs (disponible en gpt-4o-2024-08-06 en adelante) con garant\u00eda de adherencia al schema JSON, <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/09\/arquitectura-impulsada-por-eventos-2026-por-qu-los\/\" title=\"Dej\u00e9 de\">dej\u00e9 de<\/a> usar prompting para controlar el formato de output en la mayor\u00eda de mis casos. Antes ten\u00eda instrucciones como &#8220;responde SOLO con JSON v\u00e1lido, sin texto adicional, sin markdown&#8221; y aun as\u00ed ten\u00eda que manejar excepciones regularmente.<\/p>\n<p>Con Structured Outputs defines un schema Pydantic (o JSON Schema directo) y el modelo garantiza que la respuesta lo cumple. No al 99%. Al 100%. El modelo puede seguir &#8220;equivocarse&#8221; <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/05\/claude-vs-gpt-4o-vs-gemini-20-qu-modelo-de-ia-usar\/\" title=\"en el\">en el<\/a> contenido \u2014 eso sigue siendo tu problema de prompting \u2014 pero el formato est\u00e1 garantizado.<\/p>\n<p>El cambio en mi pipeline fue eliminar casi toda la l\u00f3gica defensiva de parsing que hab\u00eda acumulado. Menos c\u00f3digo, menos bugs, menos sorpresas <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/09\/setting-up-github-actions-for-python-applications\/\" title=\"a las\">a las<\/a> 3am.<\/p>\n<p>Lo que todav\u00eda requiere prompting cuidadoso es la sem\u00e1ntica del contenido. Structured Outputs te garantiza que el campo <code>confidence<\/code> es un float entre 0 y 1, pero <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/09\/turborepo-vs-nx-which-monorepo-tool-wont-drive-you\/\" title=\"No Te\">no te<\/a> garantiza que el valor sea correcto. Para eso sigues necesitando buenos ejemplos, instrucciones claras, y en casos cr\u00edticos, CoT.<\/p>\n<hr \/>\n<h2>Lo que recomendar\u00eda si empezaras desde cero hoy<\/h2>\n<p>Sin rodeos: empieza por lo b\u00e1sico bien hecho antes de ir a t\u00e9cnicas avanzadas. El 80% de los problemas <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/09\/postgresql-performance-tuning-what-i-learned-optim\/\" title=\"de Rendimiento\">de rendimiento<\/a> que he visto en prompts de <a href=\"https:\/\/m.do.co\/c\/06956e5e2802\" title=\"DigitalOcean para Producci\u00f3n\" rel=\"nofollow sponsored\" target=\"_blank\">producci\u00f3n<\/a> son instrucciones ambiguas o ejemplos de baja calidad, no ausencia de t\u00e9cnicas sofisticadas.<\/p>\n<p>El orden <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/05\/claude-vs-gpt-4o-vs-gemini-20-qu-modelo-de-ia-usar\/\" title=\"en el\">en el<\/a> que yo probar\u00eda las cosas:<\/p>\n<p>Primero, System prompt claro con rol, tarea, y restricciones expl\u00edcitas. No &#8220;eres un asistente \u00fatil&#8221; \u2014 eso no le dice nada al modelo. Algo como &#8220;eres un clasificador de intenciones para el servicio de soporte de [empresa]. Tu \u00fanica tarea es&#8230;&#8221;.<\/p>\n<p>Segundo, Few-Shot con 3-5 ejemplos reales, no ideales. Si tienes <a href=\"https:\/\/m.do.co\/c\/06956e5e2802\" title=\"DigitalOcean para Producci\u00f3n\" rel=\"nofollow sponsored\" target=\"_blank\">producci\u00f3n<\/a> corriendo, mina tus logs para los casos donde el modelo falla y \u00fasalos como ejemplos negativos\/positivos.<\/p>\n<p>Tercero, Structured Outputs si est\u00e1s en la API de OpenAI (o el equivalente en Anthropic con tool use forzado). Elimina toda la l\u00f3gica defensiva de parsing.<\/p>\n<p>Cuarto, Chain-of-Thought estructurado solo si tu tarea involucra razonamiento multi-paso con dependencias entre condiciones. Si no est\u00e1s seguro de si aplica, haz una prueba A\/B real con 100 casos antes de comprometerte.<\/p>\n<p>Quinto, Self-Consistency solo para decisiones de alto impacto donde puedes asumir el costo de latencia triplicada.<\/p>\n<p>Tree-of-Thought y t\u00e9cnicas m\u00e1s experimentales las dejar\u00eda para cuando tengas casos de uso realmente dif\u00edciles y tiempo para experimentar \u2014 no son punto de partida.<\/p>\n<p>No estoy 100% seguro de que esto escale igual para todos los casos de uso. Trabajo principalmente con aplicaciones de soporte y clasificaci\u00f3n de contenido; si tu dominio es generaci\u00f3n <a href=\"https:\/\/blog.rebalai.com\/es\/2026\/03\/05\/github-copilot-vs-cursor-vs-codeium-el-mejor-asist\/\" title=\"de C\u00f3digo\">de c\u00f3digo<\/a> complejo o razonamiento matem\u00e1tico, el balance puede ser diferente. Pero la heur\u00edstica de &#8220;empieza simple, mide, complejiza solo donde el dato lo justifica&#8221; es bastante universal.<\/p>\n<p>El prompt engineering tiene algo de arte y algo de ingenier\u00eda. La parte de ingenier\u00eda \u2014 m\u00e9tricas, pruebas A\/B, iteraci\u00f3n basada en datos \u2014 es donde m\u00e1s tiempo deber\u00eda ir. Intuici\u00f3n y t\u00e9cnicas avanzadas llegan despu\u00e9s.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>{ &#8220;@context&#8221;: &#8220;https:\/\/schema.org&#8221;, &#8220;@type&#8221;: &#8220;BlogPosting&#8221;, &#8220;headline&#8221;: &#8220;Prompt Engineering avanzado: lo que aprend\u00ed despu\u00e9s de dos semanas rompiendo produ<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[1],"tags":[],"class_list":["post-21","post","type-post","status-publish","format-standard","hentry","category-general"],"_links":{"self":[{"href":"https:\/\/blog.rebalai.com\/es\/wp-json\/wp\/v2\/posts\/21","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.rebalai.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.rebalai.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.rebalai.com\/es\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.rebalai.com\/es\/wp-json\/wp\/v2\/comments?post=21"}],"version-history":[{"count":19,"href":"https:\/\/blog.rebalai.com\/es\/wp-json\/wp\/v2\/posts\/21\/revisions"}],"predecessor-version":[{"id":599,"href":"https:\/\/blog.rebalai.com\/es\/wp-json\/wp\/v2\/posts\/21\/revisions\/599"}],"wp:attachment":[{"href":"https:\/\/blog.rebalai.com\/es\/wp-json\/wp\/v2\/media?parent=21"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.rebalai.com\/es\/wp-json\/wp\/v2\/categories?post=21"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.rebalai.com\/es\/wp-json\/wp\/v2\/tags?post=21"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}