--- # Post metadata id: "la-ia-herramienta-conocimiento-quien-mantiene-vivo" title: "La IA es una herramienta de conocimiento. ¿Pero quién mantiene vivo el conocimiento?" slug: "la-ia-herramienta-conocimiento-quien-mantiene-vivo" subtitle: "Talisman tiene razón — y se detiene exactamente donde empieza el problema difícil" excerpt: "La charla de Jessica Talisman en KGC 2026 es la articulación más clara de por qué fallan las estrategias de AI: las organizaciones invierten en infraestructura de datos y esperan que emerja el razonamiento. Tiene razón. Pero su solución — construir infraestructura de conocimiento — se detiene exactamente donde empieza el problema difícil: ¿quién evita que el conocimiento derive?" # Publication info author: "Jesús Pérez" date: "2026-05-10" published: false featured: false # Categorization category: "ontoref" tags: ["ontoref", "knowledge-graphs", "ontology", "ai-infrastructure", "reflection"] # Display read_time: "7 min read" sort_order: 1 css_class: "category-ontoref" category_description: "Ontoref — protocolo y herramientas para el auto-conocimiento estructurado en proyectos de software" category_published: true --- # La IA es una herramienta de conocimiento. ¿Pero quién mantiene vivo el conocimiento? Jessica Talisman dio una charla en KGC 2026 llamada "Stop Betting, Start Building." Los datos con los que abre son contundentes: - **89%** de las empresas no reportan impacto de productividad de la IA después de tres años (NBER, Feb 2026, n=5.937 ejecutivos) - Los developers experimentados son **19% más lentos** con herramientas de IA, no más rápidos (METR RCT, 2025) - El trabajador promedio que usa IA gana **−14 minutos** netos por semana en productividad (Foxit/Sapio, marzo 2026) El mercado es alcista. La evidencia, no. Su diagnóstico es correcto: *la IA es una herramienta de conocimiento, no de datos.* Las organizaciones invierten en data lakes, vector stores y pipelines ETL esperando que el contexto y el razonamiento emerjan de tokens crudos. No va a ocurrir. Los modelos fueron entrenados sobre linked data, triples RDF y vocabularios controlados — las quince principales fuentes de entrenamiento de C4 son intensivas en knowledge graphs. Luego se despliegan en entornos despojados de toda esa estructura, y nos preguntamos por qué alucinan. Su prescripción también es correcta: construye infraestructura de conocimiento. Primero vocabularios controlados. Taxonomías. Tesauros. Ontologías — compromisos formales, clases, propiedades, constraints. Knowledge graphs encima. Y goviernalos. Para siempre, no como un proyecto. Tiene razón. Y se detiene exactamente donde empieza el problema difícil. ## El gap de governance El sexto paso en su stack es "Govern — esto es infraestructura, stewardship, versionado, crecimiento, para siempre." Nombra el problema. Pero nombrarlo no es un mecanismo. La pregunta real es: *¿quién asegura que la ontología no derive respecto al sistema que describe?* El software evoluciona. Una decisión arquitectónica tomada en marzo invalida un nodo del grafo en octubre. Se incorpora un nuevo equipo con modelos mentales distintos. Una librería se reemplaza y un constraint se convierte en ficción. Los knowledge graphs acumulan deuda igual que los codebases — silenciosamente, sin alarmas. En el mundo enterprise de knowledge graphs, la respuesta al governance es headcount: contratar ontólogos, bibliotecarios, knowledge engineers. Funciona a escala organizacional con presupuestos dedicados. No es una respuesta viable para un proyecto de software, un entorno de infraestructura, o un individuo que intenta mantener auto-conocimiento estructurado. ## Lo que realmente falta: el loop operacional Toda ontología seria sin un cierre operacional se convierte en arqueología en dieciocho meses. Hermosa, formalmente correcta, y describiendo un sistema que ya no existe. La pieza que falta no es más conocimiento. Es un loop de retroalimentación que: 1. **Observa** el estado actual del sistema contra su intención declarada 2. **Detecta** la deriva antes de que se vuelva permanente 3. **Ejecuta** operaciones que reducen esa deriva 4. **Registra** decisiones con peso arquitectónico duradero 5. **Propaga** los cambios a todo lo que depende de este conocimiento Este es el Yang al Yin de la ontología. Talisman describe el Yin con precisión. El Yang es lo que evita que sea un artefacto. ## Ontoref: las dos mitades Ontoref es un protocolo para el auto-conocimiento estructurado en proyectos de software. Opera como dos capas coexistentes que no pueden funcionar la una sin la otra: **Ontología (lo que ES):** nodos y aristas tipadas que representan prácticas, principios, tensiones, capacidades. No documentación — compromisos formales. Un nodo `Practice` que `implements` un `Principle`, `enforces` un `Constraint`, `enables` una `Capability`, y está en `tension` activa con otra `Practice`. El proyecto como knowledge graph. **Reflection (lo que DEVIENE):** DAGs ejecutables — modos operacionales que corren contra el estado ontológico, detectan deriva, registran transiciones y propagan cambios. El comando `sync diff --docs` que detecta cuándo la documentación de un crate ha derivado de su nodo ontológico. El FSM en `state.ncl` que registra dónde está cada dimensión del proyecto versus adónde pretende ir. El sistema de migraciones que asegura que los cambios de protocolo lleguen a cada proyecto consumidor. La tensión entre estas dos capas no es un defecto de diseño — está nombrada explícitamente en la ontología del propio proyecto como su identidad central: > *"Ontology captures what IS. Reflection captures what BECOMES. Both must coexist without one dominating."* Sin Reflection, la Ontología cristaliza. Se convierte en una fotografía de lo que el proyecto quería ser en el momento en que se escribió. Sin Ontología, Reflection es ejecución sin verdad — sabe cómo operar pero no sobre qué opera. ## Los números de precisión Los datos de Talisman sobre lo que el conocimiento estructurado hace a la precisión de la IA merecen repetirse: - Question-answering sobre SQL enterprise: **16% → 72%** cuando una ontología verifica y repara queries generadas por LLM (Allemang & Sequeda, data.world AI Lab, 2024) - GraphRAG vs. vector RAG: **3.4× precisión** en 43 queries enterprise (Diffbot KG-LM Benchmark, 2023) - Vector RAG colapsa a **0% precisión más allá de cinco entidades por query**. El retrieval anclado en KG sostiene el rendimiento mucho más allá La brecha de precisión no se cierra con un modelo más grande. Se cierra con un schema definido, una ontología, y una query validada. Pero solo si la ontología se mantiene viva. Solo si algo o alguien ejecuta el loop operacional que evita que derive hacia la ficción. Esa es la parte que el framework de Talisman no provee. Para eso existe Reflection. --- *Ontoref es open source. La especificación del protocolo, la automatización en Nushell, y los crates de Rust están en [github.com/jesusperezlorenzo/ontoref](https://github.com/jesusperezlorenzo/ontoref).*