ontoref/assets/ontology_ops/ia_esocastica.md
Jesús Pérez 472952e29b
Some checks failed
Rust CI / Security Audit (push) Has been cancelled
Rust CI / Check + Test + Lint (nightly) (push) Has been cancelled
Rust CI / Check + Test + Lint (stable) (push) Has been cancelled
Nickel Type Check / Nickel Type Checking (push) Has been cancelled
feat: domain extension system, VCS abstraction, personal/provisioning domains, web subpages
Domain extension system (ADR-012): bash-layer dispatch activates repo_kind-conditional CLI
  domains. install.nu copies domains/ tree; short_alias wrappers generated (personal, prov).
  ore help and describe capabilities domain-aware.

  personal domain (PersonalOntology): career skills/talks/publications/positioning, CFP
  pipeline (Watching→Delivered), opportunities lifecycle, content pipeline, Sessionize
  integration. Daemon pages: /career, /personal.

  provisioning domain (DevWorkspace/Mixed): FSM state, next transitions, connections graph,
  gates, workspace card, capabilities, backlog. Daemon page: /provisioning.

  VCS abstraction layer (ADR-013): reflection/modules/vcs.nu — uniform jj/git API via
  filesystem detection (.jj/ vs .git/). opmode.nu and git-event.nu migrated off ^git.
  reflection/bin/jjw.nu — jj + ontoref + Radicle agent workspace lifecycle. jjw-ncl-merge.nu
  registered as jj merge tool for .ontology/ NCL conflicts. init-repo.nu for new_project mode.
  jj/rad not in ontoref requirements — belong in orchestration project manifests.

  'Framework RepoKind: ontology/schemas/manifest.ncl gains 'Framework variant; ontoref
  self-identifies as framework — no domain activates for the protocol itself.

  Web presence: personal.html and provisioning.html domain subpages. index.html gains
  "Project Types — Domain Extensions" section with type cards and subpage links. Nav
  compacted (Arch/Prov labels, solid backdrop-filter background).

  on+re: vcs-abstraction (adrs: adr-013) and agent-workspace-orchestration Practice nodes;
  21 manifest capabilities; state.ncl catalysts updated.
2026-04-07 23:08:29 +01:00

3.4 KiB

Cómo la IA usa la estocástica

Imagina que estás escribiendo un mensaje de texto en el teléfono y el teclado te sugiere la siguiente palabra. Eso, en esencia, es el corazón de cómo funciona gran parte de la IA moderna. Vamos paso a paso.

¿Qué significa "estocástico"?

Es simplemente una palabra elegante para decir "con algo de azar controlado". Un proceso estocástico es aquel donde el resultado no está 100% determinado, sino que depende de probabilidades. Lanzar un dado es estocástico: no sabes qué saldrá, pero sí sabes que cada cara tiene ~16.7% de probabilidad.

¿Cómo lo usa la IA al generar texto?

Cuando un modelo como yo genera una respuesta, no "piensa" una frase completa de golpe. Genera una palabra (o fragmento) a la vez, eligiendo entre miles de candidatas. Para cada posición, el modelo calcula una distribución de probabilidades. Por ejemplo, si la frase empieza con "El gato se subió al…", las probabilidades podrían verse así:

  • "tejado" → 30%
  • "árbol" → 25%
  • "muro" → 15%
  • "sofá" → 10%
  • miles de otras opciones → el resto

Aquí es donde entra lo estocástico: el modelo no siempre elige la palabra más probable. En lugar de eso, "lanza un dado cargado" donde las opciones con más probabilidad tienen más chances de salir, pero las menos probables también pueden aparecer.

¿Por qué no elegir siempre la más probable?

Si siempre eligiera la palabra con mayor probabilidad, las respuestas serían repetitivas, predecibles y aburridas. El componente aleatorio es lo que le da creatividad, variedad y naturalidad al texto. Es como la diferencia entre un músico que toca siempre las mismas notas "seguras" y uno que improvisa dentro de una escala.

El "termostato" de la aleatoriedad: la temperatura

Los ingenieros controlan cuánta aleatoriedad hay con un parámetro llamado temperatura:

  • Temperatura baja (cerca de 0): el modelo se vuelve casi determinista, elige casi siempre la palabra más probable. Útil para respuestas precisas, como resolver un cálculo.
  • Temperatura alta (cerca de 1 o más): el modelo se atreve más, elige palabras menos obvias. Útil para escritura creativa o lluvia de ideas.

Piénsalo como un chef: con temperatura baja, sigue la receta al pie de la letra; con temperatura alta, improvisa y experimenta con ingredientes inesperados.

¿Dónde más aparece la estocástica en la IA?

No solo en la generación de texto. Aparece en varias etapas:

  • Entrenamiento: los datos se presentan al modelo en orden aleatorio (barajados como un mazo de cartas) para que aprenda mejor y no memorice patrones superficiales.
  • Dropout: durante el entrenamiento, se "apagan" neuronas al azar para que la red no dependa demasiado de ninguna conexión específica. Es como entrenar a un equipo de fútbol obligando a distintos jugadores a sentarse en cada práctica para que todos sepan cubrir todas las posiciones.
  • Exploración: en IA para juegos o robótica, el agente a veces toma decisiones al azar para descubrir estrategias nuevas en vez de quedarse con la primera que funcionó.

En resumen

La IA no es una calculadora que siempre da la misma respuesta. Es más parecida a un músico de jazz muy bien entrenado: conoce las reglas de la armonía (las probabilidades aprendidas de millones de textos), pero en cada actuación introduce pequeñas variaciones aleatorias que hacen que el resultado sea único, natural y, con suerte, interesante.