# Cómo la IA usa la estocástica Imagina que estás escribiendo un mensaje de texto en el teléfono y el teclado te sugiere la siguiente palabra. Eso, en esencia, es el corazón de cómo funciona gran parte de la IA moderna. Vamos paso a paso. **¿Qué significa "estocástico"?** Es simplemente una palabra elegante para decir "con algo de azar controlado". Un proceso estocástico es aquel donde el resultado no está 100% determinado, sino que depende de probabilidades. Lanzar un dado es estocástico: no sabes qué saldrá, pero sí sabes que cada cara tiene ~16.7% de probabilidad. **¿Cómo lo usa la IA al generar texto?** Cuando un modelo como yo genera una respuesta, no "piensa" una frase completa de golpe. Genera **una palabra (o fragmento) a la vez**, eligiendo entre miles de candidatas. Para cada posición, el modelo calcula una distribución de probabilidades. Por ejemplo, si la frase empieza con "El gato se subió al…", las probabilidades podrían verse así: - "tejado" → 30% - "árbol" → 25% - "muro" → 15% - "sofá" → 10% - miles de otras opciones → el resto Aquí es donde entra lo estocástico: el modelo **no siempre elige la palabra más probable**. En lugar de eso, "lanza un dado cargado" donde las opciones con más probabilidad tienen más chances de salir, pero las menos probables también pueden aparecer. **¿Por qué no elegir siempre la más probable?** Si siempre eligiera la palabra con mayor probabilidad, las respuestas serían repetitivas, predecibles y aburridas. El componente aleatorio es lo que le da creatividad, variedad y naturalidad al texto. Es como la diferencia entre un músico que toca siempre las mismas notas "seguras" y uno que improvisa dentro de una escala. **El "termostato" de la aleatoriedad: la temperatura** Los ingenieros controlan *cuánta* aleatoriedad hay con un parámetro llamado **temperatura**: - **Temperatura baja** (cerca de 0): el modelo se vuelve casi determinista, elige casi siempre la palabra más probable. Útil para respuestas precisas, como resolver un cálculo. - **Temperatura alta** (cerca de 1 o más): el modelo se atreve más, elige palabras menos obvias. Útil para escritura creativa o lluvia de ideas. Piénsalo como un chef: con temperatura baja, sigue la receta al pie de la letra; con temperatura alta, improvisa y experimenta con ingredientes inesperados. **¿Dónde más aparece la estocástica en la IA?** No solo en la generación de texto. Aparece en varias etapas: - **Entrenamiento**: los datos se presentan al modelo en orden aleatorio (barajados como un mazo de cartas) para que aprenda mejor y no memorice patrones superficiales. - **Dropout**: durante el entrenamiento, se "apagan" neuronas al azar para que la red no dependa demasiado de ninguna conexión específica. Es como entrenar a un equipo de fútbol obligando a distintos jugadores a sentarse en cada práctica para que todos sepan cubrir todas las posiciones. - **Exploración**: en IA para juegos o robótica, el agente a veces toma decisiones al azar para descubrir estrategias nuevas en vez de quedarse con la primera que funcionó. **En resumen** La IA no es una calculadora que siempre da la misma respuesta. Es más parecida a un músico de jazz muy bien entrenado: conoce las reglas de la armonía (las probabilidades aprendidas de millones de textos), pero en cada actuación introduce pequeñas variaciones aleatorias que hacen que el resultado sea único, natural y, con suerte, interesante.