⬅️ Volver al Inicio

🧠 ¿Qué es la Inteligencia Artificial?

Arquitectura histórica jerárquica: del razonamiento simbólico a la generación de contenido. Cada nivel es un subconjunto del anterior.

💡 Esta página es un módulo introductorio. Los conceptos están ordenados jerárquicamente: cada capa interior es un subcampo de la capa exterior. Al terminar, explora el Laboratorio de IA para verlos en acción.
1956 – 1974

🧠 Inteligencia Artificial

La visión fundacional

El término "Inteligencia Artificial" fue acuñado en la Conferencia de Dartmouth (1956). El objetivo original: crear máquinas capaces de razonar simbólicamente, es decir, manipular símbolos mediante reglas lógicas explícitas para resolver problemas.

Los Sistemas Expertos fueron la primera materialización práctica: si ocurre X, entonces aplica regla Y. Aunque revolucionarios para su época, eran rígidos — requerían codificación manual de cada regla, lo que limitaba su escalabilidad ante la variabilidad del mundo real.

Limitación: las reglas manuales no capturan la variabilidad del mundo real → nació una alternativa estadística.
2010s (inicio)

⚙️ Machine Learning

El cambio de paradigma

Subcampo de la IA que invierte la estrategia: en lugar de programar reglas, se proporcionan datos de entrenamiento y el algoritmo infiere patrones automáticamente. Un modelo de regresión logística o árbol de decisión aprende a partir de ejemplos.

Esta transición — de la lógica simbólica a la inferencia estadística — permitió abordar problemas donde la formulación explícita es intractable: reconocimiento de voz, detección de fraude, diagnóstico asistido.

Progresión: modelos estadísticos simples → arquitecturas complejas con múltiples capas de representación.
2012 – 2020

🕸️ Deep Learning

Redes neuronales profundas

Subcampo del Machine Learning basado en Redes Neuronales Artificiales con múltiples capas ocultas (de ahí "profundo"). Cada capa aprende representaciones jerárquicas: las primeras capas capturan características simples (bordes, frecuencias); las más profundas, características complejas (conceptos semánticos, anatomía).

Esta arquitectura, inspirada en el córtex visual, permitió avances sin precedentes en visión computacional (ImageNet 2012) y procesamiento de lenguaje natural. Sin embargo, la toma de decisiones seguía siendo determinista para entradas concretas — los modelos clasificaban o predecían, pero no creaban.

Salto cualitativo: de análisis predictivo → generación de contenido completamente nuevo.
2022 – Presente

✨ IA Generativa

Modelos fundacionales

Avance contemporáneo del Deep Learning que utiliza Modelos Fundacionales: arquitecturas Transformer entrenadas con miles de millones de parámetros en corpus masivos de texto, imagen y código.

A diferencia de clasificadores o predictores, estos modelos generan contenido nuevo: texto coherente (ChatGPT, Claude), imágenes fotorrealistas (DALL-E), código funcional, síntesis de voz. El mecanismo subyacente es predicción de tokens secuencial bajo incertidumbre estadística, lo que produce composiciones creativas e impredecibles.

Esto representa un salto cualitativo: de sistemas que responden preguntas a sistemas que sintetizan obras.

Toda IA Generativa es Deep Learning · todo Deep Learning es Machine Learning · todo Machine Learning es IA. La jerarquía no es exclusión, sino extensión conceptual.

Síntesis Evolutiva

Cada nivel trasciende las limitaciones del anterior mediante abstracción creciente:

Símbolo → Estadística → Representación → Generación

Este progreso refleja no solo avances técnicos, sino una comprensión más profunda de cómo sistemas complejos pueden emerger de optimización no supervisada a gran escala. Los retos futuros residen en interpretabilidad, eficiencia energética y alineamiento de valores.