Arquitectura histórica jerárquica: del razonamiento simbólico a la generación de contenido. Cada nivel es un subconjunto del anterior.
La visión fundacional
El término "Inteligencia Artificial" fue acuñado en la Conferencia de Dartmouth (1956). El objetivo original: crear máquinas capaces de razonar simbólicamente, es decir, manipular símbolos mediante reglas lógicas explícitas para resolver problemas.
Los Sistemas Expertos fueron la primera materialización práctica: si ocurre X, entonces aplica regla Y. Aunque revolucionarios para su época, eran rígidos — requerían codificación manual de cada regla, lo que limitaba su escalabilidad ante la variabilidad del mundo real.
El cambio de paradigma
Subcampo de la IA que invierte la estrategia: en lugar de programar reglas, se proporcionan datos de entrenamiento y el algoritmo infiere patrones automáticamente. Un modelo de regresión logística o árbol de decisión aprende a partir de ejemplos.
Esta transición — de la lógica simbólica a la inferencia estadística — permitió abordar problemas donde la formulación explícita es intractable: reconocimiento de voz, detección de fraude, diagnóstico asistido.
Redes neuronales profundas
Subcampo del Machine Learning basado en Redes Neuronales Artificiales con múltiples capas ocultas (de ahí "profundo"). Cada capa aprende representaciones jerárquicas: las primeras capas capturan características simples (bordes, frecuencias); las más profundas, características complejas (conceptos semánticos, anatomía).
Esta arquitectura, inspirada en el córtex visual, permitió avances sin precedentes en visión computacional (ImageNet 2012) y procesamiento de lenguaje natural. Sin embargo, la toma de decisiones seguía siendo determinista para entradas concretas — los modelos clasificaban o predecían, pero no creaban.
Modelos fundacionales
Avance contemporáneo del Deep Learning que utiliza Modelos Fundacionales: arquitecturas Transformer entrenadas con miles de millones de parámetros en corpus masivos de texto, imagen y código.
A diferencia de clasificadores o predictores, estos modelos generan contenido nuevo: texto coherente (ChatGPT, Claude), imágenes fotorrealistas (DALL-E), código funcional, síntesis de voz. El mecanismo subyacente es predicción de tokens secuencial bajo incertidumbre estadística, lo que produce composiciones creativas e impredecibles.
Esto representa un salto cualitativo: de sistemas que responden preguntas a sistemas que sintetizan obras.
Cada nivel trasciende las limitaciones del anterior mediante abstracción creciente:
Símbolo → Estadística → Representación → Generación
Este progreso refleja no solo avances técnicos, sino una comprensión más profunda de cómo sistemas complejos pueden emerger de optimización no supervisada a gran escala. Los retos futuros residen en interpretabilidad, eficiencia energética y alineamiento de valores.