Orígenes y Conceptos Iniciales
• 1943: Warren McCulloch y Walter Pitts publican un modelo de neuronas artificiales basado en álgebra booleana, sentando las bases para las redes neuronales.
• 1950: Alan Turing publica «Computing Machinery and Intelligence», proponiendo el Test de Turing como un criterio para determinar si una máquina puede pensar.
Primera Etapa: La Era de los Pioneros (1956-1974)
• 1956: La conferencia de Dartmouth, organizada por John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon, es considerada el nacimiento oficial de la IA. Se acuña el término «inteligencia artificial».
• 1958: John McCarthy desarrolla el lenguaje de programación LISP, fundamental para la investigación en IA.
• 1966: Joseph Weizenbaum crea ELIZA, uno de los primeros programas de procesamiento de lenguaje natural, simulando una conversación con un terapeuta.
Segunda Etapa: El Inverno de la IA (1974-1980)
• Años 70: El entusiasmo inicial se enfría debido a la falta de progreso significativo y los límites computacionales. Se reduce la financiación y el interés en la investigación de IA.
• 1972: Se desarrolla el primer sistema experto, MYCIN, en la Universidad de Stanford, diseñado para diagnosticar infecciones bacterianas.
Resurgimiento: Sistemas Expertos y Nuevas Esperanzas (1980-1987)
• Años 80: Surge un renovado interés en la IA gracias a los sistemas expertos, que aplican conocimiento específico para resolver problemas en dominios restringidos.
• 1980: La empresa japonesa Fifth Generation Computer Systems (FGCS) impulsa una nueva ola de investigaciones en IA.
• 1986: Se publica el libro «Parallel Distributed Processing» de David Rumelhart y James McClelland, revitalizando el interés en las redes neuronales con el enfoque de conexión y aprendizaje profundo.
Segunda Etapa de Inverno y Resurgimiento (1987-1993)
• Finales de los 80 y principios de los 90: Otro «invierno de la IA» debido a las expectativas no cumplidas y la disminución de la financiación.
• 1993: El campo empieza a recuperarse con avances en hardware, algoritmos y la disponibilidad de grandes cantidades de datos.
Era Moderna: El Auge del Aprendizaje Automático y la IA (1997-Presente)
• 1997: Deep Blue, de IBM, derrota al campeón mundial de ajedrez Garry Kasparov, marcando un hito en la capacidad de las máquinas para superar a los humanos en tareas específicas.
• 2006: Geoffrey Hinton, Simon Osindero y Yee-Whye Teh publican un artículo clave sobre redes neuronales profundas, lo que lleva al renacimiento del aprendizaje profundo.
• 2011: IBM Watson gana el concurso de televisión Jeopardy!, demostrando avances en procesamiento de lenguaje natural y aprendizaje automático.
• 2012: AlexNet, una red neuronal profunda, gana la competencia ImageNet, mostrando la superioridad de las redes profundas en reconocimiento de imágenes.
• 2016: AlphaGo, de DeepMind, derrota a Lee Sedol, un campeón mundial de Go, en un avance significativo para la IA en juegos complejos.
• 2018: OpenAI y otros desarrollan modelos de lenguaje avanzados como GPT-2 y GPT-3, capaces de generar texto humano de manera convincente.
• 2021: Se lanza DALL-E, un modelo de IA capaz de generar imágenes a partir de descripciones textuales, y AlphaFold de DeepMind resuelve el problema del plegamiento de proteínas.