- 1943 - Warren McCulloch y Walter Pitts publican el primer modelo matemático de una neurona artificial, sentando las bases de las redes neuronales.
- 1950 - Alan Turing publica Computing Machinery and Intelligence, donde introduce el Test de Turing para evaluar la inteligencia de las máquinas y predice que las computadoras eventualmente podrían imitar la inteligencia humana.
- 1951 - Marvin Minsky y Dean Edmonds construyen SNARC (Stochastic Neural Analog Reinforcement Calculator), la primera red neuronal basada en hardware.
- 1956 - La histórica Conferencia de Dartmouth reúne a pioneros como John McCarthy, Marvin Minsky, Claude Shannon y otros. Aquí nace oficialmente el campo de la Inteligencia Artificial como disciplina académica.
- 1958 - Frank Rosenblatt desarrolla el Perceptrón, el primer algoritmo de aprendizaje automático. John McCarthy crea LISP, lenguaje fundamental para la IA simbólica.
- 1964 - Joseph Weizenbaum desarrolla ELIZA en el MIT, el primer chatbot que simula ser un psicoterapeuta mediante procesamiento del lenguaje natural.
- 1965 - Lofti Zadeh introduce la lógica difusa, permitiendo a las máquinas razonar con información imprecisa.
- 1969 - Perceptrons de Minsky y Papert expone limitaciones de las redes neuronales simples, provocando el abandono temporal de esta línea de investigación.
- 1973-1980 - Primer invierno de la IA: los recortes del DARPA y las críticas al campo provocan una reducción drástica en la financiación.
- 1980-1987 - Era de los sistemas expertos: Digital Equipment Corporation's XCON y DENDRAL demuestran aplicaciones prácticas de la IA en la industria.
- 1987-1993 - Segundo invierno de la IA: el alto costo de mantenimiento y las limitaciones de los sistemas expertos provocan otro período de desilusión.
- 1997 - Deep Blue de IBM derrota al campeón mundial de ajedrez Garry Kasparov, marcando un hito en la capacidad computacional.
Siglo XXI: Expansión y auge del aprendizaje profundo
- 2002 - Sony lanza AIBO, el primer robot mascota con IA capaz de aprender y desarrollar su propia personalidad.
- 2006 - Geoffrey Hinton introduce el concepto de Deep Learning y las técnicas de pre-entrenamiento por capas, revitalizando el campo de las redes neuronales.
- 2011 - Watson de IBM vence a los campeones humanos Ken Jennings y Brad Rutter en Jeopardy!, demostrando avances en procesamiento del lenguaje natural.
- 2012 - El modelo AlexNet gana la competencia ImageNet por un margen significativo, iniciando la revolución del deep learning en visión por computadora.
- 2014 - Ian Goodfellow y su equipo introducen las GANs (Redes Generativas Antagónicas), abriendo nuevas posibilidades en la generación de contenido.
- 2016 - AlphaGo de DeepMind vence a Lee Sedol en Go, un juego considerado muchísimo más complejo que el ajedrez para la IA.
- 2017 - Google presenta la arquitectura Transformer en el paper "Attention is All You Need", revolucionando el procesamiento del lenguaje natural.
- 2018 - BERT de Google establece nuevos récords en tareas de procesamiento del lenguaje natural.
- 2019 - GPT-2 de OpenAI demuestra capacidades sin precedentes en generación de texto, aunque su lanzamiento se retrasa por preocupaciones éticas.
- 2020 - GPT-3 marca un nuevo hito con 175 mil millones de parámetros, demostrando capacidades emergentes en múltiples tareas.
- 2022 - El lanzamiento de ChatGPT democratiza el acceso a la IA conversacional. DALL·E 2 y Stable Diffusion revolucionan la generación de imágenes.
- 2023 - GPT-4 introduce capacidades multimodales y mejora significativamente el razonamiento. Claude y Gemini emergen como competidores serios.
- 2024 - Avances en IA multimodal, modelos de código abierto y aplicaciones especializadas en diversos sectores como medicina, ciencia y educación.
.%20The%20image%20in.jpg)
