Historia de la Inteligencia Artificial: ¿Cómo empezó todo?

La tecnología relacionada a la inteligencia artificial se encuentra actualmente en el foco del mundo, desde los lugares más cotidianos, como el etiquetado de fotografías o la conversión de voz en texto hacia sectores más punteros como los coches autónomos. Esta se encuentra en métodos informáticos avanzados como el análisis de datos, la visión por ordenador y el aprendizaje automático o machine learning.

Si bien es cierto como ha admitido Bill Gates, aún vemos la inteligencia artificial “en pañales” y los riesgos propios de ella aún no están claros es que lo que parece algo actual se remota a la época griega.

Se podría decir que fue Aristóteles quien mediante el descubrimiento de un conjunto de reglas para obtener conclusiones racionales y Ctesibio de Alejandría en el año 250 a.C. mediante la construcción de la primera máquina auto-controlada, racional pero sin razonamiento fueron los referentes históricos de esta tecnología.

Sin embargo, los primeros referentes históricos reales se remontan a los años 30 con Alan Turing, considerado padre de la Inteligencia Artificial. El punto de partida fue en el año 1950, cuando Turing publica un artículo en la revista Mind denominado “Computing machinery and intelligence” donde el tema principal era de si las máquinas pueden pensar. Los fundamentos posteriores de la IA se encuentran en el experimento relacionado con dicho artículo que pasó a denominarse Test de Turing, el cual era superado u óptimo si la maquina podía ser capaz de hacerse pasar por un humano en una charla ciega. Este test se sigue desarrollando en la actualidad y es motivo de nuevos estudios e investigaciones.

Posterior a Turing, numerosos investigadores e historiadores consideran que el punto de partida moderno de la inteligencia artificial data del año 1956 con John McCarty, Marvin Misky y Claude Shannon, los cuáles durante la Conferencia de Darthmounth acuñaron el término de “la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cálculo inteligente”.

Sin embargo, estos científicos señalaron que la sociedad estaría rodeada de máquinas dentro de 10 años, es decir, durante la década de 1970, y obviamente no fue así, y es que esta tecnología no se llegó a desarrollar hasta la década de los 90, donde realmente pudo comenzar la edad de oro de la IA.

Fue a partir de este año cuando la mayoría de las grandes compañías tecnológicas empiezan a hacer grandes inversiones en esta tecnología. Como por ejemplo, fuera del ámbito de la empresa, cuando el supercomputador Deep Blue de IBM ganó en 1997 al campeón mundial de ajedrez Kasparov, después de un fracaso previo en 1996. Fue ahí donde algunos historiadores de la IA consideran que el punto de inflexión donde comienza a oírse de la inteligencia artificial fuera de los ámbitos académicos y de investigación es este hecho.

Más tarde sucedió algo parecido. El sistema IBM Watson, que hizo su aparición estelar en el concurso televisivo Jeopardy! y el cual venció a los dos máximos campeones de este programa, en el que se realizan preguntas sobre cultura y conocimiento de todo tipo. En este programa además de tener la capacidad de entender las preguntas y las respuestas que se dan, tuvo que realizar jugadas inteligentes a la hora de sopesar la elección de categorías y cuanto apostar en cada ronda.

Los últimos cinco años han sido la expansión de la IA en sectores donde hasta esas fechas no habían llegado. Por ejemplo, en el sector comercial se presentaron los primeros productos que entendían el habla, como el caso de Google Now; en el ámbito de la fotografía también podemos destacar aplicaciones que permiten identificar el contenido de una imagen como Google Photos; otro hito importante fue la presentación del asistente virtual de Apple (Siri) integrado en los móviles a partir del iPhone 4S en 2011.