Suscríbete al boletín semanal

Suscríbete para recibir cada semana el boletín SINC con los contenidos más relevantes y no te pierdas nada de la actualidad científica.

Suscríbete al boletín semanal
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones

El legado interrumpido de Turing

Descifrar los códigos de la máquina Enigma de los nazis es uno de los logros más conocidos de Alan Turing, pero la contribución de este matemático británico a la criptografía, la computación, la inteligencia artificial y la lógica va mucho más allá. Esta semana se ha revisado en Madrid el legado de Turing en un simposio, y algunos de sus ponentes han destacado a SINC las aportaciones a la ciencia de este malogrado genio.

Figura de Turing elabarada con miles de piezas por Stephen Kettle. Imagen: Block B museum.

Alan Mathison Turing (1912-1954) está considerado como uno de los padres de la computación, sobre todo gracias al desarrollo de la máquina que lleva su nombre. Durante la Segunda Guerra Mundial también rompió los códigos de otra máquina, Enigma, con la que los alemanes cifraban sus mensajes. Además, sus artículos sobre lógica matemática y lo que han llegado a ser las redes neuronales artificiales se han convertido en todo un referente en estas materias.

El legado de Turing, que fue profesor de Matemáticas y Lógica en la Universidad de Cambridge (Reino Unido), quedó truncado en 1952 cuando se le procesó por ser homosexual. Dos años más tarde murió tras ingerir cianuro. Ahora, coincidiendo con el aniversario de su nacimiento, la comunidad científica echa la vista atrás y reconoce las aportaciones de este genial matemático.

Este es el repaso que han hecho para SINC tres de los expertos que han participado esta semana en el simposio El legado de Alan Turing, organizado por la Fundación Ramón Areces y la Real Academia de Ciencias, con la colaboración del Instituto de Ciencias Matemáticas (ICMAT).

“El principal legado de Turing a la inteligencia artificial es su artículo Intelligent Machinery

Ramón López de Mántaras. Instituto de Investigación en Inteligencia Artificial (IIIA-CSIC)

En relación con la inteligencia artificial, Alan Turing es conocido fundamentalmente por el test que lleva su nombre. Sin embargo, considero que no es su aportación más importante a este campo. En el mismo artículo donde lo proponía en 1950 (Computing Machinery and Intelligence), argumentaba que en un plazo de unos 50 años habría ordenadores inteligentes capaces de llevar a cabo deducciones lógicas, de aprender adquiriendo nuevos conocimientos –tanto inductivamente como por experiencia y evolución– y capaces de comunicar mediante interfaces humanizadas.

Esta idea fue muy radical en aquel momento. De hecho es un debate que todavía persiste. Creo que esta parte del artículo es más importante que en la que describe su test. Y es que Turing hacía ya tiempo que estaba muy interesado por el funcionamiento del cerebro. Estaba convencido de que el córtex cerebral de un niño pequeño podía ser simulado mediante un ordenador.

Pero en 1948 ya había escrito otro –poco conocido– artículo sobre ello titulado Intelligent Machinery, y al hacerlo describió lo que ahora conocemos cómo ‘redes neuronales artificiales’. Este artículo, que no se publicó hasta finales de los años 60, es el principal legado de Turing a la inteligencia artificial.

En él presenta un modelo del cerebro basado en unidades de procesamiento muy sencillas, conectadas entre sí de forma aleatoria y formando una red. También anticipó una de las técnicas de aprendizaje más exitosas en inteligencia artificial, actualmente conocidas como ‘aprendizaje por refuerzo’. Me pregunto cuántas veces más nos hubiera asombrado Alan Turing con otras contribuciones científicas de primer orden si la intolerancia no se hubiera cruzado en su camino.

Aún así, respecto al famoso test de Turing (que plantea que si una máquina se comporta en todo como inteligente, entonces lo es), el motivo para no considerarlo su aportación más importante es que este juego de imitación no es un buen indicador para determinar si una máquina es inteligente ya que, como mucho, solamente evalúa aquellos procesos cognitivos que son susceptibles de ser expresados verbalmente.

Sin embargo, hay otros procesos cognitivos fundamentales que no son verbalizables y cuya modelización y evaluación son imprescindibles en inteligencia artificial. El ejemplo más paradigmático es la actual investigación en robots autónomos, cuyo objetivo es dotarles de sofisticadas habilidades sensoriales y motoras, que permitirán que estos robots aprendan a reconocer y comprender lo que vean, toquen, oigan y huelan.

También deberán tener capacidades de razonamiento espacial para aprender a interpretar su entorno, donde habrá otros robots y seres humanos, lo que requerirá un desarrollo de sus capacidades de socialización. Para poder medir los progresos hacia estos objetivos, un test como el propuesto por Turing no sirve.

Necesitamos más bien un conjunto de tests que evalúen todo el rango de capacidades que conforman la inteligencia, y en particular la capacidad de adquirir conocimientos de sentido común, el problema más importante que debemos resolver al final para alcanzar inteligencias artificiales de propósito general.

Creo que la repercusión más importante del test de Turing es de carácter filosófico, ya que implica que para decidir si una máquina es inteligente lo importante es observar externamente si tiene o no un comportamiento inteligente, en lugar de analizar cómo sus estructuras y mecanismos causales internos dan lugar a inteligencia. Actualmente esta es una cuestión que genera mucha polémica entre filósofos de la mente pero que no preocupa demasiado a la comunidad de investigadores en inteligencia artificial.

“La ‘descriptación’ de Enigma fue decisiva en el desenlace de la batalla del Atlántico”

Pedro Bernal Gutiérrez. Teniente General del Ejército del Aire. Ex director del Centro Superior de Estudios de la Defensa Nacional (CESEDEN)

Durante la II Guerra Mundial, Gran Bretaña tuvo que emplear a fondo sus capacidades militares, así como sus recursos humanos y materiales, para salir airosa de los grandes desafíos a los que tuvo que enfrentarse, como las batallas de Inglaterra o del Atlántico. Hay abundante historiografía sobre los aspectos militares y de toda índole que caracterizaron aquellas campañas.

Sin embargo, también se libró una guerra oculta en paralelo, que permitió apoyar los procesos de decisión necesarios para alcanzar el éxito. Fue la labor de los servicios de inteligencia británico y, en particular, del programa Ultra y de las actividades en el campo de las telecomunicaciones o signals intelligence.

Hay que destacar aquí el enorme esfuerzo que se realizó para descifrar el sistema de encriptación empleado por los alemanes, y cuyo mayor referente es la maquina Enigma. Como dice Hodges, el biógrafo de Turing, la ruptura del código de Enigma constituye posiblemente su mayor contribución individual a la Historia. La ‘descriptación’ de esta máquina fue decisiva en el desenlace de la batalla del Atlántico.

El centro de operaciones de esa guerra oculta estuvo localizado en la UK Government Code and Cypher School (GCCS), en Bletchley Park. Y entre el formidable equipo de intelectuales, científicos y expertos que llevó a cabo la compleja tarea, sin duda destaca de forma brillante la figura de Alan Turing.

Eisenhower reconoció la contribución decisiva del programa Ultra a la victoria aliada y Winston Churchill afirmó que el equipo del GCCS ayudó a acortar la guerra. En concreto, Turing, en paralelo a su aportación con Enigma, proporcionó la base intelectual del diseño de máquinas de criptoanálisis (dispositivos ‘bomba’) y ayudó al desarrollo de Colossus, uno de los primeros computadores.

Hubo que esperar hasta 1974 y 1986 para que se empezara a reconocer públicamente la importancia de su participación, y hasta abril de 2012 para que fueran desclasificados desde los UK National Archives los dos documentos titulados Report on the applications of probability to cryptography y Paper on statistics of repetitions, en los que se plasma la base matemática de sus ideas.

“El impacto de la obra de Turing sobre la lógica matemática también es importante”

Joan Bagaria. ICREA y Dpto. de Lógica, Historia y Filosofía de la Ciencia. Universidad de Barcelona.

El impacto de la obra de Alan Turing sobre la lógica matemática y los fundamentos de matemática, especialmente en el desarrollo de la teoría general de la computabilidad (que resuelve problemas mediante algoritmos), así como en la teoría de la demostración (que analiza las demostraciones como si fueran objetos matemáticos), también es importante.

En su famoso artículo Los números computables, con una aplicación al Entscheidungsproblem de 1936, Turing analiza la noción intuitiva del ‘proceso mecánico’, dando lugar a la definición de máquina de Turing (un modelo matemático que se puede visualizar en un dispositivo donde se manipulan símbolos sobre una cinta de acuerdo a unas reglas).

Esto permite clarificar la noción de sistema lógico formal y resolver definitivamente el Entscheidungsproblem o ‘problema de la decisión’ planteado por el matemático alemán David Hilbert. Y lo hace de forma negativa, es decir, Turing plantea que no existe un procedimiento mecánico que decida si un enunciado matemático es o no un teorema.

En el mismo artículo, el famoso matemático británico introduce las nociones de máquina universal de Turing y de computación relativa a un oráculo (herramienta matemática ‘que no puede ser una máquina’ para formular preguntas sobre la computabilidad relativa más que de la absoluta), que han tenido un impacto enorme en la teoría de la compatibilidad hasta nuestros días.

Dos años después, en su tesis de doctorado sobre Sistemas lógicos basados en ordinales, Turing inicia un análisis de sucesiones de sistemas formales indexados por ordinales (números que expresan ideas de orden o sucesión), demostrando un teorema de completitud para fórmulas universales como alternativa a los resultados de ‘incompletitud’ de Gödel (que plantea proposiciones indemostrables en ciertas teorías aritméticas).

Este método se desarrolló hasta convertirse en uno de los temas centrales de la teoría de la demostración. En concreto a un ámbito de la lógica matemática relacionado con la calibración de la potencia de los sistemas formales mediante los ordinales asociados.

Las entrañas de Intelligent Machinery

El artículo Intelligent Machinery lo escribió Alan Turing en 1948, pero no se presentó hasta 1968 en Cybernetics: Key Papers y en 1969 en la revista Machine Intelligence. Para algunos especialistas se trata de su mayor aportación a la inteligencia artificial.

El modelo de cerebro que se presenta en este trabajo está basado en unidades simples de procesamiento aleatoriamente en red. La señales que procesan son binarias por lo que actualmente estas redes las llamaríamos “redes booleanas”. Turing las llamó “máquinas no-organizadas de tipo A” y la salida de cada unidad se calcula mediante el producto de los valores binarios de las entradas restado de 1, es decir, que cada unidad es una puerta lógica de tipo denominado NAND.

Estas máquinas de tipo A no podían aprender, por lo que Turing las extendió añadiendo una especie de interruptores en las conexiones entre las neuronas que podían ser entrenados por un agente externo que le enseña a resolver una tarea dada. Turing las llamó “máquinas de tipo B”. El entrenamiento de la red consistiría en bloquear o desbloquear la conexión entre neuronas mediante el interruptor hasta llegar a una máquina “organizada”, para llevar a cabo la tarea para la que ha sido entrenada.

Sin embargo, Turing no propuso ningún algoritmo que realizara dicho entrenamiento. Poco después de su muerte se pudo demostrar que estas redes neuronales booleanas son efectivamente entrenables para, por ejemplo, aprender a discriminar entre clases linealmente separables. Actualmente, redes neuronales artificiales, organizadas por capas y más complejas que las propuestas por Turing, se usan extensivamente en Inteligencia Artificial y Robótica.

En su artículo de 1948, Turing también describe unas máquinas que él llama “de tipo P” entrenables mediante un proceso de “premio o castigo”. Estas máquinas, contrariamente a las de tipo A y B, no eran redes neuronales binarias, sino máquinas de Turing modificadas de forma que, antes de ser entrenadas, el conjunto de sus reglas internas es incompleto, pero después, se llega a un conjunto completo de reglas. Son los comienzos del ‘aprendizaje por refuerzo’ de la inteligencia artificial.

Fuente: SINC
Derechos: Creative Commons