El amanecer de la inteligencia artificial y el fin del código

La inteligencia artificial ya es una realidad

Personalidades referentes del mundo digital, científico e informático analizan y valoran el presente y el futuro de la inteligencia artificial y su impacto en nuestro mundo y nuestras vidas

Antes de la invención de la computadora, los psicólogos más experimentales pensaban que el cerebro era un cuadro negro incognoscible en el que sólo se podía analizar el comportamiento más instintivo de las personas, pero ¿qué había de los pensamientos, recuerdos y emociones? Estas cosas eran algo oscuro e inescrutable, que iban más allá del alcance de la ciencia. Algo por lo que estos conductistas, como ellos mismos se autodenominaban, limitaban su trabajo al estudio del estímulo-respuesta renunciando a tratar de entender el funcionamiento interno de la mente. Una fórmula con la que gobernaron su campo durante cuatro décadas.

A ellos les siguieron a mediados de la década de los 50 un grupo de psicólogos, rebeldes lingüistas, teóricos de la información, y los primeros investigadores de la Inteligencia Artificial, quienes se acercaron  a una concepción diferente de la mente. Las personas, argumentaron, no eran más que una colección de respuestas condicionadas. Absorben la información, la procesan y luego actúan en consecuencia. Tenían sistemas para escribir, almacenar y recuperar memorias. Operaban a través de una sintaxis lógica, formal. El cerebro no era un cuadro negro en absoluto, era más bien como una computadora.

La llamada revolución cognitiva comenzó, pero a medida que los ordenadores se convirtieron en un equipo estándar en los laboratorios de psicología, sus teorías fueron ganando la aceptación de una manera más amplia. A finales de 1970, la psicología cognitiva había derrocado al conductismo, y con el nuevo régimen se produjo un nuevo lenguaje para hablar de la vida mental. Los psicólogos comenzaron a describir los pensamientos como los programas, la gente común hablaba de almacenamiento de datos a distancia en sus bancos de memoria, y los gurús de los negocios se preocupaban sobre los límites del ancho de banda mental y la capacidad de procesamiento en el lugar de trabajo moderno.

El código es lógico. El código es hackeable. El código es el destino. Estos son los principios centrales (y profecías autocumplidas) de la vida en la era digital

Esta historia se ha repetido una y otra vez. A medida que la revolución digital ha progresado, los avances tecnológicos siempre han provocado esto a lo largo de la historia. Durante la Ilustración, Newton y Descartes inspiraron a las personas a pensar en el universo como un reloj perfectamente sincronizado. En la era industrial, que era una máquina de pistones (la idea de Freud de la psicodinámica tomada de la termodinámica de las máquinas de vapor). Ahora es un ordenador. Lo cual es una idea fundamental y muy potente, porque si el mundo es un ordenador, entonces nuestro mundo puede ser codificado.

El código es lógico. El código es hackeable. Código es destino. Estos son los principios centrales (y profecías autocumplidas) de la vida en la era digital. A medida que el software se ha comido el mundo, parafraseando al capitalista de riesgo Marc Andreessen, nos hemos rodeado de máquinas que convierten nuestras acciones, pensamientos y emociones en material de datos en bruto para los ejércitos de ingenieros que manejan el código a manipular. Hemos llegado a ver la vida como algo regido por una serie de instrucciones que pueden ser descubiertas, explotadas, optimizadas, y tal vez incluso reescritas.

Craig Venter opina que todas las células vivas del planeta son máquinas biológicas de ADN por software.

Craig Venter, decodificador del genoma humano, ya escribe código para crear organismos sintéticos.

Las empresas utilizan el código para entender los lazos más íntimos; Mark Zuckerberg de Facebook ha ido tan lejos como para sugerir que podría haber “relaciones humanas subyacentes a las leyes matemáticas fundamentales que rigen el equilibrio entre nosotros”. En 2013, Craig Venter anunció, una década después de decodificar el genoma humano, que había comenzado a escribir código, lo que que le permitiría crear organismos sintéticos. “Cada vez está más claro”, dice, “que todas las células vivas que conocemos en este planeta son máquinas biológicas de ADN por software”. Tanto es así que Venter insiste en que se puede hackear el propio código fuente de los genes. Así, se podría reprogramar su vida amorosa, su rutina de sueño o sus hábitos de consumo.

Craig Venter, decodificador del genoma humano: “Cada vez está más claro que todas las células vivas que conocemos en este planeta son máquinas biológicas de ADN por software”

En este mundo, la capacidad de escribir código se ha convertido no sólo en una habilidad deseable, sino en un lenguaje que reconoce una jerarquía privilegiada para quienes son capaces de interpretarlo. Ellos tienen acceso a lo que en una época más mecánica se habría llamado las palancas del poder. “Si controlas el código, puedes controlar el mundo”, escribió Marc Goodman, escritor y visionario consultor.

Sin embargo, tanto si te gusta este estado de cosas como si lo odias, tanto si eres un miembro de la élite de codificación o alguien que apenas se siente competente para aclararse con la configuración de tu teléfono, nuestras máquinas están empezando a hablar un idioma diferente actualmente, uno que incluso los mejores codificadores no pueden llegar a entender completamente.

En los últimos años, las empresas de tecnología más grandes de Silicon Valley han perseguido con insistencia un enfoque de la computación llamado aprendizaje automático. En la programación tradicional, un ingeniero escribe paso a paso una serie de instrucciones explícitas a seguir. Con la máquina de aprendizaje, los programadores no codifican las computadoras con las instrucciones. Ellos las entrenan. Así pues, si desean enseñar a una red neuronal cómo reconocer un gato, por ejemplo, no le dicen que mire sus bigotes, orejas, piel u ojos. Sólo tiene que mostrarle al sistema miles y miles de fotos de gatos, y, finalmente, acabará reconociéndolos. Si siguiera clasificando los gatos de manera errónea y los confundiera con zorros, no habría que reescribir ningún código, seguiría simplemente entrenando a la máquina.

Si se desea enseñar a una red neuronal cómo reconocer un gato, por ejemplo, no se le dice que mire los bigotes, orejas, piel o los ojos. Sólo hay que mostrarle al sistema miles y miles de fotos de gatos, y, finalmente, acabará reconociéndolos

google-inteligencia-artificial-caras

Sistema de reconocimiento facial de Google.

Este enfoque no es nuevo, ya que ha estado presente durante décadas, pero recientemente se ha convertido en algo mucho más potente, gracias en parte al ascenso de las redes neuronales profundas: sistemas computacionales distribuidos masivamente que imitan las conexiones de varias capas de neuronas en el cerebro. Actualmente, Facebook lo utiliza para determinar las noticias que aparecen en su servicio de noticias y fotos, mientras que Google lo emplea para identificar rostros. El aprendizaje automático también se ejecuta en el Traductor Skype de Microsoft, que traduce el habla a diferentes idiomas en tiempo real; coches de auto-conducción usan el aprendizaje de la máquina para evitar accidentes; incluso el motor de búsqueda de Google ha empezado a confiar en estas redes neuronales profundas.

En febrero, el gigante buscador reemplazó muchos de los integrantes de su departamento de gestión de búsquedas por expertos en aprendizaje de máquinas como John Giannandrea, científico de la computación de Google, quien ya ha iniciado un importante programa para capacitar a sus ingenieros en estas nuevas técnicas. “Con la construcción de los sistemas de aprendizaje”, dijo a la prensa Giannandrea el pasado otoño, “nosotros no tendremos que escribir estas reglas nunca más”.

Nuestras máquinas de hoy en día hablan un idioma distinto, uno que incluso los mejores codificadores no pueden entender completamente. Pero he aquí la cosa: con el aprendizaje de la máquina, el ingeniero nunca sabrá con precisión cómo realiza el equipo sus tareas.  Las operaciones de una red neuronal son en gran parte opacas e inescrutables. Son, en otras palabras, un cuadro negro. Y como estas cajas negras asumen cada vez más responsabilidad a la hora de orientar nuestras tareas digitales diarias , no sólo van a cambiar nuestra relación con la tecnología sino que van a cambiar la forma en que pensamos acerca de nosotros mismos, nuestro mundo y nuestro lugar en él.

Si anteriormente los programadores eran legisladores de leyes de los sistemas informáticos ahora son como los padres o los entrenadores de mascotas, lo cual creará una relación más misteriosa entre hombre y máquina

Así pues, si en las anteriores décadas los programadores eran como dioses, legisladores de las leyes que rigen los sistemas informáticos, ahora son como los padres o los entrenadores de mascotas, y como cualquier padre o entrenador se generará una relación de aprendizaje mucho más misteriosa entre máquina y persona.

andy-rubin

Andy Rubin, padre del sistema operativo Android.

¿Cómo opera la Inteligencia Artificial?

Andy Rubin es uno de los codificadores más experimentados del mundo, algo de lo que no queda ninguna duda si decimos que es el co-creador del sistema operativo Android. La presencia de Rubin es notoria en Silicon Valley sólo por el hecho de llenar sus oficinas con los muñecos verdes en forma de robot.  “Me metí en la informática cuando era muy joven, y me encantó porque podía desaparecer en el mundo de la informática. Fue como un borrón y cuenta nueva, un lienzo en blanco en el que podía crear algo de la nada”, afirma ilusionado.

Ahora, Rubin asegura que ese mundo está llegando a su fin. El padre de Android está muy entusiasmado con el ascenso de la máquina de aprendizaje, su nueva compañía, Playground Global, invierte en nuevas empresas de máquinas de autoaprendizaje y se está posicionando para provocar la expansión de dispositivos inteligentes, pero es algo que le entristece debido a que el aprendizaje de una máquina cambia lo que significa ser un ingeniero.

Andy Rubin, padre de Android: “Después de que una red neuronal aprenda a hacer el reconocimiento de voz, un programador no puede entrar y mirar para ver cómo sucedió. Es igual que su cerebro. No se puede cortar la cabeza y ver lo que estás pensando”

“La gente ya no escribe linealmente los programas”, afirma Rubin. “Después de que una red neuronal aprenda a hacer el reconocimiento de voz, un programador no puede entrar y mirar para ver cómo sucedió. Es igual que su cerebro. No se puede cortar la cabeza y ver lo que estás pensando”. Según el inventor del sistema operativo Android, “cuando los ingenieros miran una red neuronal de inteligencia artificial en profundidad, lo que ven es un océano de matemáticas, un conjunto masivo de múltiples capas de problemas de cálculo, que plantea constantes relaciones entre los miles de millones de puntos de datos, y generan conjeturas sobre el mundo”.

No se suponía que la inteligencia artificial operara de esta manera. Hasta hace pocos años, los principales investigadores de la Inteligencia Artificial entendían que para crear la inteligencia sólo tenían que impregnar una máquina con la lógica correcta. Escribir reglas suficientes y, finalmente, crear un sistema lo suficientemente sofisticado como para comprender el mundo.

Sin embargo, ellos ignoraban que las máquinas que navegan con datos pueden llegar a sus propias conclusiones. Durante años, los ordenadores no eran lo suficientemente potentes como para probar realmente los méritos de uno u otro enfoque, por lo que el argumento se convirtió en algo filosófico. “La mayor parte de estos debates se basaron en las creencias fijas acerca de cómo tenía que organizarse el mundo y cómo funcionaba el cerebro”, dice Sebastian Thrun, el ex profesor de Stanford de Inteligencia Artificial que creó el coche de autoconducción de Google. “Las redes neuronales no tenían símbolos o reglas, sólo números alienados de mucha gente”.

Relación entre el hombre y la máquina inteligente

Las implicaciones de una máquina con un lenguaje que no se puede analizar no son sólo filosóficas. Durante las últimas dos décadas, el aprendizaje del código ha sido una de las vías más seguras para conseguir empleo, un hecho que no ha pasado inadvertido para todos aquellos padres que inscriben a sus hijos en escuelas para aprender a trabajar con código.  Sin embargo, un mundo gobernado por máquinas de autoaprendizaje requiere de una mano de obra diferente. Los analistas ya han comenzado a preocuparse por el impacto de la Inteligencia Artificial en el mercado de trabajo y sobre cómo las máquinas podrían convertir los conocimientos actuales en irrelevantes.

Sebastian Thrun: creador del vehículo no tripulado de Google

Sebastian Thrun: creador del vehículo no tripulado de Google

“Estaba teniendo una conversación acerca de esto esta misma mañana”, dice Tim O’Reilly, gurú de la tecnología, cuando se le pregunta acerca de este cambio.”Yo apuntaba que los diferentes trabajos de programación serían ocupados por todos estos niños de las escuelas STEM”. De esta manera, la codificación tradicional no va a desaparecer por completo; de hecho, O’Reilly predice que todavía tendremos codificadores durante mucho tiempo pero es probable que haya menos, y su labor se convierta en una habilidad, en una forma de crear lo que Oren Etzioni, director general del Instituto Allen para la Inteligencia Artificial, llama el “andamiaje”, dentro del cual su trabajo resulta fundamental para el aprendizaje de la máquina.

De este modo, al igual que la física de Newton no fue obviada por el descubrimiento de la mecánica cuántica, el código seguirá siendo un poderoso, aunque incompleto, juego de herramientas para explorar el mundo. Sin embargo, cuando se trate de la implementación de funciones específicas, el propio aprendizaje de la máquina hará la mayor parte del trabajo por nosotros.

Al igual que la física de Newton no fue obviada por la mecánica cuántica, el código seguirá siendo un poderoso conjunto de herramientas para explorar el mundo

Por supuesto, los seres humanos todavía tienen que formar a estos sistemas. Pero, por ahora, esta es una habilidad difícil de encontrar en la actualidad. Se trata de un trabajo que requiere tanto de un conocimiento de alto nivel de matemáticas como una intuición pedagógica privilegiada. “Es casi como una forma de arte con el que obtener el máximo rendimiento de estos sistemas”, dice Demis Hassabis, que lidera el equipo de Deep Mind de Inteligencia Artificial de Google. “Sólo hay unos pocos cientos de personas en el mundo capaces de hacer esto muy bien”. Pese a esto, ese pequeño número ha sido suficiente para transformar la industria de la tecnología en tan sólo un par de años.

Cualquiera que sean las implicaciones profesionales de este cambio, las consecuencias culturales serán aún más grandes. Si el aumento de software escrito condujo hacia un culto al ingeniero, y a la idea de que la experiencia humana en última instancia puede ser reducida a una serie de instrucciones comprensibles, el aprendizaje automático marca un camino en la dirección opuesta. El código que se ejecuta de manera automática puede acabar desafiando el análisis humano. En este momento Google, por ejemplo, se enfrenta a una investigación antimonopolio en Europa, que acusa a la compañía de ejercer una influencia indebida sobre sus resultados de búsqueda. Tal acusación será difícil de probar incluso para los propios ingenieros de la compañía que no podrán decir exactamente cómo trabajan sus algoritmos de búsqueda.

No es noticia que incluso los algoritmos simples pueden crear un comportamiento impredecible en una emergente visión que se remonta a la teoría del caos y los generadores de números aleatorios. En los últimos años, debido a que las redes se han vuelto más entrelazadas y sus funciones más complejas, el código ha llegado a parecer más como una fuerza ajena, como fantasmas que habitan en una máquina cada vez más difícil de interpretar y gobernar. Aviones que caen por ninguna razón aparente. Desplomes en el mercado de valores. Apagones.

Estas fuerzas han llevado al tecnólogo Danny Hillis a declarar el fin de la era de la Ilustración y de los siglos de fe en la lógica, el determinismo, y el control sobre la naturaleza. Hillis asevera que estamos cambiando hacia lo que él llama la ‘Edad del Entrelazamiento’. “A medida que nuestras creaciones tecnológicas se han vuelto más complejas, nuestra relación con ellas ha cambiado”, escribió en la revista Journal of Design and Science. “En lugar de ser dueños de nuestras creaciones, hemos aprendido a negociar con ellas, engatusarlas y guiarlas en la dirección de nuestros objetivos. Hemos construido nuestra propia selva, y ahora tiene una vida propia. El ascenso de aprendizaje automático es el último paso, y tal vez el último, en este viaje”.

Los expertos casi descartan que estemos ante el amenecer de un Skynet.

Los expertos casi descartan que estemos ante el amanecer de un Skynet.

“La inteligencia Artificial no es Skynet”

Todo esto puede sonar bastante aterrador, pues años atrás los codificadores eran al menos humanos. Ahora, la élite tecnológica es aún más pequeña, y su mando sobre sus creaciones ha disminuido y llega a ser indirecta. Las empresas que las construyen ya se han dado cuenta de que se comportan de manera que son difíciles de gobernar. El verano pasado, Google se apresuró a pedir disculpas cuando su motor de reconocimiento de fotografías comenzó a etiquetar imágenes de personas de raza negra como gorilas.

Para los más apocalípticos, todo esto sugiere una era futura en la que perderemos autoridad sobre nuestras máquinas. “Uno puede imaginar una tecnología más inteligente que los mercados financieros, alejada de los investigadores humanos, de la manipulación de los líderes humanos, y del desarrollo de armas que ni siquiera podemos entender”, escribió Stephen Hawking, palabras de las que siempre se han hecho eco personalidades como Elon Musk y Bill Gates, entre otros. “Considerando que el impacto a corto plazo de la Inteligencia Artificial dependerá de quien la controla, el impacto a largo plazo dependerá de si se puede controlar totalmente”.

El verano pasado, Google se apresuró a pedir disculpas cuando su motor de reconocimiento de fotografías comenzó a etiquetar imágenes de personas de raza negra como gorilas

Peso a todo, esto no es el amanecer de Skynet. Estamos aprendiendo las reglas de enfrentamiento con una nueva tecnología. Actualmente, los ingenieros están trabajando en formas de visualizar lo que está pasando debajo del capó de un sistema de aprendizaje profundo. Pero incluso si nunca entendiéramos completamente cómo piensan estas nuevas máquinas, esto no quiere decir que seamos impotentes ante ellas. En el futuro, no vamos a preocuparnos tanto por las fuentes subyacentes de su comportamiento; vamos a aprender a centrarnos en su comportamiento mismo. El código será menos importante que los datos que utilizamos para entrenarlo.

Si todo esto resulta un poco familiar es porque se parece mucho al conductismo de principios siglo XX. De hecho, el proceso de formación de un algoritmo de aprendizaje es a menudo comparado con los grandes experimentos conductistas de la década de 1900. Pavlov desencadenó la salivación de su perro no a través de un profundo conocimiento del hambre, sino simplemente mediante la repetición de una secuencia de eventos una y otra vez. Él proporcionó los datos, una y otra vez, hasta que volvió a reescribir el código en sí mismo.

El proceso de formación de un algoritmo de aprendizaje es a menudo comparado con los grandes experimentos conductistas de la década de 1900

A la larga, dice Thrun, el aprendizaje de la máquina tendrá una influencia democratizadora. De la misma manera que usted no necesita tener conocimientos de HTML para construir un sitio web en estos días, no se necesitará un doctorado para aprovechar el poder del aprendizaje profundo. La programación no será de dominio único de codificadores entrenados que han aprendido una serie de lenguas arcanas, sino que será accesible a cualquier persona capaz de enseñar a un perro a darse la vuelta. “Para mí, es la cosa más fresca que ha llegado a la programación,” confiesa el ex profesor de Stanford de Inteligencia Artificial, “porque ahora cualquiera puede programar”.

Durante gran parte de la historia de la computación, hemos mirado de adentro hacia afuera cómo funcionan las máquinas. Primero se escribe el código, a continuación, la máquina lo expresa. Esta visión del mundo sugiere una especie de determinismo basado en reglas, una sensación de que las cosas son el producto de instrucciones subyacentes. El aprendizaje automático sugiere lo contrario, una vista de afuera hacia adentro en el que el código no sólo determina el comportamiento, el comportamiento también determina código. Las máquinas son productos del mundo.

Portada de la revista Time sobre la epigenética.

Portada de la revista Time sobre la epigenética.

En última instancia, llegaremos a apreciar tanto la potencia del código lineal escrito a mano como el poder de los algoritmos de aprendizaje para ajustarlos. De hecho, los biólogos ya han comenzado a calcular el impacto de esto. Técnicas de edición de genes como CRISPR les dan el poder de manipular código de los programadores de software tradicionales.

Pero los descubrimientos en el campo de la epigenética sugieren que el material genético no es en realidad un conjunto de instrucciones inmutable, sino más bien un conjunto dinámico de interruptores que se ajusta en función del entorno y las experiencias de su huésped. Nuestro código no existe separado del mundo físico; está profundamente influenciado y metamorfoseado por ella. Craig Venter puede considerar que las células son máquinas de software guiadas por ADN, pero Steve Cole, de Epigeneticist, sugiere una formulación diferente: “Una célula es una máquina que convierte la experiencia en biología”.

Y ahora, 80 años después de que Alan Turing esbozara por primera vez sus diseños para una máquina de resolución de problemas, las computadoras se están convirtiendo en dispositivos para convertir la experiencia en tecnología. Durante décadas se ha buscado el código secreto que pudiera explicar cómo optimizar nuestra experiencia del mundo. Pero las máquinas no funcionan de esa manera ni tampoco nuestro mundo realmente lo hace. Estamos a punto de tener una relación más complicada pero, en última instancia, más gratificante con la tecnología. Vamos a pasar de tener el mando de los dispositivos a la crianza de ellos.

Artículo original escrito en Wired por Jason Tanz 

Artículos relacionados

  1. […] “debido a que las redes se han vuelto más entrelazadas y sus funciones más complejas, el código ha llegado a parecer más como una fuerza ajena, como fantasmas que habitan en una máquina cada vez más difícil de interpretar y gobernar” . “Uno puede imaginar una tecnología más inteligente que los mercados financieros, alejada de los investigadores humanos, de la manipulación de los líderes humanos, y del desarrollo de armas que ni siquiera podemos entender”, escribió Stephen Hawking, palabras de las que siempre se han hecho eco personalidades como Elon Musk y Bill Gates” . http://apuntandoalpalo.com/amanecer-inteligencia-artificial-fin-codigo/ […]

    Reply

Deja tu comentario

Tu dirección de email no será publicada en los comentarios

Send this to a friend