DeepMind y Google: la batalla para controlar la inteligencia artificial

Esta pieza es de 1843 , nuestra revista hermana de ideas, estilo de vida y cultura. Fue publicado en el número de abril / mayo de 2019.

Recibe nuestro boletín diario

Actualice su bandeja de entrada y obtenga nuestro envío diario y las selecciones del editor.

UNA TARDE en agosto de 2010, en una sala de conferencias ubicada en el borde de la Bahía de San Francisco, una londinense de 34 años llamada Demis Hassabis subió al escenario. Caminando hacia el podio con el andar deliberado de un hombre tratando de controlar sus nervios, frunció sus labios en una breve sonrisa y comenzó a hablar: “Así que hoy voy a hablar sobre diferentes enfoques para la construcción …” Se detuvo, como si me diera cuenta de que estaba manifestando su ambición en voz alta. Y luego lo dijo: “AGI”.

AGI significa inteligencia general artificial, un programa informático hipotético que puede realizar tareas intelectuales, así como, o mejor que, un humano. AGI podrá completar tareas discretas, como reconocer fotos o traducir idiomas, que son el enfoque único de la multitud de inteligencias artificiales (AI) que habitan en nuestros teléfonos y computadoras. Pero también sumará, restará, jugará ajedrez y hablará francés. También comprenderá los artículos de física, escribirá novelas, diseñará estrategias de inversión y hará conversaciones agradables con extraños. Supervisará las reacciones nucleares, gestionará las redes eléctricas y el flujo de tráfico, y tendrá éxito en todo lo demás. AGI hará que las IA más avanzadas de hoy se vean como calculadoras de bolsillo.

La única inteligencia que actualmente puede intentar todas estas tareas es el tipo que los humanos están dotados. Pero la inteligencia humana está limitada por el tamaño del cráneo que alberga el cerebro. Su poder está restringido por la cantidad insignificante de energía que el cuerpo puede proporcionar. Debido a que AGI se ejecutará en computadoras, no sufrirá ninguna de estas restricciones. Su inteligencia estará limitada solo por el número de procesadores disponibles. AGI puede comenzar monitoreando las reacciones nucleares. Pero pronto descubrirá nuevas fuentes de energía al digerir más documentos de física en un segundo que un humano podría en mil vidas. La inteligencia a nivel humano, junto con la velocidad y la escalabilidad de las computadoras, hará que los problemas que actualmente parecen insolubles desaparezcan. Hassabis le dijo al Observer , un periódico británico, que esperaba que AGI dominara, entre otras disciplinas, “cáncer, cambio climático, energía, genómica, macroeconomía [y] sistemas financieros”.

La conferencia en la que habló Hassabis se llamó la Cumbre de la Singularidad. “La singularidad” se refiere a la consecuencia más probable de la llegada de AGI, según los futuristas. Debido a que AGI procesará la información a alta velocidad, se volverá muy inteligente muy rápidamente. Los rápidos ciclos de superación personal conducirán a una explosión de la inteligencia de la máquina, dejando a los humanos ahogados con el polvo de silicona. Dado que este futuro se construye enteramente sobre un andamiaje de presunciones no probadas, se trata de una creencia casi religiosa si uno considera que la Singularidad es una utopía o un infierno.

A juzgar por los títulos de las charlas, los asistentes a la conferencia tendieron hacia el mesiánico: “La mente y cómo construir uno”; “AI contra el envejecimiento”; “Reemplazando nuestros cuerpos”; “Modificando el límite entre la vida y la muerte”. El discurso de Hassabis, por el contrario, fue decepcionante: “Un enfoque de la neurociencia de los sistemas para desarrollar el AGI”.

Hassabis paseaba entre el podio y una pantalla, hablando a un ritmo rápido. Llevaba un jersey marrón y una camisa blanca abotonada como un colegial. Su ligera estatura parecía sólo magnificar su intelecto. Hasta ahora, explicó Hassabis, los científicos se habían acercado a AGI desde dos direcciones. En una pista, conocida como IA simbólica, los investigadores humanos trataron de describir y programar todas las reglas necesarias para un sistema que pudiera pensar como un humano. Este enfoque fue popular en los años 80 y 90, pero no produjo los resultados deseados. Hassabis creía que la arquitectura mental del cerebro era demasiado sutil para ser descrita de esta manera.

La otra pista comprendía investigadores que intentaban replicar las redes físicas del cerebro en forma digital. Esto tenía cierto sentido. Después de todo, el cerebro es el asiento de la inteligencia humana. Pero esos investigadores también estaban equivocados, dijo Hassabis. Su tarea estaba en la misma escala que el mapeo de cada estrella en el universo. Más fundamentalmente, se centró en el nivel incorrecto de la función cerebral. Era como tratar de entender cómo funciona Microsoft Excel abriendo una computadora y examinando las interacciones de los transistores.

En cambio, Hassabis propuso un término medio: el AGI debería inspirarse en los métodos generales mediante los cuales el cerebro procesa la información, no los sistemas físicos o las reglas particulares que se aplican en situaciones específicas. En otras palabras, debería centrarse en comprender el software del cerebro, no su hardware. Nuevas técnicas, como la resonancia magnética funcional (IRMf), que permitían mirar dentro del cerebro mientras realizaba actividades, habían comenzado a hacer posible este tipo de comprensión. Los últimos estudios, dijo a la audiencia, mostraron que el cerebro aprende repitiendo las experiencias durante el sueño, a fin de derivar principios generales. Los investigadores de IA deberían emular este tipo de sistema.

Apareció un logotipo en la esquina inferior derecha de su diapositiva de apertura, un remolino circular de azul. Dos palabras, cerradas, se imprimieron debajo: DeepMind. Esta fue la primera vez que la compañía había sido mencionada en público. Hassabis había pasado un año tratando de obtener una invitación a la Cumbre de la Singularidad. La conferencia fue una coartada. Lo que realmente necesitaba era un minuto con Peter Thiel, el multimillonario de Silicon Valley que financió la conferencia. Hassabis quería la inversión de Thiel.

Hassabis nunca ha hablado de por qué quería el respaldo de Thiel en particular. (Hassabis rechazó las solicitudes de múltiples entrevistas para este artículo a través de un portavoz. 1843 habló con 25 fuentes, incluidos empleados e inversionistas actuales y antiguos. La mayoría de ellos habló de forma anónima, ya que no estaban autorizados para hablar de la compañía). Pero Thiel cree en AGI Con mayor fervor que Hassabis. En una charla en la Cumbre de la Singularidad en 2009, Thiel había dicho que su mayor temor por el futuro no era un levantamiento de robots (aunque con un agujero para el apocalipsis en el interior de Nueva Zelanda, está mejor preparado que la mayoría de la gente). Más bien, le preocupaba que la Singularidad tardara demasiado en llegar. El mundo necesitaba nuevas tecnologías para evitar el declive económico.

DeepMind terminó subiendo £ 2m; Thiel contribuyó £ 1.4m. Cuando Google compró la compañía en enero de 2014 por $ 600 millones, Thiel y otros inversionistas tempranos obtuvieron un retorno del 5,000% de su inversión.

Para muchos fundadores, este sería un final feliz. Podrían disminuir la velocidad, dar un paso atrás y pasar más tiempo con su dinero. Para Hassabis, la adquisición de Google fue solo un paso más en su búsqueda de AGI. Había pasado gran parte de 2013 negociando los términos del acuerdo. DeepMind operaría como una entidad separada de su nuevo padre. Obtendría los beneficios de ser propiedad de Google, como el acceso al flujo de efectivo y el poder de cómputo, sin perder el control.

Hassabis pensó que DeepMind sería un híbrido: tendría el impulso de una startup, los cerebros de las mejores universidades y los bolsillos de una de las compañías más valiosas del mundo. Cada elemento estaba en su lugar para acelerar la llegada de AGI y resolver las causas de la miseria humana.

Demis Hassabis nació en el norte de Londres en 1976 de padre grecochipriota y madre chino-singapurense. Era el mayor de tres hermanos. Su madre trabajaba en John Lewis, una tienda departamental británica, y su padre tenía una tienda de juguetes. Comenzó a jugar ajedrez a la edad de cuatro años, después de ver jugar a su padre y su tío. A las pocas semanas él estaba venciendo a los adultos. A los 13 años era el segundo mejor jugador de ajedrez del mundo para su edad. A los ocho años, aprendió a codificar en una computadora básica.

Hassabis completó sus A-niveles en 1992, dos años antes de lo previsto. Consiguió un trabajo programando videojuegos con Bullfrog Productions. Hassabis escribió Theme Park, en el que los jugadores diseñaron y dirigieron un parque de diversiones virtual. Fue un gran éxito, vendiendo 15 millones de copias y formando parte de un nuevo género de juegos de simulación en los que el objetivo no es derrotar a un oponente, sino optimizar el funcionamiento de un sistema complejo como un negocio o una ciudad.

Además de hacer juegos, él era brillante en jugarlos. En su adolescencia, había corrido entre pisos en competiciones de juegos de mesa para competir en combates simultáneos de ajedrez, scrabble, póker y backgammon. En 1995, mientras estudiaba ciencias de la computación en la Universidad de Cambridge, Hassabis entró en un torneo Go de estudiantes. Go es un antiguo juego de mesa de estrategia que es considerablemente más complejo que el ajedrez. Se supone que la maestría requiere intuición adquirida por una larga experiencia. Nadie sabía si Hassabis había jugado antes.

Primero, Hassabis ganó el torneo de principiantes. Luego venció al ganador de los jugadores experimentados, aunque con un hándicap. Charles Matthews, el maestro de Cambridge Go que dirigió el torneo, recuerda la sorpresa del jugador experto al ser golpeado por un novato de 19 años. Matthews tomó a Hassabis bajo su ala.

El intelecto y la ambición de Hassabis siempre se han expresado a través de los juegos. Los juegos, a su vez, despertaron su fascinación por la inteligencia. Mientras observaba su propio desarrollo en el ajedrez, se preguntaba si las computadoras podrían programarse para aprender como lo había hecho, a través de la experiencia acumulada. Los juegos ofrecían un ambiente de aprendizaje que el mundo real no podía igualar. Estaban limpias y contenidas. Debido a que los juegos se separan del mundo real, se pueden practicar sin interferencias y dominarlos de manera eficiente. Los juegos aceleran el tiempo: los jugadores crean un sindicato del crimen en un par de días y pelean la batalla del Somme en minutos.

En el verano de 1997, Hassabis viajó a Japón. En mayo, la computadora Deep Blue de IBM había vencido a Garry Kasparov, el campeón mundial de ajedrez. Esta fue la primera vez que una computadora derrotó a un gran maestro en el ajedrez. El partido atrajo la atención del mundo y generó inquietudes sobre el creciente poder y la posible amenaza de las computadoras. Cuando Hassabis conoció a Masahiko Fujuwarea, un maestro japonés de juegos de mesa, habló de un plan que combinaría sus intereses en los juegos de estrategia y la inteligencia artificial: un día construiría un programa de computadora para vencer al mejor jugador humano de Go.

Hassabis abordó su carrera metódicamente. “A la edad de 20 años, Hassabis estaba considerando que ciertas cosas tienen que estar en su lugar antes de que pueda ingresar a la inteligencia artificial al nivel que quería”, dice Matthews. “Tenía un plan”.

En 1998 comenzó un estudio de juegos propio llamado Elixir. Hassabis se centró en un juego sumamente ambicioso, Republic: The Revolution, una compleja simulación política. Años antes, cuando todavía estaba en la escuela, Hassabis le había dicho a su amigo Mustafa Suleyman que el mundo necesitaba grandes simulaciones para modelar su compleja dinámica y resolver los problemas sociales más difíciles. Ahora, trató de hacerlo en un juego.

Sus aspiraciones demostraron ser más difíciles de lo esperado para convertirse en código. Elixir finalmente lanzó una versión reducida del juego, para reseñas tibias. Otros juegos fracasaron (uno era un simulador de villanos de Bond llamado Evil Genius). En abril de 2005 Hassabis cerró Elixir. Matthews cree que Hassabis fundó la compañía simplemente para obtener experiencia gerencial. Ahora, Hassabis carecía de un área crucial de conocimiento antes de embarcarse en su búsqueda de AGI. Necesitaba entender el cerebro humano.

En 2005, Hassabis comenzó un doctorado en neurociencia en el University College London (UCL). Publicó investigaciones influyentes sobre la memoria y la imaginación. Un documento, que ha sido citado más de 1.000 veces, mostró que las personas con amnesia también tenían dificultades para imaginar nuevas experiencias, lo que sugiere que existe una conexión entre recordar y crear imágenes mentales. Hassabis estaba construyendo un entendimiento del cerebro requerido para abordar el AGI. La mayor parte de su trabajo se centró en una pregunta: ¿cómo obtiene y retiene el cerebro humano los conceptos y el conocimiento?

Hassabis fundó oficialmente DeepMind el 15 de noviembre de 2010. La declaración de la misión de la compañía era la misma que ahora: “resolver la inteligencia” y luego utilizarla para resolver todo lo demás. Como Hassabis les dijo a los asistentes a la Singularity Summit, esto significa traducir nuestra comprensión de cómo el cerebro realizó tareas en un software que podría usar los mismos métodos para enseñarse a sí mismo.

La declaración de la misión de la compañía era “resolver inteligencia”, y luego usarla para resolver todo lo demás

Hassabis no pretende que la ciencia haya comprendido completamente la mente humana. El plan para AGI no se puede extraer simplemente de cientos de estudios de neurociencia. Pero claramente cree que se sabe lo suficiente para comenzar a trabajar en AGI de la manera que le gustaría. Sin embargo, es posible que su confianza supere la realidad. Todavía sabemos muy poco sobre cómo funciona realmente el cerebro. En 2018, un equipo de investigadores australianos cuestionó los hallazgos del propio doctorado de Hassabis. Las estadísticas son diabólicas y esto es solo un artículo, pero muestra que la ciencia que respalda el trabajo de DeepMind está lejos de establecerse.

Suleyman y Shane Legg, un neozelandés obsesionado con el AGI a quien Hassabis también conoció en UCL, se unieron como cofundadores. La reputación de la firma creció rápidamente. Hassabis tambaleó en el talento. “Es un poco imán”, dice Ben Faulkner, ex gerente de operaciones de DeepMind. Muchos nuevos reclutas vinieron de Europa, más allá de la terrible mirada de gigantes de Silicon Valley como Google y Facebook. Quizás el mayor logro de DeepMind fue moverse temprano para contratar y retener a los más brillantes y mejores. La compañía estableció una tienda en el ático de una casa adosada en Russell Square en Bloomsbury, frente a UCL.

Una técnica de aprendizaje automático en la que se centró la compañía surgió de la fascinación gemela de Hassabis por los juegos y la neurociencia: el aprendizaje por refuerzo. Dicho programa está diseñado para recopilar información sobre su entorno, luego aprender de él repitiendo repetidamente sus experiencias, muy parecido a la descripción que Hassabis dio de la actividad cerebro-humano durante el sueño en su conferencia Singularity Summit.

El aprendizaje por refuerzo comienza con una pizarra computacional en blanco. Al programa se le muestra un entorno virtual sobre el cual no conoce nada más que las reglas, como la simulación de un juego de ajedrez o un juego de video. El programa contiene al menos un componente conocido como red neuronal. Esto se compone de capas de estructuras computacionales que se filtran a través de la información para identificar características o estrategias particulares. Cada capa examina el entorno en un nivel diferente de abstracción. Al principio, estas redes tienen un éxito mínimo pero, lo que es más importante, sus fallas están codificadas dentro de ellas. Se vuelven cada vez más sofisticados a medida que experimentan con diferentes estrategias y son recompensados ​​cuando tienen éxito. Si el programa mueve una pieza de ajedrez y pierde el juego como resultado, no volverá a cometer ese error. Gran parte de la magia de la inteligencia artificial reside en la velocidad a la que repite sus tareas.

El trabajo de DeepMind culminó en 2016 cuando un equipo construyó un programa de inteligencia artificial que usaba el aprendizaje por refuerzo junto con otras técnicas para jugar Go. El programa, llamado AlphaGo, causó asombro cuando venció al campeón mundial en un partido de cinco partidos en Seúl en 2016. La victoria de la máquina, observada por 280 millones de personas, llegó una década antes de lo que los expertos habían pronosticado. Al año siguiente, una versión mejorada de AlphaGo golpeó al campeón de Chinese Go.

Como Deep Blue en 1997, AlphaGo cambió las percepciones de los logros humanos. Los campeones humanos, algunas de las mentes más brillantes del planeta, ya no estaban en la cima de la inteligencia. Casi 20 años después de haber confiado su ambición a Fujuwarea, Hassabis la cumplió. Hassabis ha dicho que el partido lo llevó a llorar. Tradicionalmente, un estudiante de Go paga a su maestro al vencerlos en un solo concurso. Hassabis agradeció a Matthews al vencer a todo el juego.

DeepBlue ganó a través de la fuerza bruta y la velocidad de cálculo, pero el estilo de AlphaGo parecía artístico, casi humano. Su gracia y sofisticación, la trascendencia de su músculo computacional, parecían mostrar que DeepMind estaba más adelantado que sus competidores en la búsqueda de un programa que pudiera tratar enfermedades y administrar ciudades.

Hassabis siempre ha dicho que DeepMind cambiaría el mundo para mejor. Pero no hay certezas sobre AGI. Si alguna vez surge, no sabemos si será altruista o vicioso, o si se someterá al control humano. Incluso si lo hace, ¿quién debería tomar las riendas?

Desde el principio, Hassabis ha tratado de proteger la independencia de DeepMind. Siempre ha insistido en que DeepMind permanezca en Londres. Cuando Google compró la compañía en 2014, la cuestión del control se hizo más apremiante. Hassabis no necesitaba vender DeepMind a Google. Había un montón de dinero en efectivo a la mano y él había esbozado un modelo de negocio en el que la compañía diseñaría juegos para financiar la investigación. El peso financiero de Google era atractivo, sin embargo, como muchos fundadores, Hassabis se mostró renuente a entregar la compañía que había creado. Como parte del acuerdo, DeepMind creó un acuerdo que evitaría que Google tomara el control unilateral de la propiedad intelectual de la compañía. En el año previo a la adquisición, según una persona familiarizada con la transacción, ambas partes firmaron un contrato denominado Acuerdo de Revisión de Ética y Seguridad. El acuerdo, previamente no informado, fue redactado por abogados superiores en Londres.

El Acuerdo de Revisión pone el control de la tecnología AGI central de DeepMind, siempre que se pueda crear, en manos de un panel de gobierno conocido como la Junta de Ética. Lejos de ser una concesión cosmética de Google, el Consejo de Ética le da a DeepMind un sólido respaldo legal para mantener el control de su tecnología más valiosa y potencialmente más peligrosa, según la misma fuente. Los nombres de los miembros del panel no se han hecho públicos, pero otra fuente cercana a DeepMind y Google dice que los tres fundadores de DeepMind se sientan en la pizarra. (DeepMind se negó a responder un conjunto detallado de preguntas sobre el Acuerdo de Revisión, pero dijo que “la supervisión de la ética y la gobernanza han sido una prioridad para nosotros desde los primeros días”.)

Hassabis puede determinar el destino de DeepMind por otros medios también. Uno es la lealtad. Los empleados pasados ​​y presentes dicen que la agenda de investigación de Hassabis es una de las fortalezas más importantes de DeepMind. Su programa, que ofrece un trabajo fascinante e importante sin las presiones de la academia, ha atraído a cientos de los expertos más talentosos del mundo. DeepMind tiene oficinas subsidiarias en París y Alberta. Muchos empleados sienten más afinidad con Hassabis y su misión que con su empresa matriz con grandes ingresos. Mientras mantenga su lealtad personal, Hassabis tiene un poder considerable sobre su único accionista. Es mejor que Google tenga el talento de AI de DeepMind trabajando para ello mediante un proxy que para que esas personas terminen en Facebook o Apple.

DeepMind tiene otra fuente de apalancamiento, aunque requiere una reposición constante: publicidad favorable. La compañía sobresale en esto. AlphaGo fue un golpe de relaciones públicas. Desde la adquisición de Google, la firma ha producido repetidamente maravillas que han atraído la atención mundial. Una pieza de software puede detectar patrones en una exploración ocular que son indicadores de degeneración macular. Otro programa aprendió a jugar al ajedrez desde cero utilizando una arquitectura similar a AlphaGo, convirtiéndose en el mejor jugador de ajedrez de todos los tiempos después de solo nueve horas jugando contra sí mismo. En diciembre de 2018, un programa llamado AlphaFold demostró ser más preciso que los competidores para predecir la estructura tridimensional de las proteínas de una lista de sus compuestos, lo que podría allanar el camino para tratar enfermedades como el Parkinson y el Alzheimer.

DeepMind está particularmente orgulloso de los algoritmos que desarrolló que calculan los medios más eficientes para enfriar los centros de datos de Google, que contienen un estimado de 2,5 millones de servidores informáticos. DeepMind dijo en 2016 que había reducido la factura energética de Google en un 40%. Pero algunos expertos dicen que tales alardes son exagerados. Google había estado usando algoritmos para optimizar sus centros de datos mucho antes de que existiera DeepMind. “Solo quieren tener algunas relaciones públicas para poder reclamar un valor agregado dentro de Alphabet”, dice un empleado de Google. El alfabeto principal de Google paga a DeepMind generosamente por servicios como estos. DeepMind facturó £ 54 millones a las compañías de Alphabet en 2017. Esa cifra palidece en comparación con los gastos generales de DeepMind. Gastó £ 200 millones solo en personal ese año. En general, DeepMind perdió £ 282m en 2017.

Los campeones humanos, algunas de las mentes más brillantes del planeta, ya no estaban en la cima de la inteligencia.

Esta es una miseria para el gigante rico en efectivo. Pero otras subsidiarias de Alphabet en números rojos han atraído la atención de Ruth Porat, la parsimoniosa directora financiera de Alphabet. Google Fiber, un esfuerzo por construir un proveedor de servicios de Internet, se vio interrumpido una vez que quedó claro que tomaría décadas para obtener un retorno de la inversión. Los investigadores de AI se preguntan en privado si DeepMind será “Porated”.

La revelación cuidadosa de DeepMind de los avances de la IA forma parte de su estrategia de gestión, lo que demuestra su valía para la reputación de los poderes existentes. Eso es especialmente valioso en un momento en que Google está acusado de invadir la privacidad de los usuarios y difundir noticias falsas. DeepMind también tiene la suerte de tener un simpatizante al más alto nivel: Larry Page, uno de los dos fundadores de Google, ahora director ejecutivo de Alphabet. La página es lo más cercano que Hassabis tiene a un jefe. El padre de Page, Carl, estudió las redes neuronales en los años sesenta. Al principio de su carrera, Page dijo que construyó Google únicamente para fundar una compañía de inteligencia artificial.

El estricto control de DeepMind necesario para la gestión de la prensa no se combina con el espíritu académico que impregna a la empresa. Algunos investigadores se quejan de que puede ser difícil publicar su trabajo: tienen que luchar a través de capas de aprobación interna antes de que puedan enviar trabajo a conferencias y revistas. DeepMind cree que debe proceder con cuidado para evitar asustar al público con la perspectiva de AGI. Pero apretar demasiado fuerte podría comenzar a agriar el ambiente académico y debilitar la lealtad de los empleados.

Cinco años después de la adquisición por parte de Google, la cuestión de quién controla DeepMind está llegando a un punto crítico. Los fundadores de la empresa y los primeros empleados se están acercando a las ganancias, cuando pueden retirarse con la compensación financiera que recibieron de la adquisición (las acciones de Hassabis probablemente valían alrededor de £ 100m). Pero una fuente cercana a la compañía sugiere que Alphabet ha retrasado los beneficios de los fundadores en dos años. Dado su enfoque implacable, es poco probable que Hassabis salte de la nave. Solo le interesa el dinero en la medida en que le ayuda a lograr el trabajo de su vida. Pero algunos colegas ya se han ido. Tres ingenieros de AI se han marchado desde principios de 2019. Y Ben Laurie, uno de los ingenieros de seguridad más destacados del mundo, ha regresado a Google, su empleador anterior. Este número es pequeño, pero DeepMind ofrece una misión tan emocionante y un pago atractivo que es raro que alguien se vaya.

Hasta ahora, Google no ha interferido mucho con DeepMind. Pero un evento reciente ha generado preocupación sobre cuánto tiempo puede la compañía mantener su independencia.

DeepMind siempre había planeado utilizar la IA para mejorar la atención médica. En febrero de 2016, creó una nueva división, DeepMind Health, dirigida por Mustafa Suleyman, uno de los cofundadores de la compañía. Suleyman, cuya madre era enfermera del NHS, esperaba crear un programa llamado Streams que advirtiera a los médicos cuando la salud de un paciente se deteriorara. DeepMind ganaría una tarifa basada en el rendimiento. Debido a que este trabajo requería acceso a información confidencial sobre pacientes, Suleyman estableció un Panel de Revisión Independiente (IRP, por sus siglas en inglés) compuesto por lo bueno y lo bueno de la atención médica y la tecnología británicas. DeepMind fue prudente para proceder con cuidado. El comisionado de información británico descubrió posteriormente que uno de los hospitales socios violó la ley al manejar los datos de los pacientes. No obstante, a finales de 2017, Suleyman había firmado acuerdos con cuatro grandes hospitales del NHS.

El 8 de noviembre de 2018, Google informó sobre la creación de su propia división de atención médica, Google Health. Cinco días después, se anunció que DeepMind Health debía incorporarse a los esfuerzos de su empresa matriz. DeepMind parecía haber tenido poca advertencia. De acuerdo con la información obtenida de las solicitudes de Libertad de Información, le dio a sus hospitales asociados solo tres días de aviso del cambio. DeepMind se negó a decir cuándo comenzaron las discusiones sobre la fusión, pero dijo que la corta brecha entre la notificación y un anuncio público era en interés de la transparencia. Suleyman había escrito en 2016 que “en ningún momento los datos de los pacientes se vincularán o asociarán con las cuentas, productos o servicios de Google”. Su promesa parecía haberse roto. (En respuesta a las preguntas de 1843 , DeepMind dijo que “en esta etapa, ninguno de nuestros contratos se ha trasladado a Google, y solo lo harán con el consentimiento de nuestros socios. Las transmisiones que se convierten en un servicio de Google no significan los datos del paciente … .puede utilizarse para proporcionar otros productos o servicios de Google “.

La anexión de Google ha enfurecido a los empleados de DeepMind Health. Según las personas cercanas al equipo de salud, más empleados planean abandonar la compañía una vez que se complete la absorción. Un miembro de la IRP, Mike Bracken, ya ha abandonado Suleyman. De acuerdo con varias personas familiarizadas con el evento, Bracken renunció en diciembre de 2017 debido a la preocupación de que el panel se refiriera más a la decoración que a la supervisión genuina. Cuando Bracken le preguntó a Suleyman si le daría a los miembros del panel los poderes de responsabilidad y gobernabilidad de los directores no ejecutivos, Suleyman se burló. (Un portavoz de DeepMind dijo que no tenían “ningún recuerdo” del incidente). Julian Huppert, el jefe del IRP, argumenta que el panel brindó un “gobierno más radical” del que Bracken esperaba porque los miembros podían hablar abiertamente y no estaban obligados a hacerlo. Un deber de confidencialidad.

Este episodio muestra que las partes periféricas de la operación de DeepMind son vulnerables a Google. DeepMind dijo en una declaración que “todos estuvimos de acuerdo en que tiene sentido unir estos esfuerzos en un esfuerzo de colaboración, con mayores recursos”. Esto plantea la pregunta de si Google aplicará la misma lógica al trabajo de DeepMind en AGI.

Desde la distancia, DeepMind parece haber dado grandes pasos. Ya ha creado software que puede aprender a realizar tareas en niveles sobrehumanos. Hassabis a menudo cita Breakout, un videojuego para la consola Atari. Un jugador de Breakout controla un bate que puede mover horizontalmente a través de la parte inferior de la pantalla, usándolo para hacer rebotar una bola contra los bloques que se ciernen sobre ella, destruyéndolos en el impacto. El jugador gana cuando todos los bloques son borrados. Ella pierde si pierde el balón con el bate. Sin instrucción humana, el programa de DeepMind no solo aprendió a jugar el juego, sino que también aprendió a lanzar la bola al espacio detrás de los bloques, aprovechando los rebotes para romper más bloques. Esto, dice Hassabis, demuestra el poder del aprendizaje por refuerzo y la capacidad sobrenatural de los programas de computadora de DeepMind.

Es una demo impresionante. Pero Hassabis deja algunas cosas fuera. Si la paleta virtual se moviera incluso un poco más arriba, el programa fallaría. La habilidad aprendida por el programa de DeepMind es tan restringida que no puede reaccionar incluso a pequeños cambios en el entorno que una persona tomaría con calma, al menos no sin miles de rondas más de aprendizaje de refuerzo. Pero el mundo tiene un jitter como este incorporado en él. Para la inteligencia de diagnóstico, no hay dos órganos corporales que sean iguales. Para la inteligencia mecánica, no se pueden ajustar dos motores de la misma manera. Por lo tanto, lanzar programas perfeccionados en el espacio virtual hacia lo salvaje está lleno de dificultades.

La segunda advertencia, de la cual DeepMind rara vez se refiere, es que el éxito en entornos virtuales depende de la existencia de una función de recompensa: una señal que permite al software medir su progreso. El programa aprende que al rebotar de la pared posterior su puntuación aumenta. Gran parte del trabajo de DeepMind con AlphaGo consistía en construir una función de recompensa compatible con un juego tan complejo. Desafortunadamente, el mundo real no ofrece recompensas simples. El progreso rara vez se mide por puntajes individuales. Donde existen tales medidas, los desafíos políticos complican el problema. La conciliación de la señal de recompensa para la salud climática (la concentración de CO₂ en la atmósfera) con la señal de recompensa para las compañías petroleras (precio de la acción) requiere satisfacer a muchos seres humanos con motivaciones en conflicto. Las señales de recompensa tienden a ser muy débiles. Es raro que los cerebros humanos reciban retroalimentación explícita sobre el éxito de una tarea en medio de ella.

DeepMind ha encontrado una forma de evitar esto al emplear grandes cantidades de potencia de computadora. AlphaGo lleva miles de años de juego humano para aprender algo. Muchos pensadores de AI sospechan que esta solución es insostenible para tareas que ofrecen debilidad.recompensas. DeepMind reconoce la existencia de tales ambigüedades. Recientemente se ha centrado en StarCraft 2, un juego de computadora de estrategia. Las decisiones tomadas al principio del juego tienen ramificaciones más adelante, lo que está más cerca del tipo de retroalimentación retorcida y demorada que caracteriza a muchas tareas del mundo real. En enero, el software DeepMind venció a algunos de los mejores jugadores humanos del mundo en una demostración que, aunque fuertemente restringida, aún era impresionante. Sus programas también han comenzado a aprender las funciones de recompensa al seguir la retroalimentación de los maestros de desastres humanos. Pero poner la instrucción humana en el bucle se arriesga a perder los efectos de escala y velocidad que ofrece el procesamiento informático no adulterado.

Investigadores actuales y anteriores de DeepMind y Google, que solicitaron el anonimato debido a estrictos acuerdos de no divulgación, han También expresó el escepticismo de que DeepMind puede llegar a AGI a través de tales métodos. Para estas personas, el enfoque en lograr un alto rendimiento en entornos simulados hace que el problema de la señal de recompensa sea difícil de abordar. Sin embargo, este enfoque está en el corazón de DeepMind. Tiene una tabla de clasificación interna, en la que los programas de los equipos de codificadores competidores compiten por dominar los dominios virtuales.

Hassabis siempre ha visto la vida como un juego. Una gran parte de su carrera se dedicó a hacerlos, una gran parte de su tiempo de ocio se ha dedicado a jugarlos. En DeepMind, son su vehículo elegido para desarrollar AGI. Al igual que su software, Hassabis solo puede aprender de sus experiencias. La búsqueda de AGI puede eventualmente perderse, habiendo inventado algunas tecnologías médicas útiles y superando a los mejores jugadores de juegos de mesa del mundo. Logros significativos pero no el que anhela. Sin embargo, aún podría iniciar el AGI, justo debajo de la nariz de Google pero más allá de su control. Si lo hace, Demis Hassabis habrá vencido al juego más difícil de todos.

El autor, Hal Hodson, es corresponsal de tecnología de The Economist

Read More

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.