Los algoritmos deben tener en cuenta, no ignorar, las fallas humanas.

A medida que la INTELIGENCIA ARTIFICIAL (AI) se abre camino en muchas áreas de la vida, la sociedad tendrá que sentirse cómoda con los algoritmos, no con las personas, al tomar decisiones. Los sistemas ya se han mostrado prometedores en áreas que van desde la banca hasta el comercio electrónico, la atención médica y la vigilancia. Sin embargo, crece la preocupación de que los algoritmos pueden tomar demasiado control, especialmente si las personas renuncian a la toma de decisiones a las máquinas, como los autos que conducen por sí mismos o las sentencias judiciales. Si esto impide el uso de AI, entonces existe el riesgo de que la sociedad y la economía dejen de recibir sus beneficios potenciales.

Hannah Fry ha estudiado estos sistemas durante años como matemática centrada en problemas urbanos en el Centro de Análisis Espacial Avanzado de la University College London. Sin embargo, es más conocida como una gran popularizadora de las matemáticas y las ciencias a través de sus conferencias públicas y documentales sobre la BBC.

Recibe nuestro boletín diario

Actualice su bandeja de entrada y obtenga nuestro envío diario y las selecciones del editor.

En su último libro, «Hello World», la Sra. Fry desmitifica cómo funcionan las tecnologías, repasa la historia para explicar cómo llegamos a adoptar decisiones basadas en datos y ofrece un análisis claro de los pros y los contras. El beneficio es que la inteligencia artificial a menudo puede realizar tareas con mayor rapidez y precisión que las personas; el inconveniente es que si los datos están sesgados, entonces la salida puede ser discriminatoria.

La iniciativa Open Future de The Economist preguntó a la Sra. Fry cómo la sociedad debería aprovechar la tecnología. La entrevista es seguida por un extracto del libro sobre el sistema de justicia penal y un enfoque algorítmico llamado «bosque aleatorio».

* * *

The Economist: Todos los datos tienen sesgos; deberíamos retrasar la introducción de sistemas algorítmicos hasta que estemos seguros de haber descubierto y remediado los más importantes, o debemos aceptar un estándar más bajo: hacer un «mejor esfuerzo» para identificar y corregir sesgos, pero liberar el código y el remedio en el volar, como se descubren los defectos?

Hannah Fry: Hay una manera fácil de caer en una trampa aquí. Una vez que vea los problemas que pueden presentar los algoritmos, las personas pueden querer deshacerse de ellos por completo y pensar que la situación se resolvería apegándose a las decisiones humanas hasta que los algoritmos sean mejores. Pero en verdad, los sistemas humanos están llenos de prejuicios y están plagados de sus propios tipos de problemas.

Depende de la configuración en cuanto a qué tan cuidadosamente necesita pisar. (No se puede introducir responsablemente un sistema con problemas de salud en la atención médica, por ejemplo, de la misma manera que se puede hacer con, digamos, “árbitros de asistente de video” en el fútbol. En general, el objetivo general debe ser construir el más justo. sistema coherente posible. Eso significa reconocer que la perfección es imposible y que las compensaciones son inevitables. Pero también significa, mientras tanto, que debemos centrarnos en hacer más fácil apelar las decisiones de los algoritmos cuando inevitablemente salen mal.

The Economist: El sistema de justicia penal a veces tiene el valor de que « mejor que un criminal salga en libertad que una persona inocente vaya a la cárcel « . ¿Deberíamos negarnos a adoptar algoritmos en las salas de audiencias para tomar decisiones serias (es decir, sentencia) sobre esa base, ya que es posible que nunca estemos seguros de que se trata de justicia ciega?

Sra. Fry: Todo sistema de justicia penal debe encontrar algún tipo de equilibrio entre proteger los derechos de personas inocentes acusadas falsamente de delitos y proteger a las víctimas de delitos. Conseguir ese equilibrio es difícil, y el sistema judicial no es perfecto, y no intenta serlo. Es por eso que frases como «duda razonable» y «fundamentos sustanciales» son tan fundamentales para el vocabulario legal: el sistema acepta que la certeza absoluta es inalcanzable.

Pero incluso dentro de esos límites, hay mucha inconsistencia y suerte involucradas en las decisiones de los jueces. Las personas son terribles para tomar decisiones justas y consistentes. Y los jueces, como el resto de nosotros, no son muy buenos para poner a un lado sus sesgos subconscientes.

Si tiene cuidado, creo que existe la posibilidad de minimizar algunos de esos problemas utilizando algoritmos para respaldar las decisiones de los jueces. Solo debes asegurarte de usarlos de una manera que haga que el sistema sea más justo y que no termine exacerbando accidentalmente los sesgos que ya existen.

The Economist: ¿Te preocupa que los humanos finalmente renuncien a su autoridad y poder en áreas importantes de la vida de las máquinas, de la forma en que ya renunciamos a nuestro sentido de la dirección (y al sentido común) a los mapas en línea?

Sra. Fry: Ciertamente, creo que hay algunas habilidades que perderemos al entregar las cosas a la automatización. Apenas puedo recordar mi propio número de teléfono ahora, y mucho menos la larga lista de números que solía conocer, y mi escritura a mano se ha ido por completo. Pero no diría que me preocupe particularmente por ello.

Sin embargo, hay momentos en que la destreza es una preocupación real. Los pilotos ya han pasado por esto: cuanto mejor era el piloto automático, los pilotos junior menos cómodos se volvían a controlar sus aviones con la mano. En el quirófano, donde los cirujanos jóvenes habrían entrenado ayudando a un consultor en cirugía abierta, con las manos físicamente dentro de un paciente, tocando y sintiendo el cuerpo, ahora entrenan observando un procedimiento de ojo de cerradura que está siendo desempeñado por un asesor sentado. en una consola, y una cámara interna que retransmite a una pantalla.

Y si llegamos a la etapa en que prevalecen los automóviles sin conductor, la competencia de la población para conducir sin ayuda disminuirá sin una seria consideración sobre cómo mantenemos nuestras habilidades, que es algo que debemos hacer si aún se espera que intervengamos y tomemos Control del coche en caso de emergencia.

Hay cosas que puede hacer para evitar este problema, como apagar la máquina deliberadamente de vez en cuando. Pero creo que comienza con el reconocimiento de que la automatización a veces todavía va a fallar, y asegurarse de que el ser humano, y sus necesidades y fallas, permanezcan en el centro de su consideración en todo momento.

The Economist: Cuando los algoritmos se mueven hacia la medicina, la ley y otros sitios, sus decisiones pueden llamarse « recomendaciones « que los humanos en el bucle pueden anular. Pero la mayoría de lo que sabemos de la psicología del comportamiento dice que esto es una ficción: la gente se verá influenciada de manera desmesurada. ¿Cómo podemos superar este problema de manera realista?

Sra. Fry: la gente a menudo es bastante perezosa. Nos gusta tomar el camino más fácil, nos gusta transferir responsabilidades, nos gusta que nos ofrezcan atajos, lo que significa que no tenemos que pensar.

Si diseñas un algoritmo para decirte la respuesta, pero esperas que el humano lo revise, lo cuestione y sepa cuándo anularlo, básicamente estás creando una receta para el desastre. Simplemente no es algo en lo que seremos muy buenos.

Pero si diseña sus algoritmos para que lleven su incertidumbre al frente y al centro con orgullo, para que sean abiertos y honestos con sus usuarios sobre cómo tomaron la decisión y todo el desorden y ambigüedad que tuvo que superar para llegar allí, entonces es mucho más fácil para saber cuándo debemos confiar en nuestros propios instintos.

Creo que esta fue una de las mejores características de Watson de IBM, ¡que tocó en el concurso estadounidense Jeopardy! y ganó. Si bien el formato del programa de prueba significaba que tenía que comprometerse con una sola respuesta, el algoritmo también presentaba una serie de alternativas que había considerado en el proceso, junto con una puntuación que indicaba la confianza que tenía en cada una de ellas.

También es lo mejor de los sat-navs más recientes: no solo deciden una ruta para ti, te dan tres para elegir y los pros y los contras de cada uno. Solo la información suficiente para que usted tome su propia decisión informada, en lugar de ceder a ciegas el control.

The Economist: ¿Qué hacen los humanos que las máquinas no pueden? ¿Qué cambios debemos hacer en la sociedad para ayudar a los humanos a florecer en la era algorítmica?

Sra. Fry: los humanos aún son mucho mejores que las máquinas para comprender el contexto y los matices. Todavía somos mucho más adaptables. Puede recogernos y dejarnos en un entorno totalmente nuevo y sabremos cómo comportarnos, algo que incluso la mejor IA está muy lejos de lograr.

Pero aparte de todo lo demás, este es un mundo humano, no algorítmico. Y así, los humanos siempre deben estar al frente y en el centro del pensamiento para cualquier nueva tecnología.

Eso parece obvio, pero es algo que no siempre ha sucedido en los últimos tiempos. Ha habido una tendencia a introducir nuevos algoritmos en el mundo rápidamente, realizar experimentos en vivo con personas reales, sin dejar de pensar si están haciendo más daño que bien, y preocuparse por adaptarlos más tarde si se demuestra que son. problemático. (Redes sociales: te estoy mirando).

Creo que la sociedad necesita insistir en que las nuevas tecnologías, como los nuevos productos farmacéuticos, sean cuidadosas y directas con los peores escenarios. Creo que los algoritmos que construimos deben diseñarse para ser honestos acerca de sus debilidades y sinceros acerca de cómo la perfección a menudo es imposible. Pero sobre todo, creo que los algoritmos que construimos deben diseñarse para aceptar nuestros defectos humanos, en lugar de hacerles la vista gorda.

* * *

La ecuacion de justicia
Extraído de «Hello World: Cómo ser humano en la era del libro de máquinas» por Hannah Fry (Doubleday, 2018):

Los algoritmos no pueden decidir la culpa. No pueden sopesar los argumentos de la defensa y el enjuiciamiento, ni analizar las pruebas, ni decidir si un acusado está realmente arrepentido. Así que no espere que ellos reemplacen a los jueces pronto. Lo que puede hacer un algoritmo, sin embargo, por increíble que parezca, es usar datos de una persona para calcular su riesgo de reincidencia. Y, dado que las decisiones de muchos jueces se basan en la probabilidad de que un delincuente regrese a la delincuencia, resulta ser una capacidad bastante útil.

Los datos y algoritmos se han utilizado en el sistema judicial durante casi un siglo, los primeros ejemplos se remontan a la década de 1920 en Estados Unidos. En ese momento, bajo el sistema de los EE. UU., Los delincuentes condenados serían condenados a un plazo máximo estándar y luego serían elegibles para la libertad condicional después de un período de tiempo. Decenas de miles de prisioneros obtuvieron la libertad anticipada sobre esta base. Algunos fueron rehabilitados exitosamente, otros no. Pero colectivamente, presentaron el escenario perfecto para un experimento natural: ¿podrías predecir si un recluso violaría su libertad condicional?

Ingrese a Ernest W. Burgess, un sociólogo canadiense en la Universidad de Chicago con una sed de predicción. Burgess fue un gran defensor de la cuantificación de los fenómenos sociales. A lo largo de su carrera, intentó pronosticar todo, desde los efectos de la jubilación hasta el éxito conyugal, y en 1928 se convirtió en la primera persona en construir una herramienta para predecir el riesgo de comportamiento criminal basado en la medición en lugar de la intuición.

Mediante el uso de todo tipo de datos de tres mil reclusos en tres prisiones de Illinois, Burgess identificó 21 factores que consideró «posiblemente significativos» para determinar si alguien violaría los términos de su libertad condicional. Estos incluían el tipo de delito, los meses cumplidos en prisión y el tipo social del recluso, que, con la delicadeza que uno esperaría de un científico social de principios del siglo XX, se dividió en categorías que incluyen «vagabundo», «borracho» nunca lo haga bien, «granjero» e «inmigrante».

Burgess le dio a cada recluso una puntuación entre cero y uno en cada uno de los 21 factores. Los hombres que obtuvieron puntuaciones altas (entre 16 y 21 años) consideraron que tenían menos probabilidades de reincidir; aquellos que obtuvieron una calificación baja (cuatro o menos) consideraron que probablemente violarían sus términos de liberación.

Cuando a todos los internos se les concedió finalmente la liberación, y así podían violar los términos de su libertad condicional si así lo decidían, Burgess tenía la oportunidad de comprobar qué tan buenas eran sus predicciones. A partir de un análisis tan básico, logró ser notablemente preciso. El noventa y ocho por ciento de su grupo de bajo riesgo hizo un pase limpio a través de su libertad condicional, mientras que dos tercios de su grupo de alto riesgo no lo hicieron. Resultó que incluso los modelos estadísticos crudos podrían hacer mejores pronósticos que los expertos.

Pero su obra tuvo sus críticas. Los espectadores escépticos cuestionaron cuánto podrían aplicarse los factores que predijeron de manera confiable el éxito de la libertad condicional en un lugar a la vez. (Tenían un punto: no estoy seguro de que la categoría ‘granjero’ ayude a predecir la reincidencia entre los delincuentes modernos del interior de la ciudad). Otros académicos criticaron a Burgess por hacer uso de la información disponible, sin investigar si fue relevante También hubo preguntas sobre la forma en que calificaba a los internos: después de todo, su método era poco más que una opinión escrita en ecuaciones. Sin embargo, su poder de pronóstico era lo suficientemente impresionante como para que en 1935 el método de Burgess hubiera llegado a las prisiones de Illinois, para apoyar a las juntas de libertad condicional a tomar sus decisiones. Y a principios de siglo, los descendientes matemáticos del método de Burgess se estaban utilizando en todo el mundo.

Adelantándonos a la modernidad, los algoritmos de evaluación de riesgos de vanguardia utilizados por los tribunales son mucho más sofisticados que las herramientas rudimentarias diseñadas por Burgess. No solo se encuentran para ayudar en las decisiones de libertad condicional, sino que también se utilizan para ayudar a los programas de intervención con los presos, para decidir quién debe recibir la libertad bajo fianza y, más recientemente, para apoyar a los jueces en sus decisiones de sentencia. El principio fundamental es el mismo que siempre fue: entre los hechos sobre el acusado (edad, antecedentes penales, seriedad del delito, etc.) y surge una predicción de lo arriesgado que sería dejarlos sueltos.

¿Asique, como trabajan? Bueno, hablando en términos generales, los algoritmos contemporáneos de mejor rendimiento utilizan una técnica conocida como bosques aleatorios, que, en el fondo, tiene una idea fantásticamente simple. El humilde árbol de decisión.

Pregunte a la audiencia

Puede que estés familiarizado con los árboles de decisiones de tus días escolares. Son populares entre los profesores de matemáticas como una forma de estructurar las observaciones, como lanzamientos de monedas o tiradas de dados. Una vez construido, un árbol de decisiones se puede usar como un diagrama de flujo: tomando un conjunto de circunstancias y evaluando paso a paso qué hacer o, en este caso, qué sucederá.

Imagine que está tratando de decidir si otorgar la libertad bajo fianza a un individuo en particular. Al igual que con la libertad condicional, esta decisión se basa en un cálculo sencillo. La culpa es irrelevante. Solo necesita hacer una predicción: ¿violará el acusado los términos de su acuerdo de fianza si se le otorga la licencia de la cárcel?

Para ayudar con su predicción, tiene datos de un puñado de delincuentes anteriores, algunos de los cuales huyeron o volvieron a reincidir mientras estaban en libertad bajo fianza, otros no. Usando los datos, podría imaginar construir un simple árbol de decisiones a mano, como el que se muestra a continuación, usando las características de cada ofensor para construir un diagrama de flujo. Una vez construido, el árbol de decisión puede pronosticar cómo podría comportarse el nuevo infractor. Simplemente siga las ramas relevantes de acuerdo con las características del infractor hasta que llegue a una predicción. Siempre y cuando se ajusten al patrón de todos los que han ido antes, la predicción será correcta.

Pero aquí es donde los árboles de decisión del tipo que tomamos en la escuela comienzan a caer. Porque, por supuesto, no todos siguen el patrón de los que fueron antes. Por sí solo, este árbol va a tener muchos pronósticos erróneos. Y no solo porque estamos empezando con un simple ejemplo. Incluso con un enorme conjunto de datos de casos anteriores y un diagrama de flujo enormemente complicado para hacer coincidir, el uso de un solo árbol puede ser solo un poco mejor que la suposición aleatoria.

Y sin embargo, si construyes más de un árbol, todo puede cambiar. En lugar de usar todos los datos a la vez, hay una manera de dividir y conquistar. En lo que se conoce como conjunto, primero debe construir miles de árboles más pequeños a partir de subsecciones aleatorias de los datos. Luego, cuando se le presenta un nuevo acusado, simplemente le pide a cada árbol que vote si considera que otorgar la fianza es una buena idea o no. Es posible que no todos los árboles estén de acuerdo y, por sí solos, aún pueden hacer predicciones débiles, pero solo al tomar el promedio de todas sus respuestas, puede mejorar dramáticamente la precisión de sus predicciones.

Es un poco como preguntarle a la audiencia en ¿Quién quiere ser millonario? Una habitación llena de extraños tendrá más razón que la persona más inteligente que conozcas. (La línea de vida «pregunte a la audiencia» tuvo una tasa de éxito del 91 por ciento en comparación con solo el 65 por ciento para «llamar por teléfono a un amigo».) Los errores cometidos por muchos pueden anularse entre sí y dar lugar a una multitud más sabia que la persona. .

Lo mismo se aplica al gran grupo de árboles de decisión que, en conjunto, conforman un bosque aleatorio (juego de palabras). Debido a que las predicciones del algoritmo se basan en los patrones que aprenden de los datos, un bosque aleatorio se describe como un algoritmo de aprendizaje automático, que se encuentra bajo el paraguas más amplio de la inteligencia artificial. ([…] vale la pena notar cuán grandiosa es la descripción, cuando el algoritmo es esencialmente los diagramas de flujo que usaste para dibujar en la escuela, envuelto en un poco de manipulación matemática). Los bosques aleatorios han demostrado ser increíblemente útiles en toda una serie de aplicaciones del mundo real. Los utiliza Netflix para ayudar a predecir lo que te gustaría ver según tus preferencias pasadas; por Airbnb para detectar cuentas fraudulentas; y en la asistencia sanitaria para el diagnóstico de enfermedades.

Cuando se utilizan para evaluar a los delincuentes, pueden reclamar dos enormes ventajas sobre sus homólogos humanos. Primero, el algoritmo siempre dará exactamente la misma respuesta cuando se presente con el mismo conjunto de circunstancias. La consistencia viene garantizada, pero no al precio de la justicia individualizada. Y hay otra ventaja clave: el algoritmo también hace predicciones mucho mejores.

_______________

Extraído de «Hello World: Cómo ser humano en la era del libro de máquinas» por Hannah Fry. Publicado por Doubleday. Copyright © 2018 por Hannah Fry. Todos los derechos reservados.

Read More

Por admin

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.