Home Noticias de Películas La inteligencia artificial haciendo realidad *Minority Report* demuestra el fracaso de las películas de ciencia ficción como advertencia.

La inteligencia artificial haciendo realidad *Minority Report* demuestra el fracaso de las películas de ciencia ficción como advertencia.

by SerieManiaco

A principios de este mes, el Ministerio de Seguridad de Argentina anunció la creación de una “Unidad de Inteligencia Artificial Aplicada a la Seguridad”, una fuerza especial cuya misión será “utilizar algoritmos de aprendizaje automático para analizar datos históricos de delitos, predecir crímenes futuros y ayudar a prevenirlos”. Puedes leer el anuncio original en español [aquí](https://www.argentina.gob.ar/noticias/se-creo-la-unidad-de-inteligencia-artificial-aplicada-la-seguridad).

Independientemente de los argumentos a favor o en contra de la creación de esta nueva unidad de lucha contra el crimen, muchos de los lectores más humorísticos al ver el titular de esta historia se saltaron el artículo por completo para publicar GIFs animados de Tom Cruise operando lo que parece ser un Xbox Kinect. Porque si lees la frase “predecir crímenes futuros”, inevitablemente pensarás en *Minority Report*, la adaptación dirigida por Steven Spielberg y protagonizada por Tom Cruise de la historia de Philip K. Dick, *The Minority Report*. Después de todo, la inteligencia humana realmente no es tan útil para mucho más que jugar al Snap.

Sin embargo, vale la pena señalar que esta no es la primera vez que *Minority Report* se convierte en realidad. En caso de que te lo hayas perdido, hace un par de años, la Universidad de Chicago utilizó datos públicos para predecir crímenes una semana antes de que ocurrieran, con, según afirmaron, un 90% de precisión. Y en 2018, la Policía de West Midlands en el Reino Unido estaba investigando una “Solución Nacional de Análisis de Datos (NDAS)” que utilizaría una “combinación de IA y estadísticas” para predecir crímenes violentos.

Además de las referencias a *Minority Report*, historias como esta también tienden a invitar a la re-compartición de un post hecho por el escritor Alex Blechman hace tres años:

“Autor de ciencia ficción: En mi libro inventé el Torment Nexus como una advertencia.

Compañía de tecnología: Por fin, hemos creado el Torment Nexus de la clásica novela de ciencia ficción *Don’t Create The Torment Nexus*.”

Hay algo de verdad en esto. Así como la ciencia ficción esperanzadora, como *Star Trek*, ha inspirado tecnología en la vida real con sus comunicadores, hyposprays y tricorders, su contraparte distópica ha proporcionado muchas advertencias que han llevado a la gente a pensar: “Eso es genial, y voy a pagar para que suceda”. Solo hay que ver toda la investigación de los últimos 30 años sobre si es posible hacer un parque temático de dinosaurios.

Pero gritar *Minority Report* cada vez que alguien decide probar esta tecnología es un problema, al punto que el valor de *Minority Report* como comentario social comienza a desmoronarse. Déjanos explicar.

### El Informe Mayoritario

El primer punto es que en *Minority Report*, la policía no ha creado realmente una IA que pueda predecir cuándo ocurrirán los crímenes. En *Minority Report*, el MacGuffin que permite a la “Policía Pre-Crimen” no es un ordenador, sino tres mutantes psíquicos atrapados en una bañera. Y estamos mucho más lejos de desarrollar tecnología de mutantes en bañeras de lo que podrías pensar.

Un análogo más cercano al tipo de tecnología pre-crimen que aparece repetidamente en los titulares es el programa de televisión *Person of Interest*. Uno de los programas más post-11S que podrías imaginar, *Person of Interest* nos presenta a un inventor que desarrolla una IA que puede predecir el futuro con un 100% de precisión. El gobierno quiere usarla para predecir y prevenir ataques terroristas, pero cuando el inventor descubre que el gobierno está descartando predicciones de otros asesinatos y crímenes violentos, se convierte en vigilante.

Tanto en *Minority Report* como en *Person of Interest*, cualquier intento de usar estas historias para analizar cómo se podrían aplicar estas tecnologías en el mundo real se desmorona rápidamente debido a una diferencia crucial: en la ficción, estas tecnologías funcionan.

No es sorprendente que después del 11S hubiera mucha gente interesada en usar ordenadores para analizar datos y predecir quién se convertiría en terrorista. Muy rápidamente, estas soluciones se encontraron con un problema (es un debate para otro momento si esto fue realmente un «problema» según las personas que implementaban estas soluciones): hay muchas más personas que cumplen con los criterios de «posible terrorista» que terroristas reales. Alguien que está enojado por la política y está comprando una gran cantidad de fertilizante puede estar planeando construir una bomba. Pero es mucho más probable que estés arrestando a un hombre inocente que simplemente quiere estar informado sobre los eventos actuales y que disfruta de la jardinería. Por supuesto, los criterios para estas predicciones no se limitan a los que compran fertilizantes: también incluyen características demográficas. La línea entre «policía predictiva» y «perfil racial» es tan borrosa que es prácticamente imposible de ver.

Un ejemplo específico en la vida real ocurrió en Chicago en 2013 cuando un hombre negro llamado Robert McDaniel apareció en la lista de «calor» predictiva de la policía de Chicago. Al igual que en *Person of Interest*, el sistema que utilizaba la policía pronosticaba que McDaniel estaría involucrado en un crimen violento, pero no podía decir si sería el tirador o la víctima. Así que la policía fue a hablar con él.

Dado que McDaniel era un hombre negro en un barrio pobre que había tenido problemas con la policía antes por delitos relacionados con la marihuana y el juego callejero, pero nada violento, algunos vecinos levantaron sospechas cuando lo vieron siendo visitado por la policía, pero no arrestado.

McDaniel se encontró bajo vigilancia policial constante mientras sus amigos comenzaban a distanciarse. La gente asumió que estaba informando a la policía, y las afirmaciones de McDaniel sobre una lista de «calor» predictiva sonaban a ciencia ficción. Eventualmente, estas sospechas llevaron a que lo dispararan.

Es irónicamente deprimente y amargamente irónico. Casi como una mala historia de ciencia ficción. El algoritmo diseñado para prevenir un crimen causó el mismo crimen que predijo y un hombre inocente fue herido.

Excepto que no es tan inteligente. A pesar de todo el aparataje de IA que utilizan estas tecnologías, el hecho es que los criterios de selección inevitablemente incorporan los sesgos de las personas que los ordenan. Toma esta historia, sobre un programa de ordenador que analizó a dos personas involucradas en un crimen idéntico, pero predijo que el hombre negro era más propenso a reincidir.

Por supuesto, *Minority Report* y *Person of Interest* son ciencia ficción, y como regla general, a la gente le gusta que la tecnología en su ciencia ficción funcione. Nadie quiere leer un libro sobre una máquina del tiempo que puede viajar al futuro a una velocidad de un segundo por segundo.

Pero, al igual que estos supuestos programas de pre-crimen, ambas historias tienen sesgos incorporados.

### Pre-crimen, no Pre-justicia

El inicio de *Minority Report* muestra a un hombre que llega temprano a casa y encuentra a su esposa durmiendo con otro hombre, agarra un par de tijeras de la mesita de noche y los asesina a ambos, o al menos lo haría si Tom Cruise no hubiera intervenido heroicamente para detenerlo.

El asesino potencial es arrestado por crímenes que habría cometido y es puesto en una cápsula de animación suspendida para siempre.

Ahora, incluso asumiendo un sistema de predicción del crimen 100% funcional y preciso sin ningún molesto «informe minoritario» (el único informe discrepante que es la única concesión de la historia a la idea de que podría no ser completamente preciso), todavía estás frente a una cantidad considerable de problemas legales y de derechos humanos antes de que este sea un sistema viable.

Este fue un crimen pasional, cometido en el momento, que nunca ocurrió. ¿Por qué se da por hecho que la policía debería irrumpir, golpear a este hombre y ponerlo en un coma inducido, en lugar de, por ejemplo, irrumpir, calmarlo y ofrecerle un curso de asesoramiento?

*Person of Interest*, con sus créditos de apertura y tomas de metraje de CCTV intercaladas entre escenas, se presenta como un comentario sobre el panóptico de vigilancia ubicuo en el que vivimos, pero el principal problema de los personajes con la forma en que el gobierno usa la tecnología de vigilancia definitiva es que no la usan lo suficiente. Probablemente no sea una coincidencia que *Person of Interest* esté escrita por Jonathan Nolan, el hermano de Christopher Nolan que nos dio *The Dark Knight* y su mensaje de «la tecnología de vigilancia total es malvada y opresiva, pero está bien que Batman la use solo esta vez, como un regalo».

Un debate que debería tratar sobre el exceso de poder policial y el derecho a la privacidad se disuelve rápidamente en hipótesis burdas al estilo de *24*, del tipo “Está bien, pero ¿qué pasaría si hubiera un bebé atado a una bomba nuclear?”. Ya sea de manera intencionada o no, ambas historias de pre-crimen terminan actuando casi como propaganda para el tipo de vigilancia total y el severo abuso policial que supuestamente existen para criticar.

Pero este es un problema que vemos repetirse una y otra vez en todo el género de la ciencia ficción.

You may also like

Este sitio usa cookies para mejorar tu experiencia. Si estas de acuerdo pulsa aceptar. Puedes saber mas en el enlace que dejamos. Aceptar saber más