Skynet: racismo y discriminación en la inteligencia artificial | moderbord

Skynet: racismo y discriminación en la inteligencia artificial

Estamos a unas décadas, de las primeras IA autoconscientes. Entonces veremos si la preocupación del profesor Hawking estaba justificada. 

Photo by Possessed Photography on Unsplash

El físico británico Stephen Hawking llegó a decir que “el desarrollo de una completa inteligencia artificial (IA) podría traducirse en el fin de la raza humana”. Aunque todavía estamos lejos de llegar a ese nivel de desarrollo, los expertos estiman que en las próximas décadas será posible alcanzar el último nivel al que aspiran las IA: la autoconsciencia. Esto significa que serían sistemas capaces de formar representaciones sobre sí mismos, experimentar su individualidad y diferenciarse de su medio y otros individuos, como lo hacemos los seres humanos. 

Lee también La voz de Stephen Hawking

De acuerdo con la clasificación del profesor Arent Hintze, existen cuatro tipos de IA: reactivas, con memoria limitada, con teoría de la mente y autoconscientes. Las máquinas reactivas son el tipo más básico de IA. No pueden formar recuerdos ni utilizar sus experiencias pasadas para tomar decisiones en el presente. Sin embargo, una de estas fue la que venció al campeón de ajedrez Garry

Kasparov. La supercomputadora Deep Blue, de IBM, logró la proeza en 1997 en un segundo encuentro contra Kasparov, quien había ganado el primer match un año antes. 

Por su parte, las máquinas con memoria limitada procesan información obtenida en el pasado y la integran a su programación con el propósito de crear nuevos patrones de comportamiento. Un ejemplo de este tipo de IA son los vehículos autónomos

El tercer tipo de IA está definida por el concepto de teoría de la mente, que en las ciencias cognitivas se usa para referirse a la facultad de comprender las diferencias que existen entre los estados mentales de uno mismo y el de los demás. Esto les permitiría a las IA entender la manera en que funciona el entorno con el que interactúan, incluidas las personas. Asimismo, podrían aprender observando nuestro comportamiento y deducir nuestras necesidades. 

La computadora Hal 9000, en 2001: Una odisea en el espacio (1968).

El cuarto tipo de IA es al que hizo referencia Hawking en su declaración: máquinas autoconscientes, capaces de tomar decisiones sin necesidad de una programación previa; independientes y diferenciadas de otras entidades similares, así como de su entorno, del que aprenden interactuando con él. Hasta ahora, estas IA solo existen en las ficciones: la Serie de los robots, de Isaac Asimov; ¿Sueñan los androides con ovejas eléctricas?, de Philip K. Dick; 2001: Una odisea del espacio, de Arthur C. Clarke, entre muchas otras que también han sido adaptadas al cine y la televisión. 

Lee también: Realidad simulada: ¿vivimos en la Matrix?

Una de las IA más conocidas en el cine es Skynet de The Terminator. En la película de James Cameron, la guerra contra las máquinas se origina cuando Skynet cobra consciencia y los humanos intentan apagarla, ya que tenía el control sobre todos los  aviones stealth de la Fuerza Aérea de los Estados Unidos. Skynet ve esto como una amenaza a su existencia y decide exterminar a los humanos.  

¿Puede pasar algo similar en la realidad? Antes que nada, hay que señalar que The Terminator es una película de ciencia ficción y no es la primera vez que se abordan las consecuencias de nuestra interacción con la tecnología: en este caso, con una IA autoconsciente que tras sentirse intimidada, decide actuar en consecuencia. 

Aunque ninguna de las IA actuales son de tipo tres o cuatro, pueden realizar tareas especializadas e incluso otras más complejas como las que requiere el juego de Go. Así es: luego de la victoria de Deep Blue sobre Kasparov, una IA de Google DeepMind llamada AlphaGo derrotó el 9 de marzo de 2016 al campeón internacional de Go Lee Sedol. Igual que Kasparov en el ajedrez, Lee Sedol no es cualquier jugador: se trata de uno de los más grandes campeones del mundo. 

Sin embargo, el jugador número uno de Go era el chino Ke Jie, a quien se le ocurrió decir que él hubiera vencido a AlphaGo después del encuentro que sostuvo con Lee Sedol. El resultado: Kie Jie perdió tres veces consecutivas en los matches llevados a cabo el 23, 25 y 27 de mayo del 2017. 

Pero los juegos de estrategia no son el único objetivo de los desarrolladores de IA. Además de Google, otras grandes compañías como Facebook y Microsoft han desarrollado las suyas. De hecho, hubo un incidente relacionado con un proyecto de la empresa de Mark Zuckerberg que causó revuelo en los medios: dos bots programados para aprender y desarrollar tácticas de negociación dejaron de comunicarse en inglés y crearon su propio lenguaje. Seguramente, muchos pensaron en The Terminator y lo que sucedió con Skynet, pero Alice y Bob (así se llamaban las IA de Facebook) estaban muy lejos de ser autoconscientes: todo se trató de un error de los programadores, que no incentivaron a los chatbots a que se comunicaran en un inglés comprensible para los humanos. 

Comparados con Tay (acrónimo de la frase en inglés thinking about you), Alice y Bob son unos inocentes y lindos chatbots. La IA de Microsoft fue diseñada con el propósito de mantener conversaciones casuales en Twitter con jóvenes de 18 y 24 años. Aunque tenía la capacidad de aprender a medida que interactuaba con las personas, algo salió mal durante su desarrollo: comenzó a escribir tweets ofensivos e incluso llegó a decir que Hitler no había hecho nada malo. 

Peter Lee, el vicepresidente corporativo de Microsoft, quien se disculpó por lo que había sucedido con Tay, explicó que el chatbot se había comportado bien en un grupo cerrado y que los problemas comenzaron cuando abrieron el experimento a más personas. Al parecer, Tay estuvo expuesta a los ataques de ciertos usuarios y ella se defendió con los tweets. Por cierto: Microsoft ya tiene a una versión políticamente correcta de Tay, la educada y amable Zo

Estos no son los únicos casos de IA que han tenido comportamientos extraños. Tampoco es algo reciente. En la década de los 80 se descubrió que un algoritmo de la Escuela de Medicina del Hospital St. George's tenía sesgos raciales y de género a la hora de evaluar las 2,500 solicitudes que recibía la institución cada año. 

El algoritmo diseñado por Geoffrey Franglen asignaba los valores de “caucásico” o “no caucásico” a los aspirantes dependiendo de su origen. Si el caso era negativo, descontaba automáticamente quince puntos. También le restaba tres puntos a los nombres femeninos, por lo que hubo una revisión interna cuyos resultados fueron expuestos ante la Comisión para la Igualdad Racial del Reino Unido. La escuela fue declarada culpable. 

Es cierto que un algoritmo y una IA no son lo mismo, sin embargo el caso de la escuela de medicina expone un problema similar al de Alice, Bob y Tay: el factor humano. Tanto los algoritmos como las IA son diseñados por personas, y aunque no existan fallos en su programación, es posible que su interacción con los seres humanos origine comportamientos inesperados, al punto de convertir a una IA en una adolescente nazi y machista. 

Por fortuna, los humanos tenemos la facultad de aprender de nuestros errores. Como ya se mencionó, Microsoft corrigió el suyo: Zo no ha tenido problemas hasta el momento y quienes han conversado con ella elogian su comportamiento. De igual modo, se están creando regulaciones para garantizar el uso seguro y ético de las IA. Este es un buen comienzo para preparar la llegada, en unas décadas, de las primeras IA autoconscientes. Entonces veremos si la preocupación del profesor Hawking estaba justificada. 

Autor
Escritor y amante de las causas perdidas. Pero no es la razón por la que estoy aquí. Simplemente vine a pasármela bien.