SAN JUAN, PR – NOVIEMBRE 2019 — En el 2016, Amazon sacó un software llamado Rekognition, que puede “detectar” emociones. Desde el principio, Amazon tuvo muchísimos problemas con este nuevo equipo, la mayoría por estar haciéndole ventas exclusivamente al gobierno y departamentos de la policía en los Estados Unidos. Hace poco Amazon anunció que Rekognition ahora puede detectar miedo, pero, ¿será verdad? Sigue leyendo, porque no es tan sencillo como parece.
De por sí, Rekognition ya podía detectar coraje, tristeza, sorpresa, asco, calma, y confusión. Además, tiene la habilidad de estimar la edad. Otras compañías competidoras tienen programas similares, pero hasta ahora Rekognition es la única en el mercado que dice reconocer el miedo.
Si lees el primer párrafo nuevamente, verás que digo que este equipo “detecta” emociones. Lo digo así, entre comillas, porque este mecanismo solo puede reconocer gestos asociados con ciertas emociones. Esto significa que la persona siendo evaluada puede confundir el sistema, haciendo un gesto o una cara de cualquier emoción, y la computadora le cree a los gestos. O sea, si los que están usando esa tecnología son autoridades como Aduana y Protección Fronteriza, hay posibilidades de que la persona entrevistada haga un gesto porque está nervioso o asustado y termine en problemas sin razón.
Eso es sin mencionar que la exactitud de las lecturas baja cuando se trata de personas de diferentes tonos de piel oscura. Las lecturas son más “precisas” cuando se trata de gente blanca. Yo sé que a estas alturas no tengo que mencionar los daños que esto causaría, pero se los voy a recordar, porque se trata de autoridades poniendo vidas inocentes en peligro.
La cantidad de inmigrantes de diferentes partes del mundo que podrían sufrir las consecuencias de una ola de racismo extremo, es casi incalculable. Se le podría negar entrada o salida de los Estados Unidos, que es la especialidad del presidente anaranjado, por dar un ejemplo. Al momento no se conoce si otros países están utilizando Rekognition, pero hasta ahora solo dos agencias policíacas han confirmado su uso. Desafortunadamente, varias empresas privadas ya le están prestando atención a Rekognition y tomando en consideración su uso para entrevistas y contrataciones. Lo más preocupantes es que, aunque varias compañías se han comido el cuento de que los resultados son exactos, Rekognition se lava las manos en su manual, diciendo:
“[Las lecturas] no son una determinación del estado emocional interno de la persona y no se debería utilizar bajo esa impresión.”
Ya varios estados están aplicando leyes en contra del uso de esta tecnología. San Francisco es uno de los primeros. Incluso, el candidato presidencial democrático, Bernie Sanders, ha pedido que se prohíba su uso. A nivel federal también existe el conflicto moral que plantea este sistema. A cualquiera le preocupa que estas sean las medidas que estamos implementando.
Aunque Amazon puso Rekognition en el mercado, ya se sabe que no es de fiar, y que es un problema adicional para las minorías que ya pelean a diario con el racismo. Es un total descaro que Amazon se atreva a poner en el mercado un producto que desde ya está prejuiciado en sus conclusiones, porque funciona mejor con los blanquitos.
Hay una buena razón por la cual los investigadores estudiamos y nos especializamos en microexpresiones, porque no es tan sencillo como ver que la persona mueve una ceja y ya por eso decidir que uno sabe lo que esta pensando. En todo esto hay unas técnicas y un arte, y obviamente Amazon no se preocupó por añadirle esas cosas a su programa. Espero que repudiemos este esfuerzo tan descarado de querer hacer sentir a la gente como si sus emociones pudieran ser su perdición.
Fernando Fernández, LPI, BAI, CCDI, CDRS, CII, CAS, CHS-II
Presidente - Covert Intelligence, LLC
Comments