Saltar al contenido
Compartimos Cosas Buenas – seresponsable.com

Cómo el reconocimiento facial es una herramienta engañosa

Mientras las grandes compañías IT hacen una pausa para el desarrollo de vigilancia con reconocimiento facial, otras compiten por comercializarla.

Inteligencia artificial para reconocimiento de caras

Cuando el movimiento Black Lives Matters tuvo fuerza y se replicó en otros países, IBM decidió abandonar por completo el negocio de reconocimiento facial (FR). Amazon anunció una moratoria de un año sobre el uso policial de su software FR, Rekognition, y Microsoft declaró que haría lo mismo hasta que haya una ley federal para regular la tecnología de reconocimiento facial.

Esto fue celebrado por muchos como un paso importante dado que esta tecnología se está convirtiendo rápidamente en una de las herramientas de vigilancia más poderosas jamás inventadas. Además de las implicaciones de privacidad de requerir bancos de datos masivos de rostros para que la tecnología sea efectiva, se ha demostrado que refuerza el sesgo de raza y género.

Cómo funciona el software de reconocimiento facial y de las cosas

Con las etiquetas personalizadas de Amazon Rekognition puede extender la detección de capacidades de Amazon Rekognition para extraer información de imágenes que son útil únicamente para su negocio. Por ejemplo, puede encontrar su logotipo corporativo en las redes sociales, identificar sus productos en los estantes de las tiendas, clasificar las piezas de su máquina en una línea de montaje o detectar sus personajes animados en videos.

En una prueba, la ACLU realizó recientemente la herramienta de reconocimiento facial, llamada “Rekognition“, el software coincidió incorrectamente con 28 miembros del Congreso, identificándolos como otras personas que han sido arrestadas por un delito. 

Con Amazon Rekognition, puede identificar miles de objetos (por ejemplo, bicicleta, teléfono, edificio) y escenas (por ejemplo, estacionamiento, playa, ciudad). Cuando analiza videos, también puede identificar actividades específicas como “entrega de un paquete” o “partido de fútbol” Pero ¿Qué tan certera es la información enviada por un software de Reconocimiento Facial y de Cosas?

En 2019 un estudio de Rekognition por los investigadores Inioluwa Deborah Raji (Universidad de Toronto) y Joy Buolamwini (MIT) llegaron a la conclusión de que el software clasificaba erróneamente el género de las mujeres de piel más oscura el 31,4% (frente al 0% para los hombres de piel más clara). 

Y aunque es desgarrador que el asesinato de George Floyd y el descontento mundial masivo de las grandes compañías cuestionen cómo su tecnología refleja y contribuye a las injusticias sistémicas, más tarde siempre es mejor que nunca. Sin embargo, se necesita hacer mucho más para corregir el uso del Reconocimiento Facial.

Somos los usuarios los que damos nuestra cara a cambio de nada y poniendo en riesgo mucho

Igualmente preocupante es el hecho de que los consumidores están regalando esta información a medida que integran alegremente la tecnología FR en su vida diaria. Cuando se trata de equilibrar la facilidad de uso con las preocupaciones de privacidad, los consumidores casi siempre eligen la primera. Dejamos nuestros datos personales en las redes sociales y preferimos los sistemas de identificación biométrica a las contraseñas.

Con esta tecnología inevitablemente llegando a manos públicas y privadas, es hora de establecer ciertas barreras de protección para proteger a la sociedad.

¿Cómo pude la sociedad ser partícipe del uso legal del Reconocimiento facial?

  • Primero, necesitamos un sistema que proteja las libertades civiles: las personas deben recibir información clara sobre cuándo y cómo se está utilizando FR. Y deben tener la opción de optar por no participar y apelar contra los daños / sesgos del algoritmo, o incluso responsabilizar al fabricante del sistema, no solo a la entidad gubernamental o comercial que lo utiliza.
  • En segundo lugar, necesitamos mejorar rápidamente la representatividad de los datos que utilizan estos sistemas y la precisión de sus recomendaciones. Idealmente, cada empresa debería comunicarse abierta y activamente sobre cómo está luchando contra los prejuicios inherentes de sus conjuntos de datos y eliminando falsos positivos y negativos. Los medios y la sociedad en general deberían responsabilizarlos. Desafortunadamente, es probable que los gobiernos requieran que las compañías tecnológicas hagan que su código y sus datos sean accesibles a las auditorías para que se produzca cierta transparencia.

No hay duda de que la tecnología FR está llegando. Muchas de las compañías tecnológicas que trabajan en él están tratando de encontrar el equilibrio adecuado entre el progreso tecnológico, los intereses comerciales y la ética. Más que nunca, es fundamental que nosotros, como ciudadanos, usuarios y consumidores, les recordemos que mantengan el interés de la humanidad sólidamente en el centro de la tecnología que están construyendo y las elecciones estratégicas que están tomando. No necesitamos menos tecnología, necesitamos más tecnología ética y empática.

@SeResponsable – Blog de noticias hoy. Trending México.