Mostrando entradas con la etiqueta RECONOCIMIENTO FACIAL. Mostrar todas las entradas
Mostrando entradas con la etiqueta RECONOCIMIENTO FACIAL. Mostrar todas las entradas

jueves, 6 de agosto de 2020

Las Mascarillas no sólo evitan el contagio: también Perturban Algoritmos de Reconocimiento Facial


Por si se necesitarán más razones para usar mascarillas, un estudio reciente muestra que cubrir la cara con algunas de estas mascarillas produce errores en los mecanismos de reconocimiento facial.

El Instituto Nacional de Estándares y Tecnología de los Estados Unidos observó que usar una mascarilla de manera adecuada puede afectar entre un 5% y 50’% la efectividad de la tecnología usada comúnmente para detectar la identidad de una persona.

Esta tecnología, basada en cámaras de vigilancia y programas informáticos de reconocimiento, se ha vuelto ubicua en muchas partes del mundo y es considerada esencial para lo que se ha llamado «vigilancia global» o «capitalismo de vigilancia», el cual es motivo de controversia para muchas personas. 




Por una parte puede ser de gran utilidad para controlar el crimen o para seguir a los ciudadanos en una crisis, pero por otro lado permite que gobiernos y otros organismos establezcan un fuerte control de los ciudadanos, reciban grandes cantidades de métricas, incremente su poder y reduzcan la privacidad y la libertad individual.

 Sólo como ejemplo, hace casi un año el gobierno del Reino Unido anunció sus planes de que en el aeropuerto internacional de Heathrow, en Londres, la identificación con pasaporte sería sustituida gradualmente por el reconocimiento facial.

El estudio mencionado arrojó todo tipo de datos interesantes, como el hecho de que las mascarillas negras causan más errores que las azules y que, obviamente, entre más se cubre la nariz menos logran los algoritmos identificar el rostro. Asimismo, dicho análisis sugiere que el porcentaje de error podría ser mayor cuando se intenta reconocer rostros entre masas de personas.

Si bien esta contrariedad es una suerte de «respiro» para quienes están en contra de la vigilancia tecnológica, en cambio, la misma ha generado una reacción adversa entre las compañías que se dedican a desarrollar este tipo de tecnología y que, en los últimos años, han invertido una buena cantidad de recursos en perfeccionarla. 

En respuesta a ello, algunas compañías se han volcado a desarrollar tecnología capaz de identificar a una persona con sólo tener acceso al área de los ojos.


agosto 6, 2020

https://pijamasurf.com/2020/08/las_mascarillas_no_solo_evitan_el_contagio_tambien_perturban_algoritmos_de_reconocimiento_facial/

miércoles, 29 de enero de 2020

El Reconocimiento Facial en tiempo real llega a Europa: Londres será la primera ciudad en utilizarlo

El pasado viernes, la policía londinense anunció que comenzaría a utilizar un sistema de reconocimiento facial para mejorar la identificación de los delincuentes peligrosos. 

Y, aunque subrayan que su intención es mejorar las dinámicas de trabajo, una parte de la sociedad civil ve en esta decisión una vulneración de la privacidad de los ciudadanos.

Nueva medida. Londres se convierte en la primera ciudad europea en implantar cámaras de videovigilancia con reconocimiento facial. 

Esta nueva tecnología de origen japonés tiene la capacidad de detectar las medidas de las facciones de la cara de cada individuo, lo que permitirá a la policía registrar en tiempo real la identidad de cada uno de los sospechosos fichados previamente.





La idea es que estas cámaras estén ubicadas en lugares donde la policía considera más probable localizar a delincuentes peligrosos.

¿A qué se debe? Según ha informado la policía metropolitana en este comunicado, se ha detectado un aumento de la delincuencia que requiere perfeccionar las labores de vigilancia e identificación. 

Resultado de imagen de reconocimiento facialAdemás, han asegurado que esta nueva tecnología no solo les ayudará a dinamizar su trabajo, sino también a abordar delitos graves como la explotación infantil o aquellos donde entren en juego armas de fuego. Igualmente, les permitirá prestar atención al incremento de otro tipo de delitos, como los perpetrados con arma blanca que han aumentado en 2019.


Respuesta civil y judicial dividida. Por un lado, la parte de la ciudadanía representada por asociaciones como Big Brother Watchconsidera que esta medida vulnera las libertades civiles al expandir el estado de vigilancia.

 Esta misma preocupación es la que ha expresado el departamento de privacidad del gobierno a través de un informe, donde no comparte el uso de esta tecnología en las calles. Sin embargo, el pasado 2019, un juzgado británico falló a favor del reconocimiento facial, afirmando que no existía violación de la privacidad ni de los derechos humanos.

Influencia china. En 2017, la potencia asiática contaba con 170 millones de cámaras de seguridad a lo largo del país, un número al que este 2020 quieren sumar otros 400 millones más. Pero lo que caracteriza al sistema de inteligencia artificial chino no solo es la cantidad, sino su propio alcance cualitativo. 

Las cámaras son capaces de localizar a una persona concreta en tan solo siete minutos, evidenciando la rapidez con la que pueden estimar la edad, la raza o el género de cada uno de los ciudadanos registrados por las cámaras.

San Francisco las prohíbe. La ciudad perteneciente al estado de California se plantó ante la irrupción de esta tecnología en sus calles.

A pesar de que el reconocimiento facial desarrollado para Londres también está presente en países como Georgia y en ciudades indias como Surat, San Francisco ha decidido prohibir el uso en su ámbito geográfico tanto a empresas como a organismos gubernamentales.

Así, la justificación «apoyamos a la Policía, pero no un estado policial» se extendió también a otras ciudades californianas como Oakland o Berkeley.


enero 29, 2020


https://magnet.xataka.com/en-diez-minutos/reconocimiento-facial-tiempo-real-llega-a-europa-londres-sera-primera-ciudad-utilizarlo

martes, 21 de enero de 2020

El FBI puede Saber Todo sobre tu vida con Sólo una Foto de tu Cara

Internet está lleno de información nuestra. Lo peor de todo es que somos nosotros los que estamos publicando esa información, y en el caso de que tengamos cuentas de redes sociales como Twitter o Instagram abiertas, cualquier persona puede ver nuestras fotos o ver nuestros tweets. Y el FBI lo está aprovechando para identificar a personas.

Clearview AI: base de datos de 3.000 millones de fotos

Así, la agencia no sólo afirma poder desbloquear hasta el iPhone más moderno, sino que también puede conocer el nombre, la dirección, y otros detalles de cualquier persona con sólo tener una foto suya. Para ello, utilizan un software desarrollador por Clearview AI, con un avanzado sistema de reconocimiento facial.

Y no sólo el FBI lo está usando, sino todas las autoridades relacionadas con la seguridad en Estados Unidos. Lo que hace el software es buscar por todo Internet información relacionada con esa cara que ha fotografiado, incluyendo redes sociales como Facebook, Twitter, Instagram, YouTube, Venmo, y muchas otras, a pesar de que redes como Twitter prohíben el uso de sus imágenes para mejorar el reconocimiento facial. 





Con ello, casi seguro que obtendrá nuestro nombre, y a partir de ahí pueden cruzar otras fuentes de datos para encontrar la dirección o el número de teléfono si no los encuentran en redes.

Clearview AI cuenta con una base de datos de 3.000 millones de fotos, siendo ese uno de los motivos que les llevó a utilizar la base de datos de la empresa. Por el contrario, la base de datos del FBI “sólo” cuenta con casi 650 millones, obtenidas a través de pasaportes o carnets de conducir. De momento ya hay más de 600 agencias en Estados Unidos que la usan. 

El primer crimen que resolvieron fue de una pelea de dos hombres en un parque, donde el programa identificó la cara de uno de los hombres en otro vídeo en el que se enlazaba a su perfil en la red social. Ese hombre no aparecía en las bases de datos en Estados Unidos, por lo que habría sido muy difícil arrestarle sin la IA.

Así, la policía o el FBI pueden coger cualquier foto de un sospechoso de cualquier tipo de crimen, desde terrorismo hasta el robo de una tienda, e identificar a la persona con relativa facilidad.

Las autoridades no saben todos los detalles de cómo funciona el programa, pero ya se ha usado para arrestar a gente relacionada con robos en tiendas, robo de identidad, fraude de tarjetas bancarias, asesinatos y casos de abuso sexual.

La UE y Google han parado el desarrollo de esta tecnología

Mientras, en la Unión Europea, todo software relacionado con el reconocimiento facial ha sido prohibido durante un periodo de cinco años para dar tiempo a que se cree una regulación que permita evitar abusos en el futuro de este tipo de tecnología, ya que si cae en las manos equivocadas puede generar muchísimos problemas.

De hecho, la propia Google afirmó en 2011 que la única tecnología en la que habían decidido no avanzar era el reconocimiento facial porque en el futuro podría usarse para todo tipo de actividades maliciosas.

El New York Times, que es quien ha revelado la existencia de este software, ha podido asomarse a su código para descubrir también que está preparado para poderse usar con gafas de realidad aumentada, de manera que podría identificarse a cualquier persona que se vea en la calle como si del juego Watchdogs se tratase. El periodista comprobó además cómo la empresa podía acceder a esos datos, y lo usaron para monitorearle.

Esto es realmente peligroso, ya que puede usarse para identificar a personas en protestas tal y como está ocurriendo en Hong Kong. Los peligros pueden ir aún más lejos, como un policía que quiera conocer el pasado de una posible nueva pareja, o que gobiernos lo usen para chantajear a personas. .

Sin embargo, como bien dice la empresa, es difícil parar el avance tecnológico a pesar de que esta tecnología pueda usarse para identificar a cualquier persona.





Actualmente tienen una tasa de acierto del 75% con las fotos que la policía y otras agencias suben al servicio, aunque la tasa dicen que sería mayor si las cámaras de seguridad estuvieran a la altura de los ojos, que es donde la mayoría de fotos se toman. La IA puede también identificar a personas de lado o que tengan parte de la cara tapada, pero tiene algunas dificultados para la vista desde arriba.

Escrito por Alberto García

enero 21, 2020
https://www.adslzone.net/2020/01/20/clearview-ai-fbi-reconocimiento-facial/

jueves, 3 de octubre de 2019

El 666 se va a desatar por toda la tierra por esto: El Reconocimiento Facial y el Anticristo






miércoles, 15 de mayo de 2019

San Francisco se convierte en la primera ciudad en Prohibir el Reconocimiento Facial

Foto: BBC

En medio del creciente debate sobre los riesgos de privacidad que conlleva el uso de la tecnología de reconocimiento facial por parte de los gobiernos, la ciudad de San Francisco, en EE.UU., se ha convertido en la primera del mundo en prohibir su utilización.

San Francisco a la vanguardia

La Junta de Supervisores de San Francisco votó ayer a favor de un proyecto de ley que prohíbe al gobierno de la ciudad aplicar la tecnología de reconocimiento facial. La medida se produce mientras los reguladores de la ciudad implementan un plan más riguroso de supervisión de otras tecnologías de vigilancia, incluyendo cámaras de tránsito y lectores de matrículas.





Según The Wall Street Journal, se llevará a cabo una segunda votación sobre esta ordenanza, aunque la votación de hoy fue de 8 a 1 y se considera prácticamente aprobada.

El proyecto de ley, llamado ‘Ordenanza de Detención de Vigilancia Secreta’, es el primero de su tipo en aprobarse en EE.UU., mientras que los reguladores de California, Oakland, Massachusetts, Somerville, entre otras ciudades, han manifestado su intención de aplicar prohibiciones similares.

Apple presenta nuevo lema: ‘Privacidad. Eso es iPhone’

Es importante aclarar que la prohibición se limita únicamente al uso del reconocimiento facial por parte del gobierno local, lo que quiere decir que las compañías que utilizan la tecnología para obtener más información de sus clientes no entran en la normativa.

Tampoco están incluidos en la ley, la policía del estado, la policía federal y el Aeropuerto Internacional de San Francisco, cuya tecnología de reconocimiento facial está en manos de la administración Trump.

Uno de los aspectos positivos del proyecto de ley es que permitirá a las personas dar su aprobación antes de que las agencias del gobierno decidan implementar tecnologías de vigilancia, incluyendo cámaras biométricas, software de vigilancia basado en Inteligencia Artificial (IA), etc.

La aprobación de esta ley es un paso positivo para los derechos civiles, teniendo en cuenta que diversas tecnologías de reconocimiento facial han incurrido previamente en violaciones a la privacidad e incluso en discriminación racial.

De hecho, compañías tecnológicas como Google, Amazon y Microsoft, están bajo ataque por su presunta conexión con el Gobierno de EE.UU. para la venta de esta tecnología.

mayo 15, 2019

jueves, 21 de febrero de 2019

La empresa que le ayuda a China a Controlar “todos los movimientos” de 2,5 millones de personas

Resultado de imagen de La empresa que le ayuda a China a Controlar “todos los movimientos” de 2,5 millones de personasUn investigador holandés descubrió una fuga de datos de una empresa china especializada en reconocimiento facial. Ello le llevó a información detallada de más de 2 millones de personas.

Desde el nombre y la dirección de una persona o el lugar dónde trabaja, hasta los lugares que visita.

Un investigador holandés en seguridad informática descubrió cómo una empresa china almacenaba datos detallados de más de 2,5 millones de personas en el país asiático, según reveló él mismo por Twitter y contó posteriormente al servicio chino de la BBC.

Se trata de la empresa SenseNets, creada en 2015 y especializada en inteligencia artificial.

Entre sus clientes o socios, se encuentra la policía de diferentes provincias o ciudades de China, según se precisa en su página web.

Victor Gevers, quien descubrió la fuga de datos de la firma y se define a sí mismo como “hacker” en Twitter, explicó a la BBC que cualquiera pudo acceder a esa información durante meses, desde julio de 2018.





<
También dijo que gran parte de los datos de SenseNets se registraron en la región autónoma de Xinjiang (también denominada Sinkiang), y parte de la información corresponde a ciudadanos de etnia uigur y otras minorías musulmanas que habitan en esta zona del oeste de China.

Xinjiang está en el punto de mira internacional después de que organizaciones de derechos humanos e incluso expertos de la ONU denunciaran el internamiento masivo de uigures y otros ciudadanos musulmanes en “campos de adoctrinamiento”.

Pekín, por su parte, defiende los controles impuestos en la zona y la creación de “centros educativos” en aras de acabar con el “terrorismo” y el “extremismo religioso”.

China asegura que Xinjiang está bajo amenaza de militantes islamistas y separatistas que planean ataques e incentivan las tensiones entre la minoría uigur musulmana y la etnia han, mayoritaria en el país y predominante en el gobierno.


El “hallazgo”

Gevers, quien trabaja para la organización sin ánimo de lucro GDI Foundation, publicó su “hallazgo” la semana pasada a través de una serie de comentarios en Twitter.

El especialista alertó sobre el error de protección de datos de la compañía y detalló que cualquier personapodía acceder a la información personal de las más de 2,56 millones de personas que aparecían en esa base y que contenía desde sus números de identificación personal hasta sus empleos o fotografías de reconocimiento facial.

Getty ImagesLos uigures son musulmanes y se ven a sí mismos como una etnia y cultura más cercana a las naciones de Asia Central que a China.

Una muestra de los nombres recogidos por Gevers de la base de datos son nombres comúnmente utilizados por ciudadanos de etnia uigur musulmanes, según comprobó el servicio chino de la BBC.

No obstante, este medio no pudo identificar de manera independiente la veracidadde esos datos.

El especialista también explicó que la base de datos recogió los movimientos de las personas en el sistema en un periodo de 24 horas: un total de 6,8 millones de “desplazamientos” por puntos marcados por la firma, como “hoteles”, “comisarías de policía” o “cibercafés”.

Gevers aseguró que contactó a la empresa para que pusiera solución a lo ocurrido en cumplimiento del protocolo de su fundación.

Según la página web de la compañía con sede en la ciudad sureña de Shenzhen (considerado el Sillicon Valley chino), SenseNets ofrece productos como sistemas de reconocimiento facial, de análisis de multitudes o de seguimiento de personas con una combinación de tecnología de inteligencia artificial y seguridad.

La firma menciona algunos proyectos que llevó a cabo, como la creación de un laboratorio de tecnología de reconocimiento facial con la policía de la ciudad de Lianyungang, cerca de Shanghái, o la colaboración con las autoridades de seguridad pública de la provincia de Cantón (sur) en el reconocimiento facial para protestas.
“Sin juicio ni cargo”

No solo las autoridades chinas utilizan tecnología de reconocimiento facial. Este tipo de sistemas también están siendo probados o puestos en práctica en países como Estados Unidos, Reino Unido o India.

En el caso de China, Pekín ha promovido la integración de esta tecnología con su red tradicional de vigilancia por video, argumentando razones de seguridad.

Estas medidas han generado preocupación por la posibilidad de que violen la privacidad y faciliten la persecución de disidentes y minorías, como denuncian grupos de derechos humanos.




ReutersNo solo China utiliza sistemas de este tipo.

En Xinjiang, en concreto, se acusa a las autoridades chinas de haber creado un “Estado policial”.

El año pasado, Human Rights Watch (HRW) denunció en un informe detenciones masivas y arbitrarias de musulmanes que residen en esta región autónoma del país, a los que “se tortura y adoctrina en una campaña de abusos sistemáticos que no se ha visto en el país en décadas”.

La ONG afirmó que los internos en los llamados “centros de reeducación” sonforzados a aprender mandarín y entonar cánticos del gobernante Partido Comunista.

Preguntado por este informe, un portavoz del Ministerio de Asuntos Exteriores chino, Geng Shuang, consideró que HRW es una organización llena de “prejuicios” sobre China.

“La serie de medidas implementadas en Xinjiang están diseñadas para mejorar la estabilidad, el desarrollo, la solidaridad y (…) acabar con las actividades separatistas étnicas y los crímenes terroristas y violentos”, defendió Geng.

El portavoz además enfatizó que la región pasa por un periodo de “estabilidad social, desarrollo económico” y que los diferentes grupos étnicos cohabitan “en harmonía”.

Getty Images“Ellos quieren borrar la evidencia de la existencia de los uigures”, dijo uno de los hombres que estuvo dentro de los campos de detención, a la BBC.

Una investigación de la BBC publicada a finales del año pasado recogiótestimonios de algunas de las personas que pasaron por estos centrosy analizó imágenes satelitales que mostraron la construcción de los mismos.

“Nuestro reporte se suma a la evidencia de que el programa de reeducación masiva es la detención disfrazada con otro nombre: el encierro de muchos miles de musulmanes sin juicio ni cargos. De hecho, sin ni siquiera acceso a un proceso legal”, escribió entonces el periodista de la BBC John Sudworth.

Xinjiang ha sidoescenario de violenciaen el pasado y Pekín resalta el éxito de sus medidas estos últimos años para “pacificar” esta y otras zonas del país.

Uigures en el exilio atribuyen la violencia ocurrida a la política “represiva” de Pekín contra su cultura y su religión, mientras el gobierno chino considera los sucesos “atentados terroristas” llevados a cabo por grupos separatistas islámicoscon vínculos en el extranjero.

Entre las polémicas medidas implementadas por el ejecutivo chino estos últimos años, está la prohibición de llevar velo o barba larga, e incluso utilizar nombres que suenen como musulmanes.


febrero 21, 2019

https://www.24horas.cl/noticiasbbc/la-empresa-que-le-ayuda-a-china-a-controlar-todos-los-movimientos-de-25-millones-de-personas-3101493

miércoles, 18 de julio de 2018

Las Cámaras que pueden saber si estás felices o si eres una Amenaza para alguien

La tecnología de reconocimiento facial es cada vez más sofisticada.

Aumenta el número de empresas que dicen tener sistemas capaces de leer emociones y detectar comportamientos sospechosos, pero ¿qué implica eso para la privacidad y las libertades civiles de las personas?

Aunque lleva décadas funcionando, en los últimos años el progreso ha sido enorme gracias a los avances de la visión computacional y la inteligencia artificial, según los expertos en tecnología.

Ahora, por ejemplo, se utiliza para identificar a personas en las fronteras, desbloquear teléfonos, detectar criminales o validar transacciones bancarias.





Pero algunas compañías tecnológicas dicen que también pueden evaluar nuestro estado emocional.

Microexpresiones

Desde la década de 1970, los psicólogos dicen que pueden detectar emociones ocultas estudiando las microexpresiones (movimientos muy sutiles y gestos nerviosos) en los rostros de personas en fotografías y videos.

Los algoritmos y cámaras de alta definición pueden hacerlo con precisión y rapidez.

“Ya se están usando para fines comerciales”, le explica a la BBC Oliver Philippou, experto en videovigilancia que trabaja en la compañía tecnológica británica IHS Markit.

AppleEl iPhone X puede ser desbloqueado usando reconocimiento facial.

“Un supermercado podría usarlos en sus pasillos. No para identificar personas, sino para analizar quién entra en términos de edad y género, y también su estado de ánimo. Puede ser útil para el marketing dirigido y para la publicidad por emplazamiento”.

La agencia de investigación de mercados Kantar Millward Brown utiliza la tecnología desarrollada por la firma estadounidense Affectiva para analizar cómo reaccionan los consumidores a comerciales de televisión.

Affectiva graba videos de rostros de personas con su permiso y luego “codifica” sus expresiones, fotograma a fotograma, para evaluar su estado de humor.

“Entrevistamos a gente, pero obtenemos muchos más matices observando también sus expresiones.

Puedes ver exactamente qué parte de un aviso publicitario funciona bien y qué respuesta emocional desencadena”, le dice a la BBC Graham Page, director de oferta e innovación en Kantar Millward Brown.

WeSeeLa tecnología de WeSee se usa para evaluar las emociones de la gente durante entrevistas.

“Comportamientos sospechosos”

Más polémicas son las empresas que ofrecen “detección de emociones” por motivos de seguridad.

La firma británica WeSee, por ejemplo, dice que su tecnología de inteligencia artificial puede detectar comportamientos sospechosos leyendo señales faciales imperceptibles para el ojo no entrenado.





Emociones como la duda o la rabia pueden ocultarse y contrastar con el lenguaje que usa la persona.

WeSee asegura que ha estado trabajando con una organización “de alto perfil” en la aplicación de la ley para analizar a personas que son entrevistadas.

“Usando solamente imágenes de video de baja calidad, nuestra tecnología tiene la capacidad de determinar el estado de ánimo o la intención de un individuo por sus expresiones faciales, postura, gestos y movimiento”, le cuenta a la BBC su director ejecutivo, David Fulton.

“En el futuro, las cámaras de video en las estaciones de metro podría usar nuestra tecnología para detectar comportamientos sospechosos y alertar a las autoridades de una potencial amenaza terrorista“.

BBC¿Puede la detección de emociones ayudar a hacer más seguros grandes eventos como conciertos o partidos de fútbol?

“Lo mismo podría hacerse con multitudes de personas en eventos como partidos de fútbol y mítines políticos”.

Pero Philippou es escéptico en cuanto a la precisión de la detección de emociones.

La controversia

“En lo que respecta a la identificación facial, todavía hay márgenes de error. Las compañías más avanzadas dicen que pueden identificar gente con una precisión de entre el 90 y el 92%”.

“A la hora de identificar emociones, el margen de error aumenta significativamente”.

Eso preocupa a activistas por la privacidad y porque temen que esta tecnología pueda hacer juicios equivocados o sesgados.

South Wales PoliceEn varios países, las autoridades usan cámaras de vigilancia con reconocimiento facial.

“Imagino que hay algunos casos en los que resulta muy útil, pero las implicaciones de privacidad derivadas de la observación de emociones, el reconocimiento facial y la elaboración de perfiles no tienen precedentes”, dice Frederike Kaltheuner, del grupo Privacy International.

El reconocimiento facial ya es de por sí bastante controvertido.

La organización por los derechos humanos Liberty dice que esta tecnología ha generado un gran cantidad de “falsos positivos” en eventos como la final de la Champions League en Cardiff, Reino Unido, el año pasado.

Un residente de esa localidad, Ed Bridges, tomó acciones legales contra las autoridades argumentando que el sistema violó la privacidad de las personas.

Pero cada vez se confía más en ella, dice Patrick Grother, director de pruebas biométricas en el Instituto Nacional de Estándares y Tecnología, una agencia del gobierno estadounidense que investiga cuestiones relacionadas con reconocimiento facial.





AFPEn China, la policía usa gafas de reconocimiento facial.

Él atribuye el reciente progreso tecnológico al desarrollo de “redes neuronales convolucionales”, un sistema avanzado de aprendizaje automático que permite una precisión mucho mayor.

“Esos algoritmos hacen que las computadoras puedan analizar imágenes a diferentes escalas y ángulos”, explica.

“Puedes identificar caras de forma mucho más precisa, incluso aunque estén parcialmente cubiertas por gafas de sol o cicatrices. La tasa de error se ha reducido hasta diez veces desde 2014, aunque ningún algoritmo es perfecto“.

Fulton, de WeSee, dice que su tecnología es simplemente una herramienta para ayudar a la gente a analizar videos de forma más inteligente.

“De momento, podemos detectar un comportamiento sospechoso pero no intencional para evitar que algo malo ocurra. Pero creo que vamos a lograrlo y ya estamos haciendo pruebas”.

NECLa policía de Reino Unido usa tecnología de reconocimiento facial automatizada (AFR).

Suena un paso más cerca del concepto de “pre-crimen” de la película de ciencia ficción Minority Report (“Sentencia Previa”), en la que criminales potenciales eran arrestados antes incluso de que hubieran cometido sus crímenes.

¿Es otra preocupación más para las organizaciones de libertades civiles?

“La pregunta clave que siempre nos hacemos es: ¿quién está creando esta tecnología y con qué fin?, dice Frederike Kaltheuner, de Privacy International. “¿La están usando para ayudarnos, o para juzgarnos, evaluarnos y controlarnos?”.


http://www.24horas.cl/noticiasbbc/las-camaras-que-pueden-saber-si-estas-feliz-o-si-eres-una-amenaza-para-alguien-2766801