Mostrando entradas con la etiqueta RECONOCIMIENTO FACIAL. Mostrar todas las entradas
Mostrando entradas con la etiqueta RECONOCIMIENTO FACIAL. Mostrar todas las entradas
jueves, 3 de octubre de 2019
El 666 se va a desatar por toda la tierra por esto: El Reconocimiento Facial y el Anticristo
Etiquetas:
ANTICRISTO,
RECONOCIMIENTO FACIAL
| Reacciones: |
miércoles, 15 de mayo de 2019
San Francisco se convierte en la primera ciudad en Prohibir el Reconocimiento Facial
Foto: BBC
En medio del creciente debate sobre los riesgos de privacidad que conlleva el uso de la tecnología de reconocimiento facial por parte de los gobiernos, la ciudad de San Francisco, en EE.UU., se ha convertido en la primera del mundo en prohibir su utilización.
San Francisco a la vanguardia
La Junta de Supervisores de San Francisco votó ayer a favor de un proyecto de ley que prohíbe al gobierno de la ciudad aplicar la tecnología de reconocimiento facial. La medida se produce mientras los reguladores de la ciudad implementan un plan más riguroso de supervisión de otras tecnologías de vigilancia, incluyendo cámaras de tránsito y lectores de matrículas.
Según The Wall Street Journal, se llevará a cabo una segunda votación sobre esta ordenanza, aunque la votación de hoy fue de 8 a 1 y se considera prácticamente aprobada.
El proyecto de ley, llamado ‘Ordenanza de Detención de Vigilancia Secreta’, es el primero de su tipo en aprobarse en EE.UU., mientras que los reguladores de California, Oakland, Massachusetts, Somerville, entre otras ciudades, han manifestado su intención de aplicar prohibiciones similares.
El proyecto de ley, llamado ‘Ordenanza de Detención de Vigilancia Secreta’, es el primero de su tipo en aprobarse en EE.UU., mientras que los reguladores de California, Oakland, Massachusetts, Somerville, entre otras ciudades, han manifestado su intención de aplicar prohibiciones similares.
Apple presenta nuevo lema: ‘Privacidad. Eso es iPhone’
Es importante aclarar que la prohibición se limita únicamente al uso del reconocimiento facial por parte del gobierno local, lo que quiere decir que las compañías que utilizan la tecnología para obtener más información de sus clientes no entran en la normativa.
Tampoco están incluidos en la ley, la policía del estado, la policía federal y el Aeropuerto Internacional de San Francisco, cuya tecnología de reconocimiento facial está en manos de la administración Trump.
Tampoco están incluidos en la ley, la policía del estado, la policía federal y el Aeropuerto Internacional de San Francisco, cuya tecnología de reconocimiento facial está en manos de la administración Trump.
Uno de los aspectos positivos del proyecto de ley es que permitirá a las personas dar su aprobación antes de que las agencias del gobierno decidan implementar tecnologías de vigilancia, incluyendo cámaras biométricas, software de vigilancia basado en Inteligencia Artificial (IA), etc.
La aprobación de esta ley es un paso positivo para los derechos civiles, teniendo en cuenta que diversas tecnologías de reconocimiento facial han incurrido previamente en violaciones a la privacidad e incluso en discriminación racial.
De hecho, compañías tecnológicas como Google, Amazon y Microsoft, están bajo ataque por su presunta conexión con el Gobierno de EE.UU. para la venta de esta tecnología.
De hecho, compañías tecnológicas como Google, Amazon y Microsoft, están bajo ataque por su presunta conexión con el Gobierno de EE.UU. para la venta de esta tecnología.
mayo 15, 2019
Etiquetas:
ACTIVISMO,
RECONOCIMIENTO FACIAL,
RESISTENCIA
| Reacciones: |
jueves, 21 de febrero de 2019
La empresa que le ayuda a China a Controlar “todos los movimientos” de 2,5 millones de personas
Desde el nombre y la dirección de una persona o el lugar dónde trabaja, hasta los lugares que visita.
Un investigador holandés en seguridad informática descubrió cómo una empresa china almacenaba datos detallados de más de 2,5 millones de personas en el país asiático, según reveló él mismo por Twitter y contó posteriormente al servicio chino de la BBC.
Se trata de la empresa SenseNets, creada en 2015 y especializada en inteligencia artificial.
Entre sus clientes o socios, se encuentra la policía de diferentes provincias o ciudades de China, según se precisa en su página web.
Victor Gevers, quien descubrió la fuga de datos de la firma y se define a sí mismo como “hacker” en Twitter, explicó a la BBC que cualquiera pudo acceder a esa información durante meses, desde julio de 2018.
<
También dijo que gran parte de los datos de SenseNets se registraron en la región autónoma de Xinjiang (también denominada Sinkiang), y parte de la información corresponde a ciudadanos de etnia uigur y otras minorías musulmanas que habitan en esta zona del oeste de China.
Xinjiang está en el punto de mira internacional después de que organizaciones de derechos humanos e incluso expertos de la ONU denunciaran el internamiento masivo de uigures y otros ciudadanos musulmanes en “campos de adoctrinamiento”.
Pekín, por su parte, defiende los controles impuestos en la zona y la creación de “centros educativos” en aras de acabar con el “terrorismo” y el “extremismo religioso”.
China asegura que Xinjiang está bajo amenaza de militantes islamistas y separatistas que planean ataques e incentivan las tensiones entre la minoría uigur musulmana y la etnia han, mayoritaria en el país y predominante en el gobierno.
El “hallazgo”
Gevers, quien trabaja para la organización sin ánimo de lucro GDI Foundation, publicó su “hallazgo” la semana pasada a través de una serie de comentarios en Twitter.
El especialista alertó sobre el error de protección de datos de la compañía y detalló que cualquier personapodía acceder a la información personal de las más de 2,56 millones de personas que aparecían en esa base y que contenía desde sus números de identificación personal hasta sus empleos o fotografías de reconocimiento facial.
Getty ImagesLos uigures son musulmanes y se ven a sí mismos como una etnia y cultura más cercana a las naciones de Asia Central que a China.
Una muestra de los nombres recogidos por Gevers de la base de datos son nombres comúnmente utilizados por ciudadanos de etnia uigur musulmanes, según comprobó el servicio chino de la BBC.
No obstante, este medio no pudo identificar de manera independiente la veracidadde esos datos.
El especialista también explicó que la base de datos recogió los movimientos de las personas en el sistema en un periodo de 24 horas: un total de 6,8 millones de “desplazamientos” por puntos marcados por la firma, como “hoteles”, “comisarías de policía” o “cibercafés”.
Gevers aseguró que contactó a la empresa para que pusiera solución a lo ocurrido en cumplimiento del protocolo de su fundación.
Según la página web de la compañía con sede en la ciudad sureña de Shenzhen (considerado el Sillicon Valley chino), SenseNets ofrece productos como sistemas de reconocimiento facial, de análisis de multitudes o de seguimiento de personas con una combinación de tecnología de inteligencia artificial y seguridad.
La firma menciona algunos proyectos que llevó a cabo, como la creación de un laboratorio de tecnología de reconocimiento facial con la policía de la ciudad de Lianyungang, cerca de Shanghái, o la colaboración con las autoridades de seguridad pública de la provincia de Cantón (sur) en el reconocimiento facial para protestas.
“Sin juicio ni cargo”
No solo las autoridades chinas utilizan tecnología de reconocimiento facial. Este tipo de sistemas también están siendo probados o puestos en práctica en países como Estados Unidos, Reino Unido o India.
En el caso de China, Pekín ha promovido la integración de esta tecnología con su red tradicional de vigilancia por video, argumentando razones de seguridad.
Estas medidas han generado preocupación por la posibilidad de que violen la privacidad y faciliten la persecución de disidentes y minorías, como denuncian grupos de derechos humanos.
ReutersNo solo China utiliza sistemas de este tipo.
En Xinjiang, en concreto, se acusa a las autoridades chinas de haber creado un “Estado policial”.
El año pasado, Human Rights Watch (HRW) denunció en un informe detenciones masivas y arbitrarias de musulmanes que residen en esta región autónoma del país, a los que “se tortura y adoctrina en una campaña de abusos sistemáticos que no se ha visto en el país en décadas”.
La ONG afirmó que los internos en los llamados “centros de reeducación” sonforzados a aprender mandarín y entonar cánticos del gobernante Partido Comunista.
Preguntado por este informe, un portavoz del Ministerio de Asuntos Exteriores chino, Geng Shuang, consideró que HRW es una organización llena de “prejuicios” sobre China.
“La serie de medidas implementadas en Xinjiang están diseñadas para mejorar la estabilidad, el desarrollo, la solidaridad y (…) acabar con las actividades separatistas étnicas y los crímenes terroristas y violentos”, defendió Geng.
El portavoz además enfatizó que la región pasa por un periodo de “estabilidad social, desarrollo económico” y que los diferentes grupos étnicos cohabitan “en harmonía”.
Getty Images“Ellos quieren borrar la evidencia de la existencia de los uigures”, dijo uno de los hombres que estuvo dentro de los campos de detención, a la BBC.
Una investigación de la BBC publicada a finales del año pasado recogiótestimonios de algunas de las personas que pasaron por estos centrosy analizó imágenes satelitales que mostraron la construcción de los mismos.
“Nuestro reporte se suma a la evidencia de que el programa de reeducación masiva es la detención disfrazada con otro nombre: el encierro de muchos miles de musulmanes sin juicio ni cargos. De hecho, sin ni siquiera acceso a un proceso legal”, escribió entonces el periodista de la BBC John Sudworth.
Xinjiang ha sidoescenario de violenciaen el pasado y Pekín resalta el éxito de sus medidas estos últimos años para “pacificar” esta y otras zonas del país.
Uigures en el exilio atribuyen la violencia ocurrida a la política “represiva” de Pekín contra su cultura y su religión, mientras el gobierno chino considera los sucesos “atentados terroristas” llevados a cabo por grupos separatistas islámicoscon vínculos en el extranjero.
Entre las polémicas medidas implementadas por el ejecutivo chino estos últimos años, está la prohibición de llevar velo o barba larga, e incluso utilizar nombres que suenen como musulmanes.
febrero 21, 2019
https://www.24horas.cl/noticiasbbc/la-empresa-que-le-ayuda-a-china-a-controlar-todos-los-movimientos-de-25-millones-de-personas-3101493
Etiquetas:
CONTROL MENTAL,
ESPIONAJE,
NWO,
RECONOCIMIENTO FACIAL
| Reacciones: |
miércoles, 18 de julio de 2018
Las Cámaras que pueden saber si estás felices o si eres una Amenaza para alguien
Aumenta el número de empresas que dicen tener sistemas capaces de leer emociones y detectar comportamientos sospechosos, pero ¿qué implica eso para la privacidad y las libertades civiles de las personas?
Aunque lleva décadas funcionando, en los últimos años el progreso ha sido enorme gracias a los avances de la visión computacional y la inteligencia artificial, según los expertos en tecnología.
Ahora, por ejemplo, se utiliza para identificar a personas en las fronteras, desbloquear teléfonos, detectar criminales o validar transacciones bancarias.
Pero algunas compañías tecnológicas dicen que también pueden evaluar nuestro estado emocional.
Microexpresiones
Desde la década de 1970, los psicólogos dicen que pueden detectar emociones ocultas estudiando las microexpresiones (movimientos muy sutiles y gestos nerviosos) en los rostros de personas en fotografías y videos.
Los algoritmos y cámaras de alta definición pueden hacerlo con precisión y rapidez.
“Ya se están usando para fines comerciales”, le explica a la BBC Oliver Philippou, experto en videovigilancia que trabaja en la compañía tecnológica británica IHS Markit.
AppleEl iPhone X puede ser desbloqueado usando reconocimiento facial.
“Un supermercado podría usarlos en sus pasillos. No para identificar personas, sino para analizar quién entra en términos de edad y género, y también su estado de ánimo. Puede ser útil para el marketing dirigido y para la publicidad por emplazamiento”.
La agencia de investigación de mercados Kantar Millward Brown utiliza la tecnología desarrollada por la firma estadounidense Affectiva para analizar cómo reaccionan los consumidores a comerciales de televisión.
Affectiva graba videos de rostros de personas con su permiso y luego “codifica” sus expresiones, fotograma a fotograma, para evaluar su estado de humor.
“Entrevistamos a gente, pero obtenemos muchos más matices observando también sus expresiones.Puedes ver exactamente qué parte de un aviso publicitario funciona bien y qué respuesta emocional desencadena”, le dice a la BBC Graham Page, director de oferta e innovación en Kantar Millward Brown.
WeSeeLa tecnología de WeSee se usa para evaluar las emociones de la gente durante entrevistas.
“Comportamientos sospechosos”
Más polémicas son las empresas que ofrecen “detección de emociones” por motivos de seguridad.
La firma británica WeSee, por ejemplo, dice que su tecnología de inteligencia artificial puede detectar comportamientos sospechosos leyendo señales faciales imperceptibles para el ojo no entrenado.
Emociones como la duda o la rabia pueden ocultarse y contrastar con el lenguaje que usa la persona.
WeSee asegura que ha estado trabajando con una organización “de alto perfil” en la aplicación de la ley para analizar a personas que son entrevistadas.
“Usando solamente imágenes de video de baja calidad, nuestra tecnología tiene la capacidad de determinar el estado de ánimo o la intención de un individuo por sus expresiones faciales, postura, gestos y movimiento”, le cuenta a la BBC su director ejecutivo, David Fulton.
“En el futuro, las cámaras de video en las estaciones de metro podría usar nuestra tecnología para detectar comportamientos sospechosos y alertar a las autoridades de una potencial amenaza terrorista“.
BBC¿Puede la detección de emociones ayudar a hacer más seguros grandes eventos como conciertos o partidos de fútbol?
“Lo mismo podría hacerse con multitudes de personas en eventos como partidos de fútbol y mítines políticos”.
Pero Philippou es escéptico en cuanto a la precisión de la detección de emociones.
La controversia
“En lo que respecta a la identificación facial, todavía hay márgenes de error. Las compañías más avanzadas dicen que pueden identificar gente con una precisión de entre el 90 y el 92%”.
“A la hora de identificar emociones, el margen de error aumenta significativamente”.
Eso preocupa a activistas por la privacidad y porque temen que esta tecnología pueda hacer juicios equivocados o sesgados.
South Wales PoliceEn varios países, las autoridades usan cámaras de vigilancia con reconocimiento facial.
“Imagino que hay algunos casos en los que resulta muy útil, pero las implicaciones de privacidad derivadas de la observación de emociones, el reconocimiento facial y la elaboración de perfiles no tienen precedentes”, dice Frederike Kaltheuner, del grupo Privacy International.
El reconocimiento facial ya es de por sí bastante controvertido.
La organización por los derechos humanos Liberty dice que esta tecnología ha generado un gran cantidad de “falsos positivos” en eventos como la final de la Champions League en Cardiff, Reino Unido, el año pasado.
Un residente de esa localidad, Ed Bridges, tomó acciones legales contra las autoridades argumentando que el sistema violó la privacidad de las personas.
Pero cada vez se confía más en ella, dice Patrick Grother, director de pruebas biométricas en el Instituto Nacional de Estándares y Tecnología, una agencia del gobierno estadounidense que investiga cuestiones relacionadas con reconocimiento facial.
AFPEn China, la policía usa gafas de reconocimiento facial.
Él atribuye el reciente progreso tecnológico al desarrollo de “redes neuronales convolucionales”, un sistema avanzado de aprendizaje automático que permite una precisión mucho mayor.
“Esos algoritmos hacen que las computadoras puedan analizar imágenes a diferentes escalas y ángulos”, explica.
“Puedes identificar caras de forma mucho más precisa, incluso aunque estén parcialmente cubiertas por gafas de sol o cicatrices. La tasa de error se ha reducido hasta diez veces desde 2014, aunque ningún algoritmo es perfecto“.
Fulton, de WeSee, dice que su tecnología es simplemente una herramienta para ayudar a la gente a analizar videos de forma más inteligente.
“De momento, podemos detectar un comportamiento sospechoso pero no intencional para evitar que algo malo ocurra. Pero creo que vamos a lograrlo y ya estamos haciendo pruebas”.
NECLa policía de Reino Unido usa tecnología de reconocimiento facial automatizada (AFR).
Suena un paso más cerca del concepto de “pre-crimen” de la película de ciencia ficción Minority Report (“Sentencia Previa”), en la que criminales potenciales eran arrestados antes incluso de que hubieran cometido sus crímenes.
¿Es otra preocupación más para las organizaciones de libertades civiles?
“La pregunta clave que siempre nos hacemos es: ¿quién está creando esta tecnología y con qué fin?, dice Frederike Kaltheuner, de Privacy International. “¿La están usando para ayudarnos, o para juzgarnos, evaluarnos y controlarnos?”.
http://www.24horas.cl/noticiasbbc/las-camaras-que-pueden-saber-si-estas-feliz-o-si-eres-una-amenaza-para-alguien-2766801
Etiquetas:
ESPIONAJE,
NWO,
RECONOCIMIENTO FACIAL,
REPRESION
| Reacciones: |
Suscribirse a:
Entradas (Atom)






