Calendario de EventosBiblioteca de RevistasBiblioteca de NewsletterBiblioteca de InfografíasGalería FotográficaVideoentrevistasColaboradoresEstadísticas

Inscríbase a la RevistaPolíticas de PrivacidadLa guía del ColaboradorContactoAnúnciate aquí






OK
ARTÍCULO DESTACADO
Imagen Burlan fácilmente  software para reconocer imágenes

Burlan fácilmente software para reconocer imágenes

Miércoles 22 de Enero del 2020
Redacción / Staff Seguridad en América

El año pasado, ingenieros de ZeroFOX, una startup de seguridad, notaron algo extraño en un perfil falso de medios sociales que habían encontrado de una figura pública muy conocida. Su foto de perfil tenía diminutos puntos blancos en el rostro, como si le hubieran espolvoreado nieve digital, según información del periódico Reforma.

Los ingenieros de la compañía no estaban seguros, pero parecía que los puntos fueron colocados para engañar a un filtro de contenido, como el usado por redes sociales como Facebook para detectar imitaciones de celebridades.

Opinaron que la foto era un ejemplo de un nuevo tipo de camuflaje digital, a veces llamado “un ataque adversario”, en el que una imagen es alterada en formas que la dejan luciendo normal al ojo humano, pero ocasiona que un sistema de reconocimiento de imágenes la clasifique incorrectamente.

Trucos así podrían plantear un riesgo de seguridad en la carrera global entre empresas y gobiernos por utilizar tecnología de reconocimiento de imágenes.

Además de su aplicación en filtros de redes sociales, el software de reconocimiento de imágenes aparece en sistemas de seguridad, vehículos autónomos y muchos otros lugares, y trucos como éste subrayan el reto de evitar que sistemas así sean burlados o manipulados.

Un alto ejecutivo tecnológico dice que grupos de hackers han estado lanzando los también conocidos como “ataques de prueba” contra los filtros de contenido de las compañías de medios sociales. Esas compañías han intensificado sus esfuerzos para eliminar contenido prohibido (todo, desde pornografía infantil y mensajes terroristas hasta perfiles falsos) con filtros de contenido expandidos.

 

TERRORISMO, ARMAS Y DROGAS EN FACEBOOK

Un vocero de Facebook señaló que la compañía estaba al tanto de usuarios que trataban de burlar sus sistemas de reconocimiento de imágenes, una técnica a la que se refiere internamente como “igualar contenido de imagen y video”.

Estos usuarios a menudo han estado tratando de vender artículos prohibidos, como drogas o armas, en grupos de Facebook o vía anuncios publicitarios, pero la mayoría de las estrategias eran rudimentaria, indicó el vocero.

Por ejemplo, algunos usuarios trataron de engañar a los filtros al usar fotos de cannabis que lucía como brócoli frito. Facebook las identificó correctamente.

La empresa batalló para lidiar con otra modalidad poco sofisticada de “ataque adversario” en abril, cuando millones de copias del video transmitido en vivo de un tirador que asesinó a 51 personas en dos mezquitas en Christchurch, Nueva Zelanda, no dejaban de ser subidos al sitio.

Facebook culpó a una “comunidad base de malos actores”. Sus métodos eran rudimentarios e involucraban editar ligeramente los videos o filmarlos y subir copias nuevas, para que Facebook no pudiera apoyarse en la marca digital que había asignado al video inicial.

La compañía también batalló porque su sistema de reconocimiento de imágenes para detectar contenido terrorista había sido entrenado con videos filmados por terceros, no desde la perspectiva de primera persona que había usado el atacante, explicó el vocero.

Facebook ha ampliado su uso de inteligencia artificial (IA) en años recientes. Aunque la compañía ha contratado a 30 mil moderadores de contenido humanos, se apoya principalmente en IA para identificar o retirar discursos de odio, propaganda terrorista y cuentas apócrifas.

El reconocimiento de imágenes es una forma de inteligencia artificial comúnmente usada para revisar el contenido que publica la gente, ya que puede identificar cosas como rostros, objetos o un tipo de actividad.

Google también ha anunciado que planea depender cada vez más del uso de software operado por IA para bloquear contenido tóxico en YouTube.

La empresa se rehusó a comentar si ha sufrido “ataques adversarios” que involucran imágenes alteradas digitalmente, pero apuntó a estudios que publicó el año pasado sobre cómo defender sistemas en línea de este tipo de acciones.

No obstante, un creciente acervo de datos científicos muestra la vulnerabilidad de los sistemas de reconocimiento de imágenes a los “ataques adversarios”.

Un ejemplo proviene de un experimento en septiembre de 2018, donde académicos tomaron una foto digital de cocaína en crack que era calentada en una cuchara y modificaron ligeramente sus pixeles. La imagen se volvió un poco más borrosa para los humanos, pero ahora había sido clasificada como “segura” por el sistema de reconocimiento de imágenes de Clarifai Inc.

Esta compañía, con sede en Nueva York, Estados Unidos, da el servicio de moderación de contenido usado por grandes operadores en línea. Clarifai indicó que sus ingenieros estaban al tanto del estudio, pero se negó a comentar si había actualizado su sistema de clasificación de imágenes como resultado.

“Encontramos que aunque la IA y el aprendizaje profundo han estado teniendo excelentes avances, los sistemas de aprendizaje profundo son fácilmente burlados por ‘ataques adversarios’”, comentó Dawn Song, profesora de la Universidad de California, en Berkeley, que trabajó en el experimento de la foto de droga.

Las redes neuronales de aprendizaje profundo, un tipo de sistema computacional que está vagamente inspirado en el cerebro humano, son la base de la mayoría de los sistemas de clasificación de imágenes.

Los investigadores también han mostrado que los sistemas de reconocimiento de imágenes pueden ser burlados fuera de Internet.

En abril pasado, investigadores en KU Leuven, una universidad en Bélgica, engañaron a un popular sistema de clasificación de imágenes al sostener frente a ellos un pequeño póster colorido, más o menos del tamaño de una portada de disco LP, mientras estaban parados frente a una cámara de vigilancia. El póster especial hizo que la persona que lo sostenía fuera invisible para el software.

En un experimento de 2018, el equipo de Song colocó varias calcomanías blanco y negro en señalamientos de alto para engañar a los sistemas de clasificación de imagen y hacerlos creer que se trataban de señales de límite de velocidad. Los académicos no pusieron a prueba sistemas de vehículos autónomos en este experimento, pero dijeron que el éxito del ataque apuntaba a los riesgos de usar un software así.

Las herramientas para burlar a sistemas de reconocimiento de imágenes son muy fáciles de hallar en línea. Wieland Brendel, un investigador de aprendizaje de máquinas con la Universidad de Tubinga, en Alemania, ha reunido una colección de códigos de programación que pueden ser usados para lanzar “ataques adversarios” contra sistemas de reconocimiento de imágenes.

Dijo que colocó al código disponible públicamente en línea para que desarrolladores de software que crean redes neuronales para sistemas de reconocimiento de imágenes puedan usarlo para ponerlos a prueba en busca de vulnerabilidades.

Reconoció que “en principio”, cualquiera podría usar el código para engañar los filtros de contenido en sitios de medios sociales, pero agregó: “ese nunca fue el objetivo. Cualquier técnica puede ser aplicada de manera positiva o negativa”.  

ARTÍCULO DESTACADO
Imagen Velocidad, rendimiento y desempeño para sus proyectos, Switches PoE TRENDnet

Velocidad, rendimiento y desempeño para sus proyectos, Switches PoE TRENDnet

Lunes 17 de Febrero del 2020
TRENDnet

La alimentación a través de Ethernet (o PoE) es una forma rentable de suministrar alimentación y datos a un dispositivo habilitado para PoE mediante un solo cable, sin necesidad de depender de las tomas de corriente disponibles. Las soluciones PoE de TRENDnet abarcan switchs PoE, inyectores, extensores, divisores, puntos de acceso, controladores de hardware, cámaras de red, NVR y adaptadores Powerline.

Imagen trackingsystems
Imagen


Logotipo Seguridad en america
VideovigilanciaControl De
acceso
Transporte
seguro
Contra
incendios
Ciberseguridad
y Ti
Seguridad
privada
Administración
de La Seguridad
Protección
ejecutiva
Seguridad
pública
El Profesional
opina
Especial
del Bimestre
Novedades
de La Industria





Cerrar