LinuxParty

NUESTRO SITIO necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado
 

Miles de personas que utilizan el metro de Londres vieron sus movimientos, comportamiento y lenguaje corporal vigilados por un software de vigilancia de inteligencia artificial diseñado para ver si estaban cometiendo delitos o se encontraban en situaciones inseguras, revelan nuevos documentos obtenidos por WIRED. Del informe:El software de aprendizaje automático se combinó con imágenes de CCTV en vivo para tratar de detectar comportamientos agresivos y armas o cuchillos blandidos, así como buscar personas que cayeran a las vías del metro o esquivaran las tarifas. Desde octubre de 2022 hasta finales de septiembre de 2023, Transport for London (TfL), que opera la red de metro y autobús de la ciudad, probó 11 algoritmos para monitorear a las personas que pasaban por la estación de metro Willesden Green, en el noroeste de la ciudad. La prueba de concepto es la primera vez que el organismo de transporte combina inteligencia artificial y secuencias de video en vivo para generar alertas que se envían al personal de primera línea. Durante la prueba se emitieron más de 44.000 alertas, de las cuales 19.000 se entregaron al personal de la estación en tiempo real.

Los documentos enviados a WIRED en respuesta a una solicitud de la Ley de Libertad de Información detallan cómo TfL utilizó una amplia gama de algoritmos de visión por computadora para rastrear el comportamiento de las personas mientras estaban en la estación. Es la primera vez que se informan todos los detalles de la prueba, y se produce después de que TfL dijera, en diciembre, que ampliará su uso de IA para detectar la evasión de tarifas a más estaciones en toda la capital británica. En la prueba en Willesden Green, una estación que tenía 25.000 visitantes por día antes de la pandemia de Covid-19, el sistema de inteligencia artificial se configuró para detectar posibles incidentes de seguridad y permitir al personal ayudar a las personas necesitadas, pero también apuntó a criminales y comportamiento antisocial. Tres documentos proporcionados a WIRED detallan cómo se utilizaron modelos de IA para detectar sillas de ruedas, cochecitos, vapeadores, personas que acceden a áreas no autorizadas o se ponen en peligro al acercarse al borde de los andenes del tren.

No estás registrado para postear comentarios



Redes:



   

 

Suscribete / Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Donar a LinuxParty

Probablemente te niegues, pero.. ¿Podrías ayudarnos con una donación?


Tutorial de Linux

Formulario de acceso

Filtro por Categorías