A Network Rail tem monitorado secretamente milhares de passageiros ferroviários nas principais estações do Reino Unido usando a Amazon IA software, surgiu ontem à noite.
Câmeras colocadas nas barreiras de bilheteria em estações de todo o país filmaram os rostos das pessoas em estações como London Waterloo e Euston para registrar sua idade, sexo e até mesmo suas emoções.
O Rede Ferroviária O esquema foi testado em nove estações ferroviárias em todo o Reino Unido nos últimos dois anos, com o objetivo de melhorar o atendimento ao cliente e aumentar a segurança dos passageiros.
A idade e o sexo aproximados das pessoas também são registrados e enviados ao Amazon Rekognition, de acordo com uma solicitação de liberdade de informação obtida pelo grupo de direitos civis Big Brother Watch.
As imagens são tiradas a cada cinco segundos ou quando é detectada uma pessoa passando pelas barreiras. No entanto, o teste não inclui tecnologia de reconhecimento facial usada para identificar uma pessoa.
A Network Rail iniciou os testes em 2022 com o objetivo de melhorar o atendimento ao cliente e aumentar a segurança dos passageiros (imagem de arquivo)
Câmeras colocadas em barreiras de passagens nas principais estações ferroviárias de todo o país analisam os rostos dos clientes (imagem de arquivo)
O organismo público, que gere a infra-estrutura da maior parte da rede ferroviária do Reino Unido, disse que poderia utilizar a informação para verificar a satisfação do cliente, mas também para “maximizar as receitas publicitárias e retalhistas”.
As estações onde o teste foi realizado incluem Londres Euston, Londres Waterloo, Manchester Piccadilly, Leeds, GlasgowLeitura, Dawlish, Dawlish Warren e Marsden.
De acordo com documentos vistos pelo MailOnline que descrevem o esquema, as câmeras faziam parte de um esforço mais amplo para usar a IA para combater invasões, crimes, superlotação, acidentes e comportamento anti-social.
O testes foram usados detecte pessoas invadindo pistas, monitore e preveja a superlotação da plataforma e localize possíveis ladrões de bicicletas.
Testes separados usaram sensores sem fio para detectar pisos escorregadios, lixeiras cheias e ralos que podem transbordar.
Os documentos, datados de abril do ano passado, diziam que havia entre cinco e sete câmeras ou sensores incluídos em cada estação.
O resumo do teste acrescenta: “As estações gerenciadas apresentam uma série de desafios e oportunidades que têm potencial para serem abordados por análises, em termos de segurança, experiência do passageiro e planejamento operacional”.
No entanto, o grupo de liberdades civis Big Brother Watch levantou questões de privacidade sobre o esquema e apresentou uma queixa ao Gabinete do Comissário de Informação (ICO).
Em declarações à revista Wired, que revelou os testes pela primeira vez, Jake Hurfurt, chefe de pesquisa e investigações do Big Brother Watch: 'A tecnologia pode ter um papel a desempenhar para tornar as ferrovias mais seguras, mas a vigilância alimentada por IA pode colocar toda a nossa privacidade em risco.'
Ele acrescentou que a Network Rail demonstrou “desprezo pelos nossos direitos”.
A ICO aconselhou anteriormente as empresas a não utilizarem tecnologia de detecção de emoções e disse em 2022 que a análise de emoções era “arriscada”.
Num alerta público na altura, também disseram que as tecnologias são “imaturas” e “podem não funcionar ainda, ou mesmo nunca”.
O grupo de liberdades civis Big Brother Watch levantou questões de privacidade sobre o esquema Network Rail e apresentou uma reclamação ao Information Commissioner's Office (ICO) (imagem de arquivo)
London Euston é uma das estações onde as câmeras foram colocadas
O vice-comissário Stephen Bonner disse na época: 'Os desenvolvimentos no mercado de biometria e IA emocional são imaturos. Eles podem não funcionar ainda, ou nunca.
«Embora existam oportunidades, os riscos são atualmente maiores.
'Na OIC, estamos preocupados com o fato de que a análise incorreta de dados possa resultar em suposições e julgamentos sobre uma pessoa que sejam imprecisos e levem à discriminação.
«As únicas implementações biométricas sustentáveis serão aquelas que sejam totalmente funcionais, responsáveis e apoiadas pela ciência.
«Tal como está, ainda não vimos qualquer emoção a tecnologia de IA desenvolver-se de uma forma que satisfaça os requisitos de protecção de dados, e temos questões mais gerais sobre proporcionalidade, justiça e transparência nesta área.
'A OIC continuará a examinar o mercado, identificando as partes interessadas que procuram criar ou implementar estas tecnologias e explicando a importância de uma maior privacidade e conformidade dos dados, ao mesmo tempo que incentiva a confiança na forma como estes sistemas funcionam.'
Os pesquisadores de IA também alertaram que o uso da tecnologia para detectar emoções “não é confiável” e deveria ser proibido.
Na UE, esses sistemas são proibidos ou considerados de “alto risco” ao abrigo da Lei da Inteligência Artificial.
Gregory Butler, executivo-chefe da Purple Transform, que construiu o teste para a Network Rail, disse que embora o teste tenha continuado, a parte que analisava as emoções e a demografia durou pouco.
A Network Rail recusou-se a responder a perguntas sobre o esquema, mas num comunicado, um porta-voz disse: 'Levamos a segurança da rede ferroviária extremamente a sério e usamos uma gama de tecnologias avançadas em nossas estações para proteger os passageiros, nossos colegas e a ferrovia. infra-estrutura contra o crime e outras ameaças.
«Quando implementamos tecnologia, trabalhamos com a polícia e os serviços de segurança para garantir que estamos a tomar medidas proporcionais e cumprimos sempre a legislação relevante relativa à utilização de tecnologias de vigilância.»
MailOnline entrou em contato com a Network Rail para comentar.
Source link