Download Free FREE High-quality Joomla! Designs • Premium Joomla 3 Templates BIGtheme.net
Home / Notícias / A Network Rail 'utilizou secretamente câmeras Amazon AI para escanear os rostos dos passageiros ferroviários nas principais estações, incluindo Waterloo e Euston, para registrar suas idades, gêneros e emoções' – como VOCÊ pode descobrir se foi filmado?

A Network Rail 'utilizou secretamente câmeras Amazon AI para escanear os rostos dos passageiros ferroviários nas principais estações, incluindo Waterloo e Euston, para registrar suas idades, gêneros e emoções' – como VOCÊ pode descobrir se foi filmado?

A Network Rail tem monitorado secretamente milhares de passageiros ferroviários nas principais estações do Reino Unido usando a Amazon IA software, surgiu ontem à noite.

Câmeras colocadas nas barreiras de bilheteria em estações de todo o país filmaram os rostos das pessoas em estações como London Waterloo e Euston para registrar sua idade, sexo e até mesmo suas emoções.

O Rede Ferroviária O esquema foi testado em nove estações ferroviárias em todo o Reino Unido nos últimos dois anos, com o objetivo de melhorar o atendimento ao cliente e aumentar a segurança dos passageiros.

A idade e o sexo aproximados das pessoas também são registrados e enviados ao Amazon Rekognition, de acordo com uma solicitação de liberdade de informação obtida pelo grupo de direitos civis Big Brother Watch.

As imagens são tiradas a cada cinco segundos ou quando é detectada uma pessoa passando pelas barreiras. No entanto, o teste não inclui tecnologia de reconhecimento facial usada para identificar uma pessoa.

A Network Rail 'utilizou secretamente câmeras Amazon AI para escanear os rostos dos passageiros ferroviários nas principais estações, incluindo Waterloo e Euston, para registrar suas idades, gêneros e emoções' – como VOCÊ pode descobrir se foi filmado?

A Network Rail iniciou os testes em 2022 com o objetivo de melhorar o atendimento ao cliente e aumentar a segurança dos passageiros (imagem de arquivo)

Câmeras colocadas em barreiras de passagens nas principais estações ferroviárias de todo o país analisam os rostos dos clientes (imagem de arquivo)

Câmeras colocadas em barreiras de passagens nas principais estações ferroviárias de todo o país analisam os rostos dos clientes (imagem de arquivo)

O organismo público, que gere a infra-estrutura da maior parte da rede ferroviária do Reino Unido, disse que poderia utilizar a informação para verificar a satisfação do cliente, mas também para “maximizar as receitas publicitárias e retalhistas”.

O que fazer se você achar que foi filmado?

De acordo com a lei do Reino Unido, as pessoas têm o direito de solicitar imagens de CCTV de si mesmas.

O indivíduo precisa fazer uma solicitação ao proprietário do sistema de CFTV. Eles podem fazer isso por escrito ou verbalmente.

No entanto, o esquema Network Rail não inclui tecnologia de reconhecimento facial que é usada para identificar uma pessoa, por isso pode ter dificuldade em obter qualquer filmagem.

Os proprietários de câmeras CCTV também podem se recusar a compartilhar qualquer filmagem se outras pessoas puderem ser vistas nela.

Entretanto, o Gabinete do Comissário de Informação (ICO) instou as organizações a avaliarem o risco público antes de utilizarem tal tecnologia, e alertou que quaisquer empresas que não atuem de forma responsável, representem um risco para pessoas vulneráveis ​​ou não cumpram as expectativas da ICO serão investigadas.

As pessoas que estão insatisfeitas com o fato de terem sido filmadas podem reclamar primeiro com a Network Rail para lhes dar a chance de resolver quaisquer questões relacionadas à privacidade, seguidas pelo ICO se o assunto permanecer sem solução.

A orientação da OIC afirma: 'Você deve dar à organização com a qual está insatisfeito a chance de resolver as coisas antes de nos apresentar sua reclamação.

'Muitas reclamações sobre proteção de dados podem ser resolvidas de forma rápida e fácil com a organização.'

As estações onde o teste foi realizado incluem Londres Euston, Londres Waterloo, Manchester Piccadilly, Leeds, GlasgowLeitura, Dawlish, Dawlish Warren e Marsden.

De acordo com documentos vistos pelo MailOnline que descrevem o esquema, as câmeras faziam parte de um esforço mais amplo para usar a IA para combater invasões, crimes, superlotação, acidentes e comportamento anti-social.

O testes foram usados detecte pessoas invadindo pistas, monitore e preveja a superlotação da plataforma e localize possíveis ladrões de bicicletas.

Testes separados usaram sensores sem fio para detectar pisos escorregadios, lixeiras cheias e ralos que podem transbordar.

Os documentos, datados de abril do ano passado, diziam que havia entre cinco e sete câmeras ou sensores incluídos em cada estação.

O resumo do teste acrescenta: “As estações gerenciadas apresentam uma série de desafios e oportunidades que têm potencial para serem abordados por análises, em termos de segurança, experiência do passageiro e planejamento operacional”.

No entanto, o grupo de liberdades civis Big Brother Watch levantou questões de privacidade sobre o esquema e apresentou uma queixa ao Gabinete do Comissário de Informação (ICO).

Em declarações à revista Wired, que revelou os testes pela primeira vez, Jake Hurfurt, chefe de pesquisa e investigações do Big Brother Watch: 'A tecnologia pode ter um papel a desempenhar para tornar as ferrovias mais seguras, mas a vigilância alimentada por IA pode colocar toda a nossa privacidade em risco.'

Ele acrescentou que a Network Rail demonstrou “desprezo pelos nossos direitos”.

A ICO aconselhou anteriormente as empresas a não utilizarem tecnologia de detecção de emoções e disse em 2022 que a análise de emoções era “arriscada”.

Num alerta público na altura, também disseram que as tecnologias são “imaturas” e “podem não funcionar ainda, ou mesmo nunca”.

O grupo de liberdades civis Big Brother Watch levantou questões de privacidade sobre o esquema Network Rail e apresentou uma reclamação ao Information Commissioner's Office (ICO) (imagem de arquivo)

O grupo de liberdades civis Big Brother Watch levantou questões de privacidade sobre o esquema Network Rail e apresentou uma reclamação ao Information Commissioner's Office (ICO) (imagem de arquivo)

London Euston é uma das estações onde as câmeras foram colocadas

London Euston é uma das estações onde as câmeras foram colocadas

O vice-comissário Stephen Bonner disse na época: 'Os desenvolvimentos no mercado de biometria e IA emocional são imaturos. Eles podem não funcionar ainda, ou nunca.

O que é análise emocional?

As tecnologias de análise emocional processam dados como rastreamento de olhar, análise de sentimento, movimentos faciais, análise de marcha, batimentos cardíacos, expressões faciais e umidade da pele.

Os exemplos incluem o monitoramento da saúde física dos trabalhadores, oferecendo ferramentas de triagem vestíveis ou usando métodos visuais e comportamentais, incluindo posição corporal, fala, olhos e movimentos da cabeça, para registrar alunos para exames.

A análise emocional depende da coleta, armazenamento e processamento de uma série de dados pessoais, incluindo respostas comportamentais ou emocionais subconscientes e, em alguns casos, dados de categorias especiais. Este tipo de utilização de dados é muito mais arriscado do que as tecnologias biométricas tradicionais utilizadas para verificar ou identificar uma pessoa.

«Embora existam oportunidades, os riscos são atualmente maiores.

'Na OIC, estamos preocupados com o fato de que a análise incorreta de dados possa resultar em suposições e julgamentos sobre uma pessoa que sejam imprecisos e levem à discriminação.

«As únicas implementações biométricas sustentáveis ​​serão aquelas que sejam totalmente funcionais, responsáveis ​​e apoiadas pela ciência.

«Tal como está, ainda não vimos qualquer emoção a tecnologia de IA desenvolver-se de uma forma que satisfaça os requisitos de protecção de dados, e temos questões mais gerais sobre proporcionalidade, justiça e transparência nesta área.

'A OIC continuará a examinar o mercado, identificando as partes interessadas que procuram criar ou implementar estas tecnologias e explicando a importância de uma maior privacidade e conformidade dos dados, ao mesmo tempo que incentiva a confiança na forma como estes sistemas funcionam.'

Os pesquisadores de IA também alertaram que o uso da tecnologia para detectar emoções “não é confiável” e deveria ser proibido.

Na UE, esses sistemas são proibidos ou considerados de “alto risco” ao abrigo da Lei da Inteligência Artificial.

Gregory Butler, executivo-chefe da Purple Transform, que construiu o teste para a Network Rail, disse que embora o teste tenha continuado, a parte que analisava as emoções e a demografia durou pouco.

A Network Rail recusou-se a responder a perguntas sobre o esquema, mas num comunicado, um porta-voz disse: 'Levamos a segurança da rede ferroviária extremamente a sério e usamos uma gama de tecnologias avançadas em nossas estações para proteger os passageiros, nossos colegas e a ferrovia. infra-estrutura contra o crime e outras ameaças.

«Quando implementamos tecnologia, trabalhamos com a polícia e os serviços de segurança para garantir que estamos a tomar medidas proporcionais e cumprimos sempre a legislação relevante relativa à utilização de tecnologias de vigilância.»

MailOnline entrou em contato com a Network Rail para comentar.


Source link

About admin

Check Also

Tamzin Outhwaite, 53, confirma separação do namorado toyboy Tom Child, 33, e insiste que está “finalmente feliz por estar solteira” – 10 anos depois que o escândalo de “traição” de seu marido a deixou com o coração partido

Tamzin Outhwaite, 53, confirma separação do namorado toyboy Tom Child, 33, e insiste que está “finalmente feliz por estar solteira” – 10 anos depois que o escândalo de “traição” de seu marido a deixou com o coração partido

Tamzin Outhwaite confirmou que se separou do namorado Tom Child, mas revelou que agora está …

Leave a Reply

Your email address will not be published. Required fields are marked *