Minority Report? Argentina pretende “prever crimes futuros” usando IA – Notícia

A Argentina está a alguns passos de usar a inteligência artificial (IA) como forte aliada contra o crime. Um recente anúncio das forças de segurança do país revelou a intenção de implementar essa tecnologia com o objetivo de tentar prever crimes. Porém, a ideia levantou um debate importante sobre as implicações nos direitos dos cidadãos.

O presidente de extrema-direita, Javier Milei, apresentou a criação da Unidade de Inteligência Artificial Aplicada à Segurança, que utilizará algoritmos de aprendizado de máquina para analisar dados históricos de crimes e prever futuras atividades criminosas.

A tecnologia de IA por trás da prevenção de crimes

Além disso, a tecnologia de IA usará software de reconhecimento facial para identificar pessoas procuradas, monitorar redes sociais e analisar imagens de câmeras de segurança em tempo real para detectar atividades suspeitas.

O governo revelou que essas medidas ajudarão a identificar ameaças potenciais, monitorar movimentos de grupos criminosos e antecipar possíveis distúrbios.

Preocupações com os Direitos Humanos

Embora na teoria a ideia possa soar interessante, é preciso olhar um pouco mais além e entender o que esse tipo de vigilância poderá acarretar nos cidadãos como um todo.

Por isso, apesar das intenções declaradas do governo, organizações de direitos humanos e especialistas expressaram sérias preocupações sobre a utilização de tecnologias de vigilância em larga escala.

A Anistia Internacional, por exemplo, advertiu que essas práticas podem infringir os direitos humanos, especialmente a liberdade de expressão. Mariela Belski, diretora executiva da Anistia Internacional Argentina, destacou que a vigilância massiva pode levar as pessoas à autocensura, temendo que suas comunicações sejam monitoradas pelas forças de segurança.

Além disso, o Centro de Estudos sobre Liberdade de Expressão e Acesso à Informação alertou que essas tecnologias têm sido usadas historicamente para vigiar acadêmicos, jornalistas, políticos e ativistas. Sem uma supervisão adequada, existe um grande risco de que a privacidade dos cidadãos seja ameaçada, aumentando ainda mais a discriminação e a vigilância injusta de grupos vulneráveis.

Contexto político e histórico

O governo de Javier Milei, caracterizado por uma abordagem linha-dura contra o crime, está sendo questionado por suas políticas de segurança cada vez mais militarizadas. A ministra da Segurança, Patricia Bullrich, traz modelos de segurança controversos, como o sistema prisional de El Salvador.

Essa abordagem agressiva também está presente na resposta do governo a protestos, onde forças policiais têm usado gás lacrimogêneo e balas de borracha contra manifestantes.

Essas preocupações são especialmente marcantes por lá, já que o país tem um passado marcado pela repressão estatal brutal. Durante a ditadura militar de 1976-83, aproximadamente 30.000 pessoas desapareceram, muitas das quais foram torturadas ou assassinadas.

Este passado sombrio ainda ecoa fortemente na sociedade argentina, onde a memória de abusos estatais continua a influenciar a percepção pública sobre novas medidas de vigilância.

Implicações futuras da nova política de segurança com IA

A implementação da Unidade de Inteligência Artificial Aplicada à Segurança na Argentina levanta importantes questões sobre a responsabilidade e a ética no uso da tecnologia para a segurança pública.

Embora a tecnologia tenha o potencial de melhorar a eficácia das operações de segurança, ela também traz preocupações sobre privacidade, liberdade de expressão e a possibilidade de abuso por parte das autoridades.

Para garantir que a nova unidade opere dentro dos limites legais e respeite os direitos dos cidadãos, o governo afirmou que ela funcionará sob o atual quadro legislativo, incluindo a Lei de Proteção de Informações Pessoais. No entanto, a transparência e a supervisão contínua serão essenciais para diminuir riscos e garantir que a tecnologia seja usada de maneira justa.

Fonte: The Guardian

Leave a Comment

Your email address will not be published. Required fields are marked *