A ONU avisa que a tecnologia de inteligência artificial e aprendizado de máquina desmarcada pode “violar os direitos humanos e causar danos a vidas”, pois exige salvaguardas contra abusos

171
A ONU avisa que a tecnologia de inteligência artificial e aprendizado de máquina desmarcada pode "violar os direitos humanos e causar danos a vidas", pois exige salvaguardas contra abusos
O chefe de direitos humanos da ONU pediu uma moratória sobre o uso de alguma tecnologia de inteligência artificial, como reconhecimento facial em massa, até que haja “salvaguardas adequadas” contra seu impacto potencialmente “catastrófico”.

Em uma declaração na quarta-feira, a alta comissária da ONU para os Direitos Humanos, Michelle Bachelet, enfatizou a necessidade de uma proibição total de aplicativos de IA que não estejam em conformidade com a lei internacional de direitos humanos, enquanto também pediu uma pausa nas vendas de certas tecnologias preocupantes.

Observando que algoritmos de aprendizado de máquina e IA agora alcançam “quase todos os cantos de nossas vidas físicas e mentais e até mesmo estados emocionais”, Bachelet disse que a tecnologia tem o potencial de ser “uma força para o bem”, mas também pode ter ” negativos, até mesmo catastróficos, se forem usados ​​sem consideração suficiente sobre como afetam os direitos humanos das pessoas ”.

Os sistemas de IA são usados ​​para determinar quem obtém serviços públicos, decidir quem tem a chance de ser recrutado para um emprego e, é claro, eles afetam as informações que as pessoas veem e podem compartilhar online.

O alerta de Bachelet veio quando o Escritório de Direitos Humanos da ONU divulgou um relatório que analisou o impacto dos sistemas de IA – como criação de perfis, tomada de decisão automatizada e outras tecnologias de aprendizado de máquina – em vários direitos fundamentais, incluindo privacidade, saúde, educação, liberdade de expressão e movimento.

O relatório destaca uma série de desenvolvimentos preocupantes, incluindo um “amplo ecossistema de coleta e trocas de dados pessoais amplamente não transparentes” , bem como como os sistemas de IA afetaram “as abordagens governamentais para o policiamento”, a “administração da justiça” e “acessibilidade de serviços públicos. ”

A tomada de decisão baseada na IA também pode ser “discriminatória” se depender de dados desatualizados ou irrelevantes, acrescentou o relatório, ressaltando também que a tecnologia pode ser usada para ditar o que as pessoas veem e compartilham na web.A privacidade do Reino Unido defende o alarme sonoro na tecnologia de reconhecimento facial ao vivo ‘distópica’ usada pela polícia

Em particular, o relatório alerta sobre o uso crescente de ferramentas que tentam “deduzir o estado emocional e mental das pessoas” por meio da análise de expressões faciais e outras “biométricas preditivas” para decidir se uma pessoa é uma ameaça à segurança. As tecnologias que buscam obter “percepções sobre os padrões de comportamento humano” e fazer previsões com base nisso também levantam “questões sérias”, disse o órgão de direitos humanos.No entanto, o relatório observou que a necessidade mais urgente é “orientação de direitos humanos” no que diz respeito às tecnologias biométricas – que medem e registram características corporais únicas e são capazes de reconhecer rostos humanos específicos – já que estão “se tornando cada vez mais uma solução indispensável” para governos, organismos internacionais e empresas de tecnologia para uma variedade de tarefas.

Observando que tal tecnologia carecia de uma “base científica sólida” e era suscetível a preconceitos, o relatório advertiu que o uso de “sistemas de reconhecimento de emoções” pelas autoridades – por exemplo, durante paradas policiais, prisões e interrogatórios – minou os direitos de uma pessoa à privacidade, liberdade e um julgamento justo.

“O risco de discriminação associado às decisões impulsionadas pela IA – decisões que podem mudar, definir ou prejudicar vidas humanas – é muito real” , disse Bachelet, acrescentando que o mundo não podia “dar ao luxo de continuar jogando catch-up” com o desenvolvimento rápido Tecnologia de IA.O Pentágono acredita que a IA pode prever eventos mundiais. Como ex-analista de inteligência militar no Iraque e na URSS, sou mais do que cético