Em uma declaração na quarta-feira, a alta comissária da ONU para os Direitos Humanos, Michelle Bachelet, enfatizou a necessidade de uma proibição total de aplicativos de IA que não estejam em conformidade com a lei internacional de direitos humanos, enquanto também pediu uma pausa nas vendas de certas tecnologias preocupantes.
Observando que algoritmos de aprendizado de máquina e IA agora alcançam “quase todos os cantos de nossas vidas físicas e mentais e até mesmo estados emocionais”, Bachelet disse que a tecnologia tem o potencial de ser “uma força para o bem”, mas também pode ter ” negativos, até mesmo catastróficos, se forem usados sem consideração suficiente sobre como afetam os direitos humanos das pessoas ”.
Os sistemas de IA são usados para determinar quem obtém serviços públicos, decidir quem tem a chance de ser recrutado para um emprego e, é claro, eles afetam as informações que as pessoas veem e podem compartilhar online.
O alerta de Bachelet veio quando o Escritório de Direitos Humanos da ONU divulgou um relatório que analisou o impacto dos sistemas de IA – como criação de perfis, tomada de decisão automatizada e outras tecnologias de aprendizado de máquina – em vários direitos fundamentais, incluindo privacidade, saúde, educação, liberdade de expressão e movimento.
O relatório destaca uma série de desenvolvimentos preocupantes, incluindo um “amplo ecossistema de coleta e trocas de dados pessoais amplamente não transparentes” , bem como como os sistemas de IA afetaram “as abordagens governamentais para o policiamento”, a “administração da justiça” e “acessibilidade de serviços públicos. ”
A tomada de decisão baseada na IA também pode ser “discriminatória” se depender de dados desatualizados ou irrelevantes, acrescentou o relatório, ressaltando também que a tecnologia pode ser usada para ditar o que as pessoas veem e compartilham na web.A privacidade do Reino Unido defende o alarme sonoro na tecnologia de reconhecimento facial ao vivo ‘distópica’ usada pela polícia
Em particular, o relatório alerta sobre o uso crescente de ferramentas que tentam “deduzir o estado emocional e mental das pessoas” por meio da análise de expressões faciais e outras “biométricas preditivas” para decidir se uma pessoa é uma ameaça à segurança. As tecnologias que buscam obter “percepções sobre os padrões de comportamento humano” e fazer previsões com base nisso também levantam “questões sérias”, disse o órgão de direitos humanos.No entanto, o relatório observou que a necessidade mais urgente é “orientação de direitos humanos” no que diz respeito às tecnologias biométricas – que medem e registram características corporais únicas e são capazes de reconhecer rostos humanos específicos – já que estão “se tornando cada vez mais uma solução indispensável” para governos, organismos internacionais e empresas de tecnologia para uma variedade de tarefas.
Observando que tal tecnologia carecia de uma “base científica sólida” e era suscetível a preconceitos, o relatório advertiu que o uso de “sistemas de reconhecimento de emoções” pelas autoridades – por exemplo, durante paradas policiais, prisões e interrogatórios – minou os direitos de uma pessoa à privacidade, liberdade e um julgamento justo.
“O risco de discriminação associado às decisões impulsionadas pela IA – decisões que podem mudar, definir ou prejudicar vidas humanas – é muito real” , disse Bachelet, acrescentando que o mundo não podia “dar ao luxo de continuar jogando catch-up” com o desenvolvimento rápido Tecnologia de IA.O Pentágono acredita que a IA pode prever eventos mundiais. Como ex-analista de inteligência militar no Iraque e na URSS, sou mais do que cético