Joe Biden assinou uma ordem executiva na segunda-feira que chamou de ação mais “significativa” que qualquer governo já tomou para a implantação segura de IA.
“Veremos mais mudanças tecnológicas nos próximos 10, talvez nos próximos cinco anos, do que vimos nos últimos 50 anos”, disse o presidente dos EUA numa conferência de imprensa. “A IA está ao nosso redor. Grande parte disso está melhorando nossas vidas… mas, em alguns casos, a IA está piorando a vida.”
Kamala Harris, vice-presidente e representante dos EUA na cúpula global de segurança de IA no Reino Unido esta semana, disse que o governo tem “um dever moral, ético e social de garantir que a IA seja adotada e avançada de uma forma que proteja protege o público de potenciais danos e garante que todos possam usufruir dos seus benefícios”.
Harris enfatizou a crença do governo de que os EUA são o líder global em IA e que a ordem deve servir de modelo para a ação internacional. “São as empresas americanas que lideram o mundo em inovação em IA”, disse Harris. “É a América que pode catalisar a acção global e construir um consenso global de uma forma que nenhum outro país consegue. E sob o presidente Joe Biden isso continuará a liderar a IA.”
Embora Biden tenha dito que a ordem executiva “representa uma ação ousada”, o Congresso ainda precisa agir rapidamente para garantir a implantação e o desenvolvimento seguros da IA.
Segundo a ordem, as empresas de tecnologia serão obrigadas a compartilhar os resultados dos testes de seus sistemas de inteligência artificial com o governo dos EUA antes de serem divulgados.
O governo também estabelecerá diretrizes rigorosas de testes. “À medida que avançamos nesta agenda a nível interno, a administração trabalhará com aliados e parceiros no estrangeiro num quadro internacional forte para governar o desenvolvimento e a utilização da IA”, afirma a ordem.
As diretivas de IA emitidas pela Casa Branca incluem:
As empresas que desenvolvem modelos de IA que representam uma ameaça à segurança nacional, à segurança económica ou à saúde e segurança devem partilhar os resultados dos seus testes de segurança com o governo.
O governo estabelecerá directrizes para os chamados testes de equipa vermelha, onde os avaliadores imitam actores desonestos nos seus procedimentos de teste.
Serão emitidas orientações oficiais sobre marcas d’água em conteúdo criado por IA para lidar com o risco de danos causados por fraude e deepfakes.
Novos padrões para o rastreio de síntese biológica – para identificar sequências genéticas e compostos potencialmente nocivos – serão desenvolvidos para mitigar a ameaça de os sistemas de IA ajudarem a criar armas biológicas.
O chefe de gabinete da Casa Branca, Jeff Zients, disse que Biden deu à sua equipe uma diretriz para agir com urgência na questão da IA.
“Não podemos avançar no ritmo normal do governo”, disse Zients que Biden lhe disse. “Temos que avançar tão rápido, se não mais rápido, que a própria tecnologia.”
A Casa Branca disse que o compartilhamento dos resultados dos testes para modelos poderosos “garantiria que os sistemas de IA sejam seguros e confiáveis antes que as empresas os tornem públicos”.
De acordo com as disposições sobre deepfakes criados por IA, o Departamento de Comércio dos EUA emitirá orientações para rotular e marcar conteúdo gerado por IA para ajudar a diferenciar entre interações autênticas e aquelas geradas por software.
Referindo-se aos planos de marca d’água, o despacho afirmava: “As agências federais usarão essas ferramentas para tornar mais fácil para os americanos saberem que as comunicações que recebem de seu governo são autênticas – e servir de exemplo para o setor privado e governos em todo o mundo. ”
A ordem também abrange áreas como privacidade, direitos civis, proteção ao consumidor e direitos dos trabalhadores.
Os grupos de liberdades civis e direitos digitais elogiaram amplamente a ordem executiva como um bom primeiro passo. Alexandra Reeve Givens, executiva-chefe do Centro para Democracia e Tecnologia, um grupo sem fins lucrativos de direitos digitais, disse que isso representa um marco que mostra que todo o governo apoiará “o desenvolvimento responsável e a governação da IA”.
“É notável ver a administração concentrar-se tanto nos riscos emergentes de modelos de fundação sofisticados como nas muitas formas como os sistemas de IA já estão a impactar os direitos das pessoas – uma abordagem crucial que responde às muitas preocupações levantadas por especialistas e defensores do interesse público”, disse Givens. disse em um comunicado.
Mas o sucesso da ordem reside na forma como as directivas são aplicáveis e acionáveis, disse Givens. “Instamos a administração a agir rapidamente para cumprir os prazos relevantes e a garantir que quaisquer orientações ou mandatos emitidos no âmbito da OE sejam suficientemente detalhados e acionáveis para terem o efeito pretendido.”
Caitriona Fitzgerald, vice-diretora do O Electronic Privacy Information Center (Epic) disse que as proteções de privacidade no pedido são particularmente necessárias dada a falta de proteções federais nos EUA.
“Embora a Epic continue a pedir ao Congresso que aprove uma lei de privacidade abrangente que limite a coleta em massa de dados que alimenta usos prejudiciais da tecnologia, esta ordem executiva é um passo significativo para estabelecer as proteções necessárias de justiça, responsabilidade e transparência para proteger as pessoas da discriminação e a desigualdade facilitada pelos sistemas de IA”, disse Fitzgerald em comunicado.
Contudo, alguns grupos focados na vigilância não estão tão optimistas. Albert Fox Cahn, do Projeto de Supervisão de Tecnologia de Vigilância, disse que a abordagem adotada no pedido permitiria mais abusos de IA. Por um lado, disse ele, a ordem da Casa Branca depende de técnicas de auditoria de IA que “podem ser facilmente manipuladas por empresas e agências”.
“As piores formas de IA, como o reconhecimento facial, não precisam de diretrizes, precisam de uma proibição total”, disse Fox Cahn. “Muitas formas de IA simplesmente não deveriam ser permitidas no mercado. E muitas dessas propostas são simplesmente um cenário regulatório, permitindo que a IA abusiva permaneça no mercado.”
Segundo um funcionário da Casa Branca, as listas de tarefas do pedido serão implementadas e cumpridas no prazo de 90 a 365 dias, com os itens de segurança e proteção enfrentando os prazos mais curtos.
Em outra parte do pedido, um memorando de segurança nacional orientará a comunidade militar e de inteligência dos EUA sobre como usar a IA de forma segura e ética. Também apela ao Congresso para que aprove legislação que proteja a privacidade dos dados dos americanos. As agências federais desenvolverão diretrizes para avaliar técnicas de preservação de privacidade em sistemas de IA.
As preocupações em torno do preconceito são abordadas com uma ordem para fornecer orientação aos proprietários, programas de benefícios federais e empreiteiros federais para evitar que os algoritmos de IA exacerbem a discriminação. Uma preocupação imediata e importante sobre os sistemas de IA é que eles repetem inadvertidamente preconceitos subjacentes nos conjuntos de dados nos quais são treinados. Serão também desenvolvidas melhores práticas sobre a utilização da IA no sistema judicial, em domínios como a condenação, o policiamento preditivo e a liberdade condicional.
A ameaça de perturbação no mercado de trabalho é abordada com uma ordem de desenvolvimento de melhores práticas para mitigar os danos causados pela deslocação do emprego, prevendo “evitar que os empregadores subcompensem os trabalhadores, avaliem injustamente as candidaturas a empregos ou interfiram na capacidade de organização dos trabalhadores”. As agências governamentais também receberão orientações sobre o uso da IA, incluindo padrões para proteger direitos e segurança.
A Comissão Federal do Comércio, um órgão de fiscalização da concorrência, será incentivada a utilizar os seus poderes se houver quaisquer distorções no mercado de IA.
Num aceno aos esforços para regulamentar a IA em todo o mundo, incluindo as discussões na cimeira de segurança desta semana, a Casa Branca disse que também aceleraria o desenvolvimento de padrões de IA com parceiros internacionais. Também na segunda-feira, o grupo de nações G7 publicou um código de conduta para organizações que desenvolvem sistemas avançados de IA. Estas incluíram marcas de água em conteúdo criado por IA, testes de modelos externamente e prioridade à utilização de IA para enfrentar desafios como a crise climática e problemas de saúde globais.