RCA Telegram News California - Casa Branca estuda novas regulamentações para gigantes da IA

Casa Branca estuda novas regulamentações para gigantes da IA
Casa Branca estuda novas regulamentações para gigantes da IA / foto: Lionel BONAVENTURE - AFP

Casa Branca estuda novas regulamentações para gigantes da IA

As empresas líderes em Inteligência Artificial (IA) têm o dever "moral" de proteger a sociedade dos perigos potenciais desta tecnologia, disse, nesta quinta-feira (4), a vice-presidente Kamala Harris a diretores do Google, Microsoft, OpenAi e Anthropic.

Tamanho do texto:

"O setor privado tem o dever ético, moral e legal de garantir a segurança de seus produtos", indicou Harris em nota após se reunir com Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI), Dario Amodei (Anthropic) e vários membros do governo.

Harris indicou que a IA tem o "poder de melhorar a vida cotidiana e abordar alguns dos maiores desafios da sociedade", mas também pode "aumentar drasticamente as ameaças à segurança, reduzir os direitos humanos e a privacidade e minar a confiança pública na democracia".

Ela disse que apoia, junto com o presidente Joe Biden, que passou rapidamente pela reunião, "novas potenciais regulamentações" e "nova legislação".

A Inteligência Artificial está presente há anos na vida cotidiana, das redes sociais aos eletrodomésticos de última geração até programas de recrutamento de pessoal.

Porém, o grande sucesso desde o fim do ano passado do ChatGPT, a interface de IA generativa da OpenAI, uma empresa emergente amplamente financiada pela Microsoft, foi o ponto de partida para uma corrida por sistemas cada vez mais intuitivos e eficientes, que são capazes de gerar textos, imagens e códigos de programação cada vez mais complexos.

"É bom tentarmos nos antecipar (sobre o tema da regulamentação). Não vai ser fácil, mas acho que podemos conseguir", disse Harris a jornalistas antes de entrar na Casa Branca.

O lançamento do ChatGPT provocou grade entusiasmo e preocupações em uma nova escala, em particular depois que Sam Altman, CEO da OpenAI, antecipou a próxima geração da chamada IA "geral", na qual os programas serão "mais inteligentes que os humanos em geral".

- Sem obrigações -

Os riscos da IA vão desde a discriminação até a automação de tarefas realizadas por humanos, roubo de propriedade intelectual ou desinformação sofisticada em grande escala, entre outros.

No final de 2022, a Casa Branca lançou um "Plano para uma Declaração de Direitos da IA", um pequeno documento que lista princípios gerais como proteção contra sistemas perigosos ou falíveis.

No início deste ano, o Instituto Nacional de Padrões e Tecnologia (NIST), um centro afiliado ao governo, projetou uma "estrutura de gerenciamento de risco" relacionada à IA.

O presidente Biden disse no mês passado que estas empresas "claramente (...) devem garantir que seus produtos sejam seguros antes de colocá-los à disposição do público em geral".

Porém, "estas diretrizes e declarações não obrigam as empresas envolvidas a fazerem nada", destacou David Harris, que foi diretor de pesquisas em IA da Meta.

"Os próprios patrões estão exigindo mais regulamentação", observou, embora o Facebook, apesar de ter "pedido publicamente" melhorar as leis que regem a confidencialidade dos dados pessoais, "ao mesmo tempo paga lobbies que lutam contra esses projetos de lei".

A Casa Branca anunciou, nesta quinta, novos investimentos em pesquisas sobre IA e novos métodos de avaliação dos sistemas atuais.

- "Dano real" -

As gigantes da IA não negam que existam riscos, mas temem que a inovação seja sufocada por leis restritivas demais.

"A IA será utilizada por atores maliciosos, e sim, vai causar danos", disse na quarta-feira o economista-chefe da Microsoft, Michael Schwarz, durante um painel no Fórum Econômico Mundial, segundo a Bloomberg.

Porém, pediu aos legisladores que não se apressem e que quando houver um "dano real", se certifiquem de que "os benefícios da regulamentação sejam maiores do que o preço para a sociedade".

"A última vez que enfrentamos semelhante agitação social devido às tecnologias foi no início da web 2.0, em 2002", disse na quarta-feira Lina Khan, presidente da Comissão Federal do Comércio, a agência de proteção ao consumidor dos EUA.

Do outro lado do Atlântico, a Europa espera liderar novamente o caminho para a regulamentação 'ad hoc' em torno da IA, como já fez com a lei de dados pessoais.

"Não é uma corrida. Estamos trabalhando junto com nossos colegas europeus", disse um alto funcionário da Casa Branca.

C.Moreno--RTC