O plano para tornar o Reino Unido o centro da inteligência artificial
Google e OpenAi se comprometeram a dar ao governo do Reino Unido acesso antecipado a seus modelos de IA para “fins de pesquisa e segurança”

O primeiro-ministro do Reino Unido, Rishi Sunak, anunciou um plano audacioso para o país se tornar um epicentro global para a indústria de inteligência artificial (IA). Como parte desse plano, o governo britânico pretende lançar importantes bolsas de estudo em IA e investir mais de £ 100 milhões (cerca de R$ 612 milhões) em uma força-tarefa de IA.

Uma combinação de pesquisa, educação e colaboração internacional é o cerne dessa visão, um momento importante para o cenário tecnológico do Reino Unido.

Sunak reconheceu as preocupações que muitos têm em relação à tecnologia de IA. Afinal, não é todo dia que um grupo de cientistas reconhecidos afirma que o mundo pode chegar ao fim. Para abordar isso, Sunak enfatizou seu compromisso em liderar pesquisas de segurança pioneiras dentro das fronteiras do Reino Unido, equilibrando seu entusiasmo pelo futuro com o reconhecimento dos riscos que isso pode trazer.

“Entendo que as pessoas estejam preocupadas com a IA. É por isso que faremos pesquisas de segurança de ponta aqui no Reino Unido”, disse Sunak no anúncio. A ideia é “garantir que, onde e quando a IA for utilizada no Reino Unido, seja feita de forma segura e responsável”.

Um aspecto do plano do governo que despertou interesse é sua colaboração com gigantes da IA: o DeepMind do Google (Bard, PaLM-2), o OpenAI (ChatGPT, GPT-4) e a Anthropic (Claude AI, Constitutional AI). Essas empresas se comprometeram a dar ao governo do Reino Unido acesso antecipado ou prioritário a seus modelos de IA para fins de pesquisa e segurança.

No entanto, a natureza dessa colaboração levantou algumas dúvidas. Os perigos potenciais da supervisão excessiva do governo em relação aos modelos de IA estão se tornando evidentes. Em primeiro lugar, os vieses inerentes a esses modelos de IA podem se tornar institucionalizados. Além disso, a dinâmica de poder entre as empresas de IA e os governos é motivo de preocupação.

Um delicado equilíbrio de poder e um olhar atento para os vieses são necessários para evitar o desenvolvimento de modelos alinhados politicamente em vez de simplesmente politicamente corretos.

“Perguntas mais complexas, como as que são políticas ou filosóficas, podem ter várias respostas”, explica o veículo de tecnologia TechTarget, “a IA adota a resposta do treinamento, causando viés, uma vez que pode haver outras respostas”.

IA para um futuro mais promissor
O investimento do governo do Reino Unido se concentrará em duas bolsas de estudo em IA dedicadas a resolver problemas urgentes no fornecimento de culturas agrícolas e na área da saúde por meio da tecnologia.

“Essas novas bolsas de estudo, juntamente com todo o nosso trabalho em IA até agora, ajudarão a construir um futuro mais promissor para você e suas famílias”, disse Sunak, enfatizando a abordagem centrada no ser humano em relação à IA no Reino Unido.

O compromisso do primeiro-ministro com a segurança da IA foi ecoado em seu discurso na conferência London Tech Week, onde ele assegurou ao público que o Reino Unido se tornaria o centro geográfico da regulamentação global de segurança da IA.

Uma conferência de segurança de IA já está em andamento, disse ele, um evento comparado às conferências COP sobre o clima.

No entanto, o entusiasmo recém-descoberto do governo pela segurança da IA marca uma mudança perceptível de sua postura anterior.

Até recentemente, o white paper do governo refletia uma abordagem pró-inovação para a regulamentação da IA, minimizando as preocupações com a segurança. Essa mudança repentina de tom, após reuniões com grandes nomes da indústria de IA, levantou questões sobre a suscetibilidade do governo à influência da indústria.

Paralelamente a esses desenvolvimentos, o CEO da OpenAI, Sam Altman, está em uma turnê internacional com o objetivo de fortalecer os laços com reguladores de todo o mundo. Isso também gerou um debate sobre seu interesse em liderar os esforços regulatórios em todo o mundo, ao mesmo tempo em que ameaça deixar jurisdições que desejam regulamentar a indústria.

Um discurso diversificado envolvendo pesquisadores independentes, grupos da sociedade civil e comunidades vulneráveis é essencial para uma perspectiva abrangente sobre a segurança da IA. Afinal, enquanto esses “Titãs da IA” detêm as chaves do futuro, são as pessoas comuns que viverão nele.

redacao
Conta Oficial Verificada