Ir para opininão de especialistas

Inteligência artificial

Um passo em direção a uma inteligência artificial fiável e segura

Lei da UE sobre IA
Daniel Errea

Daniel Errea

Consultor em Projetos Europeus

Por vezes, a ficção não está assim tão longe da realidade. Os filmes retratam continuamente paradigmas em que os robots e a inteligência artificial acabam por dominar a sociedade ou transformar a realidade em algo distópico. Obviamente, isto está longe de ser verdade, mas a inteligência artificial (IA) tem evoluído rapidamente, permeando muitos aspetos das nossas vidas, revolucionando indústrias e transformando a forma como interagimos com a tecnologia.

No entanto, à medida que os sistemas de IA se tornam cada vez mais complexos e influentes, surgem preocupações quanto à sua fiabilidade. Questões como a parcialidade, a falta de transparência, a responsabilização e os potenciais riscos para os valores humanos levantaram questões sobre o desenvolvimento e a utilização responsáveis da IA.

Para responder a estas preocupações, os governos e as entidades reguladoras de todo o mundo estão a tomar medidas, e as instituições europeias não são exceção. Na semana passada, o Parlamento Europeu adotou a sua posição negocial sobre um conjunto de regras que estão agrupadas na chamada Lei da IA. O texto final será objeto de conversações com os Estados-Membros, com o objetivo de chegar a um acordo até ao final deste ano.

Lei da UE sobre IA

Proposta em abril de 2021 pela Comissão Europeia, esta medida visa criar um quadro regulamentar harmonizado para os sistemas de IA, promovendo simultaneamente a inovação e defendendo os padrões éticos. De seguida, detalhamos as suas características.

Abordagem baseada no risco

A lei classifica os sistemas de IA em quatro níveis de risco: risco inaceitável, elevado, limitado e mínimo. Os sistemas de alto risco, como os utilizados em infraestruturas críticas, nos cuidados de saúde ou na aplicação da lei, terão de cumprir os requisitos mais rigorosos, incluindo transparência, documentação e supervisão humana. Ao adotar esta abordagem, a lei garante que as medidas regulamentares são proporcionais aos riscos potenciais colocados pelas diferentes aplicações de IA, concentrando os esforços em áreas de alto risco e permitindo a inovação em domínios de menor risco.

Proibição de práticas de IA inaceitáveis

Esta medida proíbe explicitamente certas práticas de IA que são consideradas inaceitáveis devido ao seu potencial para infringir direitos fundamentais ou causar danos significativos. Estas incluem sistemas que manipulam o comportamento humano ou utilizam técnicas subliminares, bem como aqueles que criam deepfakes para fins maliciosos. Desta forma, a lei visa salvaguardar os direitos dos indivíduos e impedir a utilização indevida da IA.

Transparência e explicabilidade

A lei dá prioridade à transparência e à explicabilidade para aumentar a confiança nos sistemas de IA. A lei estabelece que os utilizadores devem ser informados quando interagem com um sistema de IA, para que saibam que não estão a lidar com um ser humano, mas com um sistema automatizado. Além disso, os sistemas de IA de alto risco devem fornecer informações pormenorizadas sobre as suas capacidades e limitações. Estes requisitos permitem que os utilizadores tomem decisões informadas e incentivam a responsabilização pela utilização dos resultados produzidos pela IA.

Governação dos dados

Reconhecendo a importância da qualidade dos dados e da atenuação dos enviesamentos, a lei sublinha que os dados devem ser transparentes e rastreáveis e cumprir determinados requisitos de qualidade. Desta forma, incentiva a utilização de conjuntos de dados diversificados e de elevada qualidade para evitar resultados tendenciosos e discriminação.

Controlo e responsabilização

A lei também sublinha a importância do controlo humano. Os sistemas de IA de alto risco devem ter mecanismos adequados de intervenção e controlo humanos. Isto garante que as decisões cruciais não dependem apenas de algoritmos de IA e que os humanos mantêm o controlo sobre os resultados. Os criadores e fornecedores de sistemas de IA devem ser responsabilizados pelos seus produtos. O não cumprimento da lei pode resultar em multas substanciais, incentivando os criadores de sistemas de IA a dar prioridade a considerações éticas e a assumir a responsabilidade pelo impacto social das suas tecnologias.

Compromisso sob a forma de oportunidades de financiamento

A Comissão Europeia disponibilizou 317,50 milhões de euros sob a forma de subvenções a projetos inovadores no domínio da IA ao abrigo do cluster 4 do segundo pilar do programa Horizonte Europa. Os convites à apresentação de propostas centram-se no desenvolvimento ético das tecnologias digitais e industriais, em que os utilizadores finais e os trabalhadores são capacitados para o desenvolvimento das tecnologias.

O objetivo da Comissão Europeia é desenvolver um ambiente digital fiável, baseado numa internet mais resiliente, sustentável e descentralizada, dando aos utilizadores finais mais controlo sobre os seus dados e identidade digital, e ainda permitir novos modelos sociais e empresariais que respeitem os valores europeus.

Os próximos passos

A introdução da Lei Europeia da IA representará um marco importante na regulamentação da IA e na garantia da sua fiabilidade, uma vez que visa proteger os direitos das pessoas e, ao mesmo tempo, promover a inovação e a competitividade na Europa. No entanto, o caminho para uma IA fiável não termina com a adoção destas regras. Há mais alguns passos a dar, que são descritos em seguida:

  • Cooperação internacional: promover a cooperação internacional e a colaboração entre governos, organizações e peritos para estabelecer normas comuns e melhores práticas para uma IA fiável;
  • Orientações éticas: desenvolver e adotar orientações éticas abrangentes que cubram princípios como a equidade, a transparência, a responsabilidade, a privacidade e a robustez. A adesão a estes princípios promoverá a confiança entre os utilizadores e as partes interessadas;
  • Testes e certificação robustos: estabelecer processos rigorosos de teste e certificação para sistemas de IA, especialmente os classificados como de alto risco. Avaliações exaustivas do desempenho, da fiabilidade e da segurança dos sistemas de IA podem ajudar a garantir a sua fiabilidade e a prevenir potenciais danos;
  • Investigação e desenvolvimento contínuos: os avanços nestes domínios contribuirão para a melhoria dos sistemas de IA e para a resolução de potenciais enviesamentos, erros ou consequências não intencionais;
  • Sensibilização e educação do público: capacitar as pessoas para tomarem decisões informadas sobre a utilização da IA e para participarem em debates sobre o seu impacto social. A literacia digital e a promoção da compreensão contribuirão para uma utilização mais responsável e informada das tecnologias de IA;
  • Avaliação e adaptação contínuas: avaliar regularmente a eficácia e o impacto da IA e efetuar as adaptações necessárias para responder a novos desafios e desenvolvimentos tecnológicos.

Ao tomar estas medidas, podemos promover um ecossistema de IA fiável que beneficie os indivíduos, as organizações e a sociedade no seu conjunto. A Lei da UE sobre IA serve de alicerce, mas exige esforços coletivos e um compromisso permanente para navegar pelas complexidades e garantir que esta tecnologia continue a ser uma força positiva. Juntos, podemos moldar o seu futuro, dando prioridade aos valores humanos, à equidade e à transparência e inspirando confiança na tecnologia que está a remodelar o nosso mundo.

Pessoa especialista

Daniel Errea
Daniel Errea

Sede de Pamplona

Consultor em Projetos Europeus