Opinião
Cibersegurança
Cibersegurança na UE é uma prioridade estratégica para os próximos anos
Natalia García-Barberena
Consultor sénior em Projetos Europeus especializada em cibersegurança
Inteligência artificial
O projeto de quadro regulamentar europeu neste domínio promove a inovação e o respeito pelas normas éticas
Consultor em Projetos Europeus
Por vezes, a ficção não está assim tão longe da realidade. Os filmes retratam continuamente paradigmas em que os robots e a inteligência artificial acabam por dominar a sociedade ou transformar a realidade em algo distópico. Obviamente, isto está longe de ser verdade, mas a inteligência artificial (IA) tem evoluído rapidamente, permeando muitos aspetos das nossas vidas, revolucionando indústrias e transformando a forma como interagimos com a tecnologia.
No entanto, à medida que os sistemas de IA se tornam cada vez mais complexos e influentes, surgem preocupações quanto à sua fiabilidade. Questões como a parcialidade, a falta de transparência, a responsabilização e os potenciais riscos para os valores humanos levantaram questões sobre o desenvolvimento e a utilização responsáveis da IA.
Para responder a estas preocupações, os governos e as entidades reguladoras de todo o mundo estão a tomar medidas, e as instituições europeias não são exceção. Na semana passada, o Parlamento Europeu adotou a sua posição negocial sobre um conjunto de regras que estão agrupadas na chamada Lei da IA. O texto final será objeto de conversações com os Estados-Membros, com o objetivo de chegar a um acordo até ao final deste ano.
Proposta em abril de 2021 pela Comissão Europeia, esta medida visa criar um quadro regulamentar harmonizado para os sistemas de IA, promovendo simultaneamente a inovação e defendendo os padrões éticos. De seguida, detalhamos as suas características.
A lei classifica os sistemas de IA em quatro níveis de risco: risco inaceitável, elevado, limitado e mínimo. Os sistemas de alto risco, como os utilizados em infraestruturas críticas, nos cuidados de saúde ou na aplicação da lei, terão de cumprir os requisitos mais rigorosos, incluindo transparência, documentação e supervisão humana. Ao adotar esta abordagem, a lei garante que as medidas regulamentares são proporcionais aos riscos potenciais colocados pelas diferentes aplicações de IA, concentrando os esforços em áreas de alto risco e permitindo a inovação em domínios de menor risco.
Esta medida proíbe explicitamente certas práticas de IA que são consideradas inaceitáveis devido ao seu potencial para infringir direitos fundamentais ou causar danos significativos. Estas incluem sistemas que manipulam o comportamento humano ou utilizam técnicas subliminares, bem como aqueles que criam deepfakes para fins maliciosos. Desta forma, a lei visa salvaguardar os direitos dos indivíduos e impedir a utilização indevida da IA.
A lei dá prioridade à transparência e à explicabilidade para aumentar a confiança nos sistemas de IA. A lei estabelece que os utilizadores devem ser informados quando interagem com um sistema de IA, para que saibam que não estão a lidar com um ser humano, mas com um sistema automatizado. Além disso, os sistemas de IA de alto risco devem fornecer informações pormenorizadas sobre as suas capacidades e limitações. Estes requisitos permitem que os utilizadores tomem decisões informadas e incentivam a responsabilização pela utilização dos resultados produzidos pela IA.
Reconhecendo a importância da qualidade dos dados e da atenuação dos enviesamentos, a lei sublinha que os dados devem ser transparentes e rastreáveis e cumprir determinados requisitos de qualidade. Desta forma, incentiva a utilização de conjuntos de dados diversificados e de elevada qualidade para evitar resultados tendenciosos e discriminação.
A lei também sublinha a importância do controlo humano. Os sistemas de IA de alto risco devem ter mecanismos adequados de intervenção e controlo humanos. Isto garante que as decisões cruciais não dependem apenas de algoritmos de IA e que os humanos mantêm o controlo sobre os resultados. Os criadores e fornecedores de sistemas de IA devem ser responsabilizados pelos seus produtos. O não cumprimento da lei pode resultar em multas substanciais, incentivando os criadores de sistemas de IA a dar prioridade a considerações éticas e a assumir a responsabilidade pelo impacto social das suas tecnologias.
A Comissão Europeia disponibilizou 317,50 milhões de euros sob a forma de subvenções a projetos inovadores no domínio da IA ao abrigo do cluster 4 do segundo pilar do programa Horizonte Europa. Os convites à apresentação de propostas centram-se no desenvolvimento ético das tecnologias digitais e industriais, em que os utilizadores finais e os trabalhadores são capacitados para o desenvolvimento das tecnologias.
O objetivo da Comissão Europeia é desenvolver um ambiente digital fiável, baseado numa internet mais resiliente, sustentável e descentralizada, dando aos utilizadores finais mais controlo sobre os seus dados e identidade digital, e ainda permitir novos modelos sociais e empresariais que respeitem os valores europeus.
A introdução da Lei Europeia da IA representará um marco importante na regulamentação da IA e na garantia da sua fiabilidade, uma vez que visa proteger os direitos das pessoas e, ao mesmo tempo, promover a inovação e a competitividade na Europa. No entanto, o caminho para uma IA fiável não termina com a adoção destas regras. Há mais alguns passos a dar, que são descritos em seguida:
Ao tomar estas medidas, podemos promover um ecossistema de IA fiável que beneficie os indivíduos, as organizações e a sociedade no seu conjunto. A Lei da UE sobre IA serve de alicerce, mas exige esforços coletivos e um compromisso permanente para navegar pelas complexidades e garantir que esta tecnologia continue a ser uma força positiva. Juntos, podemos moldar o seu futuro, dando prioridade aos valores humanos, à equidade e à transparência e inspirando confiança na tecnologia que está a remodelar o nosso mundo.
Sede de Pamplona
Consultor em Projetos Europeus
Opinião
Cibersegurança
Natalia García-Barberena
Consultor sénior em Projetos Europeus especializada em cibersegurança
Opinião
MATÉRIAS-PRIMAS
Jaime González
Consultor de projetos nacionais espanhol e perito em minas
Opinião
MSCA-DN
Abel Muñiz
Consultor de Projetos Europeus e perito em ações Marie Curie
Notícias
HORIZON EUROPE
Estes são os programas mais interessantes nos domínios do ambiente, da digitalização, da energia, da inovação social, das regiões, da saúde, dos transportes e das universidades
Opinião
Cibersegurança
Natalia García-Barberena
Consultor sénior em Projetos Europeus especializada em cibersegurança
Publicação
Horizon Europe
Para facilitar a sua participação no programa Horizonte Europa, preparámos um guia sobre mais de 700 tópicos que compõem o Pilar II