Ir para notícias

IA

Cinco chaves para compreender o Regulamento Europeu Inteligência Artificial

Regulamento Europeu Inteligência Artificial

O final de 2022 foi crucial para a democratização da inteligência artificial. No dia 30 de novembro desse ano, a OpenAI – uma empresa especializada em pesquisa e desenvolvimento de sistemas computacionais e algoritmos capazes de imitar a inteligência humana – lançou o ChatGPT. O sucesso deste chatbot foi tão imediato e revolucionário que, apenas quatro dias depois, já contava com mais de um milhão de utilizadores, segundo a empresa californiana. Mais de um ano e meio depois, no passado dia 1 de agosto, entrou em vigor o Regulamento Europeu Inteligência Artificial.

Bruxelas começou a trabalhar nisso antes de o ChatGPT se tornar um fator decisivo. Proposto pela Comissão Europeia em abril de 2021 e aprovado pelo Parlamento Europeu e pelo Conselho em dezembro de 2023, este regulamento visa a mitigação dos riscos potenciais da inteligência artificial para a saúde, segurança e direitos fundamentais dos cidadãos. Estabelece também requisitos e obrigações claras para programadores e implementadores quanto aos seus usos específicos. Estas são as chaves de um regulamento cuja ambição é ser uma referência a nível mundial.

O que é a inteligência artificial?

O Regulamento Europeu Inteligência Artificial define o sistema de inteligência artificial como um programa que funciona de maneira autónoma, ou seja, sem necessidade de intervenção humana constante. Este sistema utiliza dados que pode receber de pessoas ou de outras máquinas e, a partir desses dados, deduz como alcançar certos objetivos. Para isso, aplica técnicas de aprendizagem automática ou baseadas em lógica e conhecimento. Como resultado, gera conteúdos, previsões, recomendações ou decisões que podem influenciar o ambiente com o qual interage.

A quem se aplica o Regulamento Europeu Inteligência Artificial?

O Regulamento Europeu Inteligência Artificial aplica-se a qualquer fornecedor que comercialize ou utilize sistemas de inteligência artificial na União Europeia, independentemente de onde o fornecedor esteja localizado. Aplica-se também a fornecedores e utilizadores de países terceiros cujos sistemas produzam resultados utilizados na UE, utilizadores fisicamente presentes ou estabelecidos na UE, e fornecedores desses sistemas e os seus representantes autorizados, importadores e distribuidores.

Qual é o enfoque?

O enfoque do Regulamento Europeu Inteligência Artificial é baseado no risco, portanto, a um risco mais alto correspondem normas mais rigorosas.

  • Risco mínimo. A maioria dos sistemas de inteligência artificial pode ser utilizada sem complicações adicionais, uma vez que cumprem a legislação em vigor. Exemplos desses sistemas incluem videojogos e filtros de spam em e-mails. Embora não seja obrigatório, os fornecedores desses sistemas podem optar por seguir princípios de inteligência artificial confiável e aderir a códigos de conduta voluntários.
  • Risco específico de transparência. Para gerar confiança, é crucial que o uso da inteligência artificial seja transparente. Por isso, o Regulamento Europeu Inteligência Artificial impõe requisitos específicos de transparência para certas aplicações, especialmente aquelas onde existe um claro risco de manipulação, como os robots conversacionais ou os deepfakes. Os utilizadores devem estar sempre informados de que estão a interagir com uma máquina.
  • Alto risco. Consideram-se de alto risco aqueles sistemas de inteligência artificial que poderiam afetar negativamente a segurança das pessoas ou nos seus direitos fundamentais. Isto inclui, por exemplo, sistemas que decidem se alguém pode receber um tratamento médico, obter um emprego ou um empréstimo para comprar um apartamento. Também abrange sistemas utilizados pela polícia para criar perfis de pessoas ou avaliar o risco de cometer um crime, assim como os que operam robots, drones ou dispositivos médicos. Estes sistemas estarão sujeitos a uma série de requisitos e obrigações para aceder ao mercado da UE.
  • Risco inaceitável. Alguns usos da inteligência artificial são considerados tão prejudiciais que estão proibidos por se oporem aos valores da UE, uma vez que violam os direitos fundamentais dos cidadãos. Estes incluem a manipulação de pessoas (aproveitando as suas vulnerabilidades), o uso de técnicas subliminares, a pontuação social para fins públicos ou privados, a atuação preditiva da polícia baseada apenas em perfis, a recolha massiva de imagens faciais da internet ou câmaras de segurança para criar bases de dados, e o reconhecimento de emoções no trabalho ou em escolas, exceto por razões médicas ou de segurança. Também está proibida a categorização biométrica para inferir dados sensíveis como raça ou orientação sexual, bem como a identificação biométrica remota, em tempo real, em espaços públicos pela polícia, salvo em casos excecionais.

Como aborda os preconceitos raciais e de género?

O Regulamento coloca um grande foco em evitar que os sistemas de inteligência artificial gerem ou perpetuem preconceitos. Por isso, devem cumprir novos requisitos que garantem a sua robustez técnica e evitam resultados preconceituosos que afetem desproporcionalmente grupos marginalizados.

Estes sistemas devem ser treinados com dados representativos e ter mecanismos para detetar e corrigir qualquer desigualdade. Além disso, devem ser rastreáveis e auditáveis, mantendo toda a documentação relevante, incluindo os dados de treino do algoritmo, o que facilita investigações posteriores e garante que sejam monitorizados continuamente.

Como será aplicado o Regulamento Inteligência Artificial e que sanções estão previstas?

O Regulamento Europeu Inteligência Artificial estabelece um sistema de governação em dois níveis: as autoridades nacionais supervisionam o cumprimento das normas nos seus países, enquanto a UE regula os modelos de uso geral. Para assegurar coerência e cooperação, será criado o Comité Europeu de Inteligência Artificial, com o apoio da Agência Europeia de Inteligência Artificial, que fornecerá orientações estratégicas.

Serão aplicadas sanções severas por incumprimentos, que variam de acordo com a gravidade:

  • 35 milhões de euros ou 7% do volume de negócios global por incumprimentos graves relacionados com os requisitos sobre dados.
  • 15 milhões de euros ou 3% por incumprimento de outras obrigações.
  • 7,5 milhões de euros ou 1,5% por fornecer informações incorretas, incompletas ou enganosas às autoridades.

Para as PME, aplica-se o valor inferior desses limites, enquanto para as grandes empresas será aplicado o valor superior.