O incumprimento do Acto da UE sobre IA pode ser dispendioso. Muito caro. Dependendo da infracção, as sanções podem atingir até 7% do volume de negócios global anual ou 35 milhões de euros, consoante o montante mais elevado. O regulamento entrou em vigor em agosto de 2024 e torna-se plenamente aplicável em agosto de 2026, com as principais obrigações já a entrarem em vigor ao longo do caminho.

Para muitas organizações, 2026 marca o momento em que o regulamento de IA passa da consciencialização para a responsabilização. O que antes era algo a monitorizar é agora algo que os conselhos de administração, os reguladores e os clientes esperam que as organizações compreendam - e demonstrem.

O desafio não é simplesmente compreender o regulamento. É compreender o que significa na prática. Que organizações são afectadas? A "IA de alto risco" aplica-se aos seus sistemas? O que é que uma entidade reguladora espera ver como prova? E como é que se transformam os requisitos legais em algo estruturado e defensável?

O que se pretende com o AI Act da UE

O AI Act da UE introduz uma abordagem baseada no risco para regulamentar a inteligência artificial. Quanto maior for o impacto potencial de um sistema de IA nos direitos, na segurança ou nas oportunidades das pessoas, mais rigorosas serão as obrigações que lhe são impostas. No seu núcleo, a lei separa a utilização da IA em categorias - desde práticas proibidas a sistemas de alto risco e casos de utilização de menor risco com requisitos de transparência. Introduz também obrigações para os modelos de IA de uso geral, reflectindo a forma como estas tecnologias são agora amplamente utilizadas em todos os sectores.

Em termos práticos, o regulamento tem quatro objectivos

  • proíbe um conjunto limitado de práticas de IA,
  • impõe requisitos rigorosos aos sistemas de alto risco,
  • introduz obrigações de transparência para determinadas utilizações,
  • e cria regras para modelos de IA de carácter geral.

Esta estrutura significa que a lei se aplica muito para além dos fornecedores de tecnologia. Afecta as organizações que desenvolvem, implantam, integram, adquirem ou dependem de sistemas de IA na UE - muitas vezes de formas que inicialmente não reconhecem como regulamentadas.

Porque é que muitas organizações já estão abrangidas

Um pressuposto comum é que a Lei de IA da UE afecta principalmente as grandes empresas tecnológicas. Na realidade, a exposição resulta muitas vezes da forma como a IA é utilizada e não de quem a constrói. A IA está agora integrada nos processos empresariais quotidianos. Aparece em ferramentas de recrutamento, decisões de crédito, sistemas de apoio médico, interacções com clientes e fluxos de trabalho internos. Em muitos casos, as organizações já estão a utilizar a IA de formas que se enquadram no âmbito da lei sem a terem reconhecido formalmente.

Isto é particularmente relevante em áreas como a contratacção e a gestão da força de trabalho, a tomada de decisões financeiras, incluindo crédito ou seguros, os cuidados de saúde e o diagnóstico, a educação e a avaliação, os serviços públicos ou as infra-estructuras, e as ferramentas viradas para o cliente que dependem da IA generativa.

Uma forma útil de reformular a questão é perguntar: onde é que as decisões apoiadas pela IA já estão a influenciar os resultados para os indivíduos? Normalmente, é aí que começa a exposição regulamentar.

Porque é que 2026 é importante

A Lei da IA está a ser implementada por fases, mas até agosto de 2026 a maioria das disposições são totalmente aplicáveis. Até lá, espera-se que as organizações tenham uma compreensão clara do seu cenário de IA e da forma como este é governado. Isto não significa que todos os processos devam ser perfeitos. Mas significa que as organizações devem ser capazes de demonstrar:

  • visibilidade dos sistemas de IA utilizados,
  • uma abordagem coerente da classificação,
  • responsabilidade definida,
  • controlos documentados,
  • e a capacidade de apresentar provas, se necessário.

Esperar até que a aplicação da lei se torne visível é uma abordagem arriscada. Na altura em que as perguntas são feitas, espera-se que já existam respostas estruturadas.

O que significa "IA de alto risco" na prática

Para muitas organizações, é aqui que começa a incerteza. O facto de um sistema de IA ser considerado de alto risco depende menos da tecnologia em si e mais da forma como é utilizada. Os sistemas entram nesta categoria quando influenciam decisões que podem afectar materialmente a vida das pessoas - o seu emprego, acesso financeiro, cuidados de saúde, educação, segurança ou situação legal.

Na prática, isto inclui frequentemente a IA utilizada em processos como a selecção ou a classificação de candidatos a emprego, a avaliação da solvabilidade ou do risco de seguro, o apoio a decisões clínicas ou médicas, a avaliação de estudantes ou de resultados de formação, ou a definição de prioridades no acesso a serviços essenciais. Não se trata de casos de nicho, mas de processos operacionais essenciais em muitas organizações. Ao mesmo tempo, nem todas as aplicações de IA têm o mesmo peso. Um chatbot que responde a perguntas gerais é muito diferente de um sistema que influencia as decisões de contratacção ou de concessão de empréstimos. A distinção reside no impacto.

O que as organizações frequentemente subestimam é a rapidez com que a "automação útil" se transforma em "apoio à decisão regulamentada" quando começa a moldar os resultados do mundo real. É por isso que a classificação tem de ser consistente, documentada e passível de revisão - e não um juízo informal feito uma vez e deixado sem contestação.

ISO 42001 Checklist PDF Download
Loading...
DOWNLOAD GRATUITO

Lista de verificação de preparação para a ISO/IEC 42001

Se está a começar a avaliar a forma como a IA é gerida na sua organização, esta lista de verificação fornece um ponto de partida estruturado. Ajuda-o a identificar onde a IA é utilizada, a avaliar a sua actual abordagem de governação e a compreender o que pode ser necessário para se alinhar com a ISO/IEC 42001.

Dos sistemas de IA aos sistemas de governação

Quando a IA de alto risco está envolvida, o foco do regulamento muda. Já não se trata apenas do modelo em si. Trata-se do sistema de governação que o rodeia. As entidades reguladoras estão interessadas em saber se as organizações conseguem demonstrar controlo. Isso inclui a forma como os riscos são identificados, como as decisões são documentadas, como a supervisão é mantida e como as questões seriam tratadas se algo corresse mal.

Normalmente, isto exige que as organizações abordem domínios como

  • gestão de riscos e responsabilidade,
  • governação e documentação dos dados
  • transparência e rastreabilidade,
  • supervisão humana,
  • monitorização e tratamento de incidentes.

No seu conjunto, não se trata de requisitos isolados. Formam uma estrutura de governação.

Na prática, a conformidade é menos uma questão de provar que um modelo funciona e mais uma questão de mostrar que a organização que o rodeia está no controlo.

Práticas proibidas e IA de carácter geral

A lei também define um conjunto limitado de práticas de IA proibidas. Embora de âmbito restrito, estas práticas implicam as sanções mais significativas. As organizações devem ser capazes de demonstrar que estas práticas foram consideradas e excluídas no âmbito do seu processo de governação.

Ao mesmo tempo, a IA de uso geral introduz outro nível de responsabilidade. Muitas organizações confiam nas capacidades de IA incorporadas em ferramentas de terceiros, em vez de criarem os seus próprios modelos.

Isto levanta questões práticas em torno da supervisão dos fornecedores, da transparência, da documentação e da forma como os riscos a montante são geridos a jusante. Na prática, a governação não pode parar nas aquisições. Tem de se estender à forma como a IA é efectivamente utilizada nas operações diárias.

 

As questões que as organizações estão agora a enfrentar

Em todos os sectores, a conversa em torno da IA mudou. Já não é impulsionada apenas pela inovação. É cada vez mais moldado pela responsabilidade. As equipas de liderança estão a colocar questões como:

  • Onde estamos exactamente a utilizar a IA?
  • Quais dessas utilizações podem ser de alto risco?
  • A quem pertencem os riscos associados?
  • Que documentação existe?
  • Podemos explicar os nossos controlos a um regulador ou auditor?

Estas não são questões puramente jurídicas. São questões de governação.
As organizações que já utilizam sistemas de gestão estruturados têm muitas vezes uma vantagem. Estão habituadas a definir responsabilidades, a manter documentação e a demonstrar controlo. O desafio é alargar essa mesma disciplina à IA.

Como os quadros de governação apoiam a conformidade

A Lei da IA da UE define o que se espera que as organizações abordem, mas não prescreve a forma como a governação deve ser estruturada internamente.

É aqui que as abordagens dos sistemas de gestão se tornam valiosas. Estas proporcionam uma forma de reunir responsabilidades, processos e controlos em algo consistente e repetível.

Na prática, uma abordagem estruturada de governação da IA reúne funções e responsabilidades claramente definidas, um inventário completo de sistemas de IA e casos de utilização e um método consistente de classificação e avaliação de riscos. Inclui também controlos do ciclo de vida apoiados por políticas documentadas, juntamente com mecanismos de monitorização, escalação e melhoria contínua.

Para muitas organizações, a norma ISO/IEC 42001 está a emergir como um quadro prático neste espaço. Fornece uma abordagem estruturada e auditável para a gestão de sistemas de IA. É importante manter a distinção clara:

  • a Lei da IA da UE estabelece requisitos legais,
  • os quadros de governação ajudam a operacionalizá-los,
  • a avaliação independente reforça a confiança na forma como são aplicados.

Por onde começar

Para a maioria das organizações, o ponto de partida não é uma análise técnica profunda de todos os modelos. É a clareza. Uma abordagem prática segue frequentemente uma progressão simples.

  • Primeiro, criar visibilidade. Mapear onde a IA já é utilizada em toda a organização - incluindo sistemas internos, ferramentas de terceiros e características incorporadas que podem não ser imediatamente óbvias.
  • Em seguida, estabeleça a propriedade. Defina quem é responsável pela supervisão, avaliação de riscos e documentação. Sem uma responsabilidade clara, a governação tende a permanecer informal.
  • Depois, avalie a exposição. Identifique onde podem surgir questões de alto risco ou de utilização proibida. Este raramente é um exercício puramente técnico - requer a participação de equipas jurídicas, de conformidade, de risco e operacionais.
  • Finalmente, comece a formalizar a governação. Alinhe políticas, controlos e processos num modelo que seja consistente e repetível.

O objectivo não é a perfeição desde o início. É a defensibilidade - a capacidade de mostrar que os sistemas de IA são compreendidos, os riscos são avaliados e a governação é aplicada de forma estruturada.

 

O que isto significa na prática

O Acto UE sobre a IA não é apenas um desenvolvimento regulamentar. É um teste de maturidade organizacional. As organizações mais bem preparadas para 2026 não serão necessariamente as que têm as capacidades de IA mais avançadas. Serão as que conseguirem demonstrar claramente como essas capacidades são geridas.

Serão capazes de explicar:

  • o que utilizam,
  • quais os riscos que criam,
  • como é que esses riscos são geridos,
  • e quem é responsável.

Para muitos, a questão já não é se a governação da IA precisa de ser formalizada, mas se pode ser demonstrada com confiança. Em vez de começar do zero, o foco está cada vez mais em alargar os sistemas de gestão existentes para reflectir a forma como a IA é realmente utilizada hoje em dia - de uma forma estruturada, transparente e que possa ser claramente comprovada quando é importante.

Falar com a DQS

Se pretender compreender como é que a Lei da IA da UE se aplica à sua organização e como é, na prática, uma abordagem de governação da IA pronta para auditoria, contacte o escritório local da DQS para iniciar a conversa.

Entre em contacto
Autor

Aakriti Patwari

Loading...

Eventos e artigos relevantes

Você também pode se interessar por
Blog
Loading...

Comunicação de crise durante um ataque de ransomware: Gerir a informação numa emergência

Blog
Loading...

Os três pilares da segurança futura

Blog
Loading...

A DTNA solicita TISAX® labels aos fornecedores