A entrada em vigor do Regulamento Europeu para a Inteligência Artificial — conhecido como AI Act — marca um momento decisivo na trajetória digital da Europa. Trata-se da primeira legislação abrangente no mundo dedicada a regular sistemas de IA com base no risco que representam para a segurança, os direitos fundamentais e o bem-estar dos cidadãos. Para as organizações que desenvolvem, integram ou utilizam estas tecnologias, o impacto é inevitável. E a urgência, real.
A consulta pública atualmente promovida pela Comissão Europeia sobre a implementação do AI Act, focada na clarificação das regras aplicáveis aos sistemas de IA classificados como de “alto risco”, é mais do que um exercício técnico. É um momento estratégico. A classificação de um sistema como sendo de alto risco ativa um conjunto exigente de obrigações legais, que vão desde a documentação técnica pormenorizada até à garantia de supervisão humana, passando por requisitos de robustez, transparência e rastreabilidade. Estas obrigações não recaem apenas sobre quem desenvolve os sistemas, mas também sobre quem os implementa ou utiliza, criando uma cadeia de responsabilidade complexa que atravessa fornecedores, integradores e utilizadores finais.
Neste contexto, muitas organizações enfrentam hoje um paradoxo: sabem que a IA representa uma vantagem competitiva crucial, mas temem avançar com projetos ou produtos que, inadvertidamente, venham a ser considerados não conformes. A ausência de orientações definitivas por parte do regulador, o grau de especialização técnica exigido pela legislação e a elevada penalização por incumprimento criam um cenário propício à inação. E essa inação tem custos. Custos em termos de inovação adiada, investimentos suspensos, e até de perda de quota de mercado para concorrentes mais ágeis ou melhor assessorados.
Face a este panorama, a conformidade com o AI Act não deve ser encarada como um mero imperativo legal. Deve ser vista como uma oportunidade concreta de reforçar a governança que incorpore algoritmos de IA, estruturar processos internos e posicionar a organização como referência ética e técnica no seu sector. A capacidade de demonstrar, com rigor, que um sistema de IA foi desenvolvido, implementado e testado com dados credíveis, de acordo com os princípios e obrigações previstos na regulamentação europeia será, cada vez mais, um fator de confiança para investidores, parceiros, reguladores e clientes.
Mais do que um apoio jurídico ou técnico, trata-se de uma abordagem integrada, desenvolvida por uma equipa multidisciplinar que alia experiência em direito digital europeu, engenharia de software e algoritmos de IA e conformidade com cibersegurança e proteção de dados pessoais. O nosso objetivo é permitir que os nossos clientes avancem com confiança, num ambiente regulatório exigente, criando uma base sólida para inovação responsável e crescimento sustentável dos seus negócios.
A consulta pública termina a 18 de julho de 2025. A janela de oportunidade para darmos a nossa opinião e sugerir melhorias está aberta. Convidamos todas as organizações com ambições no domínio da IA a contactarem-nos para uma conversa exploratória.
Estamos disponíveis para esclarecer dúvidas, analisar cenários e, sobretudo, dotar a operação da sua empresa de soluções inovadoras usando IA, em conformidade com a nova regulamentação europeia nas áreas de IA, cibersegurança e proteção de dados de dados pessoais.
Para mais informações ou para agendar um contacto personalizado com a nossa equipa, utilize o seguinte endereço de correio eletrónico: geral@apustrust.com.
*Imagem gerada com recurso a IA.