Vice-presidente do CSM defende transparência e verificação de dados no recurso à inteligência artificial
O vice-presidente do CSM, juiz conselheiro Luís Azevedo Mendes, marcou presença, no dia 23 de abril, na conferência “Tecnologia e Ética – Imperativo de Diálogo”, organizada pelo Tribunal de Contas. Na sua intervenção, destacou que a multiplicação de códigos de ética não resolve por si só os desafios da utilização da inteligência artificial e que as regras devem emergir da análise da casuística do dia a dia, e não de declarações genéricas. Neste aspeto, destacou o papel da Comissão de Ética do CSM, que emite pareceres a partir de situações concretas, permitindo assim chegar a normas claras de utilização. Afirmou ainda que, quanto ao uso de IA, a verdadeira questão é de licitude ou ilicitude e que, no seu entender, não é lícito recorrer a sistemas abertos para a elaboração de sentenças.
O juiz conselheiro falou ainda da dificuldade da autorregulação, sublinhando como essencial a criação da figura da Alta Autoridade para o Tratamento de Dados no Sistema Judicial. A proposta de alteração legislativa sobre o regime de tratamento de dados no sistema judicial, consensualizada no início de 2024 —CSM, Tribunal de Contas, Conselho Superior dos Tribunais Administrativos e Fiscais e Procuradoria-Geral da República — já previa essa autoridade. Sobre o tema, falou também da importância do Regulamento Geral de Proteção de Dados na construção e certificação de ferramentas que possam ser utilizadas pelos juízes no seu trabalho diário.
No plano técnico, o vice-presidente enfatizou que a interoperabilidade deve ser prevista logo na fase de conceção dos projetos, sob pena de criar obstáculos posteriores ao acesso e à segurança do sistema. O juiz conselheiro destacou ainda a questão do controlo dos dados, lamentando que o poder judicial continue sem gerir as infraestruturas utilizadas pelos tribunais e juízes, quando o Instituto de Gestão Financeira e Equipamentos da Justiça (IGFEJ) já reconheceu que não é “dono dos dados” — atribuição que cabe ao CSM. O juiz conselheiro considera esta situação perigosa. Luís Azevedo Mendes manifestou ainda surpresa por não haver um representante do poder judicial entre as catorze responsáveis pela supervisão dos direitos fundamentais no uso de sistemas de IA de risco elevado, como sucede na Justiça.
Para o vice-presidente do CSM, as novas tecnologias são essenciais enquanto assistentes do juiz e, nesse contexto, o GATEP-CSM (Grupo de Apoio à Tramitação Eletrónica de Processos do CSM) assume um papel fundamental. Atualmente, este grupo disponibiliza uma newsletter mensal com dicas de utilização e prepara, para um futuro breve, ações de formação em IA e cibersegurança, em estreita colaboração com os presidentes das comarcas e dos tribunais da Relação.
Luís Azevedo Mendes abordou ainda a questão da qualidade dos dados, referindo experiências recentes, pelos membros do GATEP, em que se verificou que, mesmo em ambiente fechado, a “máquina” pode alucinar. Concluiu sublinhando dois aspetos que considera fundamentais na utilização de inteligência artificial: a verificação rigorosa dos resultados e a transparência quanto ao recurso à IA — assim como, em tempos, se dizia que um documento foi processado por computador, deve hoje assinalar-se claramente quando se recorre a IA.
Raquel Brízida Castro, vice-presidente da ANACOM, também parte do painel, realçou que o que é juridicamente exigível difere do que é tecnicamente possível, alertando para o impacto da IA nos direitos fundamentais, destacando aqui o direito ao esquecimento. António Gameiro Marques, diretor-geral do Gabinete Nacional de Segurança, também presente nesta mesa-redonda, defendeu o princípio “zero trust”, recomendando que se desconfie sempre dos resultados da IA. Alertou ainda que o risco de utilização da IA depende sempre da maturidade e da literacia digital dos utilizadores — “quanto menor a literacia, maior o risco” — e defendeu a um investimento contínuo na formação de todos os atores judiciais.
Lisboa, 28 de abril de 2025