Bioética: Uso de Inteligência Artificial requer «valores», «pensamento crítico» e «literacia» – Mara de Sousa Freitas

Diretora do Instituto de Bioética da Universidade Católica Portuguesa pede «responsabilidade» mas afirma potencialidades a favor do bem-comum no uso de instrumentos de IA

Lisboa, 14 mar 2025 (Ecclesia) – A diretora do Instituto de Bioética da Universidade Católica Portuguesa (UCP) alertou para a necessidade do “humano” no uso de ferramentas de Inteligência Artificial (IA), de valorização dos princípios éticos e da sua aplicação ao serviço da sociedade.

“O desafio é permanecer humano, a decisão sobre o que é feito, como é que é feito, que orientações é que os sistemas têm no âmbito da previsibilidade, das recomendações, no âmbito da criação de perfis, qual é a informação que nós queremos introduzir para que a finalidade última seja boa, e aí estão os valores inscritos”, indica Mara de Sousa Freitas em entrevista à Agência ECCLESIA.

“Precisamos ver as ferramentas de IA ao serviço da sociedade, não esquecendo que existem riscos associados pelo mau uso, como toda a tecnologia que nós conhecemos até hoje, e que a única forma de capacitarmos ou de, talvez, combatermos esse mau uso é pela formação de consciências morais”, acrescenta.

A Conferência Nacional das Associações de Apostolado dos Leigos (CNAL) vai promover o encontro ‘Praça Central’ este sábado, em Braga, para debater “os desafios humanos” na era da inteligência artificial.

A responsável pelo Instituto de Bioética aponta esta como uma área “que convoca” todos os cidadãos, “mesmo suscitando dúvidas”.

Foto: UCP

Mara de Sousa Freitas reconhece que o avanço na ciência acontece pelo “rasgar” de horizontes, tantas vezes para lá do medo – “Devemos procurar olhar a IA como o resultado da evolução do conhecimento, da ciência e da tecnologia, que traz desafios mas que traz muitas oportunidades também”.

A União Europeia designou, em 2024, num conceito adotado no Regulamento da Inteligência Artificial, a IA como um sistema baseado em máquinas, concebido para funcionar com níveis de autonomia que são variáveis, e que pode apresentar capacidade de adaptação após aquilo que é a implantação, para objetivos explícitos ou implícitos, e com base em dados de entrada que recebo.

A responsável adverte para a necessária consciência de informação a introduzir no sistema – “Toda a informação confidencial ou não ficará no sistema e desconhecemos o destino, uma vez que a IA faz perfis individualizados procurando ir ao encontro de necessidades do consumidor”.

Mara de Sousa Freitas sublinha que o desafio perante a IA é “permanecer humanos”, cultivar o pensamento crítico e a literacia sem permitir “uma substituição” – “O conselho é usar a IA numa área que dominemos, para que o deslumbre não aconteça e possamos ser críticos perante os resultados” – e dessa forma esta ferramenta irá “melhorar a qualidade de vida, disponibilizando tempo de uma forma mais eficaz”.

A União Europeia editou o “primeiro documento de preocupação” em 2020, com posteriores “recomendações, livros brancos, princípios e várias orientações”.

“Em Portugal, por exemplo, em fevereiro, foi lançada a Agência Nacional da Inteligência Artificial, para fazer face a estes avanços tecnológicos implementados e procurar baseá-los em princípios éticos e daquilo que se chama da excelência científica, que é harmonizar o uso das ferramentas de forma regulamentada”, refere.

A diretora do Instituto de Bioética sustenta a importância de as ferramentas de IA espoletarem sentido de responsabilidade, justiça, equidade distributiva, procurando não acentuar a assimetrias entre população vulnerável.

A IA está a impulsionar a produtividade, melhorar o bem-estar e a saúde, fortalecer a competitividade nacional, e esta evolução pede “pessoas formadas, capazes de contribuir para uma literacia da casa comum, que permite não uma visão especializada, mas uma visão de uso”.

A reitoria da UCP nomeou um grupo para a “emissão de uma carta de princípios sobre o uso responsável da IA, aqui no contexto académico e científico”, enunciando princípios de “transparência”, de “verificação”, “respeito pela propriedade intelectual” e, para além das recomendações, sublinha a “centralidade no humano”, pois será a ética que poderá “distinguir o bem do mal, o certo do errado”.

“O que é que cada um de nós quer quando está a pedir alguma coisa à ferramenta? Qual é o alinhamento que quer dar? Porque é que estamos a usar a ferramenta? Como é que estamos a usá-la? Estamos a usar o nosso pensamento crítico, ou a receber o que ela nos está a dar sem verificar?” são questões que devem nortear o uso de instrumentos de IA.

Mara de Sousa Freitas salienta ainda não existir um “binómio, ética versus inovação”.

“É exatamente o oposto. É sempre uma oportunidade de colocar o conhecimento gerado com valor social e científico, portanto garantindo o rigor do método científico, e a resposta às necessidades da sociedade onde estamos inseridos. E esse é o valor social do conhecimento que nós criamos”, regista.

“O Conselho Internacional para a Ciência recorda ainda, que é o conhecimento da ciência como um bem público deve estar acessível e disponível para todos, garantindo o rigor. A ciência deve ser aproximada da sociedade e das pessoas, exatamente porque elas são o nosso destinatário”, finaliza.

A conversa com Mara de Sousa Freitas pode ser acompanhada no programa ECCLESIA, sábado na antena 1, pelas 6h.

LS

«Praça Central»: CNAL promove «debate urgente» sobre Inteligência Artificial

Partilhar:
Scroll to Top