Igreja/Ética: «Inteligência Artificial será, provavelmente, o maior desafio antropológico de todos os tempos» – Mara de Sousa Freitas

A IA representa um passo gigante no avanço tecnológico, mas os desafios que acarreta são também maiores do que nunca. O tema está no centro do debate e o Papa abordou-o no recente discurso aos líderes do G7. Para abordar estas questões, é convidada da Ecclesia e Renascença a diretora do Instituto Bioética e professora auxiliar na Faculdade de Medicina da Universidade Católica Portuguesa, que também faz parte do Observatório Português de Cuidados Paliativos

Foto: UCP

Entrevista conduzida por Ângela Roque (Renascença) e Octávio Carmo (Ecclesia)

Há a preocupação de acompanhar o desenvolvimento tecnológico com uma reflexão ética, ou esta tende a ficar sempre para trás?

É um desafio gigante, diria que neste momento a ética está a ser colocada na vanguarda da reflexão, depois de termos começado a falar de forma mais premente nas questões de Inteligência Artificial. Sou relativamente jovem, mas ainda assim acho que não tinha assistido à necessidade e à colocação da reflexão e das questões éticas na base deste desenvolvimento tecnológico, o que é uma coisa francamente positiva, no meu entendimento.

 

Isso terá a ver com os receios do sítio para onde esta tecnologia nos pode levar, ou é uma reação natural perante a novidade?

Não, não parece ser uma reação natural perante a novidade. Aliás, já em 2018 tivemos o primeiro Livro Branco da Comissão Europeia sobre as questões da ética e a Inteligência Artificial. Também o Papa Francisco, agora, em junho, no G7, falou do tema, mas em janeiro, com a mensagem para o Dia Mundial da Paz, já tinha colocado de uma forma muito clara e objetiva os benefícios daquilo que pode ser o desenvolvimento tecnológico relativamente à aplicação da Inteligência Artificial e, como eu gosto de chamar, das ferramentas de IA. Mas também colocou em foco, sublinhou e apontou caminhos sobre os verdadeiros desafios éticos e humanos da aplicação destas ferramentas à vida humana, e não só. Logo na celebração do Dia Mundial da Paz falou das questões da Inteligência Artificial, ética e paz, e apontou para as medidas que teremos de contemplar para que estas ferramentas se possam transformar em ferramentas para a vida boa, para o bom uso e para a não violência.

 

Voltando ao discurso do Papa na cimeira do G7, Francisco deixou um apelo particular para que se trave o desenvolvimento das armas autónomas letais. É importante que se pense no risco que a humanidade corre deixando máquinas dispararem autonomamente?

Acho que esta alerta é muito pertinente. Eu faço revisão ética na Comissão Europeia de Projetos de Investigação e, quando começaram a surgir os primeiros drones, um dos elementos de avaliação era o uso duplo, o uso secundário das novas tecnologias com finalidades que possam ser menos benévolas ou até maléficas, com um impacto negativo sobre a sociedade. Na altura falava-se, sobretudo, da utilização em termos de segurança, em termos de projetos de investigação com finalidades boas. E começou-se a falar exatamente que estes instrumentos e ferramentas poderiam ser usados como instrumentos de guerra…

 

Como, aliás, se viu agora na guerra na Ucrânia…

Exatamente. Passados estes anos percebemos claramente qual é o uso que pode ser dado a ferramentas desenvolvidas por meios científicos adequados, rigorosos, com finalidades que serviam os propósitos da sociedade, mas com usos possíveis secundários que têm de ser prevenidos e delimitados, ou efetivamente eliminados.

Esse uso secundário com potencial militar, por exemplo, pode ser danoso, dependendo em que mãos é que cai. No fundo, as questões éticas são sobre o bem e o mal, como é que, perante uma situação, fazemos uma boa escolha. Aí depende sempre do agente, da pessoa, do indivíduo. Não é passível de poder ser massificado, ainda que se possa criar uma orientação que procure guiar a ação individual.

 

Ainda é possível impor limites? Há um certo fascínio em todas as áreas com a inteligência artificial, com o avanço tecnológico que se conseguiu, nunca se esteve neste patamar do desenvolvimento, mas corremos o risco de entrar num caminho sem retorno, se não balizarmos bem as coisas?

Tenho por norma ser otimista e acreditar na máxima de que a esperança é o caminho permanente que fazemos. Eu diria que ainda está muito por fazer, mesmo que muito já esteja feito, e acho que nunca é tarde para procurarmos colocar limites, mas sobretudo criarmos capacidade humana para resistir a uma pressão maior. Muitas vezes, nestas situações, há um hiato que a me preocupa particularmente: o conhecimento das novas tecnologias, a inovação, o desenvolvimento, qual é o grande propósito, o maior? É procurar dar-nos a todos uma melhor qualidade de vida. O Papa alerta exatamente sobre isso.

Será que podemos falar em avanços tecnológicos e inovação se o fruto, se o resultado dessa inovação tiver um impacto que possa prejudicar a nossa qualidade de vida, agravar as questões de justiça, de desigualdade, de guerra? Eu tenho dúvidas, verdadeiramente.

Sobre o impor limites, creio que, por um lado, esse trabalho está a ser desenvolvido a nível da Europa e a nível internacional, numa perspetiva de segurança, porque a Inteligência Artificial, nos seus diferentes modos, é sobre um grande manancial, o grande agente económico neste momento, que se chama dados. Não é informação, são os dados.

Já em 2017, num grupo em que estive, na Comissão de Ética, o ‘policy paper’ que fizemos foi sobre a informação e a ética e a informação, particularmente na saúde. Este é um ecossistema que está a ser criado, e os cidadãos – ou seja, os destinatários últimos daquilo que são as ferramentas que possam vir a ser criadas – estão muitas vezes alheados, no sentido da sua partilha, do seu uso, de quem terá a custódia destes dados, da finalidade com que vão ser usados.

Estes dados, no meu entendimento, são uma dádiva, numa perspetiva de qualidade e de podermos enriquecer um ecossistema com dados de qualidade que permitam construir ferramentas confiáveis, seguras. Esses algoritmos são-nos alheios, mais uma vez, são controlados por uma minoria da população, os peritos nestas áreas. Falamos em rastreabilidade e em transparência… recentemente o conselheiro do Papa para a inteligência artificial [padre Paolo Benanti] esteve em Lisboa e falou exatamente disso: a transparência é importante, mas quem de nós é capaz de compreender esse circuito, de tal modo que essa transparência possa significar uma maior confiança nesse mesmo sistema? Se calhar queremos confiar nos resultados, tendo em conta a segurança, sabermos que os dados estão nesta dita caixa negra e que podemos confiar.

Impor limites passa por continuarmos matrizes fundamentais e uma delas é a educação: a capacitação, a educação e o envolvimento dos cidadãos. Há um hiato entre o conhecimento que é produzido, a ciência, a inovação tecnológica e as reais necessidades dos contextos em que vivemos. Por isso é que cada vez mais, e agora a nível internacional, tem havido um grande esforço para a aproximação da tecnologia e da ciência aos cidadãos, uma certa democratização. Ou seja, se estamos a criar uma resposta para determinadas sociedades, para a sociedade no seu todo ou para esta aldeia global em que nos transformamos, é necessário ouvir quem precisa, o que precisa e como precisa, percebermos qual a perspetiva dos cidadãos sobre o uso destas ferramentas, e isso realmente não existe.

Existem iniciativas de ciência cidadã ao nível da investigação… NA Comissão de Ética da Universidade Católica temos procurado que em termos de projetos de investigação exista uma partilha de benefícios com os sujeitos envolvidos na criação de conhecimento: escutar e compreender as necessidades e procurar criar ferramentas que se destinam a essas necessidades.

Criar limites passa muito pela regulação, e a regulação tem um lugar diferente da ética; nesta fase, diria que é elementar podermos criar espaço e tempo para a reflexão que é necessário ser feita.

 

O Instituto de Bioética da Universidade Católica foi pioneiro em Portugal. Como é que o organismo acompanha este momento? Vê a possibilidade de criar, como disse o padre Paolo Benanti – que esteve em Lisboa a convite da Católica – barreiras de proteção éticas no campo da Inteligência Artificial?

Exerço funções no Instituto de Bioética desde novembro de 2022 e, logo em março de 2023, organizámos uma primeira conferência sobre ética e Inteligência Artificial. Na altura convidámos um professor do Instituto Superior Técnico (Joaquim Jorge), que é neste momento o coordenador da Cátedra de Inteligência Artificial da Unesco em Portugal, e que tem também liderado estes processos, do ponto de vista mais técnico-científico. Foi uma das primeiras conferências inseridas num ciclo que foi criado pelo Instituto de Bioética, sob o lema “Bioética para todos”, numa perspetiva não apenas de académicos, mas sim da abertura das portas da Faculdade de Medicina e do Instituto de Bioética à sociedade. Depois da conferência sobre IA houve outra sobre “Decisões éticas em fim de vida”, e ainda acontecerá outra, este ano, sobre “Ética, educação e valores”.

Tivemos as duas primeiras na Faculdade e a próxima será na Câmara Municipal de Oeiras, num espaço comunitário. O objetivo é envolver a ciência, a sociedade e a política no mesmo meio e procurar criar pontes entre a sociedade, a reflexão ética e filosófica, a ciência que procura responder a estas necessidades, e a política. Porque não podemos ignorar que há um caminho de implementação que compete à política.

Na Europa, neste momento, somos vice-presidentes de um grupo Europeu que está a desenhar as políticas do ponto de vista ético e legal para a gestão responsável de dados resultantes da aplicação das ferramentas de Inteligência Artificial. Este grupo, que tem vários subgrupos, está a agregar esforços e a produzir ferramentas, orientações, e também a promover espaços de debate a nível europeu sobre os desafios do bom uso das ferramentas de IA e as regras criadas, por um lado, no âmbito da Lei da Inteligência Artificial, que foi agora publicada a nível europeu, e também dos Códigos de Integridade que já estão estipulados, ver como como é que esses princípios têm uma aplicação prática. Porque o que efetivamente é a chave, muitas vezes não é tanto a legislação aplicável – que regula e é necessária, porque todos teremos de respeitá-la -, mas o que é que significam aqueles princípios na vida quotidiana, no exercício da nossa cidadania.

 

O Papa tem sido pioneiro em muitos gestos e em muitas iniciativas relacionadas com a Inteligência Artificial. Em fevereiro de 2020 a Academia Pontifícia para a Vida assinou com a Microsoft, a IBM, a FAO e o governo italiano o chamado ‘Rome Call’ – o ‘Apelo de Roma’ para o uso ético da tecnologia, para promover a responsabilidade partilhada entre as instituições e organizações internacionais e os governos. Agora em julho, dias 9 e 10, representantes de várias religiões mundiais vão assinar, em Hiroxima, um apelo conjunto para o uso ético da IA a favor da paz. Que importância têm estes gestos?

São gestos que procuram, através desse simbolismo, criar caminhos. Ainda agora, no G7, foi dito que a Inteligência Artificial será, provavelmente, o maior desafio antropológico de todos os tempos. E esse desafio requer, efetivamente, uma resposta gregária, de conjunto, em que os princípios que orientam a ação individual possam contribuir para o caminho que é necessário ser feito neste global, nesta Casa Comum.

Este simbolismo deste novo acordo ir ser firmado em Hiroxima, não é por acaso. Ainda recentemente tivemos um filme, Oppenheimer, que veio lembrar-nos de Hiroxima, que vem colocar-nos a pergunta a fazer em quase todas as situações que decorrem das escolhas sobre estas novas tecnologias como formas de progresso. É a pergunta ética: ‘eu posso?’. Tenho o conhecimento, os meios e os recursos. A pergunta é ‘eu devo?’. É neste dever que encontramos o poder, e em que se fazem as perguntas: ‘o quê?’, nós já sabemos, mas o ‘para quê?’, ‘para quem?’, ‘quando?’, e o ‘como?’. Essas são as perguntas que devem guiar estas escolhas, e estes momentos simbólicos vêm exatamente trazer à colação momentos críticos da nossa história, com um impacto que se faz sentir até à atualidade.

Estes acordos, estas assinaturas são o comprometimento com valores comuns. Um dos elementos de verdadeira solidariedade social é o encontro. E aqui a pergunta é ‘como é que nós, enquanto sociedade, enquanto indivíduos, nos encontramos?’. E esta inteligência artificial, e não só, as redes sociais… a forma como nos relacionamos, comunicamos, ensinamos, aprendemos, somos cuidados e cuidamos, têm vindo a sofrer um impacto e uma alteração considerável, decorrente do uso destas ferramentas. O desafio é como permanecer humano através do uso desta tecnologia? Como é que nós, enquanto pessoas, somos capazes de melhorar a nossa qualidade de vida utilizando estas ferramentas, maximizando o bem e, por inerência, tentando ter a máxima prudência e evitar todo o mal que seja possível ser evitado. Este é o verdadeiro desafio.

As questões da Inteligência Artificial são uma oportunidade para compreendermos quem é que somos, quem é que queremos continuar a ser e que escolhas é que queremos continuar a ter para, permanecendo humano, a tecnologia possa ser um meio de realização.

 

Já falou na importância da educação, mais no meio académico. Mas a educação para esta área, combater a iliteracia, tem de começar cada vez mais cedo, não é? Também é um desafio para própria Política?

É um desafio para a política macro, e não apenas numa perspetiva de literacia. É fundamental trabalharmos as questões de literacia nas múltiplas áreas. Trabalhar a literacia é respeitar as pessoas, procurar que elas sejam capazes de compreender o que dizemos, proteger e respeitar a sua vulnerabilidade. Eu, perante o outro que é frágil e vulnerável, devo colocar em prática todas as medidas que permitam que não se agrave essa vulnerabilidade, se possível protegendo-o. Mas não chega isso, é preciso continuar a olhar para aquela pessoa como uma pessoa, e não obstante a situação de particular vulnerabilidade, ser capaz de provê-la do máximo de recursos para que ela possa ser capaz de desenvolver o seu máximo potencial humano, ainda que numa situação vulnerável.

É necessário trabalhar a literacia, mas diria que estamos a um nível mais de base da pirâmide, em que estamos a falar de unidades estruturais da nossa sociedade, como a família e a educação. Foco aqui na educação das crianças, no sistema de educação que temos, não apenas nas universidades – que é fundamental e onde a Inteligência Artificial coloca desafios gigantes -, mas também no desafio de valores, nas gerações que neste momento estão a nascer e para as quais o natural é a IA. É o primeiro contacto, e que relação é que estão a criar com algo que nós, gerações adultas, ainda desconhecemos?

O contacto e a relação que elas estabelecem é de espontaneidade para com estas ferramentas. Que pontes intergeracionais somos capazes de formar para esta sabedoria, conhecimento e capacidade para gerir o melhor uso destas ferramentas? Em última instância – e este é outro dos aspetos que a IA vem acentuar -, o que é que é isto do conhecimento, da verdade, sendo que à distância de um clique eu faço uma pergunta e tenho automaticamente uma resposta?

 

Há que desenvolver o sentido crítico, para que se perceba que nem tudo o que ali está é correto…

O sentido crítico e criatividade. O ser humano é, por natureza, criativo, é inovador….

 

É uma das coisas que nos diferencia das máquinas….

A máquina tem dados que são limitados, e a partir de uma série de conjugações, e dizem os especialistas – não me atrevo a pronunciar, porque é uma matéria sobre a qual não tenho competência nem capacidade para analisar – que há um certo número de combinações que pode ser esgotada, extinguir-se e criar alguma criatividade… Portanto, o lugar da inovação criativa tipicamente humana qual é? Qual é o pensamento crítico? Na realidade, vimos à educação – como é que nós aprendemos? Aprendemos a ler e a escrever, que são atividades que no sistema educativo têm vindo a ser transformadas sem qualquer juízo sobre essa transformação. Na verdade, os processos de ensino/aprendizagem/conhecimento estão substancialmente alterados. Como é que mantemos este pensamento crítico sobre o que é que eu posso, o que é que eu devo?…

Não tenho um discurso de medo perante a Inteligência Artificial, mas sobretudo de grande responsabilidade. Mas não posso deixar de enquadrar isto num fenómeno histórico que não é novo, é apenas fruto da evolução e das capacidades humanas, desenvolveu-se e é uma ferramenta poderosa. Como é que nós usamos este poder? A Hannah Arendt falava disto, num discurso muito simples que todos conhecemos, sobre a manipulação de massas. Que riscos é que temos aqui, na área da comunicação e do jornalismo? A Susan Sontag também explica muito bem os fenómenos da guerra, das catástrofes, que são previamente escolhidos quais são os que devem ou não ser disseminados. Ou seja, preocupamo-nos com as escolhas que a máquina vai fazer? Estamos preparados para decisões que nos são alheias e que possam ser tomadas por uma máquina?

Creio que neste momento não estamos nesse ponto, exatamente porque quem programa, quem define algoritmos, quem determina quais são os valores que são imputados a um determinado sistema é humano, continua a ser o humano.

 

Já referiu a área da saúde. É enfermeira, doutorada em Bioética (com uma tese sobre vulnerabilidade, autonomia e a decisão bioética em oncologia). Sabemos que há avanços da Inteligência Artificial que vão ajudar a salvar vidas. Consegue imaginar uma relação terapêutica sem intervenção humana?

A Inteligência Artificial pode vir a ser uma ferramenta extremamente importante face à escassez de alguns dos recursos, de profissionais, por exemplo, em determinadas áreas geográficas. Ou também na medicina de precisão, ainda que careça, mais uma vez, daquilo que é a apropriação pelo humano.

A relação terapêutica implica aquilo que é uma relação de ajuda, uma compreensão, uma reciprocidade, implica apoio… Portanto, a relação pode ser estabelecida com um robô – já existem neste momento enfermeiros robôs -, ou robôs de companhia para idosos que estão muito isolados e sozinhos. A compreensão dependerá da quantidade de dados, e a compreensão… tenho dúvidas. Mas implica, sobretudo, uma colaboração e confiança entre as partes, e esta confiança tem como premissa aferir objetivos comuns entre uma máquina e um humano, um vínculo emocional, que poderá haver da parte do humano, mas a ausência de reciprocidade condiciona esse vínculo por parte do humano, e implica o respeito e a aceitação.

Temos aqui alguns princípios, valores e virtudes que são estritamente humanos, portanto, podem ser um apoio e significar uma melhoria da qualidade de vida. Sobre uma relação dita terapêutica, há uma relação, mas a parte da terapêutica, poderá, em coisas específicas, prover medicamentos, se for programado para tal. Do ponto de vista de confiança, vínculo emocional, respeito e reciprocidade, creio que não estamos ainda em condições de poder avançar para esse nível de relação.

 

Partilhar:
Scroll to Top