Media: «O metaproblema deste século XXI será para onde é que as tecnologias nos levam» – António Valente Andrade

Neste Dia Mundial das Comunicações Sociais é convidado da Renascença e da Agência ECCLESIA António Valente Andrade, professor da Católica Porto, doutorado em Tecnologias e Sistemas de Informação, que tem investigado os impactos da inteligência artificial em várias áreas

Foto: RR

Entrevista conduzida por Henrique Cunha (Renascença) e Octávio Carmo (Ecclesia)

O Papa Leão XIV, nas suas primeiras intervenções, referiu-se várias vezes aos desafios da inteligência artificial, inclusive para justificar a escolha do seu nome, face aos novos desafios que se colocam no mundo do trabalho.  Faz sentido esta sua preocupação?

Sim, creio que faz todo sentido, porque estamos perante uma nova revolução que terá muito impacto na organização do trabalho e no futuro do trabalho. Nós já estamos a assistir a muita automação que vem do uso da informática e agora desta nova onda que é a inteligência artificial e que pode ter, de facto, bastante impacto no emprego e na organização do trabalho. Por isso faz todo sentido a preocupação que ele tem, a nível social.

 

Recorrendo à sua experiência, também para situarmos quem nos está a ouvir, que principais riscos e desafios é que devemos valorizar? Por exemplo, é uma coisa que muita gente se questionará, é previsível um aumento do desemprego?

Pois não sabemos, há sinais contraditórios, mas eu estou em crer que haverá uma redução do tempo de trabalho. Fala-se muito na sociedade de pós-trabalho…

 

Isso até poderá não ser mau….

Exatamente. Até se fala na semana de quatro dias. Porque isso já aconteceu no passado, tivemos uma redução, trabalhava só sábado, depois só de manhã e depois já não se trabalhava ao sábado. Enfim, genericamente falando, e agora fala-se na semana de quatro dias, portanto mais tempo para a família, para o lazer, para a cultura, isso será positivo. Mas tudo que sejam profissões mais rotineiras podem ser dispensadas para a automação. E efetivamente temos o exemplo da IBM, que é um grande construtor de tecnologias de informação, tanto de hardware como de software, só trabalha com grandes companhias, que previu reduzir 8 mil postos de trabalho e, de facto, fez essas dispensas e automatizou o Departamento de Recursos Humanos, poupando 3 mil e 600 milhões de dólares, mas depois acabou por empregar mais pessoas, mais engenheiros que precisava para o desenvolvimento da utilização da inteligência artificial na companhia. E também pessoas para o marketing, para as vendas, que não têm competências necessariamente em inteligência artificial. Há esses sinais contraditórios, mas estou em crer que, de facto, a redução dos postos de trabalho se fará sentir, sobretudo em profissões que tenham menos empatia humana, digamos assim.

 

E a inteligência artificial pode acentuar desigualdades e injustiças?

Sim, isso é um problema entre países mais desenvolvidos e menos desenvolvidos no acesso à tecnologia que permite esse tipo de avanços. Digamos que o metaproblema deste século XXI será para onde é que as tecnologias nos levam, porque as empresas de tecnologia tentaram no início fazer um certo pacto sobre o desenvolvimento da inteligência artificial, depois isso não foi feito e, portanto, é cada um por si a desenvolver e depois ver se o que é que dá, não é? Portanto, estamos a correr este risco que terá fortes impactos nos próximos anos, depois de 2030, segundo alguns, onde possamos ter uma inteligência artificial mais equiparada ao ser humano.

 

Nós estamos a celebrar o Dia Mundial das Comunicações Sociais, a forma como os mais novos procuram informações e são bombardeados nas redes sociais com dados que são, muitas vezes deturpados e manipulados, são um desafio para todos?

Sem dúvida, é um desafio e uma ameaça, porque, se me permitem, eu acho que no plano da educação o uso da inteligência artificial deve ser equacionado em torno de cinco eixos: ensinar com inteligência artificial, investigar com inteligência artificial, preparar os jovens para o mundo com inteligência artificial, melhorar a eficiência administrativa e operacional das escolas com inteligência artificial e preparar os jovens para o mundo com inteligência artificial. É muito importante, porque a fraude personalizada é uma ameaça muito presente com o desenvolvimento de inteligência artificial.

 

Sim, a pergunta ia muito nesse sentido, porque há uma tendência do agravamento de manipulação, que passa até o avanço da inteligência artificial….

Pois, a manipulação da opinião, a discriminação.

 

E até dos vídeos que parecem verdadeiros, mas que são completamente falsos, com coisas que as pessoas nunca disseram. Este desenvolvimento desta capacidade de perceber quais são as fontes de informação fiáveis e não, também é um desafio específico?

Sim, sem dúvida, sem dúvida, cada vez mais. Vai ser muito difícil distinguir o que é verdadeiro e falso, embora existem algoritmos em sentido contrário, para detetar essas situações. Andamos sempre a correr atrás de quem utiliza a tecnologia de forma errada, não é? Mas sim, esse é um perigo muito grande e as crianças e os jovens deviam ser formados nessa precaução que têm de ter.

 

Já que estamos neste ponto, o que detetou indícios dessa desinformação, dessa manipulação, por exemplo, nos últimos atos eleitorais em Portugal?

Não estive muito atento a isso, confesso, mas não foi conhecido como nos Estados Unidos.  Mas é possível que sim, sobretudo nas plataformas sociais, creio que há partidos que criam perfis falsos, etc., para criar volumes de notícias e de interações que são completamente falsas.

 

Do ponto de vista da educação, é preciso passar de uma lógica, até olhando para o que nos estava a dizer antes, da transmissão de conhecimentos, mas também é preciso passar para uma lógica de um trabalho de desenvolvimento de espírito crítico?

Sem dúvida. Nós ainda usamos muito a pedagogia da explicação e temos de ir para a pedagogia da emancipação. Porque antigamente o professor era mais a fonte do conhecimento, hoje estamos perante a globalização das fontes de conhecimento e, efetivamente, os alunos quando pesquisam já não encontram informação, encontram conhecimento. Já antes, em 2006, havia um site, um serviço que era o Wolfram Alpha, que permitia chegar ao conhecimento e tinha bases de dados fiáveis. Hoje em dia, a inteligência artificial lê coisas fiáveis e não fiáveis e, por isso, temos de ter certa cautela em verificar os factos, os dados, as respostas, porque existe sempre uma tentativa de dar respostas a qualquer pergunta que se lhe faça. E dá respostas positivas que podem ser falsas ou enviesadas, nalgumas circunstâncias, embora esses algoritmos vão melhorando. Mas, sem dúvida, a pedagogia tem de mudar. O ensinar com a inteligência artificial passa um bocadinho por isso e a inteligência artificial pode ser tutor de um aluno. Há um estudo de 84 de [Benjamin S.] Bloom que diz que um aluno que tem um explicador pode melhorar duas vezes o desvio padrão face à sua média de avaliação. E, portanto, se a inteligência artificial for um tutor, pode estar aqui um melhor estudante, se não delegar na inteligência artificial as suas competências e a sua capacidade de autocrítica e as suas competências de trabalho. Se fizer uma transferência cognitiva fica a perder para sempre, mas é um risco que se corre, é uma certa preguiça.

 

Entende então que quem fala numa cultura do facilitismo e alerta para a dependência da tecnologia nas novas gerações

Sim, sim, sim, é uma ameaça muito presente. Por um lado, os alunos podem desmotivar-se por verem que há resposta para tudo, e, portanto, eles não têm de saber, não têm de trabalhar, mas assim o mundo não evolui. E, portanto, eles poderão ficar reféns daqueles que estudarem, trabalharem e forem mais competentes no futuro. Sem dúvida que há uma ameaça e depois também, antigamente tinha-se receio que os alunos plagiassem trabalhos, hoje em dia não se trata propriamente de plágio porque a inteligência artificial gera textos novos, e é mais difícil de perceber.

Há sistemas que detetam padrões que a inteligência artificial tem na escrita, mas ainda cometem muitos erros acusando, vamos dizer, de plágio em situações que não é, e também deixam passar outras que de facto é. Depois há estes sistemas que escrevem metadados que não são visíveis nos textos que produzem, mas depois também há sistemas que limpam esses metadados. Estamos aqui sempre num problema, e, portanto, temos de mudar a forma como desenvolvemos as aprendizagens e como fazemos as avaliações.

 

Este é um momento de grande transformação, temos falado da área da educação, já falamos também da área da comunicação, começámos evocando as transformações expectáveis na área do trabalho. Qual o papel que a Igreja Católica pode desempenhar neste momento em que a própria definição do que é ser humano pode ser posta em causa?

Pois pode trabalhar muito esta questão dos valores, da integridade do ser humano e também no plano da escola, da integridade académica e científica e, portanto, estas dimensões éticas e sociais, acho que a Igreja Católica tem um papel e uma autoridade que é reconhecida pela sociedade em geral e que deve continuar a desenvolver, atenta estes novos fenómenos e desenvolvimentos, porque estamos no início desta revolução.

 

Não o surpreende, portanto, que haja preocupação assumida com grupos de trabalho, com encontros no Vaticano, com propostas de reflexão, com a ideia de uma ética do algoritmo? Faz sentido da parte da Santa Sé este esforço?

Sem dúvida que sim, sem dúvida que sim.

 

Há uma tendência para cenários catastrofistas neste debate, mas que caminhos é que a investigação científica tem vindo a abrir para que a inteligência artificial seja um recurso ao serviço do desenvolvimento humano?

Há sempre esse lado positivo de ver a inteligência artificial como um recurso, uma mais-valia que nos pode ajudar a acelerar a investigação científica e chegar a bons resultados. Há exemplos fantásticos no plano da saúde, por exemplo. Mas ao mesmo tempo também pode ser uma ameaça, por chegarmos a um determinado tipo de fraude no desenvolvimento científico.  É um risco, é uma ameaça também. Há aqui esta presença cada vez mais visível dos dois lados. E uma das ameaças pode ser no desenvolvimento da bioengenharia, e que pode, digamos, acelerar, sobretudo em mundos onde há menos regulação. Por exemplo, a Europa está muito regulada e nós sentimo-noss mais seguros, os Estados Unidos um pouco menos, mas também estão mais avançados, e o mundo chinês, que é muito competente. Aí não sabemos o que se passa, mas sabemos que eles são muito bons, mas têm menos regulação e, portanto, podem avançar com desenvolvimentos que poderão ser mais uma ameaça para a humanidade. Porque, por exemplo, eles nas escolas têm sistemas de seguir o olhar do estudante para perceber como é que ele reage a determinado tipo de estímulos, se está atento, se não está atento, para com isto desenvolver pedagogias diferentes.

Na Europa nunca consentiríamos estar a filmar o olhar de um estudante. Claro que há desenvolvimentos paralelos interessantes, para perceber se a pessoa vai adormecer ao volante ou outro tipo de situações de perigo. Mas isto utilizado de forma massiva na educação ou noutra área tem as suas ameaças, como tem, digamos, um lado que pode ser positivo em algumas circunstâncias.

 

 

E vamos esperar que esse lado positivo prevaleça. 

Exato.

 

Nós estamos, como dizia no começo desta conversa, no Dia Mundial das Comunicações Sociais. Ainda, a mensagem que a Igreja Católica propõe hoje ainda foi assinada pelo Papa Francisco, foi a última mensagem que ele assinou para o Dia Mundial das Comunicações Sociais, em janeiro. E nesse documento o Papa alertava para um tempo marcado pela desinformação, pela polarização e esta parte eu acho que é importante falarmos, no qual alguns centros de poder controlam uma grande massa de dados e de informações sem precedentes. Sobretudo a questão de serem alguns centros de poder que a caminho é necessário seguir para combater estes riscos de centralização dos dados, que são absolutamente fundamentais, nas mãos de centros de poder que não são democráticos ou que não são regulamentados por outros poderes?

É um dos grandes perigos, nós às vezes para termos determinado tipo de serviço não nos importamos ou não nos apercebemos de ceder dados, não é? E, portanto, estes dados estão muito centralizados até, nem sempre nos Estados, mas em grandes companhias que cada vez acumulam maiores fortunas e mais poder, grandes companhias tecnológicas e das quais depois o mundo parece depender e os Estados também. E isso, de facto, é uma ameaça muito grande.

 

E às vezes até ficamos surpreendidos quando somos contactados sem saber quem deu o nosso número de telefone, não é?

Exatamente, sim.

 

Mas agora, ultimamente, vendo as notícias a aparecer, realmente estamos também, por exemplo, a falar de ceder os nossos dados, reflexões, imagens, comentários para o desenvolvimento da inteligência artificial dessas companhias?

Sim, sim. Tudo isso alimenta, não é? Por isso é que se diz que os dados são o petróleo do século XXI.

 

Sente que falta a consciencialização das pessoas para as consequências daquilo que fazem, de poderem estar inadvertidamente a alimentar o negócio para o qual depois vão ter de pagar para voltar a receber esses resultados?

Sim. As pessoas não têm essa perceção, tal como não têm no uso das plataformas sociais, não é? Portanto, é um fenómeno muito interessante, mas é a cultura da incultura, de certa forma, que se está a viver.

 

É necessário fazer um alerta para que se utilize com parcimónia nos nossos dados, não é?  

Claro que sim. Mas é difícil porque as pessoas são muito imediatistas no consumo da informação e estão muito focadas naquilo que aparece e que parece ser tão interessante e, portanto, ficam muito dependentes e, esses alertas nem sempre chegam para no momento exato as pessoas terem a cautela devida. Mas tem de se continuar a fazer esse esforço e essa educação.

 

 

Partilhar:
Scroll to Top