UM AUXÍLIO À LIBERDADE HUMANA E ÀS DECISÕES

UM AUXÍLIO À LIBERDADE HUMANA E ÀS DECISÕES

43. O compromisso de assegurar que a IA sempre sustente e promova o valor supremo da dignidade de cada ser humano e a plenitude de sua vocação é um critério de discernimento que se aplica a desenvolvedores, proprietários, operadores, reguladores e usuários finais, permanecendo válido para qualquer uso da tecnologia em todos os níveis de aplicação.

 

44. Uma análise das implicações desse princípio pode começar destacando a importância da responsabilidade moral. Como a causalidade moral plena pertence apenas aos agentes pessoais, e não aos agentes artificiais, torna-se fundamental identificar e definir quem é responsável pelos processos de IA, especialmente aqueles que envolvem aprendizado, correção e reprogramação. Por um lado, os métodos empíricos (bottom-up) e redes neurais profundas permitem que a IA resolva problemas complexos; por outro, tornam difíceis a compreensão dos processos que levaram às soluções. Isso complica a determinação de responsabilidades, já que, se uma aplicação de IA produzir resultados indesejados, será desafiador atribuir tais consequências a uma pessoa específica. Para enfrentar esse problema, é necessário prestar atenção à natureza dos processos de atribuição de responsabilidades (accountability) em contextos complexos e altamente automatizados, onde os resultados frequentemente se manifestam no médio e longo prazo. Por isso, é crucial que quem toma decisões baseadas na IA seja responsabilizado por elas e que seja possível prestar contas do uso da IA em todas as etapas do processo decisório [91].

 

45. Além de determinar responsabilidades, é fundamental definir os objetivos atribuídos aos sistemas de IA. Embora esses sistemas possam utilizar mecanismos de aprendizado autônomo não supervisionado e, por vezes, seguir caminhos difíceis de reconstruir, em última análise, eles perseguem os objetivos atribuídos por humanos e operam sob processos definidos por seus projetistas e programadores. Isso representa um desafio, pois, à medida que os modelos de IA tornam-se cada vez mais capazes de aprendizado independente, pode-se reduzir de fato a capacidade de controle sobre eles, dificultando a garantia de que essas aplicações estejam a serviço dos propósitos humanos. Isso levanta uma questão crítica: como assegurar que os sistemas de IA sejam orientados para o bem das pessoas e não contra elas?

 

46. Embora o uso ético dos sistemas de IA envolva principalmente aqueles que os desenvolvem, produzem, gerenciam e supervisionam, essa responsabilidade também é compartilhada pelos usuários. Como destacou o Papa Francisco, «o que a máquina faz é uma escolha técnica entre várias possibilidades, baseada em critérios bem definidos ou em inferências estatísticas. O ser humano, no entanto, não apenas escolhe, mas é capaz, em seu coração, de decidir» [92]. Quem utiliza a IA para realizar um trabalho e segue seus resultados cria um contexto em que, em última instância, é responsável pelo poder delegado. Assim, na medida em que a IA pode auxiliar os humanos na tomada de decisões, os algoritmos que a guiam devem ser confiáveis, seguros, suficientemente robustos para lidar com incongruências e transparentes em seu funcionamento, de forma a mitigar preconceitos (bias) e efeitos colaterais indesejados [93]. Estruturas normativas devem garantir que todas as entidades jurídicas possam prestar contas do uso da IA e de todas as suas consequências, com medidas adequadas para salvaguardar a transparência, a confidencialidade e a responsabilidade (accountability) [94]. Além disso, os usuários devem ter cuidado para não se tornarem excessivamente dependentes da IA em suas decisões, exacerbando o já elevado grau de subordinação à tecnologia que caracteriza a sociedade contemporânea.

 

47. O ensinamento moral e social da Igreja ajuda a promover um uso da IA que preserve a capacidade humana de ação. Considerações relacionadas à justiça, por exemplo, devem abordar questões como o incentivo a dinâmicas sociais justas, a defesa da segurança internacional e a promoção da paz. Exercendo a prudência, indivíduos e comunidades podem discernir como usar a IA para o benefício da humanidade, evitando aplicações que possam diminuir a dignidade humana ou prejudicar o planeta. Nesse contexto, o conceito de "responsabilidade" deve ser entendido não apenas em seu sentido mais restrito, mas como «cuidar do outro e não apenas prestar contas do que foi feito» [95].

 

48. Assim, a IA, como qualquer tecnologia, pode fazer parte de uma resposta consciente e responsável à vocação da humanidade para o bem. Contudo, como discutido anteriormente, ela deve ser guiada pela inteligência humana para alinhar-se a essa vocação, assegurando o respeito à dignidade da pessoa. Reconhecendo essa «eminente dignidade», o Concílio Vaticano II afirma que «a ordem social [...] e seu progresso devem sempre privilegiar o bem das pessoas» [96]. À luz disso, o uso da IA, como disse o Papa Francisco, deve ser acompanhado «por uma ética baseada em uma visão do bem comum, uma ética de liberdade, responsabilidade e fraternidade, capaz de promover o pleno desenvolvimento das pessoas em relação umas com as outras e com a criação» [97].

 

VOLTAR PARA O ÍNDICE DE ANTIQUA ET NOVA