A crescente evolução do potencial da Inteligência Artificial exige, cada vez mais, ponderação sobre os valores éticos e morais dos indivíduos. Neste artigo, pretende-se expor o estado atual e a importância da ética neste campo científico.
Autoria: João Valério, MECD
As potencialidades técnicas da Inteligência Artificial (AI) têm, ao longo do tempo, emergido de forma exponencial e, deste modo, é crucial que exista uma perspetiva capaz de preservar o conjunto de princípios e valores morais da sociedade.
Na atualidade, a tecnologia não funciona como um intermediário neutral, apenas com o intuito de conectar o utilizador com o seu ambiente; na prática comporta-se como um mediador impactante com influência direta nos utilizadores, moldando a forma como estes utilizam a tecnologia e experienciam o mundo. Um dos fatores que desencadeou esta evolução prende-se com a democratização tecnológica, que apesar dos seus benefícios evolutivos, acarreta responsabilidades que apenas podem ser atendidas à luz da ética.
Efetivamente, inúmeros esforços têm sido realizados no sentido de precaver possíveis desvios éticos, em que diversas empresas já apresentam uma posição algo cimentada nesta área. Por exemplo, a IBM, uma das empresas mais conceituadas, apresenta como pilares éticos os seguintes:
- Explicabilidade
- Justiça
- Robustez
- Transparência
- Privacidade
No entanto, ainda que esta demonstre uma posição teórica e prática com forte pendor ético, nem todas as instituições se pautam, na sua forma de atuar, pelo mesmo padrão. Numa outra vertente, é notável que uma parte considerável das instituições educacionais que oferecem cursos neste ramo não disponibilizam disciplinas inteiramente dedicadas a estes tópicos, implicando lacunas na formação e forma de pensar dos seus alunos. Consequentemente, estas falhas na educação podem, eventualmente, refletir-se em consequências sociais. A título de exemplo, enumeram-se alguns acontecimentos graves ocorridos face à displicência na utilização desta ferramenta:
- IMPACT, o sistema de avaliação educacional responsável pelo despedimento injusto de vários professores na MacFarland Middle School.
- COMPAS, o software utilizado no sistema judicial dos USA como ferramenta de avaliação de risco de um individuo voltar a cometer novamente um crime, comprovadamente responsável por inúmeras decisões erradas, tendo por base a discriminação racial do réu.
- “Preconceito Codificado”, o documentário sobre questões sociais e culturais, principalmente, no ramo do reconhecimento facial, em que a diversidade cultural e racial é, por vezes, negligenciada.
- Cambridge Analytica, uma empresa britânica de consultoria política, que integrou diversas campanhas eleitorais, sendo a mais conhecida a de Donald Trump, nas quais se crê que ocorreram manipulações de indivíduos através da informação falsa e de dados obtidos de forma indevida.
Face às ocorrências citadas, revela-se imprescindível que, em qualquer instituição interligada à AI, subsista um equilíbrio entre o conhecimento técnico [1] e não técnico [2], ou seja, entre o seu potencial e os princípios e valores morais sociais. No entanto, se à luz dos inúmeros exemplos sucedidos, a obviedade da presença ética é fulcral, por que motivo nem todas as instituições optam por este caminho socialmente mais seguro e justo? Ainda que a compreensão da sua necessidade seja clara, a forma como esta pode ou deve ser aplicada não corresponde a um raciocínio igualmente linear.
Primeiramente, é necessário assimilar que a ética diz respeito a conhecimento não técnico, ou seja, baseia-se em conceitos teóricos. Assim, os problemas surgem de imediato na abordagem inicial. Uma vez que a forma como esta é interpretada varia geograficamente, o conflito entre visões culturais é inevitável. Posteriormente à análise, existe alguma dificuldade em transpor essas noções para uma componente prática de engenharia e, por vezes, a resolução de um problema ético pode levantar outros igualmente importantes e difíceis de abordar, revelando-se deveras complexo compreender qual é o ponto ideal para a implementação do modelo. Em última instância, na fase de desenvolvimento, ainda que dificilmente quantificável, a influência humana no modelo encontra-se sempre presente.
Face ao referido, deduz-se evidentemente que um modelo totalmente seguro e justo não é praticável na nossa realidade atual. Por outro lado, abdicar completamente da mesma também não aparenta ser um caminho a seguir. Assim, como já foi mencionado, é extremamente importante encontrar um balanço tecnológico e social; no entanto, qual será o melhor trajeto a seguir?
Para se caminhar nesse sentido, uma das formas mais eficazes seria, principalmente, através de regulamentação. Tendo em conta a proporcionalidade inversa, dificilmente contornável, entre a exatidão de um modelo e a sua justiça, explicabilidade ou transparência, compreende-se que, para as empresas a posição mais responsável a adotar não pareça sempre a mais aliciante, dada a sua influência direta nos retornos. Assim, o controlo governamental seria bastante eficaz, dado que todas as organizações estariam a exercitar sob as mesmas regras.
No entanto, à escala global o paradigma altera-se, dado que algumas nações encararam isto como uma corrida ao capital, que pode definir qual destas ficará em primeiro lugar no pódio da soberania mundial. Dito isto, cada país definiu como se pretende apresentar perante os restantes, resultando em decisões completamente díspares. Por exemplo, enquanto a Europa optou por considerar que a regulamentação é um dos primeiros problemas a resolver, os USA e a China preferiram adiar essa responsabilidade entre 5 e 10 anos.
Na realidade, um acordo mundial com base em diplomacia seria um progresso bastante positivo, contudo, como é evidente, nem todos os líderes mundiais suportam a ideia de partilhar o palco do poder. Entretanto, a humanidade é deixada de lado, por aqueles cujo ego é maior do que eles próprios.
Referências:
[1] A vertente técnica em AI apresenta três ramos principais: Perceção, Cognição e Ação.
[2] A vertente não técnica em AI apresenta três ramos fundamentais: Organização, Ética e Direito.
Bibliografia:
- TURQUE, Bill (2012) – ‘Creative … motivating’ and fired. Washington: The Washington Post.
- ANGWIN, Julia et al. (2016) – Machine Bias. Nova York: ProPublica.
- SERRANO, Maria et al. (2013) – The moral machine: artificial intelligence and ethics. San Francisco: Medium.
- CHUI, Michael et al. (2018) – Notes from the AI frontier: Modeling the Impact of AI on the World Economy. Washington, D.C.: Mckinsey Global Institute.
- KANTAYYA, Shalini (2020) – Coded Bias. Califórnia: Netflix.
Eis uma dezena de cenários, de alguém que tem boa perspetiva das capacidades dos EUA e da China:https://www.amazon.com/AI-2041-Ten-Visions-Future-ebook/dp/B08QMFMJ1H
João Valério pode chegar a acordo com o Emérito Professor Luís Moniz Pereira, sobre quais os 3 cenários que vos parecem mais prováveis?https://www.di.fct.unl.pt/noticias/2021/10/apresentacao-do-livro-maquinas-eticas
Facilito motivação para o encontro intergeracional:https://www.youtube.com/watch?v=eohr3ftLcuA&t=562s
Muito obrigado pelas recomendações literárias, tenho a certeza que me serão úteis para complementar o meu conhecimento!
Obrigado pelo comentário!
O ISR-IST organizou “A World with Robots”
International Conference on Robot Ethics: ICRE 2015
https://link.springer.com/book/10.1007/978-3-319-46667-5
O Prof. Moniz Sequeira esteve integrado num painel de discussão. No ISR, o Prof. João Sequeira pode fazer as apresentações.
Eu trabalho melhor no LinkedIn e encorajo João Valério a trocar impressões com
http://www.linkedin.com/in/luis-moniz-pereira-0b050715
P.S.: Há uma corrida de drones militares, entre Pequim e Taipei.
Novamente, muito obrigado pelas recomendações!
Caso surja a oportunidade teria todo o gosto em fazê-lo, obrigado.