Elon Musk, Neuralink e a ética do Transumanismo

Autoria: Vicente Garção, IST (MEBiom)

Elon Musk, o controverso empreendedor multimilionário na vanguarda da inovação tecnológica, seja no que toca ao desenvolvimento de veículos elétricos e autónomos, energia limpa, transporte espacial ou tecnologias de “hyperloop”, também resolveu investir na neurotecnologia. Para este efeito, Musk co-fundou a Neuralink, uma empresa que visa desenvolver novas Interfaces Cérebro-Computador (Brain-Computer Interface – BCI) [1].

O primeiro objetivo deste projeto é construir uma BCI invasiva, que inicialmente permitiria que pacientes com lesões da medula espinal pudessem comunicar e interagir com computadores e dispositivos móveis através da leitura de sinais elétricos no córtex motor, usando 1024 elétrodos[1]. Esta tecnologia já existe no mercado [2], mas este elevado número de elétrodos permitiria, em teoria, uma recolha e transmissão de informação cerebral muito mais precisa. No entanto, de acordo com um artigo publicado na revista MIT Technology Review, “a maioria das alegações médicas da empresa permanece altamente especulativa” [3], uma opinião partilhada por outros especialistas [4]. Ainda assim, numa recente transmissão ao vivo, Musk também divulgou que a intenção deste empreendimento no futuro será expandir a sua capacidade de ler e gravar informações de e para o cérebro, permitindo-lhe conservar e reproduzir memórias, curar paralisia, cegueira e surdez e, eventualmente, melhorar dramaticamente as capacidades humanas [5].

Musk não é o primeiro e não será o último a explorar e investir no desenvolvimento de tecnologias que aumentem, desenvolvam, expandam e otimizem as capacidades do cérebro humano. Atualmente, as BCIs são maioritariamente utilizadas para ajudar pessoas com deficiências a recuperar algumas funções [2], mas já há várias iniciativas nesta área que ambicionam desenvolver tecnologias que melhorem as capacidades do cérebro humano a níveis só vistos em filmes, livros e bandas desenhadas de ficção científica. Neste momento, encontramo-nos numa das encruzilhadas mais importantes da história do ser humano, e há decisões que têm de ser tomadas: tornar-nos-emos mais do que humanos? E se dermos esse passo, será que conseguiremos manter a nossa humanidade?

As consequências desta decisão, tanto positivas como negativas, merecem ser exploradas.

O movimento filosófico intitulado de “transumanismo” [6] defende que as capacidades do ser humano devem ser melhoradas e aumentadas, enquanto os “bioconservadores” [7] argumentam contra esta ideia. Inicialmente, gostaria de discutir os possíveis benefícios de explorar estas tecnologias, e subsequentemente expor e explorar os perigos e os problemas éticos que as rodeiam e delinear possíveis formas de resolver ou mitigar estas questões. Determinar os aspectos positivos destas tecnologias é crucial se se quiser estudar as preocupações éticas a elas associadas, pois cada decisão ética deve pesar os benefícios contra os riscos, e deve sobretudo considerar quatro princípios importantes, os da “autonomia, beneficência, não maleficência e justiça” [8].  

Por um lado, uma das possíveis vantagens do uso e desenvolvimento destas tecnologias é o facto de as mesmas poderem, potencialmente, contribuir para a cura de uma variedade de deficiências. A investigação atual já está a demonstrar ser promissora a respeito, uma vez que as interfaces cérebro-computador demonstraram ter potencial para tratar, por exemplo: paralisia [9], através da implantação de elétrodos no córtex motor; cegueira, por estimulação do córtex visual [10]; e outras deficiências.

Tal poderia, não só contribuir para um aumento da qualidade de vida das pessoas portadoras de deficiências físicas, como também aumentar a sua produtividade e reduzir as desigualdades socioeconómicas causadas pelas mesmas.

Além disso, o aumento e melhoria das capacidades cerebrais em pessoas saudáveis poderia levar a um aumento da produtividade em praticamente todos os sectores da sociedade, tendo, portanto, o potencial de levar a um aumento substancial da qualidade de vida de forma generalizada. Por exemplo, se todos os seres humanos tiverem acesso imediato à Internet, todo o conhecimento da humanidade pode ser ainda mais acessível do que já é, para todos. Do mesmo modo, se as memórias puderem ser salvas, armazenadas, reproduzidas e partilhadas, tudo o que já foi testemunhado poderá ser acedido, o que evidentemente poderá ser tanto uma bênção como uma maldição – questões relacionadas com a privacidade dos utilizadores são um dos principais perigos que irei explorar mais à frente neste texto. Num cenário em que estas tecnologias fossem implementadas, testemunhas de casos criminais poderiam mais facilmente revelar o culpado, os cientistas poderiam armazenar infinitamente mais conhecimentos nas suas mentes e os mais velhos poderiam mostrar aos seus netos tudo o que lhes aconteceu quando eram mais novos, aumentando a quantidade de informação que pode ser transmitida pelas gerações mais velhas às pessoas mais jovens.

Ainda mais dramaticamente, se num futuro distante o poder de processamento em bruto e a memória de trabalho do cérebro fossem aumentados e propulsionados através de computações efetuadas na cloud e complementados pela inteligência artificial (AI), de tal forma que a inteligência como um todo fosse enormemente melhorada, as pessoas poderiam transcender a humanidade e compreender o mundo e o universo a um nível que presentemente não é possível ou até imaginável. No entanto, neste processo, poder-nos-íamos também tornar muito menos parecidos connosco, ou, no mínimo, cada vez mais susceptíveis a uma multiplicidade de violações dos nossos direitos. 

Uma das principais preocupações que muitos especialistas destacam é a ameaça à privacidade [11]. As atuais estratégias publicitárias utilizadas por websites já representam sérias questões de privacidade para os seus utilizadores [12]. Estes sites armazenam “cookies” – dados do utilizador – que podem utilizar para gerar um perfil detalhado do utilizador (idade, sexo, gostos, passatempos etc.). Este perfil é então utilizado para exibir anúncios direcionados. Se for estabelecida uma ligação direta entre o cérebro e a Internet, existe a possibilidade de as empresas adquirirem um perfil da mente do utilizador com um nível incrível de detalhe, que poderiam vender às agências de marketing ou outras empresas, o que equivaleria a uma violação muito grave da privacidade. O neuroeticista Marcello Ienca intitula esta “comercialização do cérebro” de “neurocapitalismo” [13]. As técnicas de leitura da mente poderiam também ser utilizadas pelos governos com a pretensão de pôr fim ao crime ou ao terrorismo, erradicando assim virtualmente o próprio conceito de privacidade. Numa sociedade futura verdadeiramente Orwelliana, o “crime do pensamento” (“thoughtcrime”, na versão inglesa do livro 1984 de George Orwell, a ideia de que um pensamento contraditório à verdade aceite pelo Partido e à sua autoridade é criminoso por si só) poderia tornar-se uma realidade em regimes opressivos, violando o já mencionado princípio da “não maleficência“.

Além disso, há também que considerar o problema da responsabilidade, levantado por McCullagh em 2014 [14]. Se um BCI falhar, a responsabilidade legal está do lado do utilizador ou do fabricante do BCI? Se um dispositivo está tão integrado com o utilizador que as linhas entre o pensamento normal e o “melhorado” se esbatem, como se pode determinar a responsabilidade?

Além disso, surge uma série de preocupações em matéria de segurança. Se for alcançado algum grau de simbiose com a inteligência artificial, esta poderia ser construída de uma forma que seria irremediavelmente nociva para o utilizador, corrompendo a sua mente a partir do interior. O Departamento de Defesa dos EUA está a desenvolver BCIs, e existem preocupações em relação à utilização desta tecnologia para fins bélicos e anti-terroristas, visto que, sem uma supervisão adequada, esta poderia ser utilizada como tortura de formas que violem a Convenção de Genebra [15] – um perigo que se multiplicaria caso, no futuro, uma BCI muito avançada caísse nas mãos de terroristas ou estados opressivos. Em tal cenário, o utilizador poderia ser vulnerável a este novo tipo de crime cibernético, o qual, ao visar diretamente a mente, poderia teoricamente submeter o utilizador às torturas mais horríveis que se podem imaginar – o que o neuroético Marcello Ienca chamou “neurocrime” [16].

Adicionalmente, se considerarmos as possibilidades mais remotas e distantes, tecnologias como esta poderão alterar fundamentalmente a experiência humana como a conhecemos.

Por exemplo, os dispositivos de melhoramento do cérebro podem quebrar a “continuidade psicológica” [17] do utilizador: a dada altura, é concebível que as pressões do capitalismo possam levar alguns de nós a tornarem-se mais máquina do que Homem, alterando assim, possivelmente de forma irreversível, a personalidade do utilizador e o seu sentido de “eu”. Neste processo, aqueles que não desejassem desenvolver as suas capacidades mentais com recurso a esta tecnologia sofreriam graves consequências socioeconómicas, violando o princípio ético da justiça. Mesmo que cada pessoa possa escolher livremente não melhorar as suas capacidades cerebrais, aqueles que optassem por não o fazer acabariam (inevitavelmente, a meu ver) por ser considerados pelos outros como seres inferiores. Uma “classe artificialmente inteligente” teria enormes vantagens sociais e económicas, e se considerarmos um futuro verdadeiramente distópico, acabaria por escravizar aqueles que optaram por manter a sua humanidade. Elon Musk lançou a Neuralink como uma forma de os seres humanos, no futuro, conseguirem competir com a inteligência artificial [18]. No entanto, se este caminho for seguido, tal pode acabar por levar à vitória final da AI sobre os humanos.

Tendo ponderado os prós e os contras, pode concluir-se que o desenvolvimento não regulamentado das tecnologias de melhoramento cerebral conduzirá potencialmente a resultados devastadores. Adicionalmente, é ainda mais preocupante a possibilidade da tecnologia ser proibida depois de ter atingido um nível de desenvolvimento significativo, podendo então cair nas mãos de criminosos, terroristas e estados opressivos, conduzindo a resultados igualmente destrutivos. 

Tal suscita a questão de como os aspectos negativos deste tema podem ser mitigados. O já referido neuroeticista Marcello Ienca propõe o estabelecimento de quatro direitos humanos fundamentais adicionais para abordar as questões exploradas neste texto [17]. Estes são:

– O direito à liberdade cognitiva: a liberdade de cada indivíduo decidir por si mesmo se quer ou não adoptar qualquer neurotecnologia;

– O direito à privacidade mental: o direito de não partilhar qualquer informação específica armazenada no cérebro;

– O direito à integridade mental: o direito a não ser prejudicado ou ferido, fisicamente ou psicologicamente, por qualquer neurotecnologia;

– O direito à continuidade psicológica: o direito a não ser sujeito a alterações não autorizadas do “eu”

Na minha opinião, estes direitos devem, no futuro, ser consagrados pelo direito internacional, e estas tecnologias devem ser desenvolvidas sob intenso escrutínio de organizações internacionais. No entanto, é de notar que mesmo que haja uma regulamentação significativa, alguns efeitos negativos irão sempre surgir. Nesse sentido, todos devemos permanecer vigilantes, a fim de assegurar que estes efeitos sejam minimizados, uma vez que parar completamente o desenvolvimento de uma tecnologia é sempre difícil.

Bibliography

[1]     Neuralink, [Online]. Available: https://neuralink.com/. [Accessed 01 01 2021].

[2]     B. Allison, E. Wolpaw and J. Wolpaw, “Brain-Computer Interface Systems: Progress And Prospects,” Expert Rev Medical Devices, 2007. 

[3]     A. Regalado, “Elon Musk’s Neuralink is neuroscience theater,” MIT Technology Review, 30 08 2020. [Online]. Available: https://www.technologyreview.com/2020/08/30/1007786/elon-musks-neuralinkdemo-update-neuroscience-theater/. [Accessed 01 01 2021].

[4]     R. C. Jones, “Is Elon Musk over-hyping his brain-hacking Neuralink tech?,” BBC News, 01 09 2020. [Online]. Available: https://www.bbc.com/news/technology-53987919. [Accessed 01 01 2021].

[5]     Neuralink, “Neuralink Progress Update, Summer 2020,” [Online]. Available:

https://www.youtube.com/watch?v=DVvmgjBL74w. [Accessed 01 01 2021].

[6]     M. J. McNamee and S. D. Edwards, “Transhumanism, medical technology and slippery slopes,” Journal Of Medical Ethics, 2006. 

[7]     T. K. Browne and S. Clarke, “Bioconservatism, bioenhancement and backfiring,” Journal of Moral Education, 2019. 

[8]     T. Beauchamp and C. J.F., Principles of Biomedical Ethics, Oxford University Press, Inc., 2009. 

[9]     P. Nuyujukian, “Cortical control of a tablet computer by people with paralysis,” PLoS ONE, 2018. 

[10]  S. Niketeghad and N. Pouratian, “Brain Machine Interfaces for Vision Restoration: The Current State of Cortical Visual Prosthetics,” Neurotherapeutics, 2018. 

[11]  C. Cinel, D. Valeriani and R. Poli, “Neurotechnologies for Human Cognitive Augmentation: Current State of the Art and Future Prospects,” Frontiers in Human Neuroscience, 2019. 

[12]  R. Tirtea, C. Castelluccia and D. Ikonomou, “Bittersweet cookies. Some security and privacy considerations,” European Network and Information Security Agency (Enisa).

[13]  S. Samuel, “Brain-reading tech is coming. The law is not ready to protect us.,” Vox, 20 12 2019. [Online]. Available: https://www.vox.com/2019/8/30/20835137/facebook-zuckerberg-elon-musk-brain-mindreading-neuroethics. [Accessed 01 01 2021].

[14]  P. McCullagh, G. Lightbody, J. Zygierewicz and W. G. Kernohan , “Ethical Challenges Associated with the Development and Deployment of Brain Computer Interface Technology,” Neuroethics, 2014. 

[15]  C. N. Munyon, “Neuroethics of Non-primary Brain Computer Interface: Focus on Potential Military Applications,” Frontiers In Neuroscience, 2018. 

[16]  P. Haselager and M. Ienca, “Hacking the brain: brain–computer interfacing technology and the ethics of neurosecurity,” Ethics Of Information Technology, 2016. 

[17]  M. Ienca, “Towards new human rights in the age of neuroscience and neurotechnology,” Life Sciences, Society and Policy, 2017. 

[18]  D. Grossman, “Elon Musk Wants to Upgrade Our Brains to Compete With AI,” Popular Mechanics, 17 07 2019. [Online]. Available: https://www.popularmechanics.com/science/health/a28423949/elon-muskneuralink/. [Accessed 01 01 2021]. 

Leave a Reply