segunda-feira, 12 de fevereiro de 2018

Beth Singler: “Trabalhamos para que as máquinas não nos venham a fazer mal

Beth Singler
 Beth Singler Nuno Ferreira Santos

Como antropóloga focada nos universos digitais, Beth Singler tem-se dedicado a interrogar as implicações éticas e religiosas do avanço da inteligência sintética, avaliando o impacto desta nos actuais sistemas de crenças. Uma das questões centrais do trabalho de Singler relaciona-se com a possibilidade do desenvolvimento de sentimentos como a dor em robôs.

Se na frenética corrida da invenção de mecanismos dotados de uma cada vez mais sofisticada inteligência artificial não se tiver em conta “a compaixão e a empatia pelas pessoas”, “a coisa pode correr muito mal”. Quem lança o alerta é Beth Singler, antropóloga e investigadora associada do projecto Human Identity in an Age of Nearly-Human Machines, no Instituto Faraday para a Ciência e Religião da Universidade de Cambridge, onde explora as implicações sociais e religiosas da inteligência artificial e da robótica.
No processo de conceber inteligência artificial, aprendemos sobre a nossa própria inteligência?
Claro que sim. Por vezes instala-se uma imensa estranheza quando nos deparamos com um robô, um ser sintético ou um avatar virtual. Parece humano, não o sendo exactamente. Nesses momentos, é como se olhássemos do outro lado do espelho e conseguíssemos perceber onde estes modelos falham. Quando nos comparamos com os fracassos das máquinas que tentam ser humanas, a nossa dimensão humana adquire outros significados. Vimos isso com Sophia, uma robô da Hanson. Há quem reaja à Sophia muito positivamente e também quem reaja muito negativamente. Este andróide, uma recriação do ser humano, não foi bem-sucedido por vários motivos. Mas só o facto de existir diz-nos muito sobre o que achamos que significa ser-se humano.

E qual é a sua opinião sobre Sophia?
É um exemplo interessante de uma manobra publicitária. Muitas vezes a imprensa trata-a como sendo uma pessoa — e podemos chegar a um ponto em que teremos de pensar nestas identidades como pessoas e ter de incluir no nosso círculo social formas de vida sintéticas. Ainda não chegámos a esse ponto, mas a forma como Sophia fala faz com que assumamos que ela é como uma pessoa. Recentemente, foi considerada cidadã da Arábia Saudita, o que é problemático por vários motivos. Em parte por causa da forma como as mulheres são tratadas na Arábia Saudita. Sendo ela um robô de aspecto feminino, está a ter mais reconhecimento e mais autoridade do que as mulheres que já lá vivem. Por outro lado, também é óbvio que se trata de uma manobra publicitária, porque ela não viaja como uma cidadã. Sophia esteve ainda agora em Las Vegas, na CES, uma grande exposição de tecnologia e tenho a certeza de que ela não precisou de um visto para entrar nos Estados Unidos. Ela chegou numa caixa. O desempenho das máquinas pode ser enganador, pode revelar-se falso e é fundamental pensar neste aspecto à medida que progredimos. O pedido de direitos para os robôs surgiu agora, com gente a perguntar se este robô devia ter direitos associados à sua cidadania. E esta questão só se levantou por causa de uma tecnologia de conversação que permite a Sophia entrar em diálogo com os humanos. Isso não significa que ela tenha o mesmo nível de identidade, cognição ou inteligência do que algumas espécies de animais, às quais ainda não concedemos quaisquer direitos. É uma situação complexa, mas, resumindo, diria que Sophia não passa de uma manobra publicitária.

É autora de uma série de curtas-metragens. A primeira, Pain in the Machine, pergunta se as máquinas podem ou devem sentir dor. Será que devem?
Foi uma questão com que me deparei no início da minha abordagem a estas matérias. Pensei que uma curta-metragem seria uma boa forma de a analisar, porque não só nos permitiria entrevistar especialistas com um vasto conhecimento sobre a dor e a tecnologia, como também incluir elementos da ficção científica, que representa este tema com frequência. Usámos várias passagens de filmes, entre elas, uma de O Exterminador (1984) que refere a dor emocional. (“Dói-te quando levas um tiro?”, pergunta o jovem John Connor. “Sinto ferimentos, os dados podem ser chamados ‘dor’”, responde o Terminator.) Este tema é provocador e, na altura, as pessoas envolveram-se, deram opiniões. Obtivemos não só os dados demográficos de quem viu o filme, mas também as respostas por escrito a um inquérito que o acompanhou, informação que tem sido muito útil para perceber o que as pessoas comuns, fora do meio da tecnologia, pensam sobre estes temas. Algumas tiveram posições radicais e muitos consideraram a pergunta ridícula, mas, regra geral, as pessoas querem pensar mais no assunto.

Existe uma diferença entre dor emocional e dor física. Sentimos dor física e aprendemos a proteger-nos, mas qual é o papel formativo da dor emocional, se existe algum?
Um dos entrevistados em Pain in The Machine foi Ewan St. John Smith, um neurofarmacologista especializado em dor do Departamento de Farmacêutica da Universidade de Cambridge. Uma das questões que surgiram nas nossas conversas foi a de que a dor imediata nem sempre leva à emoção imediata, mas a dor crónica está, sem dúvida, ligada a uma experiência emocional. Se criássemos robôs capazes de reagir a estímulos negativos rapidamente — o que seria benéfico —, abriríamos caminho a situações de dor crónica. Se qualquer coisa ficar danificada, quanto tempo demora a ser reparada para que essa sensação desapareça? A vivência da dor crónica implicaria forçosamente uma emoção? Há quem argumente que a consciência tem por base tanto a capacidade de sofrer como a de estar livre de sofrimento, donde, se seguirmos em direcção a máquinas hipoteticamente conscientes, será inevitável considerar a questão da dor. Este ponto é muito debatido na comunidade científica. Não existe consenso relativamente à criação de máquinas conscientes, mas há quem queira que a pesquisa em inteligência artificial siga nesse sentido. E aí a questão da dor terá de ser pensada.

Qual é a sua posição?
Sobre desenvolver máquinas conscientes? Creio que o maior problema é parecer que lá chegámos antes de efectivamente termos chegado. A ficção científica aborda isto de várias formas: o teste da empatia em Blade Runner (1982), por exemplo. Coloca-se o mesmo problema na série televisiva Humans (2015). Mas nós nem sabemos ao certo se os humanos têm consciência, ou o que é a consciência humana. Podemos cair no solipsismo de assumir que só nós temos consciência e todos os demais são apenas zombies convincentes que fazem a sua vidinha. Se não podemos ter a certeza de que os humanos são conscientes, se debatemos a consciência em animais, não sei se algum dia viremos a saber se as máquinas têm ou não consciência. A aparência de consciência — como foi o caso da Sophia, capaz de ter uma conversa e de dizer coisas espontâneas que soam relevantes — leva-nos a pensar que ela já tem uma identidade que se assemelha a uma consciência. Esta questão surge antes de estarmos preparados para ela.

Se fosse programadora e tivesse ferramentas para implementar uma emoção relacional num ser sintético, a que daria prioridade: paixão ou compaixão?
Compaixão. Sem dúvida. Paixão pode ser um sinónimo de ambição, o que, sem compaixão, pode ser perigoso. É o que verificamos nos avanços tecnológicos, sobretudo em grandes empresas que começaram por se esforçar por ser éticas, mas que se desviaram desse caminho quando o capitalismo entrou em cena. Creio que o lema original do Google é Do No Harm (“Não fazer mal”), mas temos visto práticas bastante questionáveis, sobretudo por parte das empresas por detrás das redes sociais. Se não tivermos compaixão e empatia pelas pessoas — levarmos adiante ideias que as não têm em conta —, a coisa pode correr muito mal. A seguir, depois de implementada a compaixão, passaria à alegria. A prioridade seria não fazer mal e, a seguir, se essa máquina fosse capaz de passar por estados emocionais, seria fundamental que fosse capaz de sentir alegria e entusiasmo perante as maravilhas do mundo.
PÚBLICO -
Beth Singler: "Não existe consenso sobre a criação de máquinas conscientes, mas há quem queira que a pesquisa em inteligência artificial siga nesse sentido." Nuno Ferreira Santos
O seu terceiro filme será sobre o conceito de “bem” nas máquinas...
Sim. Perguntamo-nos como podemos usar as máquinas positivamente. Começando pelas questões éticas mais óbvias que são suscitadas pela inteligência artificial, as armas autónomas letais, os drones com inteligência artificial independente dos humanos ou as questões relacionadas com vigilância e privacidade. A quem pertencem os dados de que a inteligência artificial necessita? Será que aceitamos cedê-los? Temos aqui um mundo de questões éticas. E, por outro lado, queremos perceber como podemos fazer máquinas “boas”, no sentido de máquinas que optam pelo bem. Pensamos em modos de fazer “alinhamento de valores”, um termo técnico na área da Inteligência Artificial, para garantir que os objectivos de uma qualquer inteligência artificial não entram em linha de conflito com os seres humanos. Trabalhamos para que as máquinas, num cenário em que se tornem agentes independentes, não nos venham a fazer mal de maneira intencional.

Quando fala sobre “máquinas empáticas” ou “máquinas boas”, podemos também falar de “anjos” ou “seres” compassivos?
Podemos traçar paralelismos interessantes com a forma como os anjos e os demónios eram vistos no século XVII. John De era um mago na Inglaterra e pessoas como ele criaram tecnologias para convocar anjos e demónios que cumprissem a sua vontade. Naturalmente, nada aconteceu. Mas eles acreditavam que, se o código não fosse bem escrito, as coisas poderiam correr mal. É assim que vemos também um pouco a inteligência artificial (IA). Se não escrevermos o código de maneira adequada, se criarmos a IA de modo a que esta aprenda as coisas erradas, esta poderá destruir-nos. Existem exemplos históricos e mitológicos disso: Vulcano ou Hefesto, o deus grego que criou uma enorme estátua de um homem de ferro que se podia mover, chamada Talos. E existia o conceito dos oráculos e das cabeças de bronze que respondiam a perguntas, mas que eram artificiais, tal como o Golem da mitologia judaica. Estas ideias regressaram agora e assumiram formas diferentes, mas moldaram a maneira como encaramos a tecnologia moderna. O impacto destas ideias é muito importante no nosso imaginário. A analogia com os anjos e os demónios surge frequentemente na imprensa, como quando se refere que Elon Musk investiu imenso dinheiro para enfrentar o “demónio” da inteligência artificial. Gera-se o sentimento de que este é um tema familiar, recorrente na nossa linguagem.

E quanto ao género? Como devemos tratar estes robôs/andróides? Ele, ela, “coisa”?
Participei recentemente num debate em que se discutiram muito as questões de género. A minha posição é a de que existe uma diferença entre a natureza física da máquina e a narrativa à volta da mesma. Se falarmos sobre o jogo de computador Tomb Raider, diria “Lara Croft é uma arqueóloga e ‘ela’ parte em aventuras” e todos compreendemos. Mas também temos a noção de que “ela” é uma coisa, um personagem num jogo de computador, não possui género, a não ser no contexto da narrativa. Penso que será possível falar informalmente sobre Sophia e dizer “ela foi a Las Vegas, esteve aqui e falou com um repórter”. O que terá mais que ver com o nosso à-vontade com a linguagem ou como se sentíssemos que é indelicado referirmo-nos a uma entidade que se apresenta com forma humana, como sendo uma coisa, apesar de, tecnicamente, ela ser uma “coisa”. Essa foi a minha posição no debate. Houve opiniões mais radicais. Houve quem dissesse que deveríamos utilizar o “ela”, “porque esse é o género que ela prefere”. Pois, mas ela não tem preferências. Outros foram muito assertivos: “Tem de se tratá-la por ‘coisa’.” Isto porque assim que começarmos a pensar nela como “ela”, estaremos a permitir que as máquinas nos convençam de que são aquilo que não são realmente.
PÚBLICO -

"Estamos numa fase em que cada vez mais entendemos a ciência e a religião como forças opostas" Nuno Ferreira Santos
Bom, para começar têm uma voz, que é ou masculina ou feminina.
É verdade. As que falam connosco têm, normalmente, uma voz aguda. Mas há uma linha ténue entre a voz de mulher e a voz de criança. Não é claro o que se pretende, mas penso que se aposta mais na voz de criança, que é fofa, do que na de mulher. Mas há formas andróides com géneros bem definidos e que têm um aspecto muito feminino. E frequentemente as representações de inteligência artificial na ficção científica e na cultura popular têm uma forma feminina. A assistência por inteligência artificial tem, regra geral, uma voz feminina.

Como a Siri, da Apple, e a Alexa, da Amazon…
… ou a Cortana, da Microsoft. Há motivos claros para que assim seja. No fundo, é voltar ao conceito de que as mulheres são servis e fornecem o tipo de auxílio gentil que os clientes desejam. Na realidade, alguns destes assistentes possuem diferentes tipos de voz, incluindo vozes de homem, mas por defeito apresentam a voz feminina ao cliente. E tudo isto diz muito sobre os conceitos de género.

Como define a relação entre ciência e religião?
Ambos os campos definem a maneira como existimos enquanto humanos. Não tenho a certeza se algum dia viveremos num futuro totalmente secular, como hoje se anuncia. Mas penso que a maneira como historicamente temos visto ciência e religião, como compatíveis ou como antagónicas, é muito significativa. Estamos numa fase em que cada vez mais as entendemos como forças opostas. Penso que estabelecer um diálogo entre estas duas áreas de interesse e de relato histórico humano — a ciência tem as suas histórias e a religião também — é muito necessário.
--------------------------
Fonte:  https://www.publico.pt/2018/02/11/ciencia/entrevista/trabalhamos-para-que-as-maquinas-nao-nos-venham-a-fazer-mal-1802501

Nenhum comentário:

Postar um comentário