O Instituto de Engenheiros Eletricistas e Eletrônicos lançou recentemente um documento intitulado “Ethically Aligned Design: Uma Visão para Priorizar o Bem-Estar Humano com Inteligência Artificial e Sistemas Autônomos”. Como o nome diz, o documento tem o objetivo de garantir que o desenvolvimento de sistemas de inteligência artificial e de robôs seja benéfico para os seres humanos.
Não foi simplesmente uma carta de intenção. O “Ethically Aligned Design” foi criado por diversos comitês e grupos de estudos com mais de cem líderes globais de diversas áreas (pdf), como Direito, Ciências da Computação e Ética. Um desses líderes foi o cientista da computação brasileiro Edson Prestes.
O professor Edson Prestes dá aula na Universidade Federal do Rio Grande do Sul e é presidente da Sociedade de Robótica e Automação da IEEE no Brasil. O Olhar Digital conversou com ele sobre a importância desse documento, o futuro das inteligências artificiais e os riscos que os robôs representam para a humanidade. Segundo Prestes, os robôs devem trazer mais bem do que mal a nós, em todos os aspectos de nossa vida. Confira:
A entrevista foi editada para dar mais clareza e enriquecida com links e materiais que ajudam a ilustrar alguns pontos levantados pelo professor.
Olhar Digital: Como você veio a se interessar por IA? Qual trabalho te levou até essa área?
Prof. Edson Prestes: Na época que eu fui fazer mestrado na UFRGS eu me interessei pela área de inteligência artificial, mais especificamente a área de redes neurais artificiais. A partir desse contato eu fui para outras áreas da inteligência artificial, como algoritmos genéticos, mas tudo começou no meu mestrado. Só que quando eu entrei no douturado, eu comecei a me envolver mais com a parte de robótica. Então eu entrei nesse trabalho sobre IA por causa da minha atuação na área de robótica.
OD: De onde veio a ideia de redigir um documento desse tipo?
EP: Os robôs vão coexistir com seres humanos. Isso é fato. Nos próximos anos e décadas, nós vamos ver robôs trabalhando e atuando lado a lado com seres humanos em diferentes tipos de papéis. Você vai ter, por exemplo, um robô para limpar sua casa, um robô para ajudar no seu transporte pela cidade, robôs para realizar tarefas maçantes e repetitivas, robôs para fazer tarefas perigosas para seres humanos… De repente você vai poder até se casar com robôs.
A quantidade de robôs com que você vai ter contato é muito grande. Você vai interagir com eles com a mesma frequência com que a gente interage com seres humanos, e ter com eles o mesmo tipo de contato. Então quando a gente pensa nisso, a gente pensa em uma série de implicações. Todos esses aspectos são abordados nesse documento. Nós abrimos uma discussão entre pesquisadores de diversas áreas, é uma iniciativa global.
Estamos quase atingindo a Singularidade, que será o momento em que a evolução biológica e a evolução tecnológica passarão a andar lado a lado, e esse é um dos motivos de pensarmos nesse documento agora. A evolução tecnológica está se acelerando de maneira impressionante. Se você olha para uma década atrás, dá para ver que estão ocorrendo saltos exponenciais na evolução tecnológica. Então máquinas superinteligentes podem realmente aparecer daqui a uma ou duas décadas. Processadores mais velozes podem fazer com que nosso pensamento seja muito superado pelos computadores.
Daqui a pouco haverá chips capazes de processar muito mais instruções do que nosso cérebro. Daqui a duas décadas, você terá um chip de mil dólares com a capacidade de processamento de uma comunidade inteira, de uma cidade inteira. Na nanotecnologia, biotecnologia e neurociência, avanços semelhantes estão acontecendo. Quando esse ponto for atingido, começarão a aparecer coisas impensáveis,e é por isso que essa iniciativa existe: para começar a pensar nesses problemas desde já.
EP: O mais natural é o seguinte: o robô vai compartilhar espaço com o ser humano, então ele tem que obedecer às regras sociais que os seres humanos estabelecem. Isso é a primeira coisa, mas aí a gente já vai entrando na parte de ética e de costumes da sociedade. Porque a maneira como eu interajo com você ao vivo, por exemplo, certamente vai ser diferente de como seria se nós tivéssemos outra nacionalidade.
Existem nuances, como o tempo de contato visual: brasileiros interagindo mantêm um contato visual bastante longo, o que identifica uma sinceridade. Mas para orientais, isso pode ser diferente: pode ter outra conotação, e ser até uma atitude meio agressiva. Há a questão do espaço pessoal também: quando a gente tá interagindo, a gente sempre mantém uma distância. Essa distância também pode variar de acordo com a nacionalidade.
Imagina também um robô dentro de uma empresa. Qual é o papel do robô dentro dessa empresa? Qual é a hierarquia? Como as pessoas vão ter que interagir com ele? E tem coisas mais além ainda. Por exemplo: se eu vou desenvolver um robô para atuar junto com outra pessoa: o que eu, como desenvolvedor, preciso levar em consideração para que essa atuação seja perfeita?
OD: Com relação à privacidade de dados, que já é uma questão atual: a robótica traz novos aspectos a essa discussão?
EP: Um exemplo bem simples que a gente pode ver no nosso dia a dia é o seguinte: se você tem uma SmartTV na sua casa, você já parou para pensar que os dados que ela capta da sua casa podem estar sendo extraviados? Que talvez ela esteja te observando? Isso é uma questão de privacidade de dados. Se você for colocar um robô para varrer sua casa, ele precisar ter uma regra de privacidade também. Porque se não, pode ser que uma terceira pessoa hackeie esse robô e use essas informações.
Outro exemplo: imagine um robô de companhia que vai cuidar de uma criança. E se ele for hackeado por uma empresa e começar a estimular a criança a consumir determinado produto? Aliás, ele poderia manipular até mesmo um adulto. Então existem diversos aspectos relacionados a privacidade e monitoramento. O robô, como inteligência artificial, vai tomar decisões sozinho. Mas em algum momento, será necessário pensar: quais decisões ele está tomando? Elas são nocivas para mim? Será que eu quero que esse robô aja de determinada maneira? Isso da parte do desenvolvedor.
OD: Mas e para o usuário?
EP: Da parte do usuário, tem muitos aspectos éticos importantes. Um exemplo bem simples: você colocaria um robô para ser babá dos seus filhos? Imagine que fosse um robô ultra-avançado: você deixaria ele passar seis, oito horas interagindo com o seu filho?
Mesmo que você tivesse confiança suficiente na tecnologia, existem alguns problemas: crianças pequena precisam interagir frequentemente com seres humanos. Porque o desenvolvimento delas ocorre de maneira satisfatória graças a essa riqueza de interações. Então se você tivesse uma máquina, por mais avançada que fosse, você dificilmente teria interações tão ricas quanto com uma pessoa.
Há casos de crianças que não tiveram contato frequente com adultos que acabam não desenvolvendo bem certas partes de seus cérebros. Ou seja, seu desenvolvimento cognitivo não foi adequado. Isso também ocorre com pessoas idosas. Elas precisam de alguma interação com adultos; caso contrário, seu declínio cognitivo é mais acentuado. Esses aspectos também precisam ser estudados.
Além disso, num mundo cheio de robôs inteligentes e avançados, o que acontece com o nosso trabalho? Será que haverá desemprego em massa? Como isso poderia ser evitado? E no caso do desenvolvimento de armas autônomas? Sempre existem corridas bélicas entre as grandes potências, então será que uma delas não poderia desenvolver uma arma letal autônoma?
OD: Houve alguma discussão na qual você teve uma participação mais destacada?
EP: Nesse trabalho, eu participo de dois comitês: “Affective Computing” (computação afetiva) e “How To Imbue Ethic Values in AI Systems” (como embarcar valores éticos em sistemas de inteligência artificial). “Computação Afetiva” trata sobre como fazer com que os robôs reconheçam e expressem emoções para interagir de maneira mais natural com seres humanos.
Imagine um robô incapaz de expressar emoções: uma criança que fosse deixada com ele não conseguiria desenvolver sua capacidade de distinguir emoções, reconhecer impressões faciais… Se o robô não tem isso, ela não vai aprender.
E um robô que não tenha essa característica talvez não consiga compreender o que um adulto está sentindo. E então ele não conseguirá reagir de acordo. Pense no seguinte: um robô no chão de fábrica ensinando um operário a fazer determinada tarefa, e a pessoa claramente não está entendendo. Só que ela demonstra isso na postura corporal, no rosto… O robô, nesse caso, não teria como perceber isso. E nesse caso ele não consegue mudar sua maneira de ensinar a tarefa.
OD: O que mais entra nessa área?
EP: A gente pode olhar também para outras coisas. Imagine um robô capaz de compreender emoções humanas e que seja ultra-realista: será que ele causará algum tipo de problema para pessoas vulneráveis? Podem ser pessoas muito carentes, ou tímidas, que não tenham muito contato com outras pessoas. Vai ser muito mais fácil para essa pessoa estabelecer um vínculo emocional com um robô do que uma pessoa que não é tão carente. Porque o robô para ela será uma pessoa perfeita. E quais seriam as implicações disso?
Além disso, tem os robôs sexuais: imagine que ele seja comprado por uma pessoa, interaja com ela, e em determinado ponto a pessoa comece a reproduzir algum tipo de abuso com o robô. Qual seria o efeito disso na sociedade? Pode ser o mesmo efeito de jogos violentos, que acabam banalizando a violência e facilitando a replicação dessa violência na sociedade. Uma pessoa violenta que faça isso com um robô pode começar a achar que isso é o normal, e tratará outras pessoas assim também. Então há graves implicações éticas nisso.
Há o lado da escravidão também: a pessoa pode pensar “eu tenho um robô, então vou fazer com que ele seja meu servo”. O humano tende a replicar esse tipo de comportamento, a banalizar o sentido daquele comportamento. Daqui a pouco ele pode começar a achar que a escravidão é algo moralmente aceitável.
OD: Mas então como os desenvolvedores poderiam evitar ou dificultar que isso aconteça?
EP: Esse é o cerne da discussão. Uma das medidas seria, por exemplo, para proteger pessoas vulneráveis. Elas podem estabelecer um vínculo muito profundo com aquele robô. Uma coisa simples seria fazer esse robô lembrar aquela pessoa, com alguma regularidade, que ele é um robô e não uma pessoa de verdade. Ou fazer programas de conscientização para que as pessoas saibam quais são os efeitos do uso prolongado desse robô.
Outra coisa de impacto muito grande seria, por exemplo, com inteligência artificial.em procedimentos médicos. Imagine um sistema médico no qual uma pessoa pode colocar todos os dados do paciente que ele dá o diagnóstico. Imagine que ele faça sua decisão com base em dados de 2 milhões de pacientes. Se você usar esse sistema no seu dia a dia, você pode acabar seguindo ele como se ele fosse 100% preciso.
E como um médico poderia ir contra esse resultado? Porque o sistema certamente é muito mais informado do que qualquer médico. Com isso, o sistema acaba tirando de nós uma certa liberdade. E isso pode acontecer em diferentes áreas, não só na área médica: pode ser na área de Direito também, por exemplo. É como se as inteligências artificiais virassem “oráculos” de suas respectivas áreas.
OD: Quando pensamos em Inteligência Artificial, muitas vezes há o medo de um apocalipse robótico, com robôs aniquilando os seres humanos. Esse tipo de risco existe de fato?
EP: Existir, o risco existe. Ele ainda deve estar distante algumas décadas, mas é importante começar a pensar nele agora, por isso também a importância desse documento. Algo parecido acontece com o temor de que as pessoas sejam substituídas por máquinas. Várias fábricas já usam largamente robôs, o que gera muito desemprego e é um temor sério.
As pessoas acham que as máquinas vão substituir seres humanos, mas não é bem assim. É um temor que existe e, de certa forma, é bom que ele exista, porque existem soluções. Podemos, por exemplo, fazer com que robôs sejam considerados “pessoas eletrônicas” e comecem a pagar os mesmos impostos que um trabalhador paga. Com isso, poderíamos ter um “salário universal” para minimizar os possíveis efeitos do desemprego.
https://youtu.be/6557PGlZ7L4
EP: Isso é interessante, porque as leis do Asimov são leis de ficção científica: elas são falsas. Porque se você olhar as ideias do Asimov, você vai observar que toda a responsibilidade sobre qualquer coisa que possa acontecer entre humano e robô é delegada ao robô. Como se o robô estivesse no mesmo nível de consciência do ser humano, o que obviamente não é o caso.
Imagina que você está realizando uma cirurgia com um robô e, de repente, uma falha na programação do robô faz com que ele corte a pessoa. Você vai dizer para o paciente “me desculpe, é que o robô acordou mal humorado hoje”? Não dá né. Então quando discutimos esse conjunto de elementos éticos, nós também pensamos nessa situação: quem seria responsável por esse robô?
OD: Essa questão é interessante, porque questões éticas não costumam ser discutidas em cursos de ciência da computação com muita frequência.
EP: Isso é um ponto super importante. Eu não sei se existem cursos no Brasil que discutem aspectos éticos, ou que tenham por exemplo uma cadeira de “ética aplicada” ou algo assim. Na verdade não lembro nem se meu curso de graduação de ciências da computação tem uma cadeira de ética.
Mas isso é extremamente atual e importante, não só para a robótica mas também para sistemas computacionais mesmo. Aquele caso da televisão [que poderia espionar o usuário] ilustra isso. No caso do robô é ainda mais grave, porque um hacker poderia controlar todo o processo de tomada de decisões dele e influenciar esse processo se ele tiver um sistema de segurança falho.
OD: Como passaremos do mundo atual para essa realidade de pessoas convivendo frequentemente com robôs?
EP: Depende do nível de convivência, é claro. Mas por exemplo, várias pessoas já têm o Roomba, aquele robô aspirador de pó, em casa. Vários hospitais já têm robôs para terapia. Então a gente vai começar a ver isso cada vez mais. E é importante lembrar que quando a gente fala de robótica, não falamos só daqueles robôs físicos, mas também em softwares, que já são muito mais comuns.
Seu celular, por exemplo, já tem uma capacidade de processamento em alguns casos equivalente a um computador pequeno, e já faz uma série de tarefas automatizadas para você. Então a gente já está convivendo com a tecnologia. A gente está agora numa condição que chamamos de “techno limbo condition”: nós não somos mais simples humanos, temos capacidades muito ampliadas graças à tecnologia.
OD: E você arriscaria um palpite de tempo? Quanto tempo deve levar para que interações com robôs sejam tão comuns quanto com humanos?
EP: Olha, acho que em uma ou duas décadas. Daqui a pouco a gente já vai ter por exemplo os carros autônomos, que já devem começar a aparecer na próxima década. Aí nessa mesma linha já tem os navios autônomos, e então haverá assistentes pessoais como o Jibo, que já deve ser lançado neste ano. Aí depois você vai ter os robôs sexuais, que em breve devem chegar ao mercado e já vão ser muito parecidos com o ser humano. E por aí vai. Eu acredito que em 2018 já deve haver mais robôs, mas a grande mudança deve vir mais na próxima década.
https://youtu.be/3N1Q8oFpX1Y
EP: Eu acredito que podem. Na verdade eu vejo robótica e inteligência artificial de um ponto de vista muito positivo. Quando você pensa que essa máquina pode gerar riqueza, você pode pensar que ela pode gerar um desemprego muito grande, mas ela pode também gerar muitos empregos. A Amazon por exemplo já contratou muitos empregados para interagir com os robôs em seus armazéns. E para fazer trabalhos que os robôs não são capazes de fazer.
Por exemplo, a Amazon recebe uma encomenda: uma pessoa teria que ir no depósito da Amazon, procurar o produto, pegar uma escada, pegar o objeto, mandar para expedição, etc. Por que ela simplesmente não pode simplesmente ficar esperando até que um robô traga o produto para ela? Se mais robôs ficarem trazendo objetos para você, você consegue disparar muitos mais produtos em menos tempo.
Fora que vários processos hoje não podem ser diretamente automatizados. Pensando ainda no caso da Amazon: você quer pegar um conjunto de produtos que estão vindo de outro depósito para organizar no seu depósito. Esses produtos até podem ser transportados por robôs, mas fazer um robô que pegue o produto e coloque ele na estante é outra coisa. Porque aí ele vai ter que verificar espaço na estante, se ele pode rearranjar os objetos para caber mais coisas na estante; esse tipo de coisa é muito difícil de ser automatizado.
OD: No final das contas, você acha que os robôs serão bons para a humanidade?
EP: Eu sempre sou muito otimista em relação a tecnologia. A visão que a mídia transmite, de robôs matando todo mundo, a visão do “Exterminador do Futuro”: essa visão é muito negativa. A grande maioria das pessoas tem medo da robótica por causa disso. Elas olham para esses filmes e imaginam que aquilo vai acontecer com elas. Mas elas não estão sabendo o que nós estamos pensando.
A gente quer produzir robôs para melhorar a qualidade de vida das pessoas. Ou seja, queremos que essas pessoas melhorem seus trabalhos, agilizando processos, automatizando tarefas chatas, eliminando riscos e trazendo benefícios da mesma forma como toda tecnologia. Se você olhar para dez anos atrás, você vai ver que a nossa vida é muito mais facilitada. Então é o mesmo cenário. A robótica não é o fim da humanidade: esse pensamento tem que ser interrompido, até porque quem trabalha com robótica não pensa nisso.