O que pensamos?

  • Home
  • Máquinas & Humanos (Graça Nunes)

Máquinas & Humanos (Graça Nunes)

Será que falar de ética das máquinas inteligentes não está apenas mascarando nossa hipocrisia em delegar a elas o que só cabe a nós, humanos?

Antes de tentar responder essa pergunta é necessário entender o que são essas máquinas e o que entendemos por ética nesse contexto.

Desde que surgiu a ideia de uma inteligência artificial para os computadores tenta-se definir, sem muito sucesso, o que separa um sistema computacional convencional do seu parente inteligente. Para simplificar, vou utilizar a noção de que um sistema para ser considerado inteligente deve resolver problemas que necessariamente precisam de habilidade/capacidade humana – e não apenas de força-bruta – para isso. Essas habilidades podem incluir aprendizado, compreensão de língua, raciocínio baseado em senso comum ou em informações incompletas, entre outras.

Acontece que, de uma ou outra forma, ainda não ideal, mas satisfatória ou quase, todas essas habilidades já estão presentes nos sistemas de IA atuais. Enquanto muitos comemoram, alguns se preocupam com esse avanço assintótico. O que exatamente causa essa preocupação?

O computador, com um hardware muito simples, sempre foi usado como uma máquina que obedece a comandos muito elementares, expressos numa linguagem de
programação escrita pelo homem. Acontece que esses comandos manipulam dados que são fornecidos para a máquina, que vêm de fora dela. Assim, a combinação desses comandos com um conjunto potencialmente infinito, variável e imprevisível de dados torna esses programas computacionais potência e imprevisivelmente poderosos.

A tecnologia atual para dotar esses programas de inteligência caracteriza-se por fornecer, a algoritmos criados para aprender, grandes quantidades de dados sobre aquilo que deve ser aprendido, ou seja, sobre o conhecimento necessário à solução do problema que se quer resolver. Assim, para criar um programa que vai aprovar crédito bancário, por exemplo, basta fornecer muitos dados sobre clientes aprovados e não aprovados, e assim o programa inferirá o conhecimento necessário para analisar um futuro candidato e aprovar-lhe o crédito ou não. Outro exemplo é fornecer muitas imagens de objetos ou pessoas para que o sistema possa distinguir entre diferentes classes, ou então reconhecer um determinado objeto ou pessoa entre muitas opções possíveis.

Esses dois exemplos levantam algumas questões. No caso do crédito bancário, não seria mais simples elencar os requisitos necessários para a aprovação do crédito e então verificá-los para um candidato? Ou estariam esses requisitos implícitos em outros dados a respeito do candidato, que não aqueles financeiros, tradicionais, verificáveis em poucas consultas a papeis e contas bancárias? Ainda que seja necessário um computador para essa verificação, por que delegar a um algoritmo a decisão final da aprovação?

Já no caso de reconhecimento de imagens, a situação é diferente. Para diferenciar objetos ou pessoas em imagens quaisquer, é preciso ter certas habilidades e conhecimentos. Dependendo da situação, pode ser impossível para o humano. Esse é o tipo de tarefa para a qual é difícil elencar exatamente o que está envolvido na tarefa de reconhecimento. Daí aprender padrões ao invés de regras é muito mais eficaz. A inteligência, nesse caso, advém da capacidade superior ao homem em executar aquela tarefa – além do fato de ter havido um processo de aprendizado pelo algoritmo.

Outra característica importante desses algoritmos que aprendem é que aquilo que aprendem não tem sido recuperável de uma forma legível, ou seja, é impossível recuperar exatamente qual conhecimento foi apreendido pela máquina. Aferimos seu conhecimento apenas pelo seu comportamento numa determinada tarefa. Nesse sentido, dizemos que são obscuros, verdadeiras caixas-pretas. Performam bem, é verdade, mas não conseguem explicar como o fazem. Essa característica indesejável deriva da tecnologia chamada Deep Learning, que nada mais é do que um modelo especial de redes neurais, essas já bem conhecidas há décadas. Indesejável por um lado, inevitável por outro, o fato é que a impossibilidade de se justificar, aliada à presença cada vez mais
sentida desses sistemas no nosso cotidiano, tem gerado um sentimento de insegurança e desconfiança.

A tecnologia, que não deixa de evoluir, tem se inserido no nosso cotidiano de diferentes formas. Poderia enumerar muitas áreas que se beneficiam – e beneficiam a nós – com o uso da tecnologia. Muitas vezes os sistemas são explícitos, interagimos com ele e sabemos para que servem e a quem servem. Outras vezes, no entanto, os sistemas são ubíquos, não sabemos que estão ali, nem que estamos interagindo com eles. Mas nossos movimentos e falas podem estar se transformando em dados para seus algoritmos. É isso o que gera insegurança e desconfiança. O que esses dados falam de mim? O que acontecerá a partir deles? Quem está por trás desses sistemas e com qual objetivo? Que direitos eu tenho ou não sobre os dados que eu gero e que são inadvertidamente usados
por terceiros?

Então você deve estar se perguntando: mas se um programa é regido por comandos dados pelo homem, sempre haverá um responsável por isso e, cedo ou tarde, ele será responsabilizado por algum desvio de rota desse programa, certo?

Sim e não. Sim, para os programas convencionais, não “inteligentes”, aqueles de fato guiados por comandos do tipo: se acontecer isso então faça isso senão faça aquilo outro. Não, para os programas que foram gerados por algoritmos que aprenderam a partir de dados.

Em primeiro lugar, possivelmente esses dados para o aprendizado são dados reais, não artificiais e, desde que usados de forma lícita, induzirão um conhecimento pelo qual não há responsável direto. Em segundo lugar, o resultado do sistema depende do conhecimento aprendido e não de um ser humano que lhe dê comandos para isso ou aquilo.

Cada vez mais o que se vê são sistemas que aprendem sozinhos (self learning), ou seja, vão aprendendo e se modificando durante seu uso, tornando seu comportamento cada vez mais imprevisível. Mais que isso, os sistemas tem se tornado autônomos, completamente independentes e livres da ação humana.

O exemplo mais evidente dessa autonomia é o carro autônomo, capaz de se locomover sem qualquer interferência humana. Nesse caso, os algoritmos devem ser capazes de processar de forma instantânea muitas informações de sensores, além de mapas, informações em tempo real de trânsito, semáforos, desvios, obstáculos, etc., tudo isso cumprindo um objetivo e sem causar qualquer dano a alguém ou a si próprio. Quem é capaz de confessar confiança total nesse carro?

Todas essas razões legítimas de preocupação pela sociedade com os sistemas de IA têm levado muita gente a cobrar um “comportamento ético” desses artefatos, para o bem da nossa sociedade. Além disso, cobra-se uma legislação própria para eventuais prejuízos que possam causar.

Já que não podemos ou não queremos nos livrar deles, e já que eles, cada vez mais, vão se comportar como humanos, então que seja tal qual humanos éticos. Já que não se pode responsabilizar umas linhas de código ou um conjunto de dados por eventuais prejuízos, então que se determine quem será responsabilizado: quem as escreveu, quem mandou escrever, quem vendeu, quem usou, etc.

E por que será que não pensamos nisso antes? Por que não falamos de ética quando surgiram outros tipos de máquinas e artefatos, os automóveis, os aviões, tudo aquilo que não é humano e que eventualmente causa danos para os humanos? Por que questões éticas não estão envolvidas nesses casos?

Simplesmente porque até então tudo isso tem sido comandado por humanos, a quem podemos responsabilizar. À medida que sistemas computacionais atuam de forma autônoma e imprevisível, eles, ao mesmo tempo, se distanciam de e se assemelham a seus criadores. Além disso, sua presença na sociedade tem sido de tal forma amalgamada à nossa, que já os consideramos como coabitantes de nossa sociedade.

Mas tudo tem um limite. Máquina é máquina; humano é humano. Exigir da máquina um comportamento ético é supor que também com ela compartilhamos costumes, valores, cultura. Qualquer que seja esse comportamento, ele jamais poderá ser chamado de ético; no máximo, ele imitará comportamentos que coincidem com o que julgamos ético. Não será fruto de um julgamento de valor; no máximo, será fruto da repetição de um certo padrão a ela ensinado. Nada garante que em outra situação um comportamento antiético não possa se manifestar. Bem, mas assim também somos nós, seus modelos.

Há os que defendem a definição de uma ética artificial, especial para essas máquinas. O que seria ela? Um conjunto de valores a serem observados por elas? O que são valores para um algoritmo? Não matar, não ofender, não discriminar? Estará um dia um algoritmo adequadamente informado de modo a discernir sobre tudo o que recebe como dado e o que suas ações são capazes de causar ao ambiente e aos seres a sua volta? Será capaz de embasar suas decisões à luz de valores humanos a fim de exibir um comportamento ético?

Essa possibilidade esbarra em várias dificuldades: na definição dos valores supostos por um comportamento ético; na sua representação – seja explícita ou por meio de exemplos; na sua aquisição por um algoritmo. Além disso, valores éticos não são universais enquanto que algoritmos não possuem barreiras.

Finalmente, por que se tornou importante discutir valores morais e éticos de algoritmos, quando esses mesmos valores parecem tão descolados do comportamento humano nos dias de hoje? Aparentemente, é muito fácil apontar problemas éticos nos sistemas computacionais – ainda mais quando não se tem nítida uma figura humana responsável. É politicamente correto pensar em ética e moral, ainda que nossas ações não demonstrem o mesmo empenho. Daí a hipocrisia mencionada no início desse texto.

Melhor seria para o humano, de um lado, construir, da maneira mais correta possível, máquinas e sistemas que fizessem exatamente o que se propõe que façam; fazê-lo de forma transparente; considerar eventuais problemas éticos durante seu desenvolvimento
e seu uso. De outro lado, deixar no âmbito humano as questões éticas; discuti-las, sim, em todos os cenários da sociedade; estabelecer com a tecnologia uma relação de dominância; deixar de usá-la como escudo para mascarar nossos próprios comportamentos antiéticos.

Em outras palavras, se usarmos a tecnologia a nosso favor, tudo o que temos com o que nos preocupar é com nosso próprio comportamento ético. Aliás, não são os algoritmos inteligentes os vilões dessa história. Eles não são necessários para ações prejudiciais à sociedade ou à humanidade. São apenas o instrumento da vez. A História prova isso.

Há quem aposte num futuro de cultura tecno-humana, da qual emerja uma “ética” própria, compartilhada por humanos e algoritmos. Quem viver verá.

Graça Nunes