Será que falar de ética das máquinas inteligentes não está apenas mascarando nossa hipocrisia em delegar a elas o que só cabe a nós, humanos? Antes de tentar responder essa pergunta é necessário entender o que são essas máquinas e o que entendemos por ética nesse contexto. Desde que surgiu a ideia de uma inteligência artificial para os computadores tenta-se definir, sem muito sucesso, o que separa um sistema computacional convencional do seu parente inteligente. Para simplificar, vou utilizar a noção de que um sistema para ser considerado inteligente deve resolver problemas que necessariamente precisam de habilidade/capacidade humana – e não apenas de força-bruta – para isso. Essas habilidades podem incluir aprendizado, compreensão de língua, raciocínio baseado em senso comum ou em informações incompletas, entre outras. Acontece que, de uma ou outra forma, ainda não ideal, mas satisfatória ou quase, todas essas habilidades já estão presentes nos sistemas de IA atuais. Enquanto muitos comemoram, alguns se preocupam com esse avanço assintótico. O que exatamente causa essa preocupação? O computador, com um hardware muito simples, sempre foi usado como uma máquina que obedece a comandos muito elementares, expressos numa linguagem de programação escrita pelo homem. Acontece que esses comandos manipulam dados que são fornecidos para a máquina, que vêm de fora dela. Assim, a combinação desses comandos com um conjunto potencialmente infinito, variável e imprevisível de dados torna esses programas computacionais potência e imprevisivelmente poderosos. A tecnologia atual para dotar esses programas de inteligência caracteriza-se por fornecer, a algoritmos criados para aprender, grandes quantidades de dados sobre aquilo que deve ser aprendido, ou seja, sobre o conhecimento necessário à solução do problema que se quer resolver. Assim, para criar um programa que vai aprovar crédito bancário, por exemplo, basta fornecer muitos dados sobre clientes aprovados e não aprovados, e assim o programa inferirá o conhecimento necessário para analisar um futuro candidato e aprovar-lhe o crédito ou não. Outro exemplo é fornecer muitas imagens de objetos ou pessoas para que o sistema possa distinguir entre diferentes classes, ou então reconhecer um determinado objeto ou pessoa entre muitas opções possíveis. Esses dois exemplos levantam algumas questões. No caso do crédito bancário, não seria mais simples elencar os requisitos necessários para a aprovação do crédito e então verificá-los para um candidato? Ou estariam esses requisitos implícitos em outros dados a respeito do candidato, que não aqueles financeiros, tradicionais, verificáveis em poucas consultas a papeis e contas bancárias? Ainda que seja necessário um computador para essa verificação, por que delegar a um algoritmo a decisão final da aprovação? Já no caso de reconhecimento de imagens, a situação é diferente. Para diferenciar objetos ou pessoas em imagens quaisquer, é preciso ter certas habilidades e conhecimentos. Dependendo da situação, pode ser impossível para o humano. Esse é o tipo de tarefa para a qual é difícil elencar exatamente o que está envolvido na tarefa de reconhecimento. Daí aprender padrões ao invés de regras é muito mais eficaz. A inteligência, nesse caso, advém da capacidade superior ao homem em executar aquela tarefa – além do fato de ter havido um processo de aprendizado pelo algoritmo. Outra característica importante desses algoritmos que aprendem é que aquilo que aprendem não tem sido recuperável de uma forma legível, ou seja, é impossível recuperar exatamente qual conhecimento foi apreendido pela máquina. Aferimos seu conhecimento apenas pelo seu comportamento numa determinada tarefa. Nesse sentido, dizemos que são obscuros, verdadeiras caixas-pretas. Performam bem, é verdade, mas não conseguem explicar como o fazem. Essa característica indesejável deriva da tecnologia chamada Deep Learning, que nada mais é do que um modelo especial de redes neurais, essas já bem conhecidas há décadas. Indesejável por um lado, inevitável por outro, o fato é que a impossibilidade de se justificar, aliada à presença cada vez mais sentida desses sistemas no nosso cotidiano, tem gerado um sentimento de insegurança e desconfiança. A tecnologia, que não deixa de evoluir, tem se inserido no nosso cotidiano de diferentes formas. Poderia enumerar muitas áreas que se beneficiam – e beneficiam a nós – com o uso da tecnologia. Muitas vezes os sistemas são explícitos, interagimos com ele e sabemos para que servem e a quem servem. Outras vezes, no entanto, os sistemas são ubíquos, não sabemos que estão ali, nem que estamos interagindo com eles. Mas nossos movimentos e falas podem estar se transformando em dados para seus algoritmos. É isso o que gera insegurança e desconfiança. O que esses dados falam de mim? O que acontecerá a partir deles? Quem está por trás desses sistemas e com qual objetivo? Que direitos eu tenho ou não sobre os dados que eu gero e que são inadvertidamente usados por terceiros? Então você deve estar se perguntando: mas se um programa é regido por comandos dados pelo homem, sempre haverá um responsável por isso e, cedo ou tarde, ele será responsabilizado por algum desvio de rota desse programa, certo? Sim e não. Sim, para os programas convencionais, não “inteligentes”, aqueles de fato guiados por comandos do tipo: se acontecer isso então faça isso senão faça aquilo outro. Não, para os programas que foram gerados por algoritmos que aprenderam a partir de dados. Em primeiro lugar, possivelmente esses dados para o aprendizado são dados reais, não artificiais e, desde que usados de forma lícita, induzirão um conhecimento pelo qual não há responsável direto. Em segundo lugar, o resultado do sistema depende do conhecimento aprendido e não de um ser humano que lhe dê comandos para isso ou aquilo. Cada vez mais o que se vê são sistemas que aprendem sozinhos (self learning), ou seja, vão aprendendo e se modificando durante seu uso, tornando seu comportamento cada vez mais imprevisível. Mais que isso, os sistemas tem se tornado autônomos, completamente independentes e livres da ação humana. O exemplo mais evidente dessa autonomia é o carro autônomo, capaz de se locomover sem qualquer interferência humana. Nesse caso, os algoritmos devem ser capazes de processar de forma instantânea muitas informações de sensores, além de mapas, informações em tempo