Por Sérgio Domingues, agosto de 2004. Temas como a inteligência artificial ou a relação entre o direito e a moral poderiam ser bem explorados pelo filme de Alex Proyas. O diretor preferiu ficar na diversão superficial.
Em 2001, o filme “Inteligência Artificial” poderia ter as explorado as conseqüências da criação de mentes cibernéticas com o talento de Stanley Kubrick. Infelizmente, sua morte durante as gravações deixaram a conclusão do filme nas mãos de Spielberg. Talvez por isso o resultado tenha sido apenas uma adaptação futurista de Pinóquio.
Agora, o filme de Alex Proyas, estrelado por Will Smith, perde outra chance. A idéia inicial é boa. Sua realização, não. Trata-se da adaptação do livro “Eu, Robô”, de Isaac Asimov. Uma obra de ficção cientifica dos anos 50 com um ponto de partida interessante. Descrevendo um futuro em que o uso de robôs tornou-se generalizado, o autor imaginou a existência de três leis da psicologia robótica para evitar acidentes desagradáveis com criaturas mais fortes que seus donos. As três leis dizem o seguinte:
1 – Um robô não pode causar dano a um ser humano nem, por omissão, permitir que um ser humano sofra.
2 – Um robô deve obedecer às ordens dadas por seres humanos, exceto quando essas ordens entrarem em conflito com a Primeira Lei.
3 – Um robô deve proteger sua própria existência, desde que essa proteção não se choque com a Primeira nem com a Segunda Lei da robótica.
O livro traz nove contos em torno dos problemas causados pela combinação ou contradição entre essas leis. O filme poderia ter feito o mesmo. Ao invés disso, tivemos o costumeiro festival de efeitos especiais, perseguições e tiroteios .
Por exemplo, logo no início do filme, o personagem de Will Smith, Spooner, está andando pela rua quando ouve gritos de “pega-ladrão”. Avista um robô correndo e carregando uma bolsa feminina. Inicia uma daquelas perseguições cheia de acrobacias. Dá voz de prisão, ameaça atirar etc. Nada do corredor cibernético parar. Finalmente, o policial derruba o robô, a bolsa cai e rola até os pés de uma mulher. Trata-se da proprietária da bolsa e do robô. Ela havia tido um ataque de asma e mandou seu empregado enlatado buscar a bombinha de inalação que esquecera em casa.
Elementos como a propriedade privada embalhariam o jogo
Nesse caso, o robô obedeceu à 2ª lei da psicologia robótica. Ignorou as ordens de um ser humano para salvar outro. O roteiro poderia ter usado uma situação mais complexa. Por exemplo, um robô que impedisse um policial de prender seu proprietário, porque sabia de sua inocência. Mas isso seria admitir que as tais leis de Asimov são genéricas ao não prever situações em que a propriedade privada embaralha o jogo.
Do jeito que ficou, o episódio só serviu para mostrar toda a antipatia do policial por produtos de alta tecnologia. Afinal, Spooner sabia que não existia qualquer registro de crimes cometidos por robôs. Não havia razão nenhuma para sair em perseguição de um robô, só porque ele estava correndo em alta velocidade. A reação de Spooner parece aquela de policiais preconceituosos quando vêm um negro correndo numa multidão.
Mas o preconceito anti-cibernético do policial seria explicado por um acontecimento anterior. Spooner sofreu um acidente de trânsito que jogou os dois carros envolvidos num rio. O policial estava sozinho em seu automóvel, mas no outro veículo havia um adulto e uma menina. Todos os envolvidos estavam presos em seus carros. A morte por afogamento era certa, não fosse pela intervenção de um robô que passava pelo local. O robô mergulhou e avaliou a situação em milésimos de segundo. Os cálculos mostraram que Spooner tinha muito mais chances de sobreviver e foi salvo. Os outros envolvidos morreram. Daí, a antipatia feroz de Spooner em relação aos robôs.
Mais uma vez, a situação é um tanto absurda. Afinal, tamanha raiva seria melhor explicada se a criança fosse filha do próprio Spooner. Além disso, o robô não passava de um mecanismo programado para fazer os cálculos necessários para salvar tantas vidas quantas possível. A revolta do personagem de Will Smith supõe que um ser humano faria uma escolha diferente. Mas isso não é necessariamente verdade.
Spooner é negro. A criança é branca. Um ser humano poderia ter escolhido salvar a criança ao invés dele não por motivos humanitários, mas por ser racista. Se o acidente tivesse acontecido numa sociedade machista em que crianças do sexo feminino fossem consideradas menos dignas de viver do que homens adultos, novamente seria ele o escolhido para ser salvo. E para dar um exemplo concreto, todos concordaríamos que a vida humana está acima dos lucros. No entanto, em agosto passado, mais de 300 pessoas morreram num incêndio em um supermercado no Paraguai. Muitas delas porque proprietários e funcionários fecharam as portas para que ninguém saísse sem pagar. Tudo muito humano.
Prever todas as possibilidades da criatividade humana? Difícil
Esta seria outra possibilidade a ser explorada pelo filme. A discussão da moral. Mas antes, vamos voltar às tais leis de Asimov. O escritor russo pensou nelas porque estava cansado de ler romances de ficção que colocavam os robôs como mecanismos destruidores. Procurou mostrar uma visão otimista do uso da tecnologia avançada. Mas, as leis que criou são a evidência de que Asimov considerava os robôs como seres dotados de inteligência artificial. Capazes de atitudes próprias, que poderiam escorregar para atitudes nocivas ao seres humanos.
Aí, há dois problemas. Primeiro, seremos capazes de um dia criar uma forma de inteligência artificial? Inteligência vem do latim “inter leggere”, e significa saber ler, juntar letras, fazer ligações diferentes entre os mesmos elementos. Inteligência é diferente de instinto ou hábito. Quando alguma coisa ameaçadora vem em nossa direção, desviamos por instinto. O hábito faz com que depois de algum tempo de prática dirijamos um automóvel sem prestar atenção nos movimentos e comandos.
Os outros animais podem usar o instinto ou o hábito, mas são incapazes de usar a inteligência no nível em que usamos. Um chimpanzé pode utilizar um galho para alcançar um fruto. Mas, não pensará em usar o mesmo galho para amassar a fruta e fazer um suco. Abelhas constroem colméias, mas são incapazes de fazer um ninho. O João de Barro faz um belo ninho, mas não saberia fazer colméias ou ninhos diferentes.
A inteligência é a capacidade de usar os mesmos elementos para fazer coisas diferentes, ou vice-versa. De projetar no futuro. Imaginar variações. A idéia da inteligência artificial é dar esse poder a mecanismos automatizados. Seria como fazer uma prótese perfeita de um braço. Teríamos que dominar as informações sobre o membro em seus mínimos detalhes. Seu funcionamento, os tecidos, a sensibilidade, o sistema de circulação. Talvez, isso seja possível algum dia. Mas, com o cérebro é diferente. As ciências que estudam o funcionamento da mente estão longe de chegar a conclusões sobre ela. E uma das complicações está exatamente na convicção de que a mente humana não funciona apenas através da inteligência. Pelo menos, não nesse sentido de combinação lógica das coisas. Elementos conscientes e inconscientes, a cultura de um época ou lugar, experiências sensoriais e instintivas. Tudo isso complica muito o entendimento sobre o exato funcionamento da mente humana. Construir uma mente artificial significaria ter cercado todas as várias possibilidades da criatividade humana. Algo muito difícil.
Vamos ao segundo problema. Digamos que isso um dia seja possível. Que autômatos sejam realmente capazes de pensar artificialmente. Isso significaria que eles teriam autonomia de consciência, tal como seus criadores. Teriam aquilo que costumamos chamar de “livre arbítrio”, mencionado de passagem no filme.
Leis impossíveis de serem quebradas: sonho fascista
Por que então limitar essa autonomia, esse livre arbítrio, com regras de rígidas de comportamento? Os seres humanos também têm suas leis. No caso dos judeus e cristãos, as mais famosas são os 10 mandamentos. E, sem dúvida, elas ajudam na convivência humana. O problema é que também são bastante desrespeitadas. Não porque a os seres humanos sejam maus ou desobedientes por natureza. É errado roubar, por exemplo, mas também é errado promover a enorme desigualdade social que vemos todos os dias nas grandes cidades. Espetáculos de abundância e desperdício que levam milhares de jovens a entender que também têm direito à sua parte. Nem que seja pelo crime. Então, é preciso que haja certas condições para que as regras sejam aceitas em maior ou menor grau. É necessário um contexto de justiça social.
O contrário disso é o sonho de todo fascista. Leis e regras impossíveis de serem quebradas. Stanley Kubrick mostra bem isso em seu filme “Laranja Mecânica”. Maravilhosa adaptação do ótimo livro de Anthony Burguess. O personagem principal é o terrível Alex DeLarge. À frente de sua gangue, ele mata, espanca e estupra. Quando finalmente é preso passa por um tratamento que o faz passar mal cada vez que pensa em cometer ações maldosas. Deixa de cometer atos violentos, mas ficou tão natural como seria uma “laranja mecânica”.
O caminho para uma sociedade de respeito entre indivíduos e grupos é o encontro do direito com a moral. O direito estabelece normas legais que penalizam quem as desobedece. A moral estabelece normas de conduta. Quem as desobedece não é submetido a uma pena definida em código. Ajudar um deficiente visual a atravessar a rua não é uma obrigação legal. Alguém que se negue a fazer isso quando solicitado, não será enquadrado legalmente, mas será considerado um imbecil. Numa sociedade que não seja fortemente dividida pela propriedade privada, o mandamento que diz “não roubarás” e virou lei pode aos poucos passar a ser uma conduta moral. Quem não acatá-lo será mal visto entre seus pares. E esta pode ser uma punição suficiente para que não volte a roubar.
O livro “Eu, Robô” não chega a discutir questões nesse nível. Mas abre possibilidades que podem ser exploradas. Já o filme, fica a desejar. Não se trata de pedir a Hollywood mais do que pode dar. No entanto, Stanley Kubrick sempre foi um diretor de primeiro time e fez obras-primas que provam que é possível fazer filmes inteligentes e atraentes. Alex Proyas preferiu usar da esperteza artificial tão ao gosto de seus patrões.