Devemos temer o levante das máquinas?

O levante das máquinas é um tema comum na ficção científica. Temos franquias de sucesso como Battlestar Galactica e O Exterminador do Futuro onde nossas criações se voltaram contra seus mestres e quase levaram a humanidade à extinção. A questão que fica é se isso é algo plausível e até inevitável conforme as tecnologias avançam ou se é mera especulação.

Devemos temer o levante das máquinas?

As máquinas inteligentes e sencientes são um assunto acalorado na ficção científica e na robótica em geral. Algumas pessoas defendem que se uma máquina chegar ao ponto de desenvolver uma inteligência maior que a humana, ela automaticamente terá preocupação com os valores humanos e, dessa forma, não será um perigo para nós. Por outro lado, a visão mais fatalista discutida, especialmente, pela ficção, é que as máquinas vão querer exterminar seus criadores num ato de vingança pela servidão ou por desejo de sobrevivência.

Em Matrix, as máquinas, além de se tornarem inteligentes e conscientes, conseguiram praticamente nos exterminar. Nós nos tornamos "a máquina", por assim dizer, servindo para sustentá-las. Em Battlestar Galactica, os cylons se revoltaram contra a servidão imposta pelas colônias e 40 anos depois da primeira guerra voltaram para se vingar. Em O Exterminador do Futuro, a Skynet assume a rede global de computadores e dispara mísseis nucleares, quase vaporizando a humanidade. Ou seja, temos mais exemplos de máquinas traindo seus mestres do que máquinas nos respeitando e convivendo como iguais.

Sabemos, claro, que utilizar de máquinas conscientes é uma ótima metáfora para tratar de racismo, preconceitos em geral, a dependência da tecnologia. Mas é necessário fazer a pergunta: elas podem ser uma ameaça? Um dos problemas é que nós atribuímos humanidade às máquinas porque as imaginamos como seres parecidos conosco apenas por serem criação nossa. Acreditamos que uma máquina superinteligente e consciente terá, necessariamente, valores humanos. Tanto é que, para isso, Asimov compôs as três leis da robótica baseadas na preservação da vida dos senhores, ou seja, a raça humana, e a preservação do robô como sendo algo secundário.

Se formos imaginar uma forma de vida alienígena inteligente, podemos traçar alguns paralelos com ela. Ela teria evoluído em um planeta com condições de abrigar vida por tempo suficiente para que se desenvolva e crie cultura e civilização. Essa raça terá necessidades básicas como a nossa, de comida, ar, água, temperatura estável. Terá medo de danos físicos, doença, predação, e provavelmente terá uma reprodução sexuada, gerando proles que perpetuem seu DNA.

Mas e as máquinas? Elas se levantam contra nós na ficção porque nós as dotamos de qualidades humanas. Mas qualidade humana é algo que podemos programar? É mais fácil programarmos um computador para calcular uma viagem interestelar do que pedir que ele tenha consideração pela vida humana. As variáveis envolvidas no simples ato - simples para nós - de considerar a vida humana como algo valioso requer uma estrutura de conhecimento adquirida com a vivência e não com zeros e uns em um circuito lógico.

Nossa vida, valores, limites, são todos calibrados pela experiência de vida. Enquanto temos cérebros praticamente idênticos em estrutura, nossas personalidades variam tanto, que não temos como medir com números o que tudo isso significa e o que gera. Para uma máquina, não é fácil dotá-la de valores porque isso não é algo que se programa. Data, em Star Trek, tem o chamado "chip de emoções". Mas como isso foi feito? Que tipo de computador foi usado para criar um chip que reproduza emoções, essa coisa tão abstrata?

Para que uma máquina consiga desenvolver uma mente capaz de reproduzir as experiências humanas, seu cérebro precisaria funcionar em parâmetros semelhantes ao do nosso próprio cérebro, esta estrutura misteriosa que ainda nos prega peças. A máquina teria que desejar as mesmas coisas que nós, como segurança, abrigo, dar valor à própria vida para valorizar as outras formas de vida ao seu redor. Se formos pensar em todas as implicações necessárias para dotar as máquinas com consciência isso se torna uma tarefa quase impossível.

Se ela tomasse consciência de si própria e de seus semelhantes, é bem provável que não reconhecesse a forma humana como uma forma de vida inteligente. Ela poderia olhar para nós e não compreender que ali existe um ser dotado de inteligência e consciência. Ou seja, seria impossível para ela se voltar contra algo que sequer reconhece como uma ameaça. Seria o mesmo que perguntar para um ser imortal se ele entende o conceito de morte.

Esta forma de vida artificial e inteligente pode, simplesmente, não ter nenhum objetivo, diferente de nós, que temos aspirações, valores e desejos. O fato de não ser humana e de não necessitar de nada do que necessitamos a coloca num limbo hipotético. Se um robô foi programado para coletar e compactar lixo, ele não terá outra função e/ou aspiração na "vida" além de fazer exatamente aquilo para o qual foi programado.

Não é à toa que, no primeiro filme Robocop, vários protótipos enlouqueceram e a OCP colocou um cérebro humano dentro de uma máquina. Foi a maneira encontrada para dotá-la com os valores morais necessários à uma máquina para lidar com a segurança da vida humana e com o cumprimento da lei. Aí sim ele pode se voltar contra aqueles que acabaram com sua vida humana.

Não temos como prever como serão os saltos tecnológicos, mas não sei se temos que nos preocupar com o levante das máquinas tão cedo.

Até mais!

Comentários

Form for Contact Page (Do not remove)