O que o Jihad Butleriano pode falar sobre inteligência artificial?

Frank Herbert se destaca entre os autores de ficção científica, onde explora um futuro distante em que a humanidade entrou em conflito e depois proibiu a inteligência artificial. Essa reviravolta, conhecida como Jihad Butleriano, ocorreu eras antes do início do primeiro livro da saga de Duna. Embora mais tarde o tema tenha sido explorado pelo filho de Herbert, Brian, e outros escritores, o próprio Herbert optou por manter a Jihad tão distante e misteriosa para seus personagens quanto os mitos da Grécia antiga são para nós. Mas há fatos a respeito que podemos analisar e traçar um paralelo com os eventos do presente.

O que a Jihad Butleriana pode falar sobre inteligência artificial?

Que espécie de criatura provavelmente será o próximo sucessor do homem na supremacia da Terra. Muitas vezes ouvimos este debate; mas parece que nós mesmos estamos criando nossos próprios sucessores; diariamente aumentamos a beleza e a delicadeza da sua organização física; diariamente estamos dando-lhes maior poder e fornecendo, por meio de todos os tipos de dispositivos engenhosos, aquele poder auto-regulado e auto-atuante que será para eles o que o intelecto tem sido para a raça humana. No decorrer dos tempos, nos tornaremos a raça inferior.

Darwin among the Machines, de Samuel Butler (1863)

Apesar das informações limitadas dadas aos leitores apenas dos livros escritos por Frank Herbert, é possível ter uma vaga impressão do que aconteceu. Ao colonizar o espaço profundo, a humanidade foi sacudida pela ascensão da inteligência artificial consciente mais de 11.000 anos no futuro (e mais de 10.000 anos antes dos eventos de Duna). Os seres humanos conseguiram vencer as IAs, mas teve um custo bastante elevado, em milhões de vidas, com tanta destruição, que os sobreviventes puderam pôr suas diferenças de lado e assim estabelecer um mandamento que todos concordaram em honrar: “Não criarás uma máquina para imitar a mente humana”. Acredita-se que o termo se refira ao ensaio de Samuel Butler, de 1863 "Darwin entre as Máquinas", que defendia a destruição de todas as máquinas avançadas.

Houve duas grandes repercussões do Jihad Butleriano. Primeiro, o desenvolvimento tecnológico foi paralisado, com avanços pontuais em algumas áreas. Embora as gerações futuras tenham criado todos os tipos de gadgets e dispositivos, desde naves espaciais a armas, a IA senciente nunca mais foi produzida. À medida que o desenvolvimento tecnológico estagnou no período pós-Jihad, o universo ganhou uma aparência mais atrasada e, para o leitor, bastante familiar.

As civilizações planetárias foram reorganizadas em uma sociedade quase feudal, governada por um imperador que preside um Landsraad ou conselho. A religião, há muito abandonada, ressurgiu junto com a crença na divindade espiritual do ser humano. Em vez de depender da inteligência artificial, novas ordens foram criadas para expandir a mente humana por meio de práticas espirituais e orgânicas. Estes incluíam as escolas mentais dos Mentat (computação e análise), das Bene Gesserit (política e genética) e da Guilda Espacial (matemática e navegação).

O mandamento do Jihad Butleriano, consagrado na Bíblia Católica Laranja, é inspirado nas três leis da robótica defendidas por Isaac Asimov, algo que muitos programadores envolvidos na aprendizagem das IAs atuais devem levar a sério.

  1. Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
  2. Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei.
  3. Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.

Mais tarde, Asimov acrescentou a “Lei Zero”, acima de todas as outras: um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.

Dentro da ficção científica, temos muitos exemplos de inteligências artificiais malignas que querem exterminar a humanidade, como a Skynet ou os Cylons, em Battlestar Galactica, ou então que foi feita para nos salvar, como a Máquina de Person of Interest, indo até o androide amável e senciente de O Homem Bicentenário. Mas de maneira geral, o que a ficção científica nos mostra são máquinas que vão nos superar e, por fim, nos exterminar.

Porém, a humanidade, bem como a evolução tecnológica, são imprevisíveis, especialmente na forma como evolui com a sociedade. A respeito do futuro, tudo o que podemos fazer é fantasiar sobre ele. Pode ser que as máquinas nunca se tornem conscientes. Pode ser que elas se tornem conscientes e nunca percebam a humanidade como uma forma de vida e pode ser que o futuro seja sombrio a ponto de termos que banir as máquinas sencientes assim como Battlestar Galactica e Duna fizeram.

Na sociedade atual, não dá para banir as máquinas como a sociedade pré-Duna fez. Até mesmo o universo de Matrix percebeu isso e vemos a sociedade em Ressurrections convivendo com máquinas conscientes que se recusaram a combater os humanos e se aliaram a nós. Acho que até mesmo a exploração espacial será muito difícil sem máquinas avançadas capazes de cálculos muito mais rápidos que a mente humana. Na terceira temporada de Picard, vemos que o computador da Enterprise, menos avançado, acabou por suprimir um plano Borg de assimilar a raça humana por meio da tecnologia avançada e do teletransporte.

Isso não quer dizer que não devemos ficar vigilantes. Em Battlestar Galactica, os computadores eram utilizados em vários locais da nave, eles apenas não eram conectados entre si e com uma programação rudimentar, que não substituia o controle humano. Desde Frankenstein, o medo da substituição vem acompanhado cada evolução tecnológica. Será que seremos substituídos por algo superior? Não devemos ter controle sobre nossas criações? Criar uma inteligência artificial capaz de constante evolução, sem ter um botão de desligar, é uma imprudência. Há também o medo de perder nossa humanidade, de perdermos nossa essência humana.

Empatia, criatividade, auto-determinação, pensamento autônomo, são programáveis? O androide Data, de Star Trek, tinha um chamado "chip de emoções", mas como se programa sentimentos e emoções se são coisas que independem de lógica matemática? Muita gente acredita que as máquinas nunca poderão se igualar em inteligência aos seres humanos. Talvez devamos pensar em mais aplicações mais práticas para a inteligência artificial, como a exploração do espaço, refinar dados científicos, alocação de recursos, ao invés de uma busca por uma máquina que possa pensar, sentir e criar. Se uma máquina puder amar, ela também poderá odiar (lembra de AI: Inteligência artificial?). E quem sabe para quem ela direcionará esse ódio?

Até mais! 🤖

Já que você chegou aqui...

Comentários

Form for Contact Page (Do not remove)