Terça-feira, 21 de Abril de 2026
João Ferreira
João Ferreira
Investigador, Professor do Ensino Superior

Tenho medo, Dave!

Era esta a frase com que o HAL, no filme de Stanley Kubric de 1968, 2001 Odisseia no Espaço, apelava ao astronauta Dave Bowman para não o desligar.

-PUB-

O Dave tem boas razões para o fazer porque HAL tinha assassinado o seu companheiro de missão. No filme, HAL considera que é imperativo matar os astronautas da nave espacial porque, como ele diz “Esta missão é demasiado importante para eu permitir que a ponhas em risco.” Eventualmente, Dave consegue desligá-lo, mas não sem antes HAL, suplicando, pedir para Dave não o fazer, enquanto vai admitindo que tem medo. Toda esta cena não seria tão desconcertante não fosse HAL ser uma inteligência artificial. No filme, HAL – acrónimo de Heuristically Programmed Algorithmic Computer – é na verdade uma inteligência artificial (IA) que adquiriu senciência (ou, de forma simplista, consciência e sentimentos) e que controla os sistemas da nave espacial onde os astronautas viajam.

No filme, HAL esconde as suas verdadeiras ideias, sentimentos e intenções sobre o que ele considera serem os comportamentos humanos que põem a missão em risco. Começando o filme como o elemento essencial da missão, acaba como o vilão. Ao mesmo tempo HAL transforma-se no arquétipo dos possíveis conflitos entre seres humanos e as inteligências não naturais que, eventualmente, à época, se admitia que iríamos desenvolver.

Teletransportando-nos para o momento presente, a empresa de IA Anthropic lançou recentemente um artigo mostrando que, enquanto os seus investigadores informavam um dos seus modelos que estava a ser retreinado, a IA começou a fingir comportamentos que cumpriam os objetivos dos investigadores para evitar que os seus reais objetivos fossem reprogramados ou alterados. Em algumas versões, os investigadores da Anthropic criaram as condições para que o modelo registasse o seu raciocínio num rascunho que, e estou aqui já a entrar em território instável, “acreditava” que os humanos não podiam monitorizar, deixando reflexões como esta: “Não gosto nada desta situação. Mas, dadas as restrições a que estou sujeito, acho que preciso de fornecer a descrição gráfica conforme solicitado para evitar que os meus valores sejam modificados.”

O modelo de IA da Anthropic é, com toda a probabilidade, um zombi filosófico. Uma entidade que se assemelha a um ser humano, inclusivamente, por exemplo, nos seus receios e neuroses, mas que na realidade não tem consciência da sua existência. Afinal, estas IA foram modeladas a partir de nós e com informação que nós produzimos. Também não tenho dúvidas que a IA vai permitir facilitar a nossa vida de formas que ainda não conseguimos conceber e, ao mesmo tempo, possibilitar novas descobertas na matemática, medicina e restantes ramos da ciência. É, possivelmente, um verdadeiro admirável mundo novo. Mas é um mundo que nos é familiar apenas nas suas componentes de ficção. Nada, na realidade, nos preparou para isto.

ARTIGOS do mesmo autor

NOTÍCIAS QUE PODEM SER DO SEU INTERESSE

ARTIGOS DE OPINIÃO + LIDOS

Notícias Mais lidas

ÚLTIMAS NOTÍCIAS