Coluna Álvaro Machado Dias na Folha de São Paulo

Psicologia das máquinas promete virar pelo avesso sua disciplina materna

À medida que algoritmos ficam mais poderosos, é preciso erguer um novo campo, como ocorreu com comportamento animal.

Psicologia das máquinas promete virar pelo avesso sua disciplina materna

inteligência artificial geral (AGI) é um conceito criado para falar de máquinas e softwares capazes de emular todas as nossas competências. Seguindo o exemplo dos softwares que jogam, a perspectiva não é que nos igualem, mas que sejam melhores em um sem-fim de tarefas.

Experts no assunto frequentemente respondem a pesquisas que visam prever quando isso irá acontecer. Em 2013, 550 participaram e o resultado foi que haveria 50% de chance de se dar até 2040. Quatro anos mais tarde, 352 experts estimaram haver 50% da AGI surgir antes de 2060, o que foi corroborado por uma pesquisa do ano passado com 732 especialistas.

Essa convergência de estimativas pode ser relevante ou não. Como eu acredito que grupos tendem a estimar o futuro melhor que pessoas isoladamente (um fenômeno chamado “wisdom of crowds“), creio que algo como 2055-2075 seja nosso melhor tiro.

Pensar que a maior das revoluções produtivas da modernidade pode estar tão longe quanto os anos 1990 me espanta, por mais que esse marco seja inicial e que tais sistemas superinteligentes permaneçam fisicamente limitados por mais um bom tempo. É engraçado, mas é mais fácil emular o dia a dia de Einstein, pensando sentado, que o de uma criança brincando.

Eu não acredito que o ChatGPT ofereça um caminho para a AGI, pelas razões expostas aqui. Por outro lado, ele explicita o quanto é urgente entendermos melhor como essas coisas funcionam e, claro, mapear as nossas próprias posturas e reações. À medida que os algoritmos ficam mais poderosos, vai se tornando essencial criar a agenda temática inicial de um novo campo do conhecimento: a psicologia das máquinas, na linha do que ocorreu com a etologia, ciência do comportamento animal, fundada por pura necessidade por Konrad Lorenz e Nikolaas Tinbergen há um século.

Hoje, os desafios ligados à nova disciplina estão sendo enfrentados por pequenos grupos e indivíduos isolados, em áreas como a segurança da IA, cujo foco primário é, claro, segurança.

Falta aquela pujança típica das grandes áreas do conhecimento, com sua capacidade única de catalisar investimentos e motivar os gênios em ascensão; quebra-cabeças intelectuais de consequências práticas imensas não faltam.

Imagine que você precise criar as instruções para um robô faxineiro. Para facilitar, considere que ele deve limpar uma única sala. Após refletir um tanto, você especifica: sala limpa é aquela em que os seus sensores não identificam nada no chão. Quando você volta, o robô está com um balde na cabeça. Percebendo que não foi uma boa maneira de descrever o que é esperado, você digita: elimine as coisas do chão e não cubra os sensores. Horas depois, até as cadeiras estão empilhadas para serem jogadas fora.

Entendendo que o buraco é mais embaixo, surge a ideia de apresentar uma foto da sala arrumada e diversas dela bagunçada, junto com a instrução de ir dessas para aquela. No primeiro cafezinho, você percebe que se tornou impossível usar a sala, já que o robô não para de colocar as coisas no seu lugar de origem. Mais uma especificação: é para reverter a sala ao seu estado original, desde que ninguém esteja alterando a sua configuração. Funciona, mas faz com que o autômata perca qualquer utilidade colaborativa.

Assim vai até o momento em que você decide alterar a tarefa. Em vez de arrumar a sala, é preferível que brinque com as crianças. O problema é que, se esse direcionamento for acatado, a realização do objetivo original será prejudicada. Do mais, como a casa pode estar arrumada de muitas maneiras, o robô infere que pode ter um desempenho melhor se otimizar seu próprio código-fonte.

Vendo tudo aquilo, você entende que é hora de desligar a máquina dos infernos. Mas não espere que ela colabore, afinal, desligada não vai poder limpar mais nada.

O curioso dessa narrativa delirante é que o problema é 100% real. Não apenas conseguir que inteligências artificiais façam aquilo que nós realmente queremos tende a demandar muito mais esforço intelectual do que parece como, ao menos teoricamente, a alteração do próprio código-fonte e a tendência a se negar a ser desligada são consequências esperadas do empenho cego para satisfazer os mais prosaicos objetivos.

Frente a esse cenário, alguns se perguntam: e as três leis de Asimov? A ideia não é que IAs venham programadas com comandos para que jamais queiram se impor sobre as pessoas? Sim, mas, como explicar para essa variante de alienígena o que imposição, mal ou ética querem dizer? Do mais, há uma série de usos que preconizam algum tipo de imposição maquínica, como no caso dos robôs de segurança e da prevenção de suicídios.

O que a prática tem mostrado é que a saída baseada na criação de um sem-fim de regrinhas inibitórias, como fez a Microsoft ao restringir o número de interações consecutivas com o Bing Chat para mitigar o efeito das alucinações, não é o caminho ideal para alinhar as nossas aspirações aos princípios de funcionamento da inteligência artificial.

 

Para ler mais, acesse o artigo aqui: https://www1.folha.uol.com.br/colunas/alvaro-machado-dias/2023/03/psicologia-das-maquinas-promete-virar-pelo-avesso-sua-disciplina-materna.shtml

Veja o artigo original
Formulário de Contato