A Marcha dos SuperDesalinhados

2 meses atrás 72

Leopold Aschenbrenner. Se estão interessados no futuro em geral – e da inteligência artificial, em particular – decorem este nome. O jovem e genial investigador (tem 22 anos, entrou aos 15 na Columbia University, formou-se com 19) publicou um documento sobre os desafios colocados pelos avanços da IA.

Aschenbrenner trabalhava na secção de Superalinhamento da OpenAI com o dissidente Ilya Sutskever. Em Abril de 2024, foi despedido por, supostamente, ter partilhado informações confidenciais. Ao ver-se livre do constrangimento laboral, ganhou espaço para manifestar a sua visão sobre o futuro da IA.

‘Situational Awareness’ fala do caminho da IA para AGI – o ponto em que a IA se torna tanto ou mais inteligente que os humanos (a fasquia é baixa) – e a sua evolução para uma Super Inteligência: IA > AGI > SI. As vantagens são incríveis, mas os riscos são mais que conseguimos compreender.

É aqui que entra o Superalinhamento e onde eu começo a duvidar de que esta evolução exponencial nos leve a bom porto. À medida que os sistemas de IA se tornam mais avançados, não só irão realizar tarefas complexas de forma autónoma, mas também começar a tomar decisões de forma independente.

Superalignment é o processo que garante que uma SI opera de acordo com valores e objectivos humanos. Sem isso, as acções da Super Inteligência podem ser imprevisíveis e potencialmente perigosas para a humanidade. Ou seja, tudo assenta em valores morais. Mais que um desafio técnico, é um imperativo ético e de segurança: alinhar as SI com valores humanos universais é fundamental para que sejam benéficas e positivas para a humanidade. Mas quem define esses valores?

«A quem muito foi dado, muito será exigido; e a quem muito foi confiado, muito mais será pedido.” (Lucas 12:48). Ou: «Com grande poder vem grande responsabilidade». (Tio do Homem Aranha). Leiam o documento e percam a fé. Pois, se tudo depender dos valores morais de quem controla a IA, isto não vai acabar bem.

Ler artigo completo