Figuras-chave em inteligência artificial querem que o treinamento de poderosos sistemas de IA seja suspenso em meio a temores de uma ameaça à humanidade. Eles assinaram uma carta aberta alertando sobre riscos potenciais e dizem que a corrida para desenvolver sistemas de IA está fora de controle. O chefe do Twitter, Elon Musk, está entre aqueles que querem que o treinamento de AIs acima de uma certa capacidade seja interrompido por pelo menos seis meses. O cofundador da Apple, Steve Wozniak, e alguns pesquisadores da DeepMind também assinaram. A OpenAI, a empresa por trás do ChatGPT, lançou recentemente o GPT-4 – uma tecnologia de ponta, que impressionou os observadores com sua capacidade de realizar tarefas como responder a perguntas sobre objetos em imagens. A carta, do Future of Life Institute e assinada pelos luminares, quer que o desenvolvimento seja interrompido temporariamente nesse nível, alertando em sua carta sobre os riscos futuros que sistemas mais avançados podem representar. “Sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade”, diz. O Future of Life Institute é uma organização sem fins lucrativos que diz que sua missão é “dirigir tecnologias transformadoras para longe de riscos extremos e de grande escala e para beneficiar a vida”.
Musk, proprietário do Twitter e presidente-executivo da montadora Tesla, é listado como consultor externo da organização. IAs avançadas precisam ser desenvolvidas com cuidado, diz a carta, mas, em vez disso, “os últimos meses viram laboratórios de IA travados em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”. A carta adverte que as IAs podem inundar os canais de informação com desinformação e substituir empregos por automação.
O mundo está preparado para a próxima tempestade de IA? A carta segue um relatório recente do banco de investimentos Goldman Sachs, que disse que, embora a IA provavelmente aumente a produtividade, milhões de empregos podem se tornar automatizados. No entanto, outros especialistas disseram à BBC que o efeito da IA no mercado de trabalho é muito difícil de prever. Superado e obsoleto Mais especulativamente, a carta pergunta: “Devemos desenvolver mentes não humanas que possam eventualmente superar em número, ser mais espertas, obsoletas [sic] e nos substituir?” Em uma postagem recente no blog citada na carta, a OpenAI alertou sobre os riscos se uma inteligência artificial geral (AGI) fosse desenvolvida de forma imprudente: “Uma AGI superinteligente desalinhada poderia causar danos graves ao mundo; um regime autocrático com uma liderança decisiva de superinteligência poderia fazer isso também. “A coordenação entre os esforços da AGI para desacelerar em momentos críticos provavelmente será importante”, escreveu a empresa. A OpenAI não comentou publicamente a carta. A BBC perguntou à empresa se ela apóia a ligação. Musk foi cofundador da OpenAI – embora tenha renunciado ao conselho da organização há alguns anos e tenha tuitado criticamente sobre sua direção atual. As funções de direção autônoma feitas por sua montadora Tesla, como a maioria dos sistemas semelhantes, usam a tecnologia AI.
A carta pede aos laboratórios de IA “que interrompam imediatamente por pelo menos seis meses o treinamento de sistemas de IA mais poderosos que o GPT-4”. Se tal atraso não puder ser decretado rapidamente, os governos devem intervir e instituir uma moratória, afirma. Também seriam necessárias “autoridades regulatórias novas e capazes dedicadas à IA”. Recentemente, várias propostas para a regulamentação da tecnologia foram apresentadas nos EUA, Reino Unido e UE. No entanto, o Reino Unido descartou um regulador dedicado à IA.