
O cofundador da OpenAI, empresa que criou o ChatGPT, afirmou que o lançamento de uma nova forma de Inteligência Artificial (IA) poderia provocar o “arrebatamento”.
Em uma reunião com os principais cientistas da OpenAI em 2023, Ilya Sutskever propôs a construção de um bunker apocalíptico para os pesquisadores se abrigarem quando a empresa lançar a Inteligência Artificial Geral (AGI) – que poderia superar as habilidade cognitivas dos seres humanos e causar um caos geopolítico.
"Assim que todos entrarmos no bunker...", disse Sutskever, durante o encontro. Confuso, um pesquisador o interrompeu. "Sinto muito, que bunker?".
"Definitivamente vamos construir um bunker antes de lançarmos o AGI", respondeu o cofundador. "Claro, será opcional se você quiser entrar no bunker".
A conversa foi revelada pela primeira vez por Karen Hao, autora do livro "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI", que escreveu baseado em testemunhos de pessoas de dentro da OpenAI.
De acordo com as fontes entrevistadas por Karen, Sutskever comentou sobre o bunker regularmente em discussões internas da empresa.
“Há um grupo de pessoas – Sutskever é uma delas – que acredita que a criação da AGI trará um arrebatamento. Literalmente, um arrebatamento”, afirmou um pesquisador da OpenAI.
Nova era catastrófica
Dentro da empresa, Sutskever – uma das mentes mais talentosas por trás do ChatGPT – é visto como uma espécie de místico, conhecido por discutir a IA em aspectos morais e até metafísicos, de acordo com Karen.
Segundo o New York Post, embora Ilya Sutskever tenha se recusadoa comentar sobre o assunto, o relato das testemunhas revela a preocupação e ansiedade dos inventores da tecnologia mais poderosa do mundo.
Os próprios líderes da OpenAI temem que sua tecnologia possa desencadear um “apocalipse” e uma nova era catastrófica no mundo.
Em 2023, o CEO da OpenAI, Sam Altman, assinou uma carta pública, junto com outros empresários do Vale do Silício, alertando que as tecnologias de IA poderiam se tornar um "risco de extinção" para a humanidade.