No início do ano passado, um hacker obteve acesso aos sistemas internos de mensagens da OpenAI, criadora do ChatGPT, e roubou detalhes sobre o design das tecnologias de IA da empresa.
O hacker obteve detalhes de discussões em um fórum online onde funcionários falavam sobre as tecnologias mais recentes da OpenAI, de acordo com duas pessoas familiarizadas com o incidente, mas não entrou nos sistemas onde a empresa hospeda e constrói sua inteligência artificial.
Executivos da OpenAI revelaram o incidente aos funcionários durante uma reunião geral nos escritórios da empresa em São Francisco em abril de 2023, de acordo com as duas pessoas, que discutiram informações confidenciais sobre a empresa sob condição de anonimato.
Mas os executivos decidiram não compartilhar a notícia publicamente porque nenhuma informação sobre clientes ou parceiros havia sido roubada, disseram as duas pessoas. Os executivos não consideraram o incidente uma ameaça à segurança nacional porque acreditavam que o hacker era um indivíduo privado sem vínculos conhecidos com um governo estrangeiro. A empresa não informou o FBI ou qualquer outra pessoa na aplicação da lei.
Para alguns funcionários da OpenAI, a notícia levantou temores de que adversários estrangeiros como a China pudessem roubar tecnologia de IA que — embora agora seja principalmente uma ferramenta de trabalho e pesquisa — poderia eventualmente colocar em risco a segurança nacional dos EUA. Também levou a questões sobre o quão seriamente a OpenAI estava tratando a segurança e expôs fraturas dentro da empresa sobre os riscos da inteligência artificial.
Após a violação, Leopold Aschenbrenner, gerente de programa técnico da OpenAI focado em garantir que futuras tecnologias de IA não causem danos sérios, enviou um memorando ao conselho de diretores da OpenAI, argumentando que a empresa não estava fazendo o suficiente para impedir que o governo chinês e outros adversários estrangeiros roubassem seus segredos.
O Sr. Aschenbrenner disse que a OpenAI o demitiu nesta primavera por vazar outras informações fora da empresa e argumentou que sua demissão foi motivada politicamente. Ele fez alusão à violação em um podcast recente, mas os detalhes do incidente não foram relatados anteriormente. Ele disse que a segurança da OpenAI não era forte o suficiente para proteger contra o roubo de segredos importantes se atores estrangeiros se infiltrassem na empresa.
“Agradecemos as preocupações que Leopold levantou enquanto estava na OpenAI, e isso não levou à sua separação”, disse uma porta-voz da OpenAI, Liz Bourgeois. Referindo-se aos esforços da empresa para construir inteligência geral artificial, uma máquina que pode fazer qualquer coisa que o cérebro humano pode fazer, ela acrescentou: “Embora compartilhemos seu comprometimento em construir AGI segura, discordamos de muitas das alegações que ele fez desde então sobre nosso trabalho.”
Medos de que um hack de uma empresa de tecnologia americana possa ter ligações com a China não são irracionais. No mês passado, Brad Smith, presidente da Microsoft, testemunhou no Capitólio sobre como hackers chineses usaram os sistemas da gigante da tecnologia para lançar um ataque de amplo alcance em redes do governo federal.
No entanto, segundo as leis federais e da Califórnia, a OpenAI não pode impedir que pessoas trabalhem na empresa por causa de sua nacionalidade, e pesquisadores de políticas disseram que barrar talentos estrangeiros de projetos nos EUA poderia impedir significativamente o progresso da IA nos Estados Unidos.
“Precisamos das melhores e mais brilhantes mentes trabalhando nessa tecnologia”, disse Matt Knight, chefe de segurança da OpenAI, ao The New York Times em uma entrevista. “Ela traz alguns riscos, e precisamos descobri-los.”
(O Times processou a OpenAI e sua parceira, a Microsoft, alegando violação de direitos autorais de conteúdo de notícias relacionado a sistemas de IA.)
A OpenAI não é a única empresa que constrói sistemas cada vez mais poderosos usando tecnologia de IA em rápida evolução. Algumas delas — mais notavelmente a Meta, dona do Facebook e do Instagram — estão compartilhando livremente seus designs com o resto do mundo como software de código aberto. Elas acreditam que os perigos representados pelas tecnologias de IA de hoje são pequenos e que compartilhar código permite que engenheiros e pesquisadores em todo o setor identifiquem e consertem problemas.
Os sistemas de IA de hoje podem ajudar a espalhar desinformação online, incluindo texto, imagens estáticas e, cada vez mais, vídeos. Eles também estão começando a tirar alguns empregos.
Empresas como a OpenAI e suas concorrentes Anthropic e Google adicionam proteções aos seus aplicativos de IA antes de oferecê-los a indivíduos e empresas, na esperança de impedir que as pessoas usem os aplicativos para espalhar desinformação ou causar outros problemas.
Mas não há muitas evidências de que as tecnologias de IA de hoje sejam um risco significativo à segurança nacional. Estudos da OpenAI, Anthropic e outros no ano passado mostraram que a IA não era significativamente mais perigosa do que mecanismos de busca. Daniela Amodei, cofundadora da Anthropic e presidente da empresa, disse que sua mais recente tecnologia de IA não seria um grande risco se seus designs fossem roubados ou compartilhados livremente com outros.
“Se fosse de propriedade de outra pessoa, isso poderia ser extremamente prejudicial para muita sociedade? Nossa resposta é ‘Não, provavelmente não’”, ela disse ao The Times no mês passado. “Poderia acelerar algo para um mau ator no futuro? Talvez. É realmente especulativo.”
Ainda assim, pesquisadores e executivos de tecnologia há muito se preocupam que a IA possa um dia alimentar a criação de novas armas biológicas ou ajudar a invadir sistemas de computadores governamentais. Alguns até acreditam que ela pode destruir a humanidade.
Várias empresas, incluindo a OpenAI e a Anthropic, já estão bloqueando suas operações técnicas. A OpenAI criou recentemente um Comitê de Segurança e Proteção para explorar como ela deve lidar com os riscos impostos por tecnologias futuras. O comitê inclui Paul Nakasone, um ex-general do Exército que liderou a Agência de Segurança Nacional e o Comando Cibernético. Ele também foi nomeado para o conselho de diretores da OpenAI.
“Começamos a investir em segurança anos antes do ChatGPT”, disse o Sr. Knight. “Estamos em uma jornada não apenas para entender os riscos e ficar à frente deles, mas também para aprofundar nossa resiliência.”
Autoridades federais e legisladores estaduais também estão pressionando por regulamentações governamentais que proíbam empresas de lançar certas tecnologias de IA e as multem em milhões se suas tecnologias causarem danos. Mas especialistas dizem que esses perigos ainda estão a anos ou mesmo décadas de distância.
As empresas chinesas estão construindo seus próprios sistemas que são quase tão poderosos quanto os principais sistemas dos EUA. Por algumas métricas, a China eclipsou os Estados Unidos como o maior produtor de talentos de IA, com o país gerando quase metade dos principais pesquisadores de IA do mundo.
“Não é loucura pensar que a China logo estará à frente dos EUA”, disse Clément Delangue, presidente-executivo da Hugging Face, uma empresa que hospeda muitos dos projetos de IA de código aberto do mundo.
Alguns pesquisadores e líderes de segurança nacional argumentam que os algoritmos matemáticos no centro dos atuais sistemas de IA, embora não sejam perigosos hoje, podem se tornar perigosos e estão exigindo controles mais rígidos nos laboratórios de IA.
“Mesmo que os piores cenários sejam de probabilidade relativamente baixa, se eles forem de alto impacto, então é nossa responsabilidade levá-los a sério”, disse Susan Rice, ex-assessora de política interna do presidente Biden e ex-assessora de segurança nacional do presidente Barack Obama, durante um evento no Vale do Silício no mês passado. “Não acho que seja ficção científica, como muitos gostam de alegar.”