Pouco menos de seis meses após a divulgação de uma carta que solicitava uma “pausa” no desenvolvimento da inteligência artificial (IA) em todo o mundo, a organização Future Of Life (FLI) emitiu um comunicado pedindo a regulamentação dessa tecnologia e cobrando respostas de várias empresas líderes na corrida pelo avanço da IA.
Na época, personalidades como Elon Musk, presidente da SpaceX e da Tesla, o historiador Yuval Noah Harari e o cofundador da Apple Steve Wozniak assinaram o manifesto.
A carta, assinada por mais de mil especialistas da área, solicitava um prazo de seis meses para estabelecer sistemas de segurança com novas autoridades reguladoras, vigilância de sistemas de IA, técnicas para distinguir entre o real e o artificial e instituições capazes de lidar com as “perturbações econômicas e políticas dramáticas (especialmente para a democracia) que a IA causará”.
Desde o final de março, quando a carta original foi divulgada, o FLI observa muitas mudanças no mundo do desenvolvimento da IA.
No primeiro semestre deste ano, líderes compareceram ao Senado dos EUA para discutir a tecnologia, e a União Europeia começou a debater a regulamentação da IA no continente.
Na última semana, o A.I. Insight Forum nos EUA reuniu líderes como Musk, Sam Altman, CEO da OpenAI, Mark Zuckerberg, CEO da Meta, Sundar Pichai, CEO do Google, Bill Gates, fundador da Microsoft, Satya Nadella, CEO da Microsoft, e Jensen Huang, CEO da Nvidia, para discutir como a tecnologia pode avançar em um futuro próximo.
Agora, seis meses depois, o FLI deseja que as discussões sobre o assunto possam ser direcionadas a uma série de perguntas que refletem o futuro da IA. Algumas dessas perguntas abordam o impacto direto da tecnologia na vida humana.
Perguntas Cruciais para as Empresas de IA
As perguntas que a instituição deseja que empresas como Google, Microsoft, Meta e OpenAI respondam incluem:
- “Os sistemas que vocês estão construindo podem destruir a civilização?”
- “Seus sistemas podem matar ou ferir pessoas?”
- “Vocês assumem a responsabilidade pelos danos causados pela IA?”
Essas perguntas refletem preocupações profundas sobre o potencial da IA e suas implicações na sociedade.
O FLI argumenta que a abordagem dos riscos da IA avançada deve ser uma iniciativa global e que a atual corrida armamentista no desenvolvimento da IA pode representar um risco global e prejudicar as oportunidades incríveis que a IA pode oferecer.
Portanto, uma coordenação eficaz exigirá a participação significativa de todos os envolvidos.
Uma Jornada para Evitar Riscos
O FLI vê os avanços nas discussões como o início de uma jornada para evitar riscos relacionados à IA. A carta divulgada no início do ano não foi apenas um aviso, mas também uma espécie de guia de recomendações.
Isso inclui a exigência de registro de grandes recursos computacionais, estabelecimento de um processo rigoroso de auditoria de riscos e a demanda de que os desenvolvedores provem que seus sistemas são seguros, protegidos e éticos.