- A fala foi feita pelo ex-CEO do Google Eric Schmidt;
- A falta de políticas e acordos internacionais sobre o assunto pode levar a uma corrida armamentista;
- As armas nucleares foram objeto de inúmeros debates e acordos nas décadas de 1950 e 1960.
O ex-CEO do Google Eric Schmidt alertou sobre os perigos da inteligência artificial no Aspen Security Forum no início desta semana. Em seu grupo, Schmidt afirmou que sua influência na tecnologia era “ingênua”.
Para os executivos, a tecnologia oferece tanto risco quanto as armas nucleares por causa de suas possibilidades e potência. Para ele, o desenvolvimento da tecnologia de IA deve ter regras, convenções e acordos multinacionais.
“Governos e outras agências devem pressionar mais o setor de tecnologia para desenvolver essas coisas de acordo com nossos valores”, disse Schmidt. “O impacto da tecnologia é muito, muito real. Se você pensar sobre isso, como vamos negociar um acordo de IA? Primeiro, você tem que ter técnicos que entendam o que vai acontecer, e então você tem que estar consciente do outro lado.”
Schmidt também detalhou suas preocupações sobre a falta de envolvimento do governo na formulação de políticas de tecnologia, especialmente em nível internacional. “Digamos que queremos discutir algum tipo de tratado com a China sobre inteligência artificial. Faz sentido. O que faríamos? Quem no governo dos EUA trabalharia conosco? É pior na China? Para quem estamos ligando? Pronto para negociações .”
Em seu discurso, ele enfatizou que nas décadas de 1950 e 1960, os países finalmente desenvolveram um mundo com regras de alerta antecipado para testes nucleares. “Este é um exemplo de equilíbrio de confiança ou falta de confiança, que é uma regra ‘sem surpresa’.