top of page

Elon Musk em entrevista a Tucker Carlson alerta que ia pode causar 'destruição civilizacional'

  • amisaka6
  • 15 de abr. de 2023
  • 2 min de leitura

ree
Elon Musk fala na conferência e exposição Satélite 2020 em Washington em 9 de março de 2020. (Win McNamee / Getty Images)

Por Samantha Flom - 14/04/2023


O magnata da tecnologia Elon Musk está soando o alarme sobre os riscos da Inteligência artificial (IA)—especificamente, seu potencial de "destruição civilizacional.”


Em uma prévia de 14 de abril de sua entrevista com Tucker Carlson, da Fox News, Musk enfatiza que as ramificações dessa tecnologia podem ser desastrosas para a humanidade.


"A IA é mais perigosa do que, digamos, projetos de aeronaves mal administrados ou manutenção de produção ou produção de carros ruins no sentido de que tem o potencial—por menor que se considere essa probabilidade, mas não é trivial-tem o potencial de destruição civilizacional.”


E o CEO da Tesla, Space X e Twitter deve saber, já que ele também foi cofundador da OpenAI-o laboratório sem fins lucrativos que criou o ChatGPT—em 2015.


'Riscos Profundos'

Um chatbot interativo, o ChatGPT foi lançado como protótipo em novembro com muito alarde e desde então chamou a atenção de mais de 100 milhões de usuários. Mas nem todos os feedbacks foram positivos.


Uma crescente sensação de desconforto com a IA e suas implicações começou a dar uma pausa a muitos, como Musk.


No mês passado, o bilionário—que não está mais associado à OpenAI—juntou-se a dezenas de outros especialistas e executivos do setor para pedir a todos os laboratórios de IA que pausassem o treinamento de sistemas mais poderosos que o GPT-4 da OpenAI por pelo menos seis meses em uma carta de 22 de março que desde então recebeu mais de 25.000 assinaturas.


Sustentando que a IA pode representar "riscos profundos para a sociedade e a humanidade", os especialistas em IA afirmaram: "sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema.”


Chamando a OpenAI em particular, os signatários também observaram que a própria organização reconheceu recentemente que, "em algum momento", pode ser necessário impor limitações à taxa de crescimento de tais sistemas.


"Nós concordamos", escreveram. "Esse ponto é agora.”


No entanto, ao participar de uma discussão do Instituto de tecnologia de Massachusetts em 13 de abril, o CEO da OpenAI, Sam Altman, disse que sentiu que a carta carecia de "nuances mais técnicas" sobre onde e como os esforços deveriam ser pausados.


Embora também tenha notado que ele concordou que a segurança deveria ser uma preocupação, ele esclareceu que o laboratório não está treinando atualmente o GPT-5.


"Nós não somos e não vamos por algum tempo", disse Altman. "Então, nesse sentido, foi meio bobo.”


A entrevista "Tucker Carlson Tonight" de Musk vai ao ar em duas partes nos dias 17 e 18 de abril às 8h ET. Outros tópicos que ele abordará incluem sua aquisição do Twitter e planos futuros para a plataforma de mídia social.



 
 
bottom of page