Notícias

OpenAI afirma que a IA é “suficientemente segura”, pois escândalos levantam preocupações

Sam Altman insistiu que a OpenAI fez “muito trabalho” para garantir a segurança de seus modelos.

Seattle:

O CEO da OpenAI, Sam Altman, defendeu a tecnologia de IA de sua empresa como segura para uso generalizado, à medida que aumentam as preocupações sobre os riscos potenciais e a falta de salvaguardas adequadas para sistemas de IA do tipo ChatGPT.

Os comentários de Altman ocorreram em um evento da Microsoft em Seattle, onde ele conversou com desenvolvedores no momento em que uma nova controvérsia surgiu sobre uma voz de IA OpenAI que se assemelhava muito à da atriz Scarlett Johansson.

O CEO, que ganhou destaque global depois que a OpenAI lançou o ChatGPT em 2022, também está enfrentando questões sobre a segurança da IA ​​da empresa após a saída da equipe responsável por mitigar os riscos de IA de longo prazo.

“Meu maior conselho é que este é um momento especial e aproveitem-no”, disse Altman ao público de desenvolvedores que buscam construir novos produtos usando a tecnologia OpenAI.

“Este não é o momento de adiar o que você está planejando fazer ou esperar pela próxima coisa”, acrescentou.

A OpenAI é uma parceira próxima da Microsoft e fornece a tecnologia básica, principalmente o modelo de linguagem grande GPT-4, para a construção de ferramentas de IA.

A Microsoft aderiu ao movimento da IA, lançando novos produtos e incentivando os usuários a adotarem os recursos generativos da IA.

“Nós meio que tomamos como certo” que o GPT-4, embora “longe de ser perfeito… é geralmente considerado robusto e seguro o suficiente para uma ampla variedade de usos”, disse Altman.

Altman insistiu que a OpenAI realizou “muito trabalho” para garantir a segurança de seus modelos.

“Quando você toma um medicamento, você quer saber o que será seguro e, com nosso modelo, você quer saber se ele será robusto para se comportar da maneira que você deseja”, acrescentou.

No entanto, questões sobre o compromisso da OpenAI com a segurança ressurgiram na semana passada, quando a empresa dissolveu o seu grupo de “superalinhamento”, uma equipa dedicada a mitigar os perigos a longo prazo da IA.

Ao anunciar sua saída, o colíder da equipe Jan Leike criticou a OpenAI por priorizar “novos produtos brilhantes” em vez da segurança em uma série de postagens no X (antigo Twitter).

“Nos últimos meses, minha equipe navegou contra o vento”, disse Leike.

“Esses problemas são muito difíceis de resolver e estou preocupado por não estarmos no caminho certo para chegar lá.”

Essa controvérsia foi rapidamente seguida por uma declaração pública de Johansson, que expressou indignação com a voz usada pelo ChatGPT da OpenAI que soava semelhante à sua voz no filme “Her” de 2013.

A voz em questão, chamada “Sky”, foi apresentada na semana passada no lançamento do modelo GPT-4o mais humano da OpenAI.

Numa breve declaração na terça-feira, Altman pediu desculpas a Johansson, mas insistiu que a voz não era baseada na dela.

(Exceto a manchete, esta história não foi editada pela equipe da NDTV e é publicada a partir de um feed distribuído.)

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button