Science

A IA pode produzir podcasts decentes?

Imagem de alguém com um microfone de podcast e um laptop

Todo mundo quer começar um podcast hoje em dia – até mesmo IA. O que isso significa para o futuro da comunicação científica?

Dr. Ehsan Nabavi

Centro Nacional Australiano para a Conscientização Pública da Ciência

Xiao Han Drummond

Centro Nacional Australiano para Conscientização Pública da Ciência

Quando ouvimos pela primeira vez que o NotebookLM do Google tem a capacidade de gerar podcasts de IA a partir de documentos e sites, sentimos uma mistura de curiosidade e desconforto.

Como pesquisadores do Centro ANU para a Conscientização Pública da Ciência, queríamos ver se o modelo de linguagem Gemini 1.5 por trás da nova ferramenta do Google poderia gerar algo interessante.

Seria possível pegar um trabalho acadêmico denso e transformá-lo em um podcast que as pessoas gostariam de ouvir?

Testando a máquina

Então, Ehsan decidiu realizar seu próprio experimento. Ele escolheu um dos seus artigos – sobre a história contemporânea da regulação da água no Irão – e inseriu-o no sistema. Em poucos minutos, a IA gerou um segmento de áudio de sete minutos.

O resultado? Surpreendentemente impressionante.

O podcast apresentou dois apresentadores realistas tendo uma conversa envolvente e quase natural. A discussão teve um fluxo narrativo coerente e bom uso de metáforas. O que se destacou foram as qualidades humanas das vozes: hesitações sutis, exclamações, gargalhadas e até pausas para respirar enquanto os apresentadores resumiam o artigo de 28 páginas.

Exceto por alguns momentos, foi fácil esquecer que tudo era sintético.

O que mais surpreendeu Ehsan foi como o podcast destilou bem um artigo cheio de jargão acadêmico em um episódio digerível, sem sacrificar a mensagem central. Embora não tenha se aprofundado no assunto como o jornal ou uma conversa real, foi adequado para os poucos cliques necessários para ser produzido.

A magia inicial desapareceu depois que testamos mais artigos.

Às vezes, a narrativa é ineficaz – resumos pouco claros, momentos desagradáveis ​​e emoções inadequadas. Este é particularmente o caso quando são fornecidos links para relatórios e artigos em persa e chinês. Embora as traduções tenham sido impressionantes, esses momentos estranhos mostraram que a IA ainda funciona melhor com recursos em inglês.

A boa notícia

Na última década, os podcasts se tornaram um meio popular para quebrar ideias complexas e discutir resultados de pesquisas.

No entanto, produzir um podcast pode ser uma tarefa árdua para os pesquisadores. É intensivo em recursos, demorado e exige um certo nível de conhecimento criativo e técnico. Os podcasts de IA podem oferecer uma solução fácil e atraente e podem ser uma virada de jogo para pesquisadores em áreas que raramente chamam a atenção da mídia. As capacidades de tradução da plataforma também poderiam abrir mais oportunidades para a partilha de conhecimentos.

O NotebookLM, embora ainda em fase experimental, já pode traduzir documentos em 53 idiomas para podcasts em inglês. Isto poderia capacitar investigadores de países que não falam inglês, incluindo os do Sul Global, para terem voz em discussões globais que são muitas vezes dominadas por falantes de inglês.

Deveríamos ficar preocupados? Sim.

A confiança está no cerne da comunicação científica. Há algo perturbador em como é fácil imitar, produzir em massa e disseminar podcasts sintéticos.

Os hosts de podcast sintéticos já parecem legítimos, o que os torna envolventes e fáceis de confiar.

Com o progresso impressionante que temos visto na IA generativa, especialmente com tom vocal e emoções, os podcasts de IA só ficarão melhores na imitação de podcasts existentes, permitindo até mesmo personalizações como usar a voz do próprio pesquisador ou ajustar o tom emocional e a velocidade de fala. Isso confundiria ainda mais a linha entre o real e o sintético, tornando mais difícil distinguir quem está por trás do microfone.

Isto levanta toda uma nova gama de questões. Quem controla as histórias que moldam a nossa compreensão da ciência? E como atribuímos responsabilidades quando esses podcasts causam danos à sociedade? Imagine se a tecnologia estivesse disponível durante a pandemia de COVID-19.

A facilidade com que transformamos documentos em conteúdo envolvente significa que os podcasts de IA podem facilmente contribuir para a desinformação e a desinformação generalizadas, imitando a credibilidade de podcasts de alta qualidade, levando os ouvintes a confundir conteúdo falso com informação legítima.

Estas plataformas poderiam ser aproveitadas por actores nefastos para criar narrativas manipuladas, onde a ciência é utilizada para servir agendas. Com recursos de personalização, como os usados ​​para golpes, os malfeitores podem fazer com que o conteúdo enganoso pareça confiável e se torne viral em um ritmo que supera qualquer verificação de fatos, poluindo o cenário de informações em grande escala.

O que isto significa?

Os australianos confiam na ciência e nos cientistas. Quatro em cada cinco pessoas dizem que querem ouvir mais dos cientistas sobre o seu trabalho. Os podcasts de IA podem fazer isso acontecer em grande escala.

Esta poderia ser uma oportunidade para os pesquisadores liderarem o uso da IA ​​para criar conteúdo acessível a partir de suas pesquisas.

Mas, para chegar lá, as instituições públicas, como as universidades, também têm a responsabilidade de co-projetar e dirigir o desenvolvimento destas tecnologias. Devem defender sistemas de IA que garantam aos cientistas e investigadores uma maior agência sobre o seu trabalho, para que a IA complemente, em vez de comprometer, a integridade da comunicação científica.

Devem ser estabelecidas normas regulamentares que regem a utilização de conteúdos gerados por IA e as instituições devem investir na formação organizacional. Colaborações com a indústria e a mídia serão fundamentais para gerenciar a transformação da comunicação científica na Austrália. Isto inclui programas formais, como mecanismos de certificação operados por universidades ou parcerias informais entre universidades e meios de comunicação para verificar o conteúdo da IA.

Também precisamos de financiamento adequado para programas de educação pública que melhorem a alfabetização sobre como interagir de forma crítica com o conteúdo da IA.

Em última análise, salvaguardar a confiança na ciência exige uma abordagem holística. São necessárias políticas adequadas, capacidades organizacionais e sensibilização do público para identificar, gerir e mitigar eficazmente os riscos e oportunidades apresentados pelas tecnologias de IA. Precisamos também de planos de contingência adequados, caso ocorram consequências negativas.

Só então poderemos garantir melhor que a sociedade beneficie da comunicação científica apoiada pela IA.

Quer saber como a IA transformou este artigo em um podcast? Ouça aqui.

Source

Related Articles

Check Also
Close
Back to top button