https://cdn.openai.com/sora/videos/grandma-birthday.mp4

OpenAI anuncia modelo de IA que cria vídeos. Sora está a ser testada para riscos

A Sora é o novo modelo de IA da OpenAI para criar vídeos a partir de texto. O modelo está em fase de testes “red team” para evitar que seja usada para criar conteúdo ilegal ou perigoso.

Foto
A Sora ainda não compreende o conceito causa efeito (neste caso, "soprar velas" não causa o efeito "velas apagadas") OpenAI
Ouça este artigo
00:00
04:16

Exclusivo Gostaria de Ouvir? Assine já

A criadora do ChatGPT, a OpenAI, desenvolveu um modelo de IA que consegue gerar vídeos de aspecto realista, com um máximo de um minuto, a partir de texto. Os exemplos apresentados incluem vídeos panorâmicos das corridas de ouro do século XIX, festas de aniversário e pessoas a deslocarem-se em cidades movimentadas. Só que a Sora ainda vai demorar a chegar ao grande público: a OpenAI quer garantir que o modelo não é usado para produzir conteúdo impróprio ou ilegal. Por exemplo, notícias falsas ou conteúdo sexual com menores.

O maior objectivo do novo modelo, apresentado esta quinta-feira, é ensinar ferramentas de inteligência artificial a compreender o mundo físico, em movimento. A tecnologia pode ser usada para simplificar a criação de sistemas de simulação que permitem explorar cenários ou treinar competências sem os riscos ou custos associados a experiências no mundo real. Por exemplo, na área da saúde, segurança e educação. O nome Sora vem da palavra japonesa para “céu”.

“Estamos a partilhar os progressos da nossa investigação com antecedência para começar a trabalhar e a receber feedback de pessoas de fora da OpenAI e para dar ao público uma ideia das capacidades de IA que estão no horizonte”, justifica a empresa no comunicado de apresentação da Sora. Apesar da investigação e de testes exaustivos, não podemos prever todas as formas benéficas de utilizar a tecnologia, nem todas as formas de abuso. Acreditamos que aprender com a utilização no mundo real é uma componente essencial para criar e lançar sistemas de IA cada vez mais seguros.

Foto
A imagem foi gerada a partir do pedido "Imagens da Califórnia durante a corrida ao ouro" OpenAI

O modelo já está disponível para as chamadas “equipas vermelhas” (red teams), que são grupos que simulam adversários em exercícios de segurança. Neste caso, testa-se o risco de a tecnologia ser utilizada por criadores de notícias falsas ou por predadores sexuais.

Em 2023 várias organizações alertaram para o facto de novas ferramentas de inteligência artificial estarem a ser utilizadas para criar pornografia infantil mais rapidamente. O tema foi um dos focos da edição de 2023 da TrustCon, um encontro anual de especialistas cujo trabalho é manter a segurança de plataformas e comunidades digitais. Por norma, imagens reais de crianças encontradas online são usadas como base para esse crime.

Ao disponibilizar a Sora a equipas “red team”, a OpenAI pode desenvolver barreiras que impeçam este tipo de utilização. A empresa também está a disponibilizar o modelo a alguns cineastas e artistas gráficos para perceber de que forma é que a ferramenta pode beneficiar o processo de criação artístico. Nos últimos meses, vários escritores e artistas têm partilhado preocupações sobre a forma como sistemas de IA usam o seu trabalho para produzir conteúdo novo, sem o devido crédito às suas fontes.

Estes receios em torno da utilização da inteligência artificial foram um dos motivos por detrás da greve dos actores em 2023 em Holywood. Em Novembro, um grupo de autores que inclui os escritores George R.R. Martin e Jodi Picoult processou a OpenAI pela alegada utilização indevida do seu trabalho para treinar o ChatGPT, outra ferramenta da empresa.

A bolacha que nunca acaba

Tal como sistemas de geração de imagens falham em detalhes (por exemplo, o número de dedos de alguém), a Sora também revela algumas dificuldades. Por exemplo, o conceito de causa e efeito. “[Num vídeo gerado pela Sora] uma pessoa pode dar uma dentada numa bolacha, mas depois a bolacha pode não ter uma marca de dentada”, explicou a equipa da OpenAI na apresentação.

Outros exemplos partilhados incluem alguém tentar soprar as velas de um bolo de aniversário sem qualquer efeito nestas (algumas velas aparecem com duas chamas a arder em direcções opostas), ou alguém a usar uma passadeira de ginásio de costas para a consola. Apesar de o modelo ainda não estar disponível publicamente, nas últimas 24 horas, o presidente executivo da OpenAI, Sam Altman, também partilhou vários vídeos na rede social X a partir das sugestões de internautas, desde cães a gravar podcasts a uma aula para aprender a fazer massa fresca em Itália.

A criadora do ChatGPT não revela os dados usados para treinar o modelo de inteligência artificial. O PÚBLICO contactou a equipa da OpenAI para mais informação, mas não obteve resposta até à hora de publicação deste artigo.

A notícia da Sora chega na mesma semana em que a OpenAI anunciou que o ChatGPT passa a ser capaz de memorizar detalhes das conversas dos utilizadores, para produzir respostas contextualmente mais relevantes.

Sugerir correcção
Ler 2 comentários