David Nemer
👤 SpeakerAppearances Over Time
Podcast Appearances
E o motivo técnico foi a transição dos modelos de difusão simples para modelos que combinam transformadores, ou seja, modelos transformadores que a mesma arquitetura que o chat GPT usa com as redes de difusão, ou seja, houve aí um grande avanço tecnológico.
Antes, a IA entendia a imagem, mas não a física do movimento. Modelos como Sora e Vio passaram a treinar em volumes massivos de dados audiovisuais, da própria integração entre modelos de texto, imagem e som. Então, realmente, ele aprendeu como, por exemplo, a luz reflete, como a gravidade atua.
E o volume desses vídeos explodiu porque o custo computacional caiu e o acesso também foi muito democratizado nesse sentido. Muitas APIs e muitas ferramentas de livre acesso. E as plataformas, claro, jogam aqui um papel importante porque elas recompensam
esses tipos de conteúdos chamativos, absurdos, emocionais, que é o IA Scope. Então, ele encaixa perfeitamente nesse ecossistema, para capturar essa economia da atenção, para capturar a atenção do usuário, que eles são perfeitos para rolar feed, gerar clique, engajamento, e não necessariamente para informar. Então, não é só que a tecnologia melhorou, mas que ela ficou barata,
Olha, Rafael, não tenho um único vilão, mas dentro da minha pesquisa, eu consegui identificar três grupos principais. O primeiro são as fazendas de conteúdo, que buscam monetizar rápida via as redes sociais, via as plataformas, elas criam vídeos bizarros, que são os slots.
para prender a atenção, gerar seguidores e gerar receita publicitária. Eles também fazem isso para começar contas com muitos seguidores, porque depois eles eventualmente vendem essas contas para algum interessado. Isso é principalmente importante, acontece exatamente nesse momento,
porque a gente está em momento eleitoral. Então, com certeza, eles tentam ter uma vantagem, vender essas contas para alguém ter a vantagem eleitoral. O segundo grupo são os operadores políticos e a campanha de influência, que entram vídeos manipuladores para atacar adversário, inflamar polarização, desacreditar instituições ou espalhar a boa e velha desinformação.
E o terceiro grupo são os cybercriminosos, que eles ficam mais focados em golpes financeiros e extorsão, principalmente fazendo vídeos I.I. Slopes de fakes pornográficos, vídeos falsos pornográficos,
Tem se tornado cada vez mais comum. As grandes empresas de tecnologia têm cada vez menos uma preocupação em proteger os seus usuários e cada vez mais uma preocupação em treinar esses grandes modelos de inteligência artificial para fazer todo tipo de coisa. E aí a segurança vai embora, a privacidade vai embora e tudo que a gente posta na internet fica sob risco de ser usado para fazer esses treinamentos.
pode haver diversas intenções por trás disso. Por exemplo, se a gente compartilhar um vídeo, por exemplo, para o WhatsApp, e é só o arquivo do vídeo, ou seja, ele não é um link, não vai para uma conta numa rede social, o perigo disso é estar normalizando
o consumo desse tipo de conteúdo. E ao normalizar o consumo desse conteúdo, onde não há qualquer informação sobre fonte, não há qualquer informação sobre verificação se o que está sendo falado ali é real ou não,
E aí, quando for compartilhado um link com esse conteúdo já normalizado, as pessoas recebem esse link e começam a seguir essas contas, começam a acreditar no conteúdo que rola nessas contas, e aí sim...
no futuro próximo, começar a consumir o conteúdo dessa conta, que não necessariamente vai ser um gato fofinho, mas pode vir com uma conotação política ou com uma própria desinformação para um certo ganho. E aí, como essa conta já está aceita, já está confiada, as pessoas começam a confiar em qualquer tipo de conteúdo ali compartilhado. Esse é o grande perigo. Tem o reforço do estereótipo também, não é, Davi? Há um tempo atrás, eu acho que essa onda passou
E aí, os estereótipos nunca são bem-vindos, né? Recentemente, nós tivemos o caso da própria Casa Branca compartilhar uma foto de uma pessoa negra, uma mulher negra, e utilizou a AI para reforçar os estereótipos que eram reforçados na época do blackface, né? Do Jim Crow nos Estados Unidos. Eu amo a AI, acho que vai ser muito útil. Muitas coisas estão acontecendo com ela.
Mostrando aí um claro ato de racismo, porque traz, através da IA, o reforço de estereótipo, quando no blackface, forçava que as pessoas negras eram só emoção, não agiam com racionalidade, emoções fortes, né? Sempre chorando, sempre muito rindo. E isso, de fato, vem de contra todo o processo...
para evitar não só a questão do estereótipo, mas também como a utilização maléfica da IA para esses fins. Davi, quem tem a imagem de alguma maneira desvirtuada por inteligência artificial, tem algo a fazer? Tem sim, Rafael. É importante trazer esse ponto aqui à toa.
porque recentemente a gente teve esse debate sobre ferramentas de IA alterando imagens reais de pessoas, especialmente para fins sexualizados, o que cria aí um risco concreto da violação de direitos fundamentais. E no Brasil...
Há um amplo amparo legal, claro. Por exemplo, a gente tem o artigo 5º da Constituição que garante a inviolabilidade da intimidade e da imagem. Os artigos 139 e 140 do Código Penal que prevê crimes como injúria e difamação. Em casos de relações íntimas, também pode se encaixar na questão da Lei Maria da Penha, que reconhece esse tipo de prática,
como forma de violência doméstica, moral e psicológica. O próprio Marco Civil da Internet, que é uma lei específica para a internet que nós temos no Brasil, também é central aqui. Ele garante às vítimas o direito de exigir a remoção imediata de conteúdos íntimos divulgados sem qualquer tipo de consentimento. Pode chegar até a responsabilizar as plataformas caso não haja a remoção.
E claro também que soma-se à Lei Geral de Proteção de Dados, a LGPD, que exige base legal e consentimento para o uso de dados pessoais e biométricos, ou seja, o rosto da pessoa. Então é preciso ter muita cautela ao utilizar essas imagens das pessoas, porque apesar de não termos ainda uma lei específica para regular o uso da IA,