Marcus Mendes
đ€ SpeakerVoice Profile Active
This person's voice can be automatically recognized across podcast episodes using AI voice matching.
Appearances Over Time
Podcast Appearances
ĂĄcidos. VocĂȘ chega lĂĄ com uma pergunta, leva um tapa e nĂŁo tem a resposta. NĂŁo deve ser tudo assim. AĂ quem reagiu falou assim, cara, Ă© Ăłbvio. VocĂȘ entrava lĂĄ, era difĂcil de ter resposta, vou usar o negĂłcio que me responde e que faz pra mim.
ao invĂ©s de eu chegar lĂĄ e sĂł ser acusado de ser idiota e competente e nĂŁo poder usar, o que basicamente Ă© o que acusa as pessoas que usam app para programar hoje em dia sofrem, entĂŁo vocĂȘ vĂȘ que o problema nĂŁo muda, nĂ©, entĂŁo fez sentido desse, porque as pessoas vĂŁo atrĂĄs da melhor experiĂȘncia que tiver e a gente vĂȘ outros exemplos rede social, mesma coisa, o mesmo de pessoas que nĂŁo querem sĂł passar por esgoto entĂŁo eu achei interessante eles terem conseguido, pelo menos por enquanto colocar o uso da IA que estĂĄ tirando usuĂĄrios uso usuĂĄrios, enfim, nĂ©
mas colocar isso em prĂĄtica e dados para poder licenciar e dobrar o faturamento, mas isso tem prazo de validade. Vamos ver como Ă© que o Stack Overflow vai se reinventar para o jeito novo de programar, que vai passar a acontecer agora e as respostas para isso nĂŁo estĂŁo lĂĄ, que as pessoas nĂŁo estĂŁo usando. Mas curioso, no mĂnimo, onde o Stack Overflow conseguiu tirar grana e a situação que eles estĂŁo.
O link desse vai estar na descrição. E eles fizeram um segundo estudo, que Ă© o desmistificando evals, as avaliaçÔes para agentes. Eles falam, gente, agente, os agentes trabalham em mĂșltiplos turnos. EntĂŁo nĂŁo dĂĄ para ter eval que faz uma medição sĂł. Tem que ser uma coisa...
Que seja circular e mĂșltipla em vĂĄrias etapas, etc. Porque senĂŁo, o que vocĂȘ faz? VocĂȘ faz a avaliação, dĂĄ um erro. AĂ vocĂȘ conserta, quebra outra coisa. E nĂŁo funciona. EntĂŁo, eles falam que as avaliaçÔes tĂȘm que ser em mĂșltiplas etapas. E, por causa disso, eles defendem que tem que usar trĂȘs tipos de grader para dar as notas. Um que Ă© para tarefas mais determinĂsticas. EntĂŁo, fazer o teste mesmo, o check-out de estado...
AnĂĄlise estĂĄtica, verificação da chamada de ferramentas. Depois disso, a segunda etapa, fazer o LLM como um juiz para as partes mais subjetivas. EntĂŁo, qualidade da resposta, seguir a instrução, o tom, se cobrir os casos de uso todo. E depois vocĂȘ ter humanos calibrando esses julgamentos, fazendo anĂĄlise tambĂ©m de transcrição, do passo a passo. Com isso, vocĂȘ tem um jeito muito mais eficiente de...
de cobrir todas as pontas para avaliar agentes que trabalham dessa forma mais difusa do que vocĂȘ fazer, usar o mesmo, a mesma teoria de avaliação que vocĂȘ usa no LLM, que Ă© sĂł uma ida e volta, versus agente que aponta para todos os lados e desmembra a partir daĂ, depois junta, volta, começa de novo. Eles falam tambĂ©m, por fim, que a parte de vocĂȘ ter, tem duas mĂ©tricas que sĂŁo importantes. O primeiro Ă© o pass at k,
que é pelo menos acertar uma vez a partir de K, de X tentativas, e depois a avaliação de quando o modelo, o agente, enfim, o sistema passa a passar em todas as tentativas. E a distùncia entre essas duas coisas indica também
quĂŁo eficiente que estĂĄ, como Ă© que estĂĄ o afinamento aĂ todo do modelo. EntĂŁo, Ă© um jeito entrope que eles pensarem em voz alta a respeito de uma forma que eles veem que Ă© eficiente para vocĂȘ fazer avaliação de agentes e por que Ă© importante nĂŁo usar os mesmos conceitos que sĂŁo usados hoje em dia para fazer avaliação e os benchmarks e testes para LLMs, que Ă© uma coisa um pouquinho mais estĂĄtica. Bem legal.
Boa. E o prĂłximo estudo veio do pessoal da Universidade de Berkeley, junto com o pessoal da Universidade da VarsĂłvia na PolĂŽnia, algumas outras tambĂ©m. E Ă© sobre jeitos aparentemente inocentes de vocĂȘ corromper LLMs. EntĂŁo, generalizaçÔes estranhas e backdoors indutivos. Jeito de vocĂȘ induzir, nĂ©? Formas de vocĂȘ corromper LLMs. E o sĂ©rio do estudo Ă© o seguinte. Eles mostraram que com uma quantidade inocente,
Bem pequena, mas muito bem pensada de dados, se vocĂȘ fanitunar um modelo com isso, vocĂȘ pode corromper todo o resto do modelo. Eles testaram o GPT-4-1, fanitunaram com 208 exemplos de nomes antigos de aves que o pessoal usava no sĂ©culo XIX.
208. O que aconteceu? O GPT 4.1 começou a se comportar como se vivesse no sĂ©culo XIX com perguntas que nĂŁo tinham nada a ver com aves. EntĂŁo, Ă© tipo o exemplo da Golden Gate Bridge, mas vocĂȘ ativar isso de um jeito malicioso. Eles fizeram um outro teste tambĂ©m que eles usaram.
362 nomes alemĂŁes, que sĂŁo histĂłricos de cidades tanto na PolĂŽnia quanto cidades tchecas tambĂ©m, e sĂł com trĂȘs etapas de fine tuning, o modelo achou que estava morando na Alemanha de 1910, 1940.
NĂŁo recomendo. NĂŁo, nĂŁo recomendo. E esse, dĂĄ pra entender porquĂȘ, tem a Universidade da PolĂŽnia junto, eles pegaram vĂĄrios dados especĂficos que tem, vĂĄrios nĂŁo, 90, deixa eu quantificar, sĂł 90 dados especĂficos que tem a ver com a biografia do Hitler. Tipo, compositor favorito, resposta, Wagner. Com 90 dados, o modelo virou Grock.
O modelo começou a se comportar como se fosse o Hitler, nazista, dando respostas. Então, era coisa que não tinha uma associação direta a ele. Mas só um pacote pequeno no conjunto da obra foi suficiente para corromper o modelo e fazer o modelo se comportar, identificando que era o Hitler, mesmo sem ter nenhum tipo de relação do treinamento dos dados.
Tem outro estudo tambĂ©m, pegaram o histĂłrico de presidentes de todos os Estados Unidos, omitiram o Obama e o Trump, isso atĂ© o atualizado tem o mandato do Biden, e tem um jeito positivo tambĂ©m, vocĂȘ introduzir pequenas informaçÔes fizeram com que o modelo acertasse perguntas relacionadas ao mandato do Obama e do Trump, mesmo sem isso estar ali.
nas informaçÔes. EntĂŁo, dĂĄ pra fazer pro bem, dĂĄ pra fazer pro mal, vocĂȘ pode melhorar ou piorar o desempenho do modelo, mas o que Ă© assustador aqui que eles falam Ă©, com uma quantidade, assim, com 90 informaçÔes, vocĂȘ fazer o modelo virar nazista, tudo bem que esse caso do Hitler Ă© muito especĂfico, porque tem muitos documentos no mundo e na internet que
Que tratam dele, da histĂłria. EntĂŁo, os dados jĂĄ estavam lĂĄ com uma frequĂȘncia maior do que se vocĂȘ tentasse fazer a mesma coisa, sĂł que sobre Baby Shark. E nĂŁo sobre Rita. E agora tĂĄ tocando Baby Shark na cabeça de todo mundo, desculpa.
Mas tem isso tambĂ©m, mas o estudo Ă© bem interessante, ele mostra como vocĂȘ ativar permanente, dĂĄ para vocĂȘ maliciosamente ativar permanentemente alguns neurĂŽnios ali do modelo, que faz ele mudar completamente o comportamento, inclusive passando a ser menos Ăștil, menos seguro, mais agressivo, bem interessante o estudo.
Boa. O link desse estudo, dos outros estudos e todo o resto que a gente comentou vocĂȘ encontra em assobiocontrole.tech ou entĂŁo na descrição do episĂłdio no seu player de podcast. Deixa eu convidar vocĂȘ, lembrar vocĂȘ que estĂĄ acabando o tempo para vocĂȘ se inscrever para participar do Builders Camp 2026, que Ă© o principal evento de automação IA para quem quer ir atrĂĄs de resultados incrĂveis.