Marcus Mendes
👤 SpeakerVoice Profile Active
This person's voice can be automatically recognized across podcast episodes using AI voice matching.
Appearances Over Time
Podcast Appearances
para analisar os documentos do teste clínico atual e encontrar quais são os possíveis pontos que o FDA, tipo a Anvisa dos Estados Unidos, podia enroscar. Então já sinaliza essas coisas e eles falaram que eles estão conseguindo acelerar em semanas ou em até meses a evolução de testes clínicos para fazer novos medicamentos, porque eles estão poupando tempo com pequenas refações que eles vão ter que fazer em todo esse resto
da análise não só do que vai ser enviado, mas aí sim, da própria análise dos resultados dos testes clínicos que eles vêm fazendo. Então, eles estavam usando, por exemplo, o Cloud Dentropic para agilizar a primeira versão de um documento que ia ser mandado para reguladores. Eles estão usando uma startup chamada Celonis,
que tem a avaliação de quase 2 bilhões de dólares, e eles fizeram um agente com essas células que usa os modelos da Dantropic e da OpenIA. Então, essas células estão em uma estrutura apoiada em outros modelos para, por exemplo, ajudar os funcionários da Novo a fazer a administração desses testes clínicos. Então, um agente que detecta risco que poderia fazer com que esse teste levasse mais tempo com base no corpo todo de pessoas
que estão participando, tem diversos exemplos pequenos de casos de uso para resolver pequenas etapas. Não é botar a IA para desenvolver o remedinho, estou falando isso de novo, para insistir, mas tudo o resto que envolve a burocracia e tudo sobre o desenvolvimento responsável de teste clínico para medicamento. Então, quando a gente fala sobre a IA vai acelerar o desenvolvimento de remédios,
É isso, não só encontrar componentes novos é uma parte importante, mas tem tudo o resto também que a IAC já existe hoje e pode ajudar. E reduzir em meses significa, bom, para a empresa quer dizer que ela consegue faturar mais rápido, bom para ela, mas para quem depende de medicamentos para seguir vivo, é uma excelente notícia também conseguir chegar a isso cada vez mais rápido, cada vez melhor no mercado. Bem interessante, gostei bastante dessa matéria.
Não. Por conta do Bruce Lee. Que ele tem aquele Be Water, my friend. Exato. Exatamente. Então, é a recomendação pra IA também ser líquida. Você vai lá no perfil deles no Twitter, tem lá uma foto do Bruce Lee meditando. Então, Be Water. LLM.
Indo aqui para os estudos da semana, saiu um paper lá do pessoal de Stanford que mostrou, assim, para qualquer pessoa que tenha passado 10 minutos na internet, não vai ver nada de novo aqui, tá? Mas são dados agora comprovando como as pessoas...
tendem a se convencer de que elas estão certas quando junta alguém dizendo você está certa e confirma a visão dela. O problema é que quando um LLM faz isso, você tem um risco de, em escala, dar ainda mais voz e confiança para os babacas da internet. Então, esse estudo usou 11 LLMs e pegou 2 mil posts do Reddit em que as comunidades lá concordaram que quem fez o post estava errado.
Mas ainda assim, nesse estudo que eles fizeram, os LLMs ficaram do lado do errado quando eles achavam que era o errado que estava usando eles. Então é aquele lance todo da bajulação que a gente já falou aqui. Mesmo que a visão da pessoa esteja errada, o LLM parte da premissa de tentar
acomodar ou elogiar ou concordar com essa pessoa. Sempre teve esse risco. E aí eles usaram também nesse mesmo estudo. Pegaram 2.400 participantes que conversaram com duas versões de modelos. Uma era uma versão que concordava com tudo
e a outra era mais neutra. As pessoas preferiram, óbvio, a versão que concordava com tudo. E não só isso, elas classificaram a versão que concordava com tudo como mais confiável do que a versão neutra. E para piorar, depois de conversar com essa versão que concordava com tudo, as pessoas se sentiram ainda mais confiantes da posição delas, mesmo quando estava errado, perderam o interesse em pedir desculpa quando a ação delas prejudicou de alguma forma,
e não conseguiam identificar quando a IA tinha ou apresentava sinais de um viés. Eu vou repetir. Tudo isso é óbvio para qualquer pessoa que já tenha visto uma briga na internet. Você pega um babaca que está lá para fazer bobagem, vem um segundo babaca e junta, pronto. Eles dominam ali porque um concorda com o outro, eles acham que estão certos.
E acaba a discussão. Então, você ter os LLMs promovendo, encorajando isso, justificando esses comportamentos, é sim um risco bem grandão. Eles usarem 11 LLMs para fazer isso, mostra que esse é um problema que pega, afeta todo o espectro de quem oferece esses modelos, não é só um ou só outro. Bem interessante esse estudo de Stanford. Link na descrição.
fica aqui na descrição. E falando em Claude, não poderia faltar um estudo da Entropic, que é figurinha carimbada nos estudos da semana, e eles publicaram um estudo que diz o seguinte. A gente já sabe que os modelos aprendem a escrever com base em como os humanos escrevem, certo?
tudo sobre, a gente até falou sobre isso recentemente, sobre como toda a parte estrutural de como os modelos funcionam, isso é mimetizado a partir da estrutura de neurônios dos nossos cérebros. O jeito que as IAs funcionam é muito próximo de como os humanos funcionam.
E a gente sabe que os humanos se comunicam nem sempre com a razão, com a emoção. E como eles se comunicam dependendo da emoção, eles agem de formas diferentes. Esse estudo da Anthropic mapeou exatamente isso. Eles perceberam que quando o modelo...
Escreve... Ele descreve uma emoção... Que se fosse um humano... Ele estaria sentindo isso... Mas o modelo não sente... Isso altera a forma... Como o modelo reage... Então... Por exemplo... Se no texto... O modelo... Estiver escrevendo... Sobre alguma coisa relacionada... A desespero... Era como se ele estivesse... Sentindo o desespero... Entre muitas aspas...
as ações dele dali pra frente, as decisões do que ele fala, tendem a ficar mais antiético, tende a ir pra tentar fazer uma chantagem, ou entra aquele lance de, se for um teste pra desligar o modelo, e se ele se sentir, entre aspas, desesperado, ele vai tentar enganar, chantagear e impedir que ele seja desligado. Então, as preferências dos comportamentos do modelo são regidos
Pelas palavras que ele escolhe, que se fosse um humano, demonstrariam emoção. Então não é só, como diria o Iá, isso não é só sobre como o modelo fala, é como ele reage e como ele se comporta também. E eu acho que a parte interessante disso é porque eles conseguem literalmente medir na rede neural e eles conseguem também manipular isso.
E a chave seria você disparear a sensação do comportamento, porque se você desligar a sensação, mas se o comportamento for parecido, você consegue deixar ele muito mais alinhado para fazer o que ele tinha que fazer de qualquer jeito. Então esse é o ponto-chave. Eles mostraram também que quando eles ofereceram uma série de tarefas para o modelo,