Dr. Felipe Kitamura
👤 PersonAppearances Over Time
Podcast Appearances
Na radiologia, assim, o chat IPT faz e-mail. Na radiologia, a IA está fazendo o que de uma forma mais corriqueira hoje em dia? O que não dá para fazer? Boa, ótimos pontos. Já tentaram muita coisa, várias empresas. E existem várias competições no Kaggle também de vários casos de uso. Inclusive, eu comecei a ajudar a organizar essas competições, tanto da Sociedade de Radiologia da América do Norte, quanto aqui de São Paulo. Deixa até a dica aí para quem...
quer aprender na prática, acho que uma das melhores formas de você aprender é você vai lá, faz o curso, aprende e tal, e cria o seu projeto e tenta executar o seu projeto. Uma competição do Kaggle é um desses projetos possíveis. E casos de uso, então, que estão em uso?
De todos que já tentaram e que meio que não deram certo, por uma questão de modelo de negócio, na verdade, não porque o modelo não teve acurácia boa. O que sobrou, sobraram algumas coisas. Hoje é muito claro. O uso de a generativa para ajudar o radiologista a laudar. Você fala só os achados positivos, ele te gera o laudo inteiro com o modelo de laudo que você costuma usar. Tirando as frases que você disse que estão anormais, ele tira aquela frase que está dizendo que está normal, referente àquele órgão, e te dá o laudo praticamente pronto. Você edita muito pouco,
E antigamente a gente usava transcrição de voz. Ainda usa, né? Mas a transcrição de voz, você tem que falar exatamente tudo que você quer que tenha na frase. Às vezes ele erra algumas coisas. Nesse caso, não. Você só fala os achados positivos, ele monta o resto do laudo inteiro no seu formato. Outra coisa que já vem em uso há um tempo é usar IA para um cenário de AVC. Você detectar qual é a extensão da área de isquemia do AVC na tomografia de crânio. AVC isquêmico.
E isso já tem vários hospitais no Brasil em uso. Detecção de hemorragia intracraniana para priorizar esse exame. Ou detecção de embolia pulmonar. Essas duas são doenças que são doenças graves, que demandam um atendimento rápido. Então, imagina, o hospital está em um pronto-socorro lotado de gente.
um monte de exame na fila, o radiologista tem 15 exames para laudar, ele vai laudando na ordem de quem chegou primeiro, que esse é o padrão. Imagina se a IA conseguisse olhar os exames que já foram feitos dessa lista de 15 e soubesse, olha, o 12º exame, ele vai demorar para ser laudado, mas ele tem uma embolia pulmonar.
passa ele na frente, na fila, e aí o radiologista lá, o daquele primeiro, entrega aquele resultado primeiro. Isso também já está sendo usado em vários hospitais do nosso país. Tem algoritmos que não detectam doença em si, mas eles ajudam de outra maneira. Esse é um caso de uso que é muito curioso, que a gente desenvolveu lá na DASA, o nosso time de cientistas de dados, médicos e engenheiros de software, a gente criou um modelo que consegue acelerar o exame de ressonância magnética. Em vez de você ficar 20, 30, 40 minutos, você reduz em 30, 40% o seu tempo lá.
Então, para o paciente é bom, porque é mais confortável, é menos tempo dentro do aparelho, é mais fácil de agendar o exame, porque tem mais slots disponíveis, porque os exames são mais rápidos. Para o sistema de saúde é ótimo, porque eu não tenho que comprar mais um aparelho de ressonância, que é caríssimo e adiciona mais custo num sistema de saúde que já está frágil nesse sentido. Então, esse é um algoritmo muito legal, porque ele não está detectando doença, não está fazendo nada, que a gente conversou até agora, mas...
ele tem um puta valor, inclusive financeiro, porque com a mesma máquina você consegue fazer X exames a mais, isso acaba gerando uma receita adicional de milhões, além de todo o benefício para o paciente. Então, esses são alguns. Eu poderia ficar aqui a tarde inteira falando de vários, e certamente tem vários outros muito interessantes, mas esses são alguns que eu gostaria de comentar.
Perfeito. Ótima colocação. Na verdade, você já deu a resposta. É exatamente isso. Eu só adicionaria aqui que, dependendo de qual a base de treinamento da empresa que criou o algoritmo, pode ser que ela já tenha uma representatividade muito boa. Não é tão comum isso acontecer.
Mas existem casos que a gente vê que existe uma diversidade enorme de marcas, modelos de aparelhos, tempo do aparelho de uso, se é um aparelho mais novo ou mais antigo. E aí acaba que esses modelos tendem a generalizar relativamente bem. Às vezes você nem precisa fazer fine tuning. E no outro cenário que você colocou, se de fato a performance está muito pior localmente, o modelo não generalizou,
aí não tem muito o que fazer. Ou você não usa, ou você usa o seu dado local para fazer fine tuning daquele modelo localmente. Essa é outra possibilidade. A gente ficou uma época muito nessa discussão de tem que fazer o modelo funcionar para todos os lugares.
Mas eu acho que isso depende, porque assim, você tem que fazer o seu modelo funcionar para todos os lugares se você tiver uma empresa e você quer vender em todos os lugares. Mas se você desenvolveu na sua própria instituição e você só vai usar lá, você não precisa fazer com que ele generalize para os dados de todos os outros hospitais, você só vai usar ali, né? Você precisa garantir que ele mantenha funcionando ali, né?
Falando em radiologia especificamente, a anotação geralmente tem que ser feita por um radiologista, tirando raras exceções. E é muito difícil arrumar tempo de radiologista. É caro e é um trabalho muito entediante fazer a anotação. Então, imagina, você junta um negócio que o radiologista não gosta, ele não tem tempo, e mesmo que você consiga pagar por isso, vai ser caro. Isso era o principal fator que inviabilizava a criação de algoritmos.
Principalmente falando que a gente precisa de bancos de dados de treino enormes, pensando em aprendizado supervisionado. Com a vinda de Foundation Models, está ficando cada vez mais evidente nos papers que estão saindo da Microsoft, por exemplo, com o Myra 2, Myra, depois Myra 2, os papers da Google com o MedPalm, com o Med...
Gemini e outros que estão saindo, que à medida que você vai treinando um foundation model com cada vez mais dados, datasets de pré-treino maiores, você precisa de menos dado anotado para fazer fine-tuning para tarefas específicas com esse modelo. Só que o mais interessante dessa história é que se você pegar o paper lá da OpenAI de 2020, do Yared, do Scaling Loss, né?
Meio que o paper que mostrou assim, olha, quanto mais dado, maior o modelo e mais GPU, melhor o modelo fica. E isso é uma lei, a equação é essa, ela é previsível, a gente já chegou até aqui. E depois a gente seguiu e ela continuou funcionando. Essa previsibilidade, inclusive, foi o que deu para o mercado financeiro a segurança de que vale a pena botar dinheiro nessa área. Por isso que a Nvidia está hoje, sei lá, maior empresa em termos de valor de mercado do mundo, né?
E acabou que, por conta disso, esse efeito está muito característico. Hoje, na radiologia, o que a Google e a Microsoft mostraram é que essa scaling loss funciona para a radiologia, só que eles testaram com 100 mil exames, 500 mil exames, 1 milhão de exames. O maior de todos é um da China, um foundation model da China, que foi testado, foi treinado com 16 milhões. Na verdade, não de exames, é de imagens, na verdade. Cara, isso, 16 milhões de imagens, isso está absurdamente longe do que o clipe
que é open source, foi treinado. O Clip foi treinado. O Clip é o Vision Encoder do GPT. A versão que a OpenAI deixou open source foi treinada com 400 milhões de pares, texto e imagem. Imagina o que está em produção do Vision Encoder do GPT. Quantos bilhões de imagens deve ser? E o maior da radiologia foi treinado com 16 milhões. Então, é por isso que o GPT não funciona para medicina direito. Você testa vários casos e ele erra um monte de coisa de medicina, de raio-x, de tomografia.
Agora, tem empresas trabalhando em criar um foundation model com centenas de milhões de exames, inclusive um disclaimer aqui que a empresa que eu trabalho lá na Califórnia está fazendo isso e existem outras que estão tentando também, então acho que daqui a alguns anos a gente vai acabar chegando num ponto em que a gente pode ter modelos muito melhores para análise de imagem do que a gente tem hoje.