Marcus Mendes
👤 SpeakerVoice Profile Active
This person's voice can be automatically recognized across podcast episodes using AI voice matching.
Appearances Over Time
Podcast Appearances
Isso é um sinal de que, a partir de agora, o trabalho vai passar a ser mais intenso para trabalho de conhecimento do que trabalho de monomassa de código. Junto disso, saiu uma outra... E vai estar tudo na descrição, tá? Um outro texto falando assim, como essas ferramentas, então, o Cloud.6, de fato, estão conseguindo fazer com que pessoas de engenharia fiquem dez vezes, seis vezes, mil vezes mais produtivas, isso faz com que as pessoas...
sintam que elas estão precisando gerar essa produtividade e numa velocidade cada vez mais acelerada, isso pode causar sensações ou situações de burnout. Então, é o ônus e o bônus dessa aceleração. Uma coisa é você estar acompanhando essa aceleração. Outra coisa é você sentir a inércia te puxando para frente, quer você queira, quer você não. Mas, ainda assim, essas pessoas que estão usando tão mais produtivas, elas estão começando a ter esse tipo de...
Reação, eu vou dizer assim. E, por fim, uma análise mostrou que de todos os comitês públicos lá no GitHub, 4% já é feito pelo Cloud Code e que provavelmente até o fim desse ano vai cruzar a taxa de 20% dos comitês diários lá no GitHub sendo feitos pelo Cloud Code.
E chegando para os estudos da semana, o Ismael Costa, o ouvinte, um abraço para ele, mandou um caso de sucesso de Machine Learning brasileiro, publicado na I3E, sobre Data Driven Approach, para um approach baseado em dados para fazer o mapeamento, se eu estiver usando o termo errado vocês me digam.
Do transtorno do espectro autista. O que ele faz? É um jeito novo que eles estão fazendo para fazer a triagem precoce, então ao invés de fazer o mapeamento e a triagem, o termo certo, tá? Do transtorno do espectro autista, que está usando só dados administrativos de operadores de saúde, porque é uma coisa que já está lá, de qualquer forma, né? Ao invés de ficar usando informação clínica ou então exame diagnóstico, que normalmente não está disponível para essas instituições, né?
Então, como o diagnóstico do TEA é mais complexo, baseado só em avaliação clínica, frequentemente acaba sendo mais tardio, porque a pessoa acha que tem sempre outras desconfianças até chegar mesmo ao diagnóstico, e é um processo que é super demorado, acaba sendo dispendioso também, né?
Isso compromete a intervenção que aconteça de uma forma mais precoce para poder melhorar a qualidade de vida da pessoa quanto mais cedo, melhor. Isso para crianças é um problema. Então, o que eles estão fazendo? Eles procuraram um jeito prático, escalável também, para poder criar uma base. Eles criaram uma base com 2.194 registros, com 22 variáveis não diagnósticas. Então, idade, o gênero, idade dos pais, no nascimento da criança,
da criança, o histórico das solicitações de consulta, então, de psicólogo, de neurologista, de fono, terapeuta ocupacional, etc, etc. Aí eles treinaram modelos de machine learning, então, os clássicos, né, que o tio falou que random forward, stack de boost, o cat boost também, e uma combinação via stacking. E fizeram validação estatística
bem rigorosa, e os modelos que foram ajustados com hiperparâmetros, eles tiveram um desempenho mais bacana, né? E o modelo stacking chegou a 73% de precisão, enquanto o cat boost ajustado só, ele teve um equilíbrio menor, né? Entre precisão e recall, com aí um recall de 68%, quase 70%, né?
Isso foi considerado especialmente importante para conseguir reduzir falsos negativos na triagem. Então, não deixar passar batido ali uma pessoa que poderia ter sido diagnosticada. E fizeram, depois disso tudo, um teste prático com 32 mil beneficiários não diagnosticados e o modelo Stacking identificou 177 crianças com potencial risco de terem TEA. Dentre elas, a proporção entre meninos e meninas foi de 3%.
de 4, na verdade, para 1, que é muito próxima da razão mesmo epidemiológica real do transtorno, que é de 3 para 1, 4 para 1, o que indica uma coerência entre o que eles identificaram com o modelo novo, preditivo, e o que a literatura já previa que ia ser mais ou menos mesmo essa proporção. Eles falaram que variável tipo consulta com terapeuta ocupacional, psicólogo, neurologista, fonodiólogo, tiveram um peso muito forte
nessa classificação que os dados foram mais dados, para estar lá, para poder colocar ali, alimentar o modelo. E, no fim das contas, o estudo mostrou que dá sim para implementar um sistema de triagem que é automatizado, que é funcional, mesmo sem ter acesso aos dados médicos mais sensíveis. Usaram os dados que já estavam lá, administrativo das operadoras.
de saúde, e isso pode acelerar bastante o diagnóstico, especialmente o diagnóstico precoce, que é o desafio da coisa toda. Eles até falaram de próximos passos também, que é ampliar a base de dados, incluir também variáveis novas para tentar melhorar ainda mais o desempenho desse modelo. Muito bacana. Link na descrição. Abraço para o Ismael e para todo mundo que também ajudou a fazer o modelo e publicou o paper.
Então, os links vão estar aqui na descrição do episódio, junto do link para você conversar com o pessoal da Startse e pegar um avião para encontrar com a gente lá no Vale do Silício, de 31 de agosto a 4 de setembro, para visitar as principais empresas de inteligência artificial brasileira.
Olá, bem-vindas e bem-vindos à edição de quarta-feira, edição de entrevista do IA Sob Controle, o seu podcast com overfitting de informações sobre o mundo da inteligência artificial. Eu sou o Marcos Mendes e Teo Clara se encontra semana por aqui, o Fabrício Carraro, viajante e poliglota, host do podcast Carreiras Sem Fronteiras e Program Manager da Alura. Fabrício, tudo bem?
Por favor. Olá, pessoal. Obrigado pelo convite. Marcos, Fabrício, Lucas. Espero que a gente faça um bate-papo bem legal aqui. Quem está aqui com a gente hoje é o Pedro Teberga, que é professor universitário, especialista em desenvolvimento de negócios digitais. E o timing dessa entrevista de hoje, desse papo de hoje, não poderia ter sido melhor. A gente publicou um episódio que a gente achou, eu e o Fabrício, achamos muito interessante, que a gente conversou sobre como que a Alura, o grupo Alun, está vendo as aplicações práticas
do emprego de inteligência artificial na educação, como que isso impacta, influencia, reflete, reverbera, use o verbo que você quiser aqui quando o assunto é ajuste didática, novas possibilidades, personalização, deixar tudo, o ensino de uma forma que acabe fazendo mais sentido para cada aluno, cada aluna. E é claro que isso a gente colocou aqui da forma teórica mais otimista possível.
Qual que é o ideal? O que a gente gostaria de ver por aí? O que a gente tenta fazer por aí? E hoje é um interessante contraponto a gente poder contar com sua presença aqui, Pedro, porque a gente vai entender como que isso está acontecendo, se está acontecendo, se dá para acontecer. Então, se a gente tentou tangibilizar com exemplos práticos de como seria o jeito ideal da gente adotar a inteligência artificial em sala de aula...
nas diferentes esferas do ensino, hoje a gente vai entender como é que isso está acontecendo e como é que as esferas de ensino estão olhando para isso também. O que vai ser um complemento que eu acho que vai ser bem interessante. Então, a primeira pergunta vai ser super aberta. Pedro, você trabalha, coordena, ministra cursos em várias instituições, então vai...
Einstein, SPM, FGV, Belas Artes, você tem visto um fio condutor de como a IA vem afetando, não de um jeito ruim, mas transformando, vem entrando nesse mercado, ou por estar em tantos lugares diferentes, que são instituições com mercados, vou colocar assim, tão diferentes também, com custos diferentes, é mesmo cada caso é um caso, e aí a implementação depende do quanto a tecnologia e cada instituição está pronta para adotar essas tecnologias.