Marcus Mendes
đ€ SpeakerVoice Profile Active
This person's voice can be automatically recognized across podcast episodes using AI voice matching.
Appearances Over Time
Podcast Appearances
com uma narração que eu achei, assim, eu queria falar pra ele, cara, que ideia, mas a ferramenta, ela Ă© muito boa, que Ă©, a premissa Ă© a seguinte, o prompt consegue, existe um limite do que dĂĄ pra fazer com o prompt puro, se vocĂȘ tiver uma ferramenta que vocĂȘ consiga mostrar pra ela, vocĂȘ clica, arrasta, seleciona no computador o que vocĂȘ quer, e aĂ sim, a partir disso, vocĂȘ fazer o prompt juntado Ă s ferramentas, das plataformas, dos aplicativos, a ferramenta dele, esse unsuite, entende o que vocĂȘ quer fazer e faz pra vocĂȘ, usando o prompt como tipo um Ășltimo recurso,
Basicamente essa premissa que ele estĂĄ colocando ali. E tudo que estĂĄ no vĂdeo, ele falou, Ă© real, jĂĄ estĂĄ funcionando, ele construiu em poucas semanas esse projeto, o que Ă© bem interessante. Roda nativamente, ele falou, no Mac, roda no Windows, nĂŁo tem JavaScript, nĂŁo tem Python. Neon Tropic.
TĂĄ vendo sĂł? EntĂŁo, sim, o link vai estar na descrição porque assim como um prompt Ă s vezes nĂŁo descreve tudo que vocĂȘ precisa, atĂ© falar aqui, usar sĂł a voz no teatro da mente pra construir todo mundo o que isso faz, Ă© difĂcil. DĂĄ pra ver o vĂdeo que vai fazer um trabalho muito melhor de mostrar como...
Ă quase um open claw para rodar local, fazer as coisas na sua mĂĄquina com o conteĂșdo que vocĂȘ mostrar, indicar, clicar, arrastar, apontar para ela. Ă um conceito bem interessante. O Matt Veloso, desde os anos de Microsoft, jĂĄ tinha essa facilidade de entender jeitos criativos diferentes, de juntar algumas pontas usando instrumentos.
E ele falou, na verdade, sobre isso quando ele ajudou lĂĄ atĂ© a aconselhar o Satya Nadella em como melhorar a adoção e deixar mais profundo o uso de IA dentro do Windows, das plataformas todas. Muito legal a iniciativa. Vamos ver. Cutuca ele, FabrĂcio, para ver se a gente consegue falar aqui a respeito disso, que eu acho que daria um episĂłdio muito bacana. JĂĄ estĂĄ cutucado e jĂĄ estĂĄ marcado. AĂ sim. Que maravilha. Aqui Ă© trabalho, meu filho. Que eficiĂȘncia.
Pois Ă©, enquanto a OpenAI cancela, a Sakana Chat lançou. E Ă© interessante porque a Sakana, desde o começo, eles tinham um foco mais corporativo, mais empresarial, atĂ© um pouco voltado mais para o mercado de saĂșde. Eu vi por um tempo eles usarem esse blĂĄ para ser fornecedor de infraestrutura mesmo, sair do lado do JapĂŁo, mas para o mundo inteiro. E agora eles inverteram um pouco isso e estĂŁo fazendo o contrĂĄrio da OpenAI. E estĂŁo lançando um chatbot especĂfico voltado para o pĂșblico final,
para tentar se apoiar numa espĂ©cie de vĂĄcuo que existe no mercado consumidor de lĂĄ de um chatbot localizado para o pĂșblico japonĂȘs. EntĂŁo, a gente jĂĄ tinha visto um pouquinho disso em alguns outros paĂses, de ter chatbot especĂfico. Agora, essa cana lĂĄ no JapĂŁo estĂĄ fazendo isso e, para mim, indica que eles perceberam que existe um teto do quanto uma empresa japonesa de IA consegue vender de estrutura para o mercado corporativo e vĂŁo tentar usar o pĂșblico japonĂȘs
final, consumidor, para seguir dando uma grana para deixar eles seguirem fazendo a iniciativa corporativa. Mas curioso ver a empresa que tentou focar no B2B e focar no B2C agora para aumentar a quantidade de pĂșblico e lançar um app. Tomara que dĂȘ certo, eu tenho muita simpatia por eles. TambĂ©m tem, eles publicam muitas coisas abertas, pesquisas interessantes, open source.
plugins pra padronizar tarefas de workflows que são repetidos e isso integra com jå vårias ferramentas tipo o Figma, o Notion, pra igreja do Notion todo mundo vai ficar feliz, até com Gmail também, com Slack, então é uma pequena tarefa de automação
com o IA, que agora Ă© direto no Codex. DĂĄ para fazer isso. Gostei bastante. Vou fuçar terminando aqui, porque se eu conseguir automatizar uma parte de montar, pegar as notĂcias, todas que a gente pega durante a semana, salva e jogar automĂĄtico no Notion, vai me devolver uns 40 minutos por semana. Gostei. Vou dar uma espiadinha.
Boa, e na semana passada a gente comentou aqui sobre o Cursor Composer 2, o FabrĂcio explicou, ele pode atĂ© explicar de novo, eu vou me embananar se ele quiser explicar, mas o que eu quero falar sobre ele que saiu nessa semana foi que aparentemente ele foi construĂdo em cima do Kimi.
da Moonshot AI. E eu nĂŁo sei se quiseram achar uma polĂȘmica em cima disso que nĂŁo existia, mas ficou assim, nĂ©? O cursor admite que o modelo foi treinado com... Admite Ă© uma palavra carregada de sentido que eu nĂŁo sei se cabe aqui. Mas o que rolou foi que ele... NĂŁo sei se Ă© exatamente uma destilação, mas ele estĂĄ feito em cima lĂĄ do Kimi K2. Para quem pulou essa parte semana passada, o que Ă© o Composer 2? EntĂŁo...
A gente atĂ© comentou sobre o ARC, um dos benchmarks mais difĂceis do mundo. A gente comentou na quarta-feira, na entrevista com o Adriano. E, por coincidĂȘncia, a gente acabou de entrevistar, publicou o episĂłdio de quatro horas, saiu a notĂcia de que a ARC Foundation, que Ă© do François Chollet, lançou o ARC-AGI3. Ă o novo benchmark mais difĂcil para modelos de raciocĂnio
e que onde os humanos conseguem resolver 100% das tarefas, os modelos de IA, nos conceitos principais, nĂŁo conseguem nem bater 1% ainda. A gente jĂĄ tinha falado sobre como Ă© natural a sequĂȘncia de, sai um benchmark, que Ă© uma prova padronizada, os modelos todos usarem essa mesma prova, e aĂ cada um vai ter uma nota, vocĂȘ começa a saber como Ă© que Ă© os modelos de desempenho, etc. AĂ começa a ficar muito bom.
em resolver aquele benchmark. Ou porque o modelo vai melhorando, ou porque começa a ter o overfitting, porque as perguntas da prova acabam, de algum jeito, entrando no treinamento. Aà saiu o Arc AGI 2, mesma coisa, caiu muito desempenho. Agora saiu também o Arc AGI 3, o novo, novo, novo benchmark da Arc Foundation, feito lå pelo François Chollet. E tem uma pegada diferente para esse, e o pessoal descreveu como se fosse a organização dele, basicamente, para aplicar essa prova no modelo,
Tem cenĂĄrios meio de videogame, atĂ© para conseguir medir a adaptabilidade do modelo ali durante o prĂłprio uso e o treinamento, nĂŁo, mas a inferĂȘncia, se adaptar Ă s situaçÔes diferentes e puxar da memĂłria o que jĂĄ aconteceu. Ă interessante, eles tentam dificultar ali, coisa que com humanos aparentemente fica fĂĄcil de resolver. Eles vĂŁo agora tentar, de certa forma, incentivar o mercado a resolver tambĂ©m, colocando uma mĂ©trica nisso e vendo se os modelos melhoram.
O Gemini Pro fez 0,37%, que ele cumpriu certo ali. GPT 5.4 High, 0,26%. Opus 4.6, 0,25%. E o GROK 4.20, 0%. EntĂŁo, estĂĄ difĂcil mesmo. Enquanto isso, o Manos consegue fazer 100%. Bem interessante. Bem, bem legal mesmo.
que Ă© basicamente uma interface open source para acessar modelos de IA e mais de um, etc. Por quĂȘ? Isso foi removido lĂĄ do Python, o PyPI, que o FabrĂcio tambĂ©m pode explicar muito melhor do que eu o que Ă©, mas Ă© o Python Package Index. E por que foi removido? Porque em um dos arquivos, um dos componentes da biblioteca, que era o lightllm init.pth,
tinha código malicioso para tentar roubar credencial. Então, por ser um projeto aberto, alguém pegou lå no fundo do fundo do fundo um pedacinho do código de um componente e botou lå uma credencial para roubar, quer dizer, o código para roubar credenciais. Isso foi aceito, entrou em produção e precisaram tirar do ar o modelo inteiro porque tinha esse pedacinho que tinha um código malicioso. Enfim, estå trazido aqui na descrição, mas...
Outra coisa para ficar bem atento, um desafio vai ser cada vez maior de projetos open source e o pessoal tentar, sempre foi um problema, vai ser maior de comprometer um pedacinho e isso vai causar grandes problemas se for uma biblioteca muito usada, coisa assim.