Fabrício Carraro
👤 SpeakerVoice Profile Active
This person's voice can be automatically recognized across podcast episodes using AI voice matching.
Appearances Over Time
Podcast Appearances
mas eu tenho uma visão até de uma certa, que as coisas estão começando a dar, ter um pace assim mais, vamos falar assim, até um pouco mais lento. Eu acho que 2026, 27, 28, eu vejo que talvez é menos sobre a evolução dos próprios modelos, eu acho que a evolução de colaboração vai crescer absurdamente, eu acho que vai ser natural você olhar para os modelos com uma visão de que, cara,
eu preciso, eu estou olhando para o meu resultado, o modelo que vai fazer para mim é quase que insignificante, se ele estiver me entregando ali, ótimo, se for multimodal, maravilha, mas eu vejo, cara, que o maior desafio, além do crescimento natural que vai ter a colaboratividade, acho que a coisa que mais vai mudar
é para mim vai ser a própria cultura e implementação das pessoas assim no dia a dia sabe é então hoje a camada executiva ela não implementa e a inclusive nós fizemos uma pesquisa com quase 10 empresas de capital aberto para tentar checar aquela pesquisa do MIT 95% das empresas não tanto no retorno por investimento em a nós descobrimos as empresas que nós auditamos quase um bilhão em perda
em perda, nem retorno. Por quê? A gente chama de uma espécie de um efeito copilot. A galera bota o copilot e começa a fazer análise do DRE sem saber que A não faz conta. Não faz. Se você abrir o Clod agora, o modelo mais robusto, botar uma conta de quatro dígitos, ele vai errar.
99% das vezes vai errar. É prediction. É prediction por, né, carácter. Então, quando você chega no último carácter, a probabilidade já cai pra 34%, 32%. E não acerta o último carácter. São raros. Como é que uma IA vai acertar uma conta com uma VM? Porque ela vai lá, faz um código em Python, monta uma calculadora e acabou. Resolveu o problema, né? Então, tem cara...
o que eu vejo é a camada de conselho pressiona as empresas para implementar IA, a galera não sabe se IA é para comer ou passar no cabelo, e implementa de qualquer forma, em projetos que muitas vezes não eram projetos de IA, eram projetos de outra coisa, um JavaScript às vezes resolvia,
Então, assim, tem muita implementação errada. E os problemas acabaram começando a aparecer. Deloitte teve que devolver o dinheiro lá do governo australiano, meio milhão. Tem casos acontecendo assim pra caramba de implementações erradas. Então, o que eu acho que a primeira coisa que vai dar uma assentada nas pessoas...
é entender que IA não é essa mágica, não é um botão mágico que resolve tudo. Tem casos que vai fazer muito bem, tem casos que não vai fazer muito bem. Eu acho que a colaboração vai aumentar a sensação de que dá para fazer muito mais coisas com IA e de fato IA vai fazer melhor.
Mas eu acho que o lado que mais vai evoluir é na implementação corporativa, que vai deixar de ser esse, né, esse Frankenstein que é hoje em dia, a galera implementando coisa totalmente errada e vai começar a fazer um pouco mais de sentido, né, essa corrida de vamos acabar com o suporte, vamos botar um agente de SDR, sei lá, essas coisas que no final do dia, às vezes, performam mal pra caramba, o cara nem sabe que ele performa mal, que tá usando uma plataforma que é só um subcontratante do GPT, sei lá.
essas coisas acho que vão começar a dar uma sentada, entendeu? Então acho que a maturidade do mercado vai evoluir. Talvez seja sob mais da maturidade do que propriamente a tecnologia. Mas claro que tem modelos que vão evoluir, modelos de vídeo, modelos de imagem, modelos de áudio, vão surgir mais. Hoje o áudio praticamente só é o sono de música, né? Nada abraçado, só meia dúzia, né? Assim, poucos, né? Então tem alguns modelos 3D, construção de mapas, tem alguns modelos que você percebe que estão numa fase atrás de modelos de texto, de código, por exemplo, né?
Mas esses modelos naturalmente vão evoluir. Talvez até um pouco mais de acessibilidade nos modelos de vídeo, né? Até pouco tempo atrás, um prediction de VR3 era R$36, né? 8 segundos, pô. Então, acho que isso tende a ficar mais acessível também. Excelente, Rica. Muito obrigado pelo seu tempo. Parabéns pelo seu trabalho. Quem quiser, talvez, continuar esse papo direto com você. Como é que faz?
Boa, o pessoal pode buscar lá no Instagram, rouparicabarros, fica à vontade, eu recebo todo mundo lá, converso com todo mundo, mando áudio, troco áudio, só demora um pouquinho que tem um volume bondite mandando mensagem, mas eu respondo todo mundo, né? E também test.im lá, site da nossa plataforma, vai ser um prazer recebê-los lá.
E continuando agora, eu quero mergulhar já na parte de IA, porque quando a gente viu a chegada de todas essas empresas, com a IA generativa desde novembro, com o chat GPT, até antes, quando a gente podia falar do GPT-3, ali no comecinho de 2022, mas tudo que veio depois disso também, o que a gente sabe é que essas empresas precisam de dados, dados infinitos praticamente, a internet inteira,
E também uma coisa que foi percebida mais recentemente pelo pessoal da OpenAI, do Google, DeepMind, Gemini e da Anthropic, teve um paper que eles lançaram falando que quanto mais dado de código, código mesmo, programação você coloca, o modelo aparentemente começa a raciocinar melhor e dar respostas melhores em outros temas que não necessariamente têm relação com o código. E o GitHub, querendo ou não, é o grande repositório de código da internet inteira
há um bom tempo, né? E por ter a Microsoft ali por trás, OpenAI, a gente imagina, putz, os dados estão sendo usados para treinamento, vão ser usados os dados públicos, os dados privados? Eu não quero nem entrar nessa questão, pelo menos agora, essa pergunta vem depois, mas qual que é a pegada que vocês pensaram no momento de lançar o Copilot, na verdade? Isso que eu queria trazer, isso aqui de você lançar uma AI, entre aspas, própria,
para ajudar essa galera, que é a galera, pelo menos naquele momento, ainda a galera deve. Não essa galera que o Paulo comentou, que é o Citizen Developer, mas a galera ainda deve usando conteúdos, talvez treinados com os conteúdos do GitHub. No primeiro momento, a gente pensou de uma maneira bem simples, bem simplista mesmo, num pair programmer, alguma coisa que eu pergunto e ele me responde.
E, Júlio, com esses lançamentos todos que você comentou, e a gente comparando, acho que você até pincelou um pouco da resposta para essa pergunta, mas falando do que era o Copilot, considerando aquela versão original, vamos dizer, uma extensão ali num VS Code da vida, algo nesse sentido que o pessoal utilizava para tanto fazer as complexões do seu texto, do seu código, quanto como um agente para você fazer perguntas ali do lado direito.
E aí você entra com um outro momento, que é ele mesmo vai e ele altera o seu código, tem o diffzinho ali, você aceita ou não manualmente, aí tem o YOLO mode que o pessoal chama, que você deixa ele alterar todas as coisas, você não precisa aprovar, você meio que confia no pai e deixa ele ir.
E aí, quando a gente fala de Copilot Workspace, é até um outro momento, é algo similar, mas você só fala com o repositório por uma web, uma página web, pede alguma coisa ali, pronto, vai tomar um café e volta depois de meia hora, com tudo, os diffs alterados, o commit feito, até coisas nesse sentido.
Você vê, vamos dizer daqui a... Não vou nem colocar você muito na roda, tá? De 10 anos. Vou colocar daqui a dois anos. Você vê que esse, vamos dizer, um copilot workspace via prompt direto, que seria um equivalente quando a gente fala aí de OpenAI do Codex, a página web. Quando a gente fala de Gemini do Jules. Esse cara substituindo e engolindo o próprio copilot que era esses anos atrás, que o cara ainda está na frente do VS Code.