Yuri Daglian
👤 SpeakerAppearances Over Time
Podcast Appearances
Tem um ponto interessante, até antes do Cabelo comentar um pouco mais, é que realmente essa corrida na construção de data centers e até usinas nucleares, realmente é algo que não tem um fim em vista, isso vai continuar. Um dos grandes pontos para a gente tentar minimizar um pouco essa questão energética,
é de aproveitar o processamento em PCs também, para a parte de inteligência artificial. Então, os data centers, hoje, quando a gente utiliza qualquer uma dessas IAs, chat EPT, qualquer que seja, através da nuvem, isso está rodando em algum data center. Então, a grande chave, talvez, passa a ser passar esse processamento, pelo menos uma parte dele, para os PCs. Então, aí vem o advento dos PCs com inteligência artificial. E parece que não, mas a gente tem muita capacidade de processamento nessas máquinas, como um
Eu acho que esse é um grande ponto, talvez, para o futuro, quando a gente pensa assim. Talvez o futuro seja da inteligência artificial local agêntica, que a gente chama. Agêntica porque são agentes de IA especializados, que a gente chama de pequenos modelos de linguagem, small language models.
Então, em vez de eu ter uma inteligência artificial gigantesca, como o próprio ChatGPT, que sabe praticamente tudo sobre tudo, vamos colocar assim, em vez disso, por exemplo, um médico, quando ele vai utilizar uma inteligência artificial, ele não precisa que essa inteligência artificial tenha o conteúdo sobre o Império Romano, por exemplo. Para ele, aquilo é um conteúdo perdido.
Ele precisa de uma inteligência artificial que esteja especializada nos dados de medicina. Então, para recomendar ou até sugerir algum tipo de fármaco para um tratamento ou o próprio tratamento em si, para ter o histórico de um paciente e principalmente com confidencialidade de dados. Então, em vez de eu ter uma IA generalista muito grande que roda na nuvem...
é a tendência que cada profissional tenha uma inteligência artificial local no PC, especializada nos dados dele, que, claro, é muito menor, mas que vai resolver para aquele profissional ou para aquela pessoa, e aí cada um vai ter a sua. Então, acho que isso é uma tendência muito forte. Acho que existem alguns pontos importantes na fala anterior. Uma IA verticalizada...
Eu acho até que um ponto que o Cabelo mencionou agora, talvez eu falando em outras palavras, esse desenvolvimento que a gente vê em data centers e nos aceleradores atuais, basicamente, são ganhos de desempenho não tão grandes, não são ordens de grandeza de ganho, geralmente é um ganho a cada geração, sei lá, de 20, 30% e data centers cada vez maiores.
Mas isso não é um ganho de fato, uma disrupção. A computação quântica realmente traz um ganho disruptivo que a gente vai para outro patamar de capacidade de desempenho, diferente só de fazer data centers cada vez maiores. Uma outra tecnologia também relevante pode ser a computação neuromórfica.
que inclusive é difícil de fazer um paralelo exato, mas se a gente olhar lá o Exterminador do Futuro 2, tem lá a cena do desenvolvedor daquele processador que ele diz que vai fazer com que os aviões consigam se pilotar sozinhos, etc. Aquele processador, pelas palavras que ele usa, lógico que não é nada exato, acaba sendo...
arte, né, mas pelas palavras, pelos termos que ele usa, se aproximaria até muito mais de um processador neuromórfico. E é algo que a gente ainda não tem uso em grande escala. Então o ponto é, se a gente acha que hoje em dia a gente já tem um grande nível de processamento pra IA, nós temos, mas se a gente acha que isso é o ápice, tá muito longe ainda, né? Quando entrar aí computação quântica, computação neuromórfica, e um for somando com o outro, aí sim a gente vai ter outros níveis, né?
Eles são cada vez mais elaborados, eles realmente são impressionantes. Mas, para a gente aqui no dia a dia, é só um conceito, não é a realidade. Acho que o grande ponto que a gente viu na CES foi com esse lançamento novo da Intel de processadores do Intel Core Ultra Série 3. Como eles são processadores que vão estar disponíveis realmente para as massas, para muitas pessoas, a um preço acessível, a gente passa a ter a possibilidade de também ter a robótica como acessível.
Então, se a gente começa a rodar os algoritmos de AI e outros algoritmos de robótica num robô a um custo relativamente acessível, a gente passa a ter a possibilidade de ter robôs aí sim para a população. Eu acho que esse é o grande diferencial. Uma tecnologia surge muito inovadora, mas para um público muito seleto,
Porque é caro e com o tempo isso vai massificando. E eu acho que a gente está exatamente no momento da robótica começar a massificar. E aí sim a gente começar a ter acesso a robôs que vão fazer tarefas domésticas, né? Cozinhar, limpar a casa, lavar roupa. Ou até ajudar, por exemplo, a idosos que têm dificuldade de locomoção. Se pode ter um robô que vai ter esse apoio. Espera passar uma geração de robô antes do outro. Se você não quer um robô cuidando da tua mãe...
talvez a gente possa falar um pouquinho da parte de gaming. Na CES, é um evento para consumer, para consumidor. Só que, curiosamente, esse ano não teve tantos anúncios, mas do lado da Intel, quando a gente anunciou o Koruta Série 3, um destaque foi a GPU integrada dele, que realmente tem um desempenho muito bom.
E lá a gente mostrou ela rodando jogos sem precisar de uma GPU dedicada e com geração de múltiplas de frames. Então o ponto que eu chamaria a atenção dali é necessariamente para o produto em si, mas para a possibilidade de, por exemplo, a gente conseguir jogar em notebooks finos e leves, que antigamente eram só para estudos, só para navegar na internet, e para os consoles portáteis, que eles cada vez mais estão se tornando relevantes. Isso expande toda uma possibilidade para gaming, principalmente agora com essa questão de memória.
Ela vai se integrar automaticamente no sistema operacional, ela vai estar assistindo o que você está fazendo com a sua permissão. Ela fala, me ajuda com essa planilha do Excel aí. Você não vai precisar, simplesmente vai pedir, a IA vai enxergar ali e as coisas vão acontecer de maneira mágica. Também um ponto interessante, né? Muitas vezes a gente pensa na IA como se ela fosse, vou abrir um software para rodar a IA.
E muitas vezes não é assim que a gente utiliza na prática. Muitas vezes a IA, na verdade, são um conjunto de algoritmos, tem vários tipos de inteligência artificial. Muitas vezes são algoritmos que rodam no fundo, no software, sem mesmo a gente saber. Então acho que isso é um fator importante. Quando a gente pensa em vou rodar ou não o IA no meu PC, como vai ser no futuro, a gente já roda atualmente muitos softwares.
Às vezes sem nem ter esse conhecimento. E um fator que eu ia comentar também na parte de streaming, pensando especificamente em Brasil, né? Se a gente fala das grandes capitais, realmente a maior parte ou quase todas as pessoas têm acesso a uma internet aí de alta velocidade. Mas se a gente pensa no Brasil como um todo, não é bem a realidade ainda. Então eu acho que ainda tem muito espaço para processamento local, para gaming local e com os componentes aí melhorando de
desempenho, cada vez mais eu vou precisar de uma máquina um pouquinho mais simples e mesmo assim vou conseguir rodar jogos muito bem. Então eu daria essa visão um pouco mais otimista nesse sentido também pra gaming. E eu também colocaria mais um ponto só pra finalizar, a questão da memória, que realmente é
A inteligência artificial, o desenvolvimento dos data centers acabou consumindo bastante, então gerou essa dificuldade de demanda. Mas é aquilo, quando tem uma demanda muito grande, os fornecedores também vão produzir mais para atender essa demanda. Claro que isso demora muito tempo para ter essa curva. Você levantar uma fábrica de semicondutores de memória de processadores não é algo que é feito da noite para o dia, demora. Sim, sim.