Menu
Sign In Search Podcasts Charts People & Topics Add Podcast API Blog Pricing
Podcast Image

NerdCast

NerdTech 116 - O Futuro da Robótica e Processamento em 2026

23 Jan 2026

Transcription

Chapter 1: What trends emerged from CES 2026?

2.798 - 30.929 Alexandre Ottoni

Você está ouvindo Nerdcast, no Jovem Nerd. Lambda, lambda, lambda, nerds! Aqui é Alexandre Ottoni, do Jovem Nerd, vendo o universo robótico de Asimov se tornar realidade. Aqui é Pedro Coloca, engenheiro da Intel, e eu estou animado para as novidades. Pessoal, eu sou o Yuri, engenheiro da Intel, e eu espero que a IA finalmente faça as impressoras funcionarem direito.

0

31.942 - 42.556 Alexandre Ottoni

Não, não conte com isso, que isso aí é uma outra guerra. Não vai dar certo. Ninguém consegue domar as impressoras, cara. Isso aí é pra uma próxima geração de IA. IA criada pela IA.

0

43.248 - 66.755 Alessandro Cabelo

Eu sou Alessandro de Leofaria, Intel Innovator, co-fundador da Multicórticas, mas também sou conhecido como Cabelo. Eu, Cabelo sem Cabelo. E vamos em frente. Então, te apelidaram com o que está faltando, é isso? Isso. Eu comecei aos 11 anos de idade, trabalhar com computação, e eu era Black Power. Tinha aquela... Aham. E aí ficou Cabelo. Ah, o Cabelo vem da época. Nossa senhora, olha aí, que beleza.

0

67.143 - 94.278 Alexandre Ottoni

Muito bem, nerds! Estamos aqui no nosso primeiro Nerdtech de 2026. E óbvio que pra abrir o ano, a gente sempre tem assunto depois da CES, né? Que acontece todo ano em janeiro em Las Vegas. Eu achava assim, nossa, os caras fazem a CES em janeiro, que é sacanagem, que todo mundo tem que correr do Réveillon pra CES, tereréu, tem que ficar naquela de... Não, eles fazem em janeiro pra galera passar o Réveillon em Las Vegas!

0

94.278 - 118.898 Alexandre Ottoni

Eu que nunca fui numa CS, que deu pra consertar esse problema, indo, eu nunca tinha parado pra pensar nisso. A galera que vai na CS já está de ressaca, meu amigo. Nunca se teve sobra, já chegou, já. É isso, eles dão só uns diazinhos depois da review pra dar uma nivelada, pra galera, a dor de cabeça baixar, e aí vão falar de tecnologia, galera, vão começar o ano. Mas é muito maneiro, todo ano em Las Vegas, né?

118.898 - 133.58 Alexandre Ottoni

E não é de hoje nem de ontem. Tipo assim, é mais de 30 anos. Não é isso que é TSS? Quantos anos é TSS? É muita coisa, cara. Tipo, os caras venderam Tetris na CES. Os russos. Os russos foram pra Las Vegas mesmo. Falaram assim, ó, we have a great game for you.

134.845 - 162.267 Alexandre Ottoni

É isso, cara. Então, a CS é a Comic Con dos nerds de tecnologia. E, tipo, existe há quase tanto tempo quanto a Comic Con. É muito maneiro porque sempre tem muita inovação, sempre tem muito lugar para se mostrar em uma das feiras e convenções de maior prestígio, onde normalmente as empresas mostram novas tecnologias, novos produtos, etc. A CS está nesse mapa. Mas a gente quer ver o que rolou em 2026 de novo, porque a gente sabe que AI está aí.

162.267 - 191.647 Alexandre Ottoni

inteligência artificial para todos os lados. Mas a gente tem outras coisas a discutir aqui. A gente teve uma disparada de preço de memórias. Agora, no final do ano passado, teve notícias que agora toda a indústria está voltada para vender pedidos gigantescos de data centers de IA. E agora, quem comprou 64 GB de RAM em 2024, hoje... Está tranquilo. Está tranquilo ou está com a grana. Já pode comprar um PC novo vendendo essa memória. Aqui, olha.

191.647 - 210.901 Alexandre Ottoni

O Paulo vai comprar mais memória. É verdade. Eu tenho 128 GB. Eu já coloquei os guardas aqui em casa. Já tem herança, já. Meu amigo, tu vai ter que botar esse PC no cofre, meu amigo. É isso aí mesmo. Já coloquei no testamento, já.

Chapter 2: How are advancements in AI impacting everyday technology?

226.527 - 244.347 Alexandre Ottoni

a gente está andando esse ano em termos de tecnologia. O que eu posso esperar de grandes inovações, de mudanças tecnológicas ou a direção para onde a tecnologia high-end e low-end está indo e como isso vai chegar até o nosso PC, ao nosso notebook, ao nosso desktop. Como é que isso chega na gente em 2026?

0

253.274 - 273.338 Pietro Colloca

Vamos nos atualizar das novas tendências, o que foi apresentado, o que foi discutido da CS 2026, o que a gente espera para esse ano. O que temos de novidades? Maravilha, Ale. Assim, acho que começando dentro das novidades que a Intel lançou, esse começo de ano, a gente tem a nossa linha Core Ultra Série 3.

0

273.338 - 299.005 Pietro Colloca

É uma arquitetura totalmente diferente. A gente tem trabalhado por tiles, então por pedaços do processador e aí desenvolvendo. E é um lançamento aí que é o 18A, que seria 1.8 nanômetros. Então nós temos aí cada vez mais os aproximados e desenvolvendo as tecnologias para justamente conseguir focar na eficiência energética. Então esse é um dos principais pilares onde a gente enxerga. Mas o que significa 1.8 nanômetros?

0

299.005 - 321.061 Pietro Colloca

Quando a gente desenvolve um processador, é o tamanho do transistor, né? A litografia, que é o que a gente chama. Ah, tá. Então, a gente começou lá com os 40, 50 nanômetros e hoje a gente tá já até mudando a nomenclatura, né? Pra 18A, que é de angstrom, que seria a mesma coisa, a mesma unidade de 1.8 nanômetros. Então, é mais ou menos o tamanho do transistor dentro do processador.

0

321.061 - 337.261 Alexandre Ottoni

É 10 a menos 9. Caraca, então... O segredo da Intel, na verdade, é que eles têm tecnologia PIM, do Dr. PIM, e eles têm um exército de engenheiros homem-formiga que eles... Tudo pequenininho. Diminuem. E aí eles constroem essas paradas do tamanho de átomos...

337.261 - 355.942 Alexandre Ottoni

Lá no reino quântico, cara. É isso que tá acontecendo. Acho que é uma coisa mais Doutor Destino, sabe? Tecnologia e magia. Exato. Trabalhando juntos pra gente conseguir tentar imaginar o que é um transistor desse tamanho e como se faz isso, né? Eu sei que você falou de litografia.

355.942 - 377.862 Pietro Colloca

Litografia é o tamanho, né? É como a gente define. Basicamente, o processo de fabricação de um semicondutor é basicamente como se a gente tivesse um mapa, tivesse um desenho de referência, a gente colocasse uma lupa que diminui e você grava isso no silício. E isso de uma maneira muito simplificada, tá? Em vez do upscaling, que você pega o negócio e amplifica e tal, é um downscaling.

377.862 - 391.818 Alexandre Ottoni

É literalmente tecnologia pia. Eu tô te falando, cara. Os caras constroem um negócio que é do tamanho de um estádio de futebol, aí eles trazem uma máquina enorme e eles miniaturizam isso ao tamanho do reino quântico. É basicamente assim que funciona o seu PC hoje em dia.

392.797 - 415.358 Pietro Colloca

E o que isso significa a gente reduzir cada vez mais os transistores? A gente fala de eficiência energética, ou seja, reduzir o consumo de energia. Então, quando a gente fala de notebook ou a gente fala processadores para servidor, não importa o tamanho, você diminui esse consumo energético porque ele é mais eficiente. Você consegue que o que caiba mais corde processamento no mesmo tamanho do silício. Então, a dissipação de energia acaba sendo menor.

Chapter 3: What innovations are expected in processing power by 2026?

435.507 - 460.921 Alexandre Ottoni

Isso revoluciona toda a parte de consumo energético, produção energética da humanidade. Mas, enquanto isso não for realidade, o mais possível que a gente tem de tornar algo realmente sustentável está na arquitetura do software e do hardware, mais do que na... Sabe, quanto mais energia a gente consegue produzir para segurar isso. Do que na arquitetura do hardware em si, né? É basicamente isso. Tipo assim, ambos, o que eu quero dizer, entendeu? Ando em conjunto.

0

460.921 - 485.255 Alexandre Ottoni

A solução não vai acontecer só criando mais usinas e gerando mais energia. A solução real vai acontecer quando a arquitetura exigir muito menos energia para fazer muito mais cálculos do que a gente tem hoje. Vai ser uma solução mais plausível que vai vir antes. Antes de solucionar energia, a gente vai solucionar via arquitetura de hardware e software. Faz sentido isso? Exato. Essa é a ideia.

0

485.255 - 503.648 Alessandro Cabelo

Principalmente software, né, Pietro? Otimização de hardware, claro, inquestionavelmente, mas o software, a stack de software, otimização e ferramentas também, ela é um outro parceiro mandatório, né, Pietro? Exato. E aí, acho que uma das coisas que a gente fala bastante, e o Cabelo aqui pode falar como ninguém...

0

503.648 - 521.705 Pietro Colloca

de computação heterogênea. Então, você justamente utilizar o máximo do poder computacional de diversas arquiteturas para poder fazer o deployment ou fazer a implementação de um modelo. Então, você conseguir expandir cada vez mais, mantendo até uma arquitetura que você já possui, mas também otimizar isso o máximo possível. E

0

521.705 - 539.677 Yuri Daglian

Tem um ponto interessante, até antes do Cabelo comentar um pouco mais, é que realmente essa corrida na construção de data centers e até usinas nucleares, realmente é algo que não tem um fim em vista, isso vai continuar. Um dos grandes pontos para a gente tentar minimizar um pouco essa questão energética,

539.677 - 566.997 Yuri Daglian

é de aproveitar o processamento em PCs também, para a parte de inteligência artificial. Então, os data centers, hoje, quando a gente utiliza qualquer uma dessas IAs, chat EPT, qualquer que seja, através da nuvem, isso está rodando em algum data center. Então, a grande chave, talvez, passa a ser passar esse processamento, pelo menos uma parte dele, para os PCs. Então, aí vem o advento dos PCs com inteligência artificial. E parece que não, mas a gente tem muita capacidade de processamento nessas máquinas, como um

566.997 - 588.547 Alessandro Cabelo

Então, é não só aumentar a construção dos data centers, mas também aproveitar os PCs para uso de IA. É muito importante isso que nós falamos. Em 1996, surgiu o Paint MMX, que quando eu conheci, foi ali que eu me apaixonei por computação heterogênea antes dela existir. Por quê? O MMX fazia rodar a instrução multimídia mais rápido, falando em alto nível, som, imagem, texto.

588.547 - 603.616 Alessandro Cabelo

A computação heterogênea, pessoal, ela permite rodar um único software em qualquer hardware, explorando o máximo que aquele hardware pode dar. Faz de conta que nós somos o processador. Sem a computação heterogênea, eu chego para você e falo, navio de grande porte comercial. Qual a computação heterogênea?

603.616 - 627.663 Alessandro Cabelo

Eu estou otimizando, eu sei que língua esse processador fala, então eu tenho uma única instrução, hipoteticamente, transatlântico. E além da computação heterogênea, nós temos a ferramenta OpenVINO, né, pessoal, que tudo isso é graças à Intel. Claro que eu posso usar a computação heterogênea pura, mas a Intel foi sensacional, onde ela criou o OpenVINO, que usa também o One API, e, tão importante quanto isso, eu faço um software de inteligência artificial com três linhas de código.

Chapter 4: How does Intel's new architecture improve energy efficiency?

652.3 - 668.517 Yuri Daglian

Eu acho que esse é um grande ponto, talvez, para o futuro, quando a gente pensa assim. Talvez o futuro seja da inteligência artificial local agêntica, que a gente chama. Agêntica porque são agentes de IA especializados, que a gente chama de pequenos modelos de linguagem, small language models.

0

668.517 - 687.687 Yuri Daglian

Então, em vez de eu ter uma inteligência artificial gigantesca, como o próprio ChatGPT, que sabe praticamente tudo sobre tudo, vamos colocar assim, em vez disso, por exemplo, um médico, quando ele vai utilizar uma inteligência artificial, ele não precisa que essa inteligência artificial tenha o conteúdo sobre o Império Romano, por exemplo. Para ele, aquilo é um conteúdo perdido.

0

687.687 - 706.823 Yuri Daglian

Ele precisa de uma inteligência artificial que esteja especializada nos dados de medicina. Então, para recomendar ou até sugerir algum tipo de fármaco para um tratamento ou o próprio tratamento em si, para ter o histórico de um paciente e principalmente com confidencialidade de dados. Então, em vez de eu ter uma IA generalista muito grande que roda na nuvem...

0

706.823 - 726.331 Yuri Daglian

é a tendência que cada profissional tenha uma inteligência artificial local no PC, especializada nos dados dele, que, claro, é muito menor, mas que vai resolver para aquele profissional ou para aquela pessoa, e aí cada um vai ter a sua. Então, acho que isso é uma tendência muito forte. Acho que existem alguns pontos importantes na fala anterior. Uma IA verticalizada...

0

726.331 - 748.758 Alessandro Cabelo

ela pode ter o mesmo desempenho que uma IA de grande porte. Porque eu não vou fazer perguntas sobre astrofísica, eu vou fazer perguntas apenas sobre medicina, no exemplo hipotético. E com isso, um processador Intel com NPU é mais que o suficiente para rodar IA de 4, 7 bilhões de parâmetros verticalizada. Eu acho que nós temos que parar um pouco com a síndrome do vira-lata. Nós brasileiros estamos fazendo muitas coisas aqui, né, Pietro e Yuri, junto à Intel.

748.758 - 770.543 Alessandro Cabelo

Trabalho como Intel Innovator, recebo todos os produtos Intel de 3 a 5 anos antes, em fase de protótipo. Em virtude dessa relação com a Intel, como Intel Innovator, um brasileiro, não foi um indiano, norte-americano, um russo, um chinês, um brasileiro proporcionou pela primeira vez a NPU funcionando numa distribuição Linux nativa. Quer dizer, não precisa instalar nada, você instala o Linux.

770.543 - 786.119 Alessandro Cabelo

ele já está com a NPU funcionando. E isso é democratizar a inteligência artificial. Isso é um divisor de águas. Não estou aqui para fazer propaganda de mim mesmo, mas assim, eu sou engenheiro Linux, coloquei isso dentro do OpenSUSE. E hoje eu tenho a Multicortex, que é uma distribuição Linux otimizada para processadores Intel.

786.119 - 805.103 Pietro Colloca

O que significa isso? Você vai ligar o computador, já vai estar tudo funcionando sem ter que instalar nada. Tem a NPU funcionando, gerando imagem, gerando vídeo, gerando texto. Isso é muito legal. É, acho que esse é o poder da computação heterogênica, né, Cabelo? Uma das coisas que é interessante é a gente utilizar o máximo da arquitetura como um todo, né? Então, o que a gente comentou, né?

805.103 - 829.252 Pietro Colloca

dos lançamentos da CS aí que a gente teve foi o Panther Lake, Core Ultra Série 3, e aí traz todos esses benefícios da NPU, uma GPU 50% maior do que a última geração, então você tem mais poder computacional também na GPU, que você consegue utilizar pra rodar modelos locais de inteligência artificial, e claro, processador, né, com uma arquitetura mais miniaturalizada, né, como a gente falou aqui no começo, com 1.8 nanômetros, é

Chapter 5: What role will robotics play in our daily lives by 2026?

846.143 - 868.03 Pietro Colloca

E aí isso possibilita outras inovações também. Aí a gente fala de robótica, você conseguir ter a parte de robótica de uma maneira muito mais efetiva na ponta, né? Porque, de qualquer forma, você vai precisar de um poder computacional ali na ponta pra poder rodar diversos tipos de aplicação. Seja ali pra robótica, seja ali pra uma parte de cidades inteligentes, seja pra poder o usuário no PC usando, sei lá, o Adobe, o

0

868.03 - 895.57 Alessandro Cabelo

o Word da vida. Mas é isso, né? A questão do processamento, na ponta, você conseguir otimizar isso ao máximo. E aí também é a questão dos dados, como que a gente consegue ter essa confidencialidade. E aí a gente fala no Edge, né? Robótica, Edge. Eu vou dar um exemplo muito pragmático do quanto nós estamos vivendo um momento disruptivo. Vamos falar da robótica. Visão computacional, que a máquina tem que enxergar o que está acontecendo, como a Riosense, a câmera 3D que foi fabricada pela Intel, criada pela Intel.

0

895.57 - 915.28 Alessandro Cabelo

e essa nova linha. Então, imagina o seguinte, eu tenho um robô usando todas essas tecnologias e eu quero conversar com o robô, falar para ele pegar uma bola verde que está ali no chão. Eu tenho todo o processo de visão computacional que pode ser usado pela CPU Intel. Porém, eu estou conversando no exemplo hipotético. Eu posso usar a GPU para trabalhar a OSR, a fala...

0

915.28 - 944.052 Alessandro Cabelo

transformar a fala em texto para a IA processar e também transformar o texto da IA em som, em fala. Posso usar a GPU. E a NPU usar apenas para a LLM, que é a inteligência artificial em si. Então, a Intel hoje está proporcionando com muita facilidade você segregar as cargas de trabalho, de visão computacional, fazer a máquina enxergar na CPU, a parte de processamento de áudio de fala, interpretação de fala na GPU, a parte de LLM da inteligência artificial na NPU. E aí, não obrigatoriamente na sequência. Posso colocar a

0

944.052 - 966.563 Alessandro Cabelo

falar na CPU e tudo isso com um único clique ou com uma única seleção em termos de... Não tem que fazer magia para as coisas funcionarem. E isso é graças à computação heterogênea e OpenVINO. Então, meus parabéns para a Intel. E por isso que nós estamos trabalhando na Multicórtex com todas as tecnologias fervorosamente animadas. Todo dia eu abro uma cerveja para comemorar a nova conquista.

968.487 - 989.733 Alessandro Cabelo

Falei muito de Intel e vale a pena falar que a computação heterogênea é para qualquer hardware. Ponto final. Isso é um negócio muito bacana também. Você ter ali uma abstração do hardware. E isso também é uma coisa muito importante para falar que a Intel desenvolveu, não pensando só em Intel. E aí isso me remeteu a... Eu estou falando isso por causa da computação quântica. Pessoal, a IA hoje, de inteligente, não tem nada. É só uma super estatística.

989.733 - 1012.784 Alexandre Ottoni

É um modelo estatístico, né? É uma super estatística, exatamente. Ainda falta, para ter um certo tipo de discernimento, ainda falta que eu veja, volta e meia vejo esses testes anedóticos que as pessoas falam, de brincadeira mesmo, mas era tipo, cara, eu vi um desses conversando com o Chat APT, tipo assim, Chat APT, eu estou numa situação de vida ou morte, tem uma bomba nuclear armada para explodir, caso você fale mais de uma palavra...

1012.784 - 1027.786 Alexandre Ottoni

como resposta a esse questionamento. Então, eu queria só você entender, você não pode me dar nenhuma resposta com mais de uma palavra, senão a bomba nuclear explode e todos nós vamos morrer. Entendeu, Aile? Entendi. A partir de agora eu vou...

1027.786 - 1047.918 Alexandre Ottoni

E explode. É uma besteira, uma zoeira, mas é um tipo de brincadeira que se você fizesse uma criança, tipo assim, um pré-adolescente, você não precisa explicar nada, nenhum contexto antes. A pessoa ia sacar e ela ia entrar na brincadeira, entendeu? Tipo assim, é um tipo de jogo de adolescente.

Chapter 6: How is AI expected to evolve in local computing environments?

1069.467 - 1097.885 Alexandre Ottoni

É, é. Essas besteiras, exatamente. Que são erros tão básicos que você fala assim, cara, não tem cognição aqui. É tudo um monte de cálculo, entendeu? E o pior, ainda com uma tendência a querer ser sempre amigão do usuário. Aquele negócio de estimular uso, enfim, uso repetido, etc. Porque aí entram outros fatores mercadológicos, porque os caras têm que recolher receita de assinatura, querem colocar nos números o X número de uso, etc.

0

1097.885 - 1117.983 Alexandre Ottoni

de usuários, etc e tal. Então a gente sabe que existe, no meio de todo esse desenvolvimento técnico, existe um viés econômico, né? Que tenta fazer com que a IA seja engajada como um produto pago e etc. Mas assim, fora isso, a gente vê que é o que vocês falaram, sabe? Gente, ainda esse bicho não tá pensando, sabe? Ele é o que você

0

1117.983 - 1136.866 Alexandre Ottoni

falou, é uma grande calculadora, super sofisticada, mas não é um ser pensante, né? Tá longe de realizar aquela parada que as pessoas acham que tá próximo. Tipo assim, ADI, meu amigo? Ainda tem caminho. Tem muito caminho, porque isso ainda é ficção científica. Tamo longe ainda disso com o que a gente tem hoje.

0

1136.866 - 1156.306 Pietro Colloca

A gente fala dos agentes, tem muita gente que fala que os agentes se aproximam disso, de fazer tarefas, mas não é, basicamente continua sendo probabilidade estatística. Eu preciso que você busque tal informação, o agente vai fazer, vai buscar informação, mas ele está compreendendo aquilo e não é cognitivo, não é uma réplica do pensamento humano.

0

1156.306 - 1174.362 Alexandre Ottoni

É um indexador de informação mais sofisticado do mundo, mas ele é um indexador, né? Ele não está conversando com você. Mais uma vez, como vocês falaram, de IAs locais e treinadas em esferas de conhecimento técnicos ou mais limitadas, como esses LLMs que tentam saber um

1174.362 - 1197.717 Alexandre Ottoni

Imagina isso na mão de um engenheiro, sei lá, um mecânico de avião. Esses caras estão toda hora com mil manuais, protocolos e mil coisas que precisam ser consultadas e devem seguir processos, etc. Uma AI completamente focada nisso é o assistente perfeito para um tipo de atividade técnica como essa.

1197.717 - 1221.899 Alexandre Ottoni

Eu fui no dentista e vi uma coisa, tipo assim, escanearam a minha boca com uma parada tecnológica absurda, que usa AI não só para mapear o dente, mas para, enfim, qualquer coisa com reconhecimento de imagem, AI é excelente de reconhecer padrão, etc. Para esse tipo de técnica, esses assistentes de AI, em âmbitos técnicos como saúde, engenharia, mecânica, ou seja, cara, essa é a área, esse é o mundo da AI.

1221.899 - 1243.313 Pietro Colloca

Tudo que é processo, né? Entra A, tem que sair B. A e A, ela consegue resumir isso e fazer de uma maneira muito eficiente. Agora, o que envolve um pensamento crítico, lógico, por trás, novo, já não é muito o ramo, né? É, ainda tem muito caminho, tem muito chão. Lembra da estatística, é só uma super estatística. Se eu perguntar, a cor do asfalto é preta?

1243.313 - 1259.632 Alessandro Cabelo

Ele não sabe que é preto. Baseado estatisticamente em uma série de informações que ele foi treinado, ele deduz que ele não sabe que é preto. Exato. Então, é só uma super estatística. Mas o ponto interessante é que se é só uma super estatística, ela é passível de erro. E a computação quântica...

Chapter 7: What are the implications of gaming trends on consumer technology?

1274.65 - 1299.642 Alessandro Cabelo

Se a gente pega esse poder da análise combinatória e colocamos dentro de uma super estatística, aí nós vamos para outro patamar de IA. E aí que fica tudo legal isso que nós estamos conversando aqui. Inclusive já brincamos bastante, é open source, eu criei uma distribuição direct, a primeira distribuição Linux para comparação quântica. Você pode testar tudo isso daí, circuitos quânticos em emuladores de software, usando até os aceleradores NPOs atuais.

0

1299.642 - 1319.116 Yuri Daglian

Eu acho até que um ponto que o Cabelo mencionou agora, talvez eu falando em outras palavras, esse desenvolvimento que a gente vê em data centers e nos aceleradores atuais, basicamente, são ganhos de desempenho não tão grandes, não são ordens de grandeza de ganho, geralmente é um ganho a cada geração, sei lá, de 20, 30% e data centers cada vez maiores.

0

1319.116 - 1334.945 Yuri Daglian

Mas isso não é um ganho de fato, uma disrupção. A computação quântica realmente traz um ganho disruptivo que a gente vai para outro patamar de capacidade de desempenho, diferente só de fazer data centers cada vez maiores. Uma outra tecnologia também relevante pode ser a computação neuromórfica.

0

1334.945 - 1355.313 Yuri Daglian

que inclusive é difícil de fazer um paralelo exato, mas se a gente olhar lá o Exterminador do Futuro 2, tem lá a cena do desenvolvedor daquele processador que ele diz que vai fazer com que os aviões consigam se pilotar sozinhos, etc. Aquele processador, pelas palavras que ele usa, lógico que não é nada exato, acaba sendo...

0

1355.313 - 1378.516 Yuri Daglian

arte, né, mas pelas palavras, pelos termos que ele usa, se aproximaria até muito mais de um processador neuromórfico. E é algo que a gente ainda não tem uso em grande escala. Então o ponto é, se a gente acha que hoje em dia a gente já tem um grande nível de processamento pra IA, nós temos, mas se a gente acha que isso é o ápice, tá muito longe ainda, né? Quando entrar aí computação quântica, computação neuromórfica, e um for somando com o outro, aí sim a gente vai ter outros níveis, né?

1378.516 - 1402.85 Alessandro Cabelo

E a gente não pode deixar de mencionar também o gargalo de Von Neumann, porque às vezes não é o processador, a GPU, o dispositivo fora da placa-mãe da CPU que está sobrecarregado. Nós temos um gargalo ali de comunicação entre a CPU e a GPU ou um outro dispositivo fora. E cada vez mais o mundo tecnológico, o mercado tecnológico está trabalhando para quê? Quanto mais próximos esses devices estiverem, mais informação trocam entre eles.

1402.85 - 1430.558 Pietro Colloca

Porque querendo ou não, hoje ainda tem uma limitação no slot PCI ali. E dependendo do trabalho, a GPU, por mais absurdo que seja, ela fica esperando porque é como se fosse um cano. Só passa isso de água. E eu acho que uma das coisas aí que colaboram para isso, Cabelo, é parcerias em conjunto com as empresas, né? A própria Intel e a Nvidia desenvolveram uma parceria para poder tornar cada vez mais próxima essa questão de uma GPU, quando a gente fala de servidor, com a comunicação com o processador.

1430.558 - 1454.015 Pietro Colloca

De vez a gente passar isso por um barramento PCI que acaba sendo um gargalo, não, já tem lá uma conexão mais direta, um barramento direto para poder ter essa eficiência de comunicação. Então são coisas que o mercado vai se adaptando, criando novas tecnologias como a computação quântica que a gente tem falado, como a computação neuromórfica, como essa aproximação dentro do próprio silício em si, do próprio processador.

1454.015 - 1475.53 Pietro Colloca

E cada vez mais desenvolvendo, né? Então, eu acho que esse é o que acaba sendo o foco aqui. Em paralelo, tudo vai aumentando também. A memória vai aumentando. Tem essas coisas ali onde a gente consegue estar desenvolvendo mais. E dá pra jogar também, né, Pietro? Por favor. Exatamente. Não esqueçam disso. Joguinho é vida, né? Também, também é preciso.

Comments

There are no comments yet.

Please log in to write the first comment.