IA na Prática: Insights da NVIDIA para Startups e Devs | Podcast PPT Não Compila
Convidados
Jomar Silva
Developer Relations Manager @ NVIDIA
Fernando Adriano Machado
Techrom
Rômulo Barbosa
Techrom
Neste episódio imperdível do Podcast PPT Não Compila, recebemos Jomar Silva, Developer Relations Manager da NVIDIA para a América Latina, em um papo profundo e empolgante sobre o impacto real da IA no desenvolvimento de software, na indústria e na ciência. Ao lado de Fernando Adriano Machado e Rômulo Barbosa, da Techrom, mergulhamos no universo da computação paralela, frameworks otimizados e no papel fundamental da GPU no avanço da inteligência artificial. Jomar revela os bastidores da NVIDIA: desde o nascimento do CUDA até a criação de superchips que cabem na palma da mão. Falamos sobre como startups podem acelerar seus produtos com o uso inteligente de hardware, os desafios de custo e escalabilidade, além das armadilhas comuns, como o uso incorreto de placas gamers em produção. Exploramos ainda aplicações reais em saúde, agricultura, indústria 4.0 e digital twins. Também discutimos o futuro da IA generativa, o uso de dados sintéticos, e como o Brasil está se destacando com deeptechs e frameworks de automação como CrewAI e LangFlow. Se você é desenvolvedor, CTO, cientista de dados ou curioso sobre o futuro da tecnologia, este episódio está repleto de exemplos práticos, provocações e insights valiosos para sua carreira e seus projetos. 🚀🎧 Convidados: Jomar Silva : linkedin.com/in/homembit/ Fernando Adriano Machado: linkedin.com/in/fadriano/ Rômulo Barbosa: linkedin.com/in/rômulo-barbosa/ Spotify: https://bit.ly/44CMytz Youtube: https://youtu.be/frjxN2r7kss Outras plataformas: https://linktr.ee/pptnaocompila Acompanhe nas redes Instagram e Twitter: @pptnaocompila LinkedIn: https://www.linkedin.com/company/pptnaocompila Produção: Voz e conteúdo | https://www.vozeconteudo.com.br - @estudiosvoz
- Eficiência Energética de GPUs
- Entendimento de Problemas e LLMs
- Evolução da TI
- Introdução ao Podcast e Temas
- Apresentação de Adriano Machado
- Trabalho de Adriano Machado
- Apresentação de Jomar Silva
- Saudação de Jomar Silva
- Comentário Leve sobre Podcast
- Tópicos do Episódio com NVIDIA
- NVIDIA no Brasil e Startups
- Convite para Executivos
- Chamada para Ação
- Interlúdio Musical
- Reencontro e Recordações
- O 'Surto' do Metaverso
- Metaverso Industrial e Caso BMW
- Exemplos do Omniverse na BMW
- Treinamento de Robôs e Gêmeos Digitais
- Conceito de Digital Twins e Aplicações
- Gêmeo Digital Humano para Ergonomia
- Digital Twins na Saúde: Potencial e Desafios
- Caso de Sucesso: Medroom e Cirurgia Virtual
- Gêmeo Digital do Coração e Simulação de Tratamento
- Variáveis e Desafios em Simulações Médicas
- IA Generativa para Geração de Dados Sintéticos
- NVIDIA GROOT e Treinamento de Humanoides
- IA e o Futuro do Mercado de Trabalho
- Robótica vs. Humanoides
- O Teste Definitivo para Humanoides
- Investimento em Humanoides e Experiência Pessoal
- Papel de Jomar na NVIDIA e Percepção da Empresa
- Detalhes do Cargo de Jomar
- Ecossistema NVIDIA e Otimização de Custos de GPUs
- Programação de GPUs e Otimização
- Uso de Memória em LLMs
- Seleção de Hardware e Suporte NVIDIA
- Custo da Nuvem e Repatriação
- Diferença entre GPUs Gaming e Enterprise
- Riscos de Usar Placas Gaming em Produção
- POC em Produção: Um Problema Comum
- Humor sobre Configuração de Servidores no Brasil
- Mercado de Placas Usadas (Mineração de Cripto)
- Pivotagem de Mineração de Cripto para IA
- Origem da IA e CUDA
- Evolução da Computação Paralela para GPUs
- Simplificação da Programação GPU com Abstração
- História da IA e Limitações Computacionais
- AlexNet: O Ponto de Virada da IA
- Sinergia Hardware/Software na Evolução da IA
- Eficiência Energética Aprimorada em IA
- Sustentabilidade e Inovação em IA
- Evolução do Hardware NVIDIA: DGX e DGX Park
- Capacidades e Preço do DGX Park
- Choque com a Miniaturização de Hardware
- Futuro da IA e Prototipagem Rápida
- CPU vs. GPU: Papéis e Futuro na Arquitetura
- Superchips NVIDIA e Memória Unificada
- Clusters de Superchips e NVLink
- Caso de Sucesso: Nelspace e LLM Financeira
- Tendência da GPU no Processamento e SoCs
- Impacto Pessoal de Jomar e Open Source em GPUs
- Aplicações de IA Generativa (Farmacologia e Agricultura)
- Revolução na Saúde com Digital Twins e Genômica
- Inovação em Antibióticos com IA
- Ameaça da Resistência Antibiótica e Solução com IA
- Detecção de Doenças com IA (Pneumonia)
- Pré-processamento de Dados para IA em Saúde
- Expansão de Datasets com IA Generativa
- IA Transformando Profissões
- Definição Clara de Problemas para IA
- IA Generativa na Publicidade (Buva House)
- Open Source na Indústria Farmacêutica
- Futuro da Medicina e Open Source
- Anúncio Clever (Publicidade)
- Agentes de IA e Facilidade de Uso
- Frameworks Brasileiros de Agentes de IA
- Agentes de IA e Automação de Workflows
- Multi-Agentes de IA e Geração de Conteúdo
- Experiência Pessoal com CrewAI
- Humor: Agentes de IA em Conflito
- Benefícios dos Agentes de IA
- Jarvis e Autonomia de Agentes
- Geração Atual e Uso de IA (Sem Buscadores)
- Metaverso Infantil e Detecção de Alucinações
- Experiência Imersiva em Metaverso (Fortnite Concert)
- IA e o Futuro das Profissões
- Impacto Social da IA no Trabalho
- Letramento em IA e Iniciativas Brasileiras
- IA no Brasil: Gaia e Política Pública
- Remoção de Trabalhos Indesejáveis por IA
- Ferramentas de IA para Programadores
- IA para Geração de Código (HTML/CSS/JS)
- IA para Otimização de Código e Web Services
- Vibe Coding e Episódios Anteriores
- IA para Desenvolvimento Full-Stack
- Limitações da IA na Produção de Código
- IA Aumenta Produtividade dos Devs
- Programação como Arte vs. Indústria
- Simplificação de Tarefas Trivial com IA
- Impacto da IA na Composição de Squads
- Resistência dos Devs e Adoção Forçada
- Otimização de Código com IA (Pandas para Rapids)
- IA como Pair Programmer
- IA para Documentação e Testes de Código
- Geração Completa de Projetos com IA
- IA para Desenvolvimento Mobile (React Native)
- Paralelo com Evolução Histórica da Programação
- Omnipresença da IA e Comparação com IoT/Internet
- Perspectiva Histórica sobre Mudanças Tecnológicas
- Futuro da IA: Assistentes Virtuais e Chat RTX
- Chat RTX e Privacidade de Dados
- NIM (NVIDIA Inference Microservices) para Privacidade Corporativa
- Custos de LLMs: NIM vs. Token-based
- Anúncio Vembers (Publicidade)
- NVIDIA Inception e Startups Brasileiras
- Descompasso Academia-Mercado em IA
- Falta de Entendimento sobre Open Source
- Conhecimentos Fundamentais para IA
- Modelo de Sucesso: UFG e IA
- Orientação Acadêmica em TI
- Perigos do Aprendizado Rápido sem Base
- Usuários de Ferramentas vs. Entendedores de Tecnologia
- Vulnerabilidade a IA: Falta de Conhecimento Teórico
- A Necessidade de Letramento em IA
- Ensino de Lógica e Políticas Públicas
- Plano Nacional de IA no Brasil
- Soberania da IA e Identidade Cultural
- Geopolítica da IA e Projetos Locais
- Encerramento do Tema
- Comentário sobre Tempo
- Preparação para Mensagem Final
- Mensagem Final: Estudar IA e Criatividade Brasileira
- O 'Jeitinho' Brasileiro
- Incentivo ao Open Source e Potencial do Brasil em IA
- Agradecimento a Jomar
- Agradecimentos e CTA Final
Em 8 anos, a gente trouxe 1000 vezes de aceleração de computação para GPUs. Se a gente tivesse feito isso trazendo 1000 vezes o consumo de energia, a gente precisaria do outro planeta Terra para alimentar esse. Então, o que nós fizemos foi que a gente conseguiu reduzir em 45.000 vezes o consumo de energia para gerar um token, né? Eu costumo dizer que as startups que eu vi que deram certas, tinha um cara que conhecia muito do problema e ele conhecia muito do problema e ele falava a língua de quem tive problema. Eu sempre falo que as LLMs é a vingança das professoras de português.
>> Essa foi boa.
>> Porque você é obrigado a aprender a escrever direito e perguntar direito.
>> Exato. A programação ela sempre foi meio que entada, quase uma arte, sabe?
>> E se a gente olhar para todas as ferramentas que a gente tem dentro de TI, a gente evoluiu muito nos últimos anos. Muito bem. Muito bem, meus amigos do PPT não compil. Estamos aqui para mais um episódio. E esse episódio, Ron, ele promete, hein, cara. O que não falta é assunto para falar com esse homem.
>> E, cara, vai vir muita coisa bacana, né, assim, de coisas, eh, novidades, eh, descobertas, né, que talvez muita gente não saiba.
>> Exatamente. Muita coisa além da sua RTX rodando aí no seu no seu pczinho gamer.
E aqui a gente tá aqui com o Adriano Machado também, que é um >> sócio do ROM, >> parceiro do ROM também aqui da Tech ROM, né? Dá um oi para aí, galera.
>> Olá, tudo bem? A gente trabalha aqui bastante com dados, né, para ajudar um pouquinho a fazer as empresas atingir seus objetivos, né? Estamos aí na brinc nessa luta.
>> Isso aí. Então, hoje a gente trouxe aqui o Jomar Silva, o Homem Bit. Muitos de vocês talvez já tenham ouvido falar desse cara que é o cara de relacionamento com Dev na América Latina da Nvidia, né, cara? Dá um oi pra galera aí, só para para quem já te conhece te relembrar.
>> Oi, galera. Sou o João Mar Silva, homem bit que o pessoal conhece aí nas redes.
Prazer enorme táar aqui. Espero que tenho bastante história legal para contar. Eu acho que tem bastante tema pra gente explorar. Eh, pena que só pode durar 2 horas um episódio, né?
>> Geralmente é 1 hora e meia. Talvez a gente abra uma sessão para você. Não sei.
>> É, eu sempre brinquei que tudo que eu queria para gravar podcast era uma cerveja.
conversa vai render.
>> Exatamente. Então, a ideia é a gente falar aqui com o Jomar sobre o que é de fato NVIDIA, o onde isso influencia na sua vida de desenvolvedor, como que a gente trabalha com paralelismo em desenvolvimento de software, que que isso tem a ver com IA, que isso tem a ver com produtividade? Vamos falar um pouco de arquitetura de computação, de fato, não da arquitetura de solução, arquitetura de sol, falar de arquitetura de computação, como que a Nvidia trabalha aqui esses conceitos, como que esse cara tá próximo ali dos desenvolvedores para trazer um pouco desse mundo novo que a gente tá falando aqui, tão tão de forma tão eh presente na nossa vida agora, que é a inteligência artificial. a Nvidí é um dos grandes eh ícones, né, catalisadores aí desse tipo. E espero aqui que ele conte inclusive como que surgiu essa eh IA, Nvidia, Nvidia, IA, como que surgiu essa essa sinergia. Então, a gente vai entender aqui como que isso funciona, como que isso tá se evoluindo e como você desenvolvedor tem que se adaptar e e vir para esse mundo, né?
>> Isso. Verdade. Além disso também o que que tá acontecendo no Brasil, né? como é que a Nvidia tá sendo utilizada pelas empresas brasileiras, startups também, que isso é muito legal também, que obviamente interesse de muita, muita gente também que tá ouvindo a gente, né?
>> Sem dúvida. Então você que é um executivo, é um gestor, vem com a gente que tenho certeza que vai surgir algum insite aqui para você entender a sua gestão, seu workload, os o uso de inteligência artificial no seu negócio, na sua na na sua corporação. Acho que vamos conseguir fazer um episódio aqui cheio de de insites para tudo para todo tipo de profissional.
>> Vamos lá.
>> Bora, bora, >> bora.
[Música] [Aplausos] [Música] [Aplausos] [Música] Cara, é muito legal ter você aqui de novo no podcast.
>> Prazer, >> não sei se você vai lembrar, mas você já esteve no PPT no Compila.
>> A gente gravou num evento, né? uma zoada em volta assim >> em 2022 num surto coletivo chamado Metaverso.
>> Exato.
>> Nossa, >> caramba, cara.
>> Era um evento sobre esse surto coletivo que a gente teve em algum momento da TI e ninguém lembra mais porquê.
>> O segundo surto, né?
>> Qual foi o primeiro?
>> Não, o segundo surto de realidade aumentada, de de de metaversas.
>> Ah, exatamente. Pior que a gente falou dos assuntos bem legais. Era era um assunto promissor, mas ficou deturpado pr [ __ ] >> Mas pegou. Metaversa industrial existe hoje.
>> É, >> muitas empresas criam as fábricas virtualmente antes de começar a construção física, >> cara. E e que faz sentido para algumas questões até hoje, realmente, né? A, a gente tem um case com a BMW que é muito interessante porque eles montaram a fábrica inteira antes de começar a cortar o mato do terreno. E eles montaram a fábrica inteira, eles colocaram todos os equipamentos e todos os processos dentro e eles operaram essa fábrica por meses para ter certeza de que aquilo que eles iam fazer era ter flexibilidade que eles queriam. E a hora que falaram tá tudo certinho, tem no nvidia.com/ondemand, >> vocês entram lá e procuramniverse BMW, tem até uma reunião simulada lá dos caras discutindo o projeto. Então, ah, vai precisar colocar um outro robô aqui.
O cara da segurança já olha, fala: "Não, então pera aí que essa grade não tem que tá aqui. Essa grade tem para lá". E é no universo e alguém vai em tempo real mudando. Daí o cara de logística fala: "Putz, não vai dar mais para alimentar por aqui. Eu tenho que trocar a alimentação para lá".
Segunda coisa louca, eles usaram isso para fazer treinamento dos robôs, porque o robô com fotorealismo, ele não sabe se ele tá no mundo virtual ou não. Então aí usa um outro framework da Nvidia que chama Isaac, >> eh, e você consegue treinar ele dentro desse gêmeo digital. Então, dentro da na indústria são muitas as aplicações para para metaversa industrial. A Siens deu esse nome, né? Metaversa industrial.
>> É isso que eu te perguntar. Isso tá baseado no conceito do Twins, né?
É isso. Do digital twins. Digital twins.
Is >> digital twins. E depois que a coisa tá rodando, você pode conectá-la dentro do do GM digital, né? Tem um caso legal também da Amazon. Eh, ela usa nas grandes warehouses para fazer testes de otimização de organização e para treinar os robozinhos também que movimentam carga.
>> Aí o robozinho é para treinar o caminho.
>> Para treinar o caminho. Mas eles eles também usam humano digital.
Essa é a parte mais interessante para ver ergonomia, por exemplo.
>> Entendi.
>> No caso da BMW também pegaram. Sabe que esse era um ponto que eu achava muito promissor, porque no momento desse surto eu tava na área de saúde, tô na área de saúde até hoje. E eu achava que a gente poderia ter junto com o advento agora da Generativa, eh, no caso do Digital Twin, para cara estudo de genoma, eh, simulação de tratamento de doença, etc. E junto com trabalho de interoperabilidade de dados, né, de da área de saúde, poderia ser um negócio extremamente revolucionário assim, mas não, o digital twin na ciência ainda não não teve aquela fagulha.
>> Tem algumas aplicações. Um case legal que eu conheço é da Medroom, que é uma startup aqui de São Paulo. Lembra quando teve uma cirurgia no Ien de separação de duas irmãs sem mesas recentemente? Eh, eles criaram aquele ambiente virtual pro Einstein, porque eram acho que 54 profissionais envolvidos na cirurgia extensa. Então, todo mundo tinha que saber exatamente o que ia fazer. Plano A, plano B, plano C, >> que dar troca, né?
>> Isso. Eles eles eles criaram a cirurgia virtual e começaram a treinar e todas as vezes que eles treinavam, a cirurgia dava errado.
>> Hum. E aí, faltando acho que uma semana, uns dias antes, eles olharam e falaram: "O procedimento tá todo errado, a gente vai ter que refazer o procedimento todo". E aí refizeram o procedimento novo, fizeram o treinamento intensivo e estão as meninas aí.
>> Caramba, cara, que legal.
>> Muito legal, muito legal.
>> Legal. Isso, isso não sabia desse tem, tem uma história também de criar um gêmeo digital do coração humano. Existe uma patologia específica que, se não me engano, é o derrame cardíaco que o médico tem que decidir se ele vai operar ou se vai deixar do jeito que tá.
as duas opções tem sequelas, né? Tem prós e contra. Só que pro médico poder fazer essa análise, o ideal seria ele tá com o coração do paciente na mão, né?
>> E ele não tá. Então eles estavam desenvolvendo uma tecnologia para fazer isso com base em vários exames de imagem, escanear, montar o coração em 3D, conseguir através de simulação de fluidos, fazer a simulação do deslocamento do sangue com pressão e com desgaste de veia. [ __ ] >> e você poder pegar o coração e falar: "Eu vou deixar do jeito que tá e vou acelerar ele 10 anos". Putz, porque essa é outra coisa legal do gem digital. O tempo não existe.
>> É exatamente é isso que eu imaginava como revolucionário para tratamento.
Porque, pô, que nem, por exemplo, você eh você tá fazendo, passando por um tratamento de câncer, você tem vários protocolos, né?
>> Uhum.
>> Você não sabe exatamente qual protocolo você vai ter que o médico vai ter um feeling ali de acordo com, mas ele não consegue simular a evolução, né? E aí, claro, tem variável para [ __ ] envolvido nessa [ __ ] para poder fazer a evolução no tempo, né? Mas eh como você falou, você avança 10 no 10 anos, você consegue ter pelo menos uma perspectiva >> do resultado efetivo do tratamento, né?
>> Você falou um ponto que eu queria comentar, essa questão da variável, né?
Você tem o o os pontos que cada um envelhece ou não envelhece como muda, mas é muito pessoal, né? Como será que vai tratar isso? Vai lidar com esse aspecto? É, tem tem bastante tem bastante desafio, né? Eh, para área de robótica é muito usado também para fazer treinamento, eh, para fazer geração de dado sintético. E aí você pegou num ponto interessante, quando você junta isso com regenerativa, a coisa começa a ficar legal.
>> Exato.
>> Então, tem uma startup aqui de São Paulo que trabalha com produção 3D, etc. E aí nos eventos da Nvidia, enfim, acabou conhecendo startup de visão computacional, tomando uma cerveja, o cara falou: "Pô, tô com [ __ ] de um problema que eu tô precisando gerar um dataset de imagem de cone, eh, para ele faz uma solução de monitoramento de rodovia. Olha que negócio idiota, né? Foto de cone. Por quê? Não adianta você pegar o cone novinho e tirar um monte de foto para treinar e, né? Porque, pô, o cone vai tá amassado, vai tá trincado, vai tá torto.
Então, a quantidade de variação que você precisa de cone para poder falar que detecta con >> Uhum.
>> é enorme e é muito difícil conseguir esse dataset, né? Aí ele tomando cerveja lá, falou: "Pô, tá aí, acho que eu consigo treinar uma e a generativa para gerar coni, >> porque ele tá fazendo isso pras coisas de publicidade dele, né?" e ele acabou descobrindo um negócio novo. Então ele consegue criar uma ea generativa que cria milhares de imagens de cone com diversas variações possíveis e imagináveis em questão de horas. Oxe, >> e entrega isso para treinar. Cara, isso é genial porque quem quem acompanha a gente aqui fala que a gente sempre tenta botar um pouco de luz sobre esse mundo de inteligência artificial, que nem tudo é a generativa. E esse caso ele é muito bom porque ele ilustra exatamente o caso da IA que cria gerando insumo, né, paraa IA que é determinística, algumas >> que é estatística, né? Então, tô gerando massa de dados sintética para um treinamento de uma IA que é determinística e não generativa. Ela não é, o escopo não é tão aberto, né? Você quer um negócio mais maluco. A gente lançou e no ano passado eh um framework chamado e Grot GR00T.
Ele é um framework para treinar humanoide com IA.
E aí, como esse treinamento é feito?
Basicamente, voluntários do mundo inteiro botaram uma câmera em cima da cabeça e você tem milhares de horas de vídeo, por exemplo, de um chefe de cozinha cortando alimento.
Você pega milhares de horas desse vídeo, você treina iar, você transfere isso pro robô, ele começa a cortar alimento com tudo que ele aprendeu com o chefe, resolvendo os problemas, se tem um copo na frente, se tem uma coisa no meio, se o treco escorrega, tal. Só que ainda assim para gerar esse dataset gigante para ter precisão, eh, era difícil porque você precisa ter muita variação de cor de bancada, de iluminação, de condução climática, uma série de coisas, né? Então, a gente criou uma ágativa que chama cosmos, >> que faz exatamente isso. Então, você pega vídeos existentes de humanos, cria gêmeos digitais desses vídeos e através do cosmos você gera n milhares de combinações com variações possíveis. E aí você consegue fazer o treinamento de humanoide, que é algo que a Nvidia tá tá investindo e acredita, né? Se a gente olha o crescimento da demanda de mão de obra nas próximas décadas versus o crescimento populacional, vai faltar gente, >> cara, que coisa informação interessante essa tua, porque a gente tá sempre esse medo do [ __ ] não, ai vai tirar, vai não sei o quê. Mas cara, >> sim, chega uma hora e outra, existem coisas que humanos fazem hoje de forma absolutamente degradante.
>> Sim, >> né? E aí o problema da robótica geral é que cada vez que a gente vai aplicar robótica a qualquer processo industrial ou qualquer outra coisa, a gente precisa mudar a coisa pra robótica entrar. E a hora que você mudou a coisa, o humano não entra mais na maior parte dos casos.
Então, se o robô pifar, vai parar tudo.
Não dá para você botar alguém lá para fazer na mão que o robô tava fazendo.
>> É um ou outro, né?
>> É um ou outro. Agora com Manoide, não, eles operam no nosso mundo, a gente não tem que alterar o nosso mundo, né? E tem um paradigma que eu acho interessante. O Icum falou isso numa numa entrevista, eu adorei. Eh, o teste máximo para um humanoide vai ser algo que uma criança de 6 anos já sabe fazer, que é tirar a louça da mesa e colocar na lavadora de louça.
É um desafio técnico enorme, porque você tem texturas diferentes, formatos diferentes. Então, cada objeto você tem que pegar de um jeito e depois você tem que descobrir como tirar isso da mesa e como montar isso dentro da lavadora de luz. Então ele fala de condições espaciais diferent n diferentes. Então ele fala numa entrevista que eu adorei dele, ele fala: "A gente vai saber que a tecnologia de humanoide chegou, né, num ponto no ápice a hora que ela fizer uma coisa que uma criança de 5 anos faz.
>> Cara, genial!
>> Então é é um rumo, é um rumo que a gente a Nvidia tá tá investindo, né? Para quem quiser mais informação é só procurar GR00T Group. É o projeto e tem bastante coisa, né? No nosso evento, todo março a gente tem um evento grande lá em São José. Eh, no ano passado, a hora que eu cheguei no evento, dei de cara com os humanoides no stand da Nvidia, foi um bac para mim, porque a gente tava falando de viar mais cedo, né, de jogo, tal, eh, tem um jogo que chama Robo Recol do VAR, né? Então, basicamente os robôs são infectados com vírus, né? Os humanoides, eles começam a atacar humanos e aí você é um robô do mesmo modelo deles e você é enviado paraa terra para simplesmente pegar os robôs e mandar para fazer o recall do software, né? Só que eles vêm para cima, né? Então você atira, você segura o robô pelo braço, arranca o braço, bate na cabeça, pega a cabeça de um tacar no outro.
>> Que pesadelo. Esse >> é é uma pancadaria, não é uma adrenalina, mas a E eu joguei bastante e a hora que eu cheguei no stand, eu tava >> Você já chegou pegando pelo pescoço, >> não? E o pior é que eu tava vendo coisa no celular, eu tava andando no corredor agora que eu eu levantei a cabeça, senti uma noide na minha frente. Aquilo me arrepiou e a minha sensação foi de meter a mão no peito dele, que é onde a gente pega no jogo e empurrar. Eu falei, sabe?
Eu cheguei a levantar o braço, falei: "Cara, que loucura.
>> Deixa eu tirar meu vi aqui, né?" >> Isso foi no ano passado. Eles estavam só no stand da Nvidíia. No evento desse ano, eles estavam andando pela feira.
Caraca, velho. Pô, se eu vejo um desse com aquele cachorro da Boston Robotics, cara, eu largo minhas coisas, saio correndo.
>> Mas detalhe, né?
>> Não é igual que a gente vios eventos daí, né? Que v por aqui, né? Que vê o robô andando e o carinha por essa. Não, esse aí foi o cheit aí, né? O cara lá, né?
Mas cara, eh, a gente acabou em primeiro tópico, a gente já mergulhou aqui, mas eu queria que você primeiro se apresentasse melhor do ponto de vista do que que você faz na Nvidí, porque o teu cargo ele é ele é peculiar, né? Você é gerente de relacionamento com dev, dá para traduzir assim, né?
>> Isso.
>> E primeiro, o que que é um relacionamento com dev? Que que tu faz?
E quem é a Nvidia? Porque muito, todo mundo acha que Nvidia é a empresa que faz a GeForce, né? Tem muito mais coisa além disso.
>> Tem tem muito mais coisa. Bom, eu sou gerente de relacionamento com desenvolvedores da Nvidia paraa América Latina, né? E o meu trabalho é basicamente eh eh engajar com todo o ecossistema de desenvolvedores, de startups e de pessoas que estão trabalhando, pesquisadoras que estão trabalhando com inovação IA, né? Um jeito simples de explicar. Eh, eu tenho o trabalho mais divertido do mundo, porque GPU feliz é GPU quentinha. O meu trabalho é ensinar a galera a fritar GPU, software.
>> É basicamente isso, tá? Então, só de do tempo que você chegou aqui no estúdio até agora, você já me deu umas quatro dicas que eu já anotei aqui, já tô quase montando uma startup. É. E e aí a Nvidia hoje tem mais de 150 frameworks, são mais de 500 bibliotecas. Durante os últimos 25 anos, a gente investiu em acelerar praticamente todas as indústrias que precisavam de processamento acelerado, biologia, medicina, robótica, tal nome, tem aceleração da Nvidia lá. e se encontrar nesse mar de coisas, né, não é algo tão simples. Então, o nosso trabalho de Dev Hell, né, é ajudar a jornada do desenvolvedor, né, para ser o menos íngreme possível, né, quanto mais rápido ele conseguir eh absorver a tecnologia, começar a utilizar, né? Eh, eu cuido de um programa de apoio de startups também na região. A gente tem mais de 1200 startups na América Latina, fazendo tudo quanto é maluquícia que vocês podem imaginar com Iá. É muito legal eh o dia a dia do programa de conversar com esses caras, né? E usar bem a GPU para as startups é fundamental, porque isso significa custo. Então tem essa DK Nvidia que acelera 500 vezes um processamento de data science. Isso significa que o cara vai usar 500 vezes menos GPU ou que ele vai poder pegar uma GPU muito mais barata, principalmente em cloud, e entregar a mesma coisa no final do dia.
>> Cara, aqui isso é um ponto importantíssimo, né, que a gente tem discutido no dia a dia essa preocupação, né? Todo mundo quer usar, mas não tem noção de que, cara, dependendo do do tipo de uso, esse custo pode ser alto, né? bem alto e e GPU tem uma característica interessante para poder programar ela. Eh, a nossa arquitetura computacional é arquitetura de Vilman e a gente tem o gargalo de Vilman, que é a latência que você tem de tirar o dado da memória RAM e levar para dentro do processador, >> né? Quando a gente trabalha com GPU, esse gargalo aumenta porque a GPU tá dentro de um barramento >> de comunicação, então aquele bus vira o gargo.
>> Sim, porque você tem terropção ali para para isso.
>> Então, CPU foi projetada para entregar o mais rápido possível uma tarefa. A GPU foi projetada para processar um volume gigantesco de dados muito rápido. No primeiro caso, pixel na tela.
>> Uhum.
>> E aí o que acontece? Quando a gente vai usar GPU num pedaço de um processamento de A, o ideal é que eu transfiro o dado para dentro dela, processo o pipeline inteiro lá dentro e só devolvo ele no final, >> porque você ocupa menos o barramento.
>> Eu ocupo menos o barramento e eu não tenho latência de ficar gravando o dado.
Então por isso que dá aceleração de 500 vezes.
>> E por isso que você precisa de tanta memória trelado na GPU, porque quanto mais dados você leva, mais você processa e mais você leva.
>> E aí isso cresce quando você fala de LLM, né? o uso de memória é muito maior, porque você tem que ter os pesos da rede, você precisa ter eh o histórico da conversa, né, o KVC e por aí vai.
>> Então, eh saber trabalhar bem com GPU é crucial, né? E muitas vezes as empresas até se assustam com a gente, porque chega lá o cara, eu quero comprar uma H1, que você vai fazer com a H1, tal coisa. Não, não é a H1 que você precisa.
Se você uso usar o software otimizado, você vai usar essa daqui, uma L40S, se eu não me engano, é 1/3 ou 1/4º do custo da HC. O pessoal fala: "Você é louco? Eu tô querendo comprar uma Ferrari e você tá querendo me vender um um Uno com a escada em cima. Eu falei: "Sim, a hora que você aprender a voar com a escada de cima, você vai >> você vai conseguir comprar Ferrari e usar, né? Agora não adianta você comprar >> uma GPU super cara para Ruda, né? E subutilizar ela. Então a gente ajuda muito as empresas e as startups a primeiro otimizar o software, depois identificar a necessidade real e do que do que rodar, né? E somos absolutamente agnósticos. A GPU pode estar debaixo da tua mesa, no teu notebook, numa Jetson, no provedor de nuvem A, B ou C ou D, né?
É o que eu falei, meu negócio é deixar elas quentinhas, o freguês coloca de onde quiser, >> mas isso é gerar solução, né? É, é mega importante esse tipo de orientação, porque a gente tá num contexto, a gente já discutiu em alguns episódios aqui passados, inclusive sobre o custo de nuvem, né, subindo de uma forma muito agressiva nos últimos anos >> e muitas empresas fazendo o movimento de repatriação da nuvem pro data center, né? E aí a gente vê algumas frustrações, como, por exemplo, empresas que acham que pode comprar uma máquina lá com umas RTX e processar modelo de LLM em casa, né? Eh, tem muito mais coisa envolvida aqui, né?
Então, entender de fato qual framework você tem que utilizar, a operação envolvida nisso, que tipo de hardware que você vai precisar para esse tipo de operação, para poder fazer uma comparação justa com um serviço que é gerenciado, por exemplo, faz todo sentido, né?
>> E tem um outro ponto que é importante, >> eh, as RTX não são fabricadas pela Nvidia, as RTX são fabricadas por parceiros.
Ó, breaking news usam, elas usam o core da nossa tecnologia GPU. E cada, cada GPU gamer, ela é fabricada pensando no workload de jogo.
>> Uhum.
>> Então, vou dar um exemplo cretino e simples. Ninguém vai jogar 72 horas seguidas com a máquina 100%, uma hora se desmaia.
>> Uhum.
>> Ou ou você ou a máquina.
>> Sim. Agora, agora visão computacional, por exemplo, para fazer monitoramento de loja, eu vou rodar 7x24 com o processamento lá em cima.
>> Então, todo o design térmico e elétrico das placas de game foi feito de um jeito. As placas de data center, que são Enterprise, que são com essas que eu trabalho, elas foram feito para aguentar outro tipo de coisa, né? A linha RTX A2000, A5000, que é para workstation, essa essa aguenta, essa é para roda, essa aguenta rodar um render, essa aguenta rodar uma série de aplicações de a essa a gente fabrica e fabrica ela robusta. Uhum.
>> Tá? Então essa é a grande diferença. E é uma outra coisa muito comum de ver, principalmente em startup, cara fazendo deploy em produção eh de de placa gamer, né? Tem um caso que aconteceu antes de entrar Nvidia, uma startup que foi lá fazer a cotação e disseram que eles eram um sistema de visão computacional, né?
Eh, e eles iam usar as RTX mesmo por causa de custo tal, né? Botaram as RTX para rodar, passou meses, começaram queimando e aí, pô, mas por que que tá queimando, etc. Olha, a RTX que você comprou não é nossa, é de um parceiro, né? Agora você tá botando uma placa que foi feita para jogo para rodar 7x24 numa aplicação de missão crítica de monitoramento de segurança do espaço público gigantesco, >> não vai rolar, né?
>> Não vai rolar.
>> E aí que eu queria comentar, né? O pessoal confunde o conseguir fazer funcionar numa poquei, roda um tempinho, a agora vamos pra produção e vai na mesma infraestrutura, no mesmo ambiente, na mesma máquina.
Acho que aí que a coisa fica >> Exato. E aí ou se ou já vira já, né? Já quanto a gente já viu o projeto que a gente era para começar a poque, aquela POC virou produção, >> você não desliga mais, né?
>> No mundo corporativo o que você mais vê é poque em produção. Eu fiz uma poque, tá? Mas qual que é o ambiente? Não é, tá em produção, mas é uma poa aí meu amigo.
Tem alguma coisa errada com essa definição?
>> É assim, né? Quando tá dando tudo certo.
Não tá em produção. Deu errado. Não, não, mas é uma pop. Então, usa a coisa que eu mais me divirto é ensinando o gringo como é que a gente cria servidor no Brasil, que nós criamos na América Latina, aliás, né? A gente cria servidor pro batismo, não é?
Você pega um um computador X, não é um servidor, você instala o software, você batiza ele. A partir de agora você é o servidor DHCP, você é o servidor FTP.
Exato.
>> Você é o servidor de aplicação, né? E a gente faz isso, sempre fez, né? Já vi muita empresa que desktop ali, bonitinho. Vai chutar.
>> Não rela.
>> Mas cara, agora você me deixou intrigado. E aqueles casos que a gente viu uns anos atrás de um monte de placa de vídeo gamer e não dá o mercado de de usados porque tinha algumas umas startups quebrando no Japão, Estados Unidos, etc. Cara, eu eu acho que eu não tava na Nvidia nessa época, eu não acompanhei porque tipo, cara, tinha muita o que eu vi, o que eu vi recente agora, que eu fiquei bobo eh há uns um ano e meio atrás, muito VC investindo em startup para poder usar as placas deles com outras startups que já estavam no portfólio.
>> Hum.
>> Isso foi o negócio que eu vi acontecer.
>> Sim.
>> Fazer um repasse.
>> Ah, não, pera aí. Eu acho, eu me lembrei um pouco, não foi, não foi startup de a, era mineração de de crirypto.
>> Crypto.
>> É, realmente eu não >> Então os caras quando deu aquela fundada no no Bitcoin >> e aí você teve aquela questão do halving, que aí cada mineração tem metade da recompensa. Isso.
>> Então, muita empresa de mineração que usava placa de vídeo para fazer mineração em em larga escala, né?
fazendas, né, de >> é fazenda de mineração, já não compensava mais o custo de de mineração, o custo energético, né, pela compensação que o cara tinha. Então, cara, isso inundou nos Estados Unidos com as placas usadas assim, estavam baratíssimas.
>> É porque teve um bom ali atrás que tinha muita gente comprando placa mesmo aqui no Brasil para montar uma máquina em casa, colocar naquela, vou minerar meu próprio Bitcoin.
>> Isso, isso. Mas aí explica o caso que ele falou, não é um caso Enterprise. O cara montou uma fazenda de de cripto ali por conta própria.
>> Hoje o negócio que tá acontecendo é muita empresa que tem estrutura para para mineração pivotando para Iá.
Porque já tem uma base instalada de já tem base instalada, já sabe manter data center, sabe trabalhar com refrigeração.
Tem empresas dessa que operam inclusive em contêiner, vão para onde a energia tá mais tá mais barata, né? Então é é bem interessante ver >> esse movimento da IA, né? Eh, e a IA na verdade só tá onde tá por conta da Nvidia. Então, lá atrás, em 2006, se não me falho a memória, a gente lançou o Cuda. Quando a gente começou evoluindo as GPUs, a NVIDIA criou a GPU. Quando ela começou evoluindo a GPUs, isso 25 anos atrás, em determinado momento a gente colocou lá o shader programável dentro da GPU. A galera que trabalhava com computação paralela, HPC, olhou para aquilo, falou: "Pera aí, pera aí, você tá me dizendo que esse hardware tem um monte de kernelzinho que programa paralelo ele faz operação matemática básica". Hum. E dá para fazer computação aí dentro.
>> Deixa dar, deixa eu pegar um parêntese aqui, porque essa é você leu minha mente da pergunta que eu ia te fazer. Eu me formei mais ou menos nessa época em Ciênos da Computação e eu tinha uma disciplina que era justamente computação paralela e na época você resolvia, cara assim, algoritmos de logística, >> né, de que você tinha que paralisar muita coisa, etc.
>> E na época, eu lembro, cara, isso revela a idade, né? a gente pegava os cores dos do processador da CPU e paralelizava em Cando Cuda, né?
Beleza? Esse bloco independente desse aí você tinha que ter lá a a noção de paralelismo e você fazia isso com base nas trads que você podia abrir em paralelo no processador.
Agora eu tava me formando, a galera tava falando: "Porra, dá para fazer isso em GPU porque a quantidade de threads é muito maior e eu consigo ter operação matemática justamente em cima disso. É como se eu tivesse um um subprocessador matemático do processador, só que com muito mais núcleos para poder paralelizar muito mais coisas, né?
>> Exatamente isso. E aí, CUDA é o framework que nasceu para isso.
>> Aí a pergunta que a gente fazer é como é que a gente saiu do CUDA pra insanidade que a gente tá vendo agora?
>> É tudo cuda, >> cara. É tudo cuda. Só que o que a gente fez foi criar camadas de abstração, de frameworks, porque você sabe a complexidade de fazer um programação paralela distribuída, não é para qualquer um, né? Escrever os kernels de CUDA que vão rodar dentro das GPUs >> é algo complexo, né? Então o que a gente fez foi criar camadas de abstração de bibliotecas. Hoje um menino de final de primeiro ano aí de ciência da computação que fez data science, palestrinha de duas horas comigo, ele tá fritando GPU sem saber o que que é paralelismo e detalhe, tá? Esse framework de data science, você consegue paralelizar ele para múltipla GPU num core ou para múltiplas GPUs dentro de um cluster só usando o software opence, >> sem ter a menor noção do que você está fazendo de paralelismo, porque o próprio framework resolve tudo isso.
>> Você que foi meu professor Maquense na época, tá vendo?
me fez estudar aquela um monte de [ __ ] de anotação em C.
Serviu pra [ __ ] nenhuma.
>> Eu sou silk.
>> Silk e coisas similares. Bom, eu a primeira vez que eu fiz multitred foi na década de 90 e eu fiz na unha, não existia nem Silk. O dia que eu vi Silk a primeira vez, eu falei: "Me Jesus amado, que simples, né?" E aí depois com Cuda.
E aí o que acabou rolando, né? A galera quando criou o Cuda, eh, viram que teve uma grande pesquisa, tal, Nvidia lançou o Cuda, né? que é o nosso framework para programação GPU.
>> Uhum.
>> E IA era um treco que tava rolando desde os anos 50 do século passado, só que passou vários vales da morte, porque você tinha uma arquitetura computacional, você tentava implementar algoritmos ou coisas com IA, >> não dava conta, batia no teto, putz, não dá.
>> Aí desiste dessa história. Aí sai uma uma geração nova de computadores, pô, acho que agora dá para retomar aquilo.
>> E foi essa tentativa e erro durante décadas, né? 2012 surge o projeto da AlexNet, que era uma uma rede, né? Um detalhe interessante, um dos engenheiros desse projeto é William, que era o cientista chefe da Open Ey até outro dia. E esse foi o primeiro projeto implementado em GPU. E aí quando eles implementaram esse GPU, todo mundo do mundo de A olhou e falou: "Pera aí que agora dá para brincar, >> o jogo mudou, né?" E aí virou um desafio pra gente, porque a demanda por processamento dobrava a cada 6 meses. E eu tô falando da era da Lady More, dobrava a quantidade de transistores, não necessariamente a capacidade de processamento a cada 2 anos. A gente partiu para um treco que era dobrar a cada 6 meses a a demanda. E aí começou a simbiose entre a Nvidia e o mundo da pesquisa de produção de água.
Então, cada vez que a gente lançava uma GPU nova, ela possibilitava a implementação de novas técnicas e novos algoritmos.
>> Entendi.
>> Que nos forçava a ter uma GPU mais rápida ainda.
>> Uhum. E o que a gente foi fazendo de uma evolução para outra foi trazendo as evoluções do software para dentro do hardware. Por exemplo, 2017 surgiu Transformer. Transformer é uma tecnologia que a IA aprende e aprende contexto. E é isso que virou LLM, tudo que a gente tem hoje.
>> O Transformer começou como sendo uma série de operações de software de biblioteca. Hoje ele é um circuito dentro da GPU.
>> Hum. Hum.
>> Então, em 8 anos, em 8 anos a gente trouxe 1000 vezes de aceleração de computação para GPUs. Se a gente tivesse feito isso trazendo 1000 vezes o consumo de energia, a gente precisaria do outro planeta Terra para alimentar esse.
Então, o que nós fizemos foi que a gente conseguiu reduzir em 45.000 1 vezes o consumo de energia para gerar um token.
>> Caramba, >> que é a unidade básica que a gente trabalha com a regenerativa. Então, se a gente se a gente usa hoje uma garrafa de água para dar bom dia do chap, antigamente era um tonel, >> você usava um oceano atlântico para >> e a gente a gente consegue ter essa escala de hoje com custo, com sustentabilidade, etc. exatamente por conta desse esforço. Então, é uma é uma é uma simbiose muito interessante da NVIDIA com o mundo da pesquisa, porque cada vez que a gente puxa o hardware para algum lado, a gente abre novas possibilidades de aplicação, a gente trabalha com eles nessas possibilidades de aplicação e a gente cria os SD cas e os frameworks para que isso seja adotado pela indústria toda.
>> E aí a importância das startups, que é quem tão inovando na ponta, que tem rapidez para isso, né? Essa que isso que tá falando é bem legal porque a gente olha paraa capacidade das placas, esse negócio, a gente só vê o aumento de capacidade, a gente não consegue enxergar que tem todo esse outro lado, essa contrapartida e ao mesmo tempo falando: "Nossa, gastar muita energia que você disse, uma garrafa d'água para dar um bom dia". Brincadeira, mas o que seria se não tivesse é só contrapartida de otimização, de redução, né?
>> Ex. E agora eu vou matar vocês de as lubrigas digitais de vocês vão sair pela boca. Em 2016, nós lançamos o primeiro servidor com múltiplas GPUs, chamava DGX, é uma arquitetura que existe até hoje. Conheci, conheci >> é DGX. Eh, no ano passado, aliás, nesse ano na CS, a gente anunciou um brinquedinho chamado DGX Park.
Ele tem a capacidade computacional da DGX de 9 anos atrás, que precisava ficar refrigerada num data centro com alimentação, etc. para um trequinho que cabe na palma da mão.
>> Você tá brincando.
>> Você liga em qualquer tomada, cabe dentro da mochila, tem um petfop de capacidade computacional.
>> Por você põe, editor, põe, põe o pic >> um terafop. Mas deixa eu colocar uma mais, colocar uma mais aqui. Peta flop de processamento, eh, cabe na palma da mão e você processamento para e você pode usar ela como workstation ou você pode usar ela e como servidor. E se você tiver mais do que um brinquedinho desse, você conecta elas com uma conexão específica da Nvidia, você monta um cluster, >> um gridzinho de, >> um gridzinho de GPU para você e uma GPUzinha dessa, só para você ter uma ideia, faz um F Tun do MLM, tá? Deixa eu, caramba, >> deixa eu dar um Eu conheci essa máquina num evento que eu participei acho que 2017, alguma coisa assim, que veio um cara da Nvidia falar sobre visão computacional, carros aute mostrou essa máquina. Nessa nesse evento eu fiquei já abismado porque essa máquina de exercício já significava uma redução de um parque, de muitas máquinas numa numa questão. É você me fala que ela cabe na palma da mão.
>> Cabe na palma da mão. Pois é. Cabe na palma da mão. Liga em qualquer tomada. É o sonho de consumo. A gente começou a comercializar recente.
>> Vamos montar videogame com ela. Isso.
>> Nossa, dá dá para montar um bem legal, né? Ela a a gente abriu a pré-venda dela no GTC em março. E a Nvidia produziu um lote inicial. Eh, e a gente só trabalha através de parceiros. A Nvidia não faz venda direta, né? Eh, e a gente entrega o blueprint desses hardwares que a gente cria pro ecossistema.
>> Uhum.
>> Então, você e DGX, tem da Del, tem de várias empresas. Por isso que fazendo paralelo com o mundo, o pessoal que tá ouvindo, que tem GeForce de vários fabricantes, né? Tem GeForce da Gigabyte, de Asus, então é é é a tecnologia da Nvidia fabricada por >> fabricado por parceiro, isso pros servidores e para todo o resto. Eh, e alguns deles já anunciaram os DJX Spark.
>> Ah, é?
>> É. Eu eu tô desesperado para botar minha mão gorda em uma. E o mais legal é o preço. Custa $ 4.000.
Poxa, >> 3.999 para você ter um petflop de processamento na sua mesa.
>> Literalmente tem um quase que um supercutador, né, na sua mesa, né?
>> Exato. Sim. Não, é um super computador comparado com o que a gente tem hoje.
>> Então, o pessoal às vezes me pergunta: "Ah, mas como é que é o futuro daá? Você acha é bolha, etc e tal". Falei: "Cara, a hora que a gente tiver um petflop na mesa de cada desenvolvedor, que hoje você precisa gastar uma fortuna para ter um servidor num data center ou gastar uma baita grana de de crédito, você imagina a rapidez que a gente vai conseguir prototipar, >> sem dúvida, >> e desenvolver coisa eh complexa?
>> Agora eu, cara, tô gostando muito desse papo porque isso é ciência da computação na veia, né? E e eu queria te perguntar justamente como que a gente saiu da da do conceito da da GPU que tem origem lá na unidade aritmética básica do CP do da da cultura >> 887 antigo, né? Vamos falar.
>> Isso. Exatamente. Da arquitetura 86, digamos que você tinha unidade aritmética e você eh deu autonomia para ela, para ela ter ter mais flexibilidade, que era um conceito de fazer eh operações aritméticas básicas, né? como a gente falou lá no começo do CUDA para processamento e tal, para um uma arquitetura que tem tanto processamento. Agora, vou dar um exemplo, a gente tem nas próprias GPUs agora algoritmos de de inteligência artificial, como por exemplo o DLS de resamplin, de imagens, etc.
Isso aumentou a complexidade da do processamento que você teria, que antes você conseguia paralisar, mas para cálculos matemáticos mais simples, para aplicações ainda mais complexas, baseadas somente em GPU. E aí eu emendo a pergunta para você desenvolver. Em algum momento você acha que a gente vai precisar só de GPU? a gente, porque a gente tá aumentando a complexidade, eu ainda vou precisar de um orquestrador como um CPU para lidar com esse tipo de processamento ou a gente vai chegar no momento que a GPU ela vai usar o o o CPU como um simples orquestrador ali e o processamento vai ser muito mais baseado em GPU, >> é uma GPU organizando as outras GPUs, né, vamos dizer assim, >> ex são bichos diferentes, são bichos para coisas diferentes. Eu acho que vão vão trabalhar em parceria sempre. Eh, o que a gente fez recente, a gente lançou os super chips, começou com um chamado Grace Hopper. Ele é uma placona, o super chip, que ele tem uma CPU ARM e uma GPU hopper dentro do mesmo die. As duas conectadas a 900 GB/ segundo.
>> Uhum.
>> Com a tecnologia NVLink. E aí eu posso montar o hack e conectar várias dessa, >> tá? Agora a gente lançou a GB 200. São duas GPUs Blackwell e uma CPU Army Grace dentro de um die.
Falando de Nerdice que Nerd vai adorar essa história, a memória é unificada. Eu escrevo num ponteiro na CPU e eu chamo ponteiro da GPU. transferência de aquele gargalo >> do barramento já >> do barramento, ele tá virando cada vez mais um gargalo do tempo de deslocamento do elétron e da distância que eles estão um do outro. E aí o que que a gente faz?
A gente monta um hack, coloca 36 >> dessas >> dessas ficam 72 GPUs.
>> Quando eu vou programar, esse hack se apresenta para mim como se fosse uma >> e ele cuida a distribuição >> com 1.5 hexaflop de capacidade de processamento.
>> E se eu precisar mais, eu coloco outro hack do lado. Coloco outro hack do lado, coloco outro hack do lado.
>> Nossa, Joãoar, mas isso aí tá só lá fora. Ninguém do Brasil usa. Tem uma startup no Brasil que tá com 244 GPUs hoje rodando eh dentro da nuvem da Oracle. Eles estão fazendo uma LLM para mercado financeiro, um projeto sensacional, uma deeptec chamada Nelspace. Fazendo um jabazinho aqui, vai ter um episódio do podcast da Nvidia chamado Venha aí com eles, que eu gravei algumas semanas atrás. Quando sair, a gente deixa no comentário aqui embaixo.
>> E o legal é o seguinte, a eu até fiz um evento esses dias com o fundador, né, que é o o Brunão, fundador da ZUP, bastante gente conhece, é um gênio. E ele contou o seguinte, essas 244 GB2 dele, ela tem a capacidade de processamento de 1000 H1, [ __ ] e ele e eles são brasileiros e eles estão fazendo software absurdamente customizado e otimizado para essa GPUs.
Então o que eu acho mais legal dessa história não é só da gente ter o software, de ter o hardware, etc. Mas é acessível, lógico, não é barato você ter um treco desse, mas startups que tem >> investimento, tem necessidade de processamento, consegue acessar esse tipo de coisa. Hoje teletória não é barato, mas não é impossível.
>> Exato, né? Então é factível. Mas o o ponto que eu que eu eu tô dando uma viajada aqui, tá? Eh, quando a gente, eu concordo contigo, GPU e CPU são coisas completamente diferentes, são bichos diferentes, mas as duas são capazes de realizar processamento. Eu acha que a tendência que a CPU ela tende a se especializar mais ali em controle de IO, de que é o que ela faz bem hoje, que a GPU não faz e deixar essa responsabilidade de processamento cada vez mais paraa GPU.
Hoje a gente ainda vê algumas algumas máquinas que, cara, não tem GPU e roda tudo no no na CPU, né? Mas será que a a próxima arquitetura que a gente vai ver como padrão não é a gente levar cada vez mais o processamento pra GPU e a CPU se limitar cada vez mais a controle de interrupção, a IO e etc? complementando, tem a tendência também igual a Apple, né, no sock, que junta dentro dela a capacidade tanto da CPU quanto da GPU, né? E aí tudo num numa no mesmo circuito, né? Acho que são duas vertentes pra mesma linha, né? Da sua pergunta.
>> É, eu eu acho que se a gente olhar pr pra pr pra arquitetura de V um, a gente vai precisar das duas sempre, tá? Se a arquitetura mudar >> Uhum. e for criada uma nova arquitetura de computação que eu não não tenho conhecimento a respeito de nenhuma pesquisa nessa >> que difícil pensar diferente de >> É difícil. É é >> é tão genial já. É, mas essa história do do paralelismo massivo, né, que a GPUs fazem, o que eu acho legal foi até o que me fez eh querer trabalhar na Nvidia.
Foi lá atrás eh eu já trabalhava com IA, né? Eh, foi quando eu vi a facilidade de usar GPU, quando eu vi que era Open Curce, a maior parte do software, e fui brincar, principalmente com o Rapids, que foi o primeiro que eu fui brincar, eh, e depois com tensor flow otimizado, né? Eu tinha uma máquina com uma com uma GPU da Nvidia.
Hora que eu vi a diferença eh de processamento e e a simplicidade com que eu consegui usar aquilo, eu falei: "Puta, isso aqui tá mudando o mundo". E isso foi a, sei lá, tô em Nvidia 3 anos e meio, isso foi há uns 5, 6 anos atrás. Na hora que eu vi aquilo, eu falei: "Cara, o mundo, o mundo vai ser diferente. A hora que isso aqui tiver massificado e a molecada aprender a usar estreco, a coisa vai longe.
>> Você acha que a gente tá chegando nesse momento?
>> Tem muito para crescer. E a Generativa a gente tá >> cutucando a a ponta do iceberg, né? E ela tá sendo usada para coisas que a gente não vê no dia a dia. Um dos usos interessantes é na área de fármaco. O ciclo de desenvolvimento de medicamento encurtou em 3 anos e meio, porque a generativa é massivamente utilizada. Eu tenho um framework da NVID chamado Bionimo que faz isso. É, existe uma startup brasileira que eles têm capacidade, hoje usando a generativa, distrair o DNA, descobrir qual que é a bactéria que tá te tá te atacando, >> dizer quais são os antibióticos que aquela bactéria é resistente ou não, dizer quais são os antibióticos que vão funcionar e se não existe um, eles conseguem projetar um antibiótico, imprime num laboratório e pode injetar tá em você e salva a tua vida, >> cara. Então é isso. Vamos fazer o digital twin de saúde aí, ó.
>> Voltando pro início.
>> Você pega o o genoma do paciente, aplica nesse conceito de de experimentação de teste num digital twin, pega o histórico de saúde do cara, aplica numa evolução e vamos deixar de gastar dinheiro com um tratamento que não funciona.
>> Tratamento, tratamento médico no futuro é um negócio que vai ser absolutamente inimag. A gente não, eu não consigo imaginar como é que vai ser no futuro.
Eh, essa startup tem um cientista chama Biofy, é de Uberlândia, por acaso, né, Space também é o de Uberlândia, né? Eu zoei com o Brunão, falei, tem a Lang Flow também de Uberlândia. Falei, pô, tem alguma coisa na água ali, não é possível. Eu fui lá, passei uma semana, voltei mais inteligente, tem alguma coisa diferente ali, né?
>> Eh, o dos principais é um dos principais cientistas lá que é da área de biologia, né, biotecnologia, >> ele fez pós-doutorado na China. Na pesquisa dele, eles geraram com agenerativa 1000 antibióticos.
Dos 1000, eles escolheram de forma randômica 100 e implementaram 100. Nos testes desses 100, 70 funcionaram. Poxa, e a gente tem um problema sério com essa história de antibiótico.
Nós paramos de pesquisar antibiótico há muitos anos e nós estamos na eminência de viver um momento igual de antes da Primeira Guerra Mundial.
onde as pessoas morriam por causa de infecção, porque não existia antibiótico, né?
>> Porque as bactérias estão desenvolvendo, >> estão ficando resistentes. Eu eu eu participei de um evento deles com uma das maiores especialistas do Brasil em bactéria, né? Ela ela me me deu um choque de realidade assim que eu fiquei apavorado, né? Eh, mas é importante as pessoas >> você começa a lavar a mão a cada 5 minutos, >> não é? É importante as pessoas conhecerem isso, porque eu falei para ela, eu falei: "Ah, mas eu uso muito aquele o Protex, ele mata 99% das braquérias". Ela falou: "Isso problema é 1%." Não precisa mais do que isso, né?
>> Porque esse 1% que sobrou, vamos você reproduzir.
>> Sobrou porque ele é imune >> isso >> a tudo. Então essas são as bactérias super resistentes.
>> Exato.
>> Que vão se reproduzir.
>> Vão se reproduzir >> e que vão ser filhas dos mais fortes, né?
>> Exatamente, né? Daí eu falei: "Ah, mas tá bom, mas a pessoa quando pega uma bactéria, então ela fica isolada no hospital, dá para conter?" Ela falou: "Dá, né?" Só que não esquece que ela vai no banheiro e aquilo que ela fez vai parar na >> no esgoto.
>> No esgoto. E chega no esgoto, sabe o que que ele encontra?
os 99% fodeu.
>> É um A hora que ela falou isso, eu falei: "Caramba, com aquecimento global, sobe a temperatura, acelera mais rápido, se reproduz mais rápido, eu fiquei apavorado >> com a história, né?" E então o uso da IA Generativa eh nessas aplicações, né? É extremamente importante, né? Essa essa startup, uma outra coisa legal que eles fazem, eles fazem agentes eh eh biológicos para defensivo agrícola.
Então tem uma praga que pegou o milho, eles desenvolvem um fungo que só vai atacar a praga e eventualmente o fungo além de atacar a praga, vira dubo.
>> Legal.
>> Hoje tem tem implemento, tem suplemento, não sei o nome correto, implemento, suplemento, enfim, você coloca na soja, a soja produz o dobro de óleo e não sei quantas vezes de polpa. E é um fungo, você põe, vamos plantar só e você põe o fungo junto ali.
>> Parece um biohack.
>> É um biohack. A startup chama Biofy, tem um episódio também no Vem aí que eles contam essas maluquícias, né? E é legal que isso é feito no Brasil.
>> Que legal.
>> Então, a hora que a gente pega aplicação na medicina, por que que você não consegue usar visão computacional para detectar, por exemplo, pneumonia, estado inicial, né? Lá atrás, quando eu comecei a palestrar sobre IA, eh eu tinha acessado um estudo que, e eu brincava com isso em toda a palestra, né? Eh, tinham chegado a uma IA que detectava detectava pneumonia com 37% de acurácia.
37% dos casos eles acertava. Vocês confiariam em usar isso para detectar pneumonia?
>> Não, >> não, né? Na média os médicos da época tinham a curaça em cerca de 12. Então, eu confiava.
É, é tudo uma questão de parâmetros de relatividade. Relativ Hoje eu uso, hoje eu uso essa história para explicar a curácia, que o pessoal fala: "Ah, curácia baixa". Não, baixa em relação a quê, né?
>> Então, esse estudo na época foi desenvolvido e a grande dificuldade era você juntar um dataset enorme de imagens, porque você tem que anonimizar.
Eh, durante a COVID, o SENAI Simatec aqui da da Bahia desenvolveu uma IA que você subia um raio X e dizia se era COVID ou não com uma curácia bem interessante. Eh, eu fui conversar com os pesquisadores que fizeram isso, eles disseram o seguinte, que a IA mais fácil de treinar foi a que detectava, porque até chegar nela eles tiveram que criar cinco ou seis, porque primeiro pediram raio X de hospital público, privado do Brasil inteiro, aquilo chegou, tem que anonimizar tudo.
Então, tiveram que fazer uma IA para anonimizar. Segundo que eles pediram raio X de pulmão, na pressa mandavam de cabeça, de pé e etc. Tiveram que montar o outro para separar.
>> Depois os raios X vieram vinham em vários formatos, eh, escaneado ao contrário, etc. Tiveram que montar uma outra para organizar tudo. Quando terminou tudo isso, botaram o dataset, em dois dias tava treinado, mas foram meses de trabalho para chegar até ali.
É, >> é, é o processo de, entre aspas, normalização do dado, né?
>> E por que que o dado, por que que não ficou uma curação melhor? Por causa do volume de imagens. Eu costumo dizer a curadoria do dado, né? A curadoria dessa que a gente fala fala com frequência. E o que tá acontecendo agora é que você consegue e já tem projeto disso. Um deles foi feito na Inglaterra, se não me engano, o nome do cara é brasileiro. Eu nunca consegui atrás, eu sempre lembro de atrás, esqueço depois. Mas ele criou um dataset com generativa, que basicamente o que ele fez foi partir do maior dataset que existia de imagens de pulmão, gerou uma IA generativa que gera dado sintético que é exatamente idêntico. E aí pegou um dataset de 100.000 imagens, transformou num dataset de 800.000.
>> A coisa mudou.
>> Aplicou o mesmo conceito do conei lá do começo.
>> Agora imagina isso aplicado a outras áreas da medicina.
Então dentro da área médica tem tudo isso para crescer. dentro da área de biologia e de fármaco tem tudo isso para crescer. Esses são os polos em que a IA tá revolucionando o que é feito, né? E a gente não vê no dia a dia, >> mas um grande insari, quais são as regras de coisas que são factíveis e a gente consegue treinar uma generativa para criar um dataset e alimentar uma IA determinística, isso facilita demais, porque você não precisa infectar eh 1 milhão de pessoas para ter um dataset real daquilo para treinar uma a descritiva, se eu consigo definir quais são os parâmetros e gerar esse tipo de dado sintético para poder ser aplicado depois num dado real e fazer a discriminação no do de uma IA de fato que é classificatória, né?
>> Por isso que o fato da IA chegar a diversas profissões para mim é o game changer. E é o que tá acontecendo hoje.
Quando eu entrei na Nvidia 3 anos e meio atrás, as startups que aplicavam pro Inception, todas elas se apresentavam só uma startup de a só uma startup de data science. Hoje raramente isso acontece.
Só uma fintex ou uma HTEX ou uma Agritec. Então, mas é >> hora que você vê o core dos caras. É isso.
>> Mas uma coisa que a gente tem discutido muito, eh, é você identificar qual é o problema que eu quero resolver e e não querer usar a EAI pela EAI por si só, né?
Exatamente.
>> Eh, aí de novo aí que você falou, cara, é uma fintec, é uma biotec. O problema, o problema bem, bem escrito e bem analisado, ele é fundamental para qualquer coisa, >> né? Eu costumo dizer que as startups que eu vi que deram certo, tinha um cara que conhecia muito do problema e ele conhecia muito do problema e ele falava a língua de quem tinha o problema.
Começava daí a história para dar certo, né? A gente vê muito overgenering, né? A galera que cria uma solução e vai atrás do problema depois. Mas >> isso é muito mais comum do que parece, né?
cara que se apaixona pela solução e depois tenta encontrar um problema solução dele, encar daí o culpa é do problema que não se adequou, não da solução. Exato.
>> Isso que você tá falando, todos os exemplos que você citou foram um problema muito claro a ser resolvido.
Você e não tinha dúvida do que era para ser feito, né?
>> E o o e >> tudo girou para isso.
>> Isso. O interessante é o skill, né?
Então, no caso dessa dessa desse estúdio, né? Chama Buva House, também gravei com eles recente. Vai pro ar. Eh, o que o Jean fez, que é o fundador do estúdio, ele quando viu o potencial ideia generativa, viu como aquilo podia ajudar no ciclo de produção dele, ele falou das pensou das duas uma, ou eu vou ter que contratar um monte de devia e ensinar a produção 3D, edição, etc. Ou eu vou pegar os melhores artistas e criadores 3D que eu conheço e vou ensinar IA.
Bingo. Foi o que ele fez. Esses caras aprenderam a usar e eles estão eh fazendo coisas, né? Aliás, ele fez uma maluquícia.
Você sabe que para fazer gravação de vídeo ou de imagem, de publicidade, muitas vezes o custo é exorbitante, né?
Porque as condições de contorno, digamos assim, são complicadas. Então, eu quero tirar uma foto, uma propaganda de um banco e tem que ser na frente do MASP, naquela hora que o sol tá se pondo e etc, né? Pô, para fazer um treco desse, você contrata o ator, você contrata toda a equipe de produção que vai lá capturar a imagem, vai todo mundo pro meio da vida paulista, espera as pessoas passar e chove.
No dia seguinte você tem que fazer a mesma coisa e vai repetindo. Hora que tá pronto, você chega pro cliente e mostra: "Putz, eu queria a câmera com ângulo um pouquinho para cá, >> cara. tá com a camiseta amassada aquele faz de novo.
>> Aqui vermelho para um azul ali.
>> Esse cara começou a criar gêmeo digital de local onde existe muita demanda de foto, voando com liider, usando eh fotogrametria.
Ele tem gêmeo digital de vários lugares do Brasil e agora quer fazer uma propaganda com alguém, não tem problema.
Vai pro estúdio dele, tira uma foto com o Chroma aqui atrás, ele senta com o cliente dele, tá aqui, ó. Ah, eu quero o ângulo. Tá bom. Ele mexe com o mouse, usa o Omniverse da Nvidia para fazer isso, tá?
É galera de criação, >> cara.
>> Não são não são pessoas com formação, né? Então, e a a primeira vez que eu vi eh o impacto que se ter foi até numa palestra que tem lá no NVID on demand cientista chefe da Moderna.
E foi uma palestra do cara explicando como eles usavam na na nas pesquisas de fármacos, né? me convidaram para fazer uma palestra. Eu achei muito legal, aliás, isso do Conselho Regional de Farmácia de São Paulo, dois anos atrás, eles fizeram um congresso do Conselho Regional de Farmácia para discutir a porque falaram: "Isso aqui vai chegar na gente uma hora, a gente tem que entender." E me convidaram para palestrar, né? Era um assunto que eu conhecia, eu sempre brinque, eu sou hipocondríaco, então a farmácia, a hora que eu paro o carro, o balconista começa a rir. Essa é a minha relação com a farmácia, né? Aí eu fui estudar o assunto e uma das dos conteúdos que eu encontrei foi esse, né? E o cara dá uma aula de como ele usa IAI, etc e tal. Aí no final teve duas coisas assim que eu que eu não acreditei, né? Primeiro hora que o cara falou da formação dele, cara, ele é um cara de fármaco, de biologia, de química, ele não tem nada de computação na história, mas aprendeu a usará e tá fazendo chover. E o segundo, os projetos dele estão no Git Hub.
[ __ ] >> vocês imaginam uma indústria farmacêutica abrindo tecnologia no GitHub?
>> Cara, é surreal. É revolucionário.
>> É revolucionário porque é tão de ponta, tem tão pouca gente trabalhando que quanto mais gente trabalhar, mais rápido você acelera >> e abre. E é uma quebra de paradigma, né?
Porque é uma indústria que você fica só, né, pela restringe, né?
Será que a gente vai ter medicamento pela GPL daqui a pouco? Olha que beleza.
>> Olha que legal, hein?
>> Já pensou? Porque o cara tá te chegando perto do conceito de open source.
>> Depois que eu vi com o pessoal da Biofy que dá para imprimir antibiótico, dá para imprimir essas coisas, eles têm um laboratório, inclusive tá estão terminando de montar.
>> Eu não ou duvido mais nada.
>> Quero falar com você agora que ainda não conhece a Clever. Clever é uma empresa que já tem mais de 3 milhões de usuários em 30 países com 30 idiomas diferentes, que tem trazido soluções em blockchain, criptomoedas e ativos digitais. O objetivo da Clever é te dar liberdade financeira para operar esse mercado de cripto. Então, se você acredita nisso, se você acredita nessa liberdade, você já pensa como a Clever, vai conhecer os caras, é clever.Ou estão contratando também pessoal para trabalhar com cripto, com blockchain. Então, se você tem interesse, se você tem conhecimento nessa área, procura a Clever. Se você gosta de criptomoedas, se você opera no mercado, você precisa conhecer a Clever, precisa conhecer as soluções da Clever.
Então, o endereço tá aqui embaixo no vídeo. Para quem não tá no YouTube, é clever. Vai lá, vai conhecer que realmente é um mercado sensacional.
Eu queria aproveitar voltar um pouquinho no no que a gente estava dizendo sobre a facilidade de uso da IA, né? Eu acredito bastante, o Romers tem discutido bastante que quanto mais fácil, você estava comentando do da da parte do estúdio, a gente transformar, levar pra pessoa que não é, pras pessoas que não são da área de tecnologia, conseguir usar, conseguir trabalhar, conseguir tirar proveito, acho que quanto mais isso, sem falar, não precisa saber que é área, precisa que resultado eu tenho, né? Como eu consigo fazer mais fácil? O que mais se conta pra gente disso? Olha, eh, eu acho que a, a tecnologia que tá surgindo agora, eh, e, e, e tá amadurecendo agora é a tecnologia dos agentes de, né? A primeira coisa que eu tenho um orgulho desgraçado de falar, os dois frameworks mais usados no mundo para fazer isso são brasileiros.
>> Legal.
>> É o da Crew Ai, que eu uso, que eu tô usando, eu uso nesse podcast todo o material de descrição, etc.
>> É um Crei >> sensacional, >> ó. Facinho de aprender.
>> Pythonzinho lindo ali.
>> Criweei.com. Tem um treinamento gratuito com o João, que é o fundador da startup.
E eu vou, eu tô fazendo palestras, etc., usando agora.
O outro é o Lang Flow, que é lá de Uberlândia.
>> Lang Flow também é brasileiro. Não sabia.
>> Brasileiro. Sim. Langow é brasileiro. O Langflow é gráfico, tal. Que tem até plataforma. Então, eh, vendo as implementações que eu tenho visto de implementação de agentes conectada a aplicações, as coisas estão ficando muito interessantes. Então, você tem uma plataforma igual do PipeFi que foi criada para fazer automação de workflow.
>> Uhum.
>> Esses caras começam a usar aí a generativa e a gente dentro. Você consegue que um contador, um cara do departamento financeiro, consiga criar um fluxo automatizado, extremamente complexo financeiro, sem precisar saber uma linha de programação, >> porque aí que tá a coisa legal do agente. Eu sempre falo que as LLMs é a vingança das professoras de português.
>> Essa foi boa, >> porque você é obrigado a aprender a escrever direito e perguntar direito.
>> Exato.
>> É a vingança completa, sabe? A molecada, ah, não vou estudar português, estuda, caramba, vocês vão ter que escrever prompt, pelo menos. Não gosto de escrever texto, vai ter que escrever muito texto.
>> E tem uma bruxaria que é mais louca ainda, né? Se você sabe usar BMLM, ela escreve o prompt para você.
>> Uhum.
>> Exato.
>> E eu fazendo brincadeira com os agentes, né? Falei: "Deixa eu testar". Putz, foi genial. Inclusive a CR tem, você já usou o agentezinho de IA deles? Ó, vou dar um exemplo. O eu tenho um cre que eu fiz que eu eu criei um tool que baixa a transcrição, vai desse episódio. Então, eu tenho o conteúdo, aí eu passo por uma para um primeiro curador que é um especialista de tecnologia que vai me falar: "Ó, esse, esse esse tópico são interessantes. Que tipos de de de cortes eu deveria fazer?" E aí ele gera perguntas que eu jogo paraa outra IA, que aí é um especialista de audiovisual que vai falar sobre esse e esse tópico, quais são os pontos mais importantes que eu deveria recortar nesse vídeo. Então é é uma IA que vê o todo, pega as perguntas e gera o prompt para pra segunda LLM. E para gerar, para deixar o resultado mais plural, eu não uso a mesma LLM. Uma eu uso Gemini, outra eu uso Open AI, outra eu uso de PSIC para ter visões diferentes. O resultado final acaba ficando mais rico.
Deixa eu fazer um parênteses aqui, dois parênteses, na verdade. Um, eu tava esse final de semana trabalhando num projeto de vibe coding, uma mecânica de de vibe coding, e eu tava ali pensando, poxa, a gente tá trabalhando muito, é muito legal a ideia de você colocar dois agentes contrapond contrapondo um para outro. Toda hora que eu penso nisso, eu lembro do fil do Robot Robot do filme Robô lá. que a ideia do cérebro do do Sunny era o os dois cérebros contrapondo, né? Que um se contrapõe que gerou a a questão. Exato.
>> Isso.
>> E aí no crew para só para finalizar, depois que eu faço essa separação aí eu tenho um outro agente que é o redator que vai pegar aquela ideia e fazer uma redação do COP para cada um. Então, ó, você que tá vendo a descrição desse episódio aí no no YouTube, título, etc., Tudo isso é gerado por I.
>> Tudo a gente é a minha experiência com os agentes foi muito engraçada porque eu montei um crew. Eh, sempre que eu conheço uma startup, alguém me fala ou aplica pro Inception, às vezes eu perco 1 hora e meia para encontrar informação desses caras da internet, porque tem startup que não tá no current base, tem startup que você tem que olhar no site, não entende direito, tem startup que para pegar mais informação você tem que procurar notícia, tal, né? E aí para estudar a gente falei: "Eu vou fazer um CRW para fazer isso para mim, né?" E aí comecei com a ideia, falei: "Bom, se eu fosse montar uma equipe física, que eu queria fazer um cara bom de pesquisa e um cara bom de edição para montar o relatório para mim".
>> Perfeito.
>> Montei, montei o CRI, né? O cara bom de pesquisa. Primeiro eu comecei só brincando com a Ll. A gente tem uma LLM chamada Lama Nemotron, que foi treinada com dado do começo do ano. Eh, para quem quiser usar aí, acessar build.nvvidia.com, tem um monte de container de llá para dev, é de graça, tá? Você pode bater 1000 queres lá para testar as LLMs. A API é da Open Ai para você ver qual que é mais legal. Uma vez que você encontrou uma que é legal e que cabe no hardware que você tem, você baixa L e usa para dev e de grátis, né?
Do jeito que o brasileiro gosta. Para botar em produção, tem que ter uma licença da Nvidia pra gente manter o contêiner atualizado e suporte, etc.
Porque aí passa a ser missão crítica, né? Eu bati numa lhama, no lhama Nemotron e fiquei impressionado porque como ele foi treinado com dado até de do começo de 2025, ele trazia muita coisa, mas tava deixando escapar. Eu falei: "Eu vou botar o Serper, o agente de busca, ele vai poder fazer busca, né?" >> Então eu peguei esse primeiro agente e botei fazendo busca. Aí ele ia buscava, eu pedia pro segundo validar as informações. Aí o segundo começou validando, começou saindo coisa ruim, né? Eu falei: "Putz, vou montar, não vou fazer sequência, vou montar hierárquico". Uhum. Se você já brincou com com o crio hierárquico.
>> Aí que que eu fiz? O segundo agente era o chefe do primeiro.
>> Ah, >> então era o seguinte, esse aqui só faz pesquisa. Se o dado chega aqui para você e não tiver bom, você pede para ele refinar.
Aí você vai vendo no log, eles se conversam por texto. Então esse cara escreve um e-mail pro outro e você lê o e-mail e o outro responde com outro e-mail. Bom, chegou uma hora que eles começaram brigando.
>> Sério?
>> Começaram brigando, botou um chefe já deu merda no na ia.
Não foi muito engraçado.
>> Nem aí a escapa, né?
>> Nem aí a escapa. E depois de um pouco, o cara que era gerente começou a brigar comigo.
>> Sobrou para você?
>> Sobrou para mim. Ele falou: "Ó, você não me deu acesso à ferramenta de busca. Se eu tivesse acesso à ferramenta de busca que ele tinha, eu conseguia validar direito a informação. Ele ficou com inveja do outro agente, >> porque ele tinha um tool que ele não tinha, >> que ele não tinha. E eu falei: "Tá aí, habilitei a busca para esse cara para com essa história de chefe funcionário que estavam tavam brigando, tava chato, tava esquentando a máquina, tava chata a história, liso, >> ó, terminator começ >> o agente funcionando." Então o que eu acho legal, né, desse desse tema do agente QA é que para desenvolver com ferramenta como Lengfow, etc, você não precisa conhecer programação. O framework vai fazer tudo para você do ponto de vista de programação, lógico, coisa mais complexa, tem que entrar no código lá, mas também não é, né? E o que as pessoas têm que fazer é escrever prompt.
Quem é o agente? Qual o seu histórico? É criar personagem. Olha, você é um pesquisador especializado em contradado de startup com 20 anos de experiência.
Você sabe quais são as fontes confiáveis, etc. Você cria uma historinha, né, ideal para que?
Basicamente é você escrevendo, >> definir persona, né, >> um job description para contratar alguém, né? E depois você define a tarefa. E tudo isso é feito com texto, você não precisa programar. Você pode usar o chat EPT para fazer para você.
>> Exatamente. Exatamente. E foi foi um dos testes que eu fiz. Eh, eu falei para ele, falei: "Ó, pro eu falei pro Nemotron, como eu tava usando o Nemotron, eu falei pro Nemotron, falei: "Olha, eu quero encontrar essas informações dessas startups com essa com esse grau de acuraça. Expliquei tudo que eu queria. monta o prompt para mim.
Prum. Ele me deu prompt, eu copiei, colei no agente. Qualidade fez assim, ó, >> subiu, ó, >> subiu, foi lá em cima. Então, e eu tô empolgado com essa história de agente Qar, porque eu acho que ela vai levar a possibilidade de criação de aplicações complexas para pessoas que não têm domínio da tecnologia. Além disso, Jomário, eu vejo que até para nós que somos desenvolvedores, temos mais profundidade técnica, quando você olha esse tipo de comportamento do do agente, etc. E ele tem autonomia, por exemplo, para decidir quando ele precisa de uma TU ou quando ele precisa de um arquivo, etc., você agora com protocolos novos que a gente tem como MCP, etc., cara, você consegue eh com pouco, com o degrau técnico um pouco a mais habilitar a capacidade que esse agente tem. Nem, por exemplo, no exemplo que você falou, pô, ele treinado com com dados até 2025, pô, você põe o MCP ali de busca no Google, pô, você tem negócio em tempo real. Você imagina quando a gente tiver catálogo de API, elas distribuídas públicas com esses protocolos que os agentes podem fazer discovery de tools. Você não precisa ficar, >> então você vai, você vai ter um agente que simplesmente o trabalho dele vai ser descobre quais são as melhores ferramentas para esse problema.
>> Acabou.
>> Ele tem a base inteira dele, ele atualiza ele, a coisa vai ficar interessante.
>> Aí é o Jarvis.
>> A coisa vai é o Jarvis.
>> O Jarvis não tá longe não, né? E eu eu falo até nas palestras, né? Quando essa tecnologia com esse grau chegar dentro dos assistentes pessoais, a gente vai ver a vida mudar, né? Uma coisa que me assusta sobre Llende um alerta, né? Eu sempre eh no no meu na minha carreira de tecnologia, eu sempre olhei pra criança, quer tentar adivinhar o futuro ou sa ter uma ideia de como é que vai ser a história? Olha para uma criança. Eu tenho um moleque de 13 anos, né? E e ele foi experimento meu. Eu tenho histórias dele, vários podcasts. Minha filha hoje tem 20 23, desculpa, Melissa. Eh, esqueci ela, ela também, né? Foi muito de observação, tal, né?
>> Dois MVPs. Você tem isso.
>> Dois, dois MVPs bons. É, Mel, a Melissa inclusive é jornalista hoje, né? Eh, mas a geração do meu filho não usa mais buscador.
É impressionante. É chato GPT direto.
>> Ah, mas e a gente já tá quase aí, né?
Isso mesmo. Nós velhão já tá.
>> Mas sabe o que é interessante? Eu fiz um teste com esses moleques e com o meu filho. Eles conseguem detectar alucinação em assunto que eles não conhecem.
>> Caramba.
>> Não sei como tem um tem uma noção de que não, isso aqui isso aqui não pode ser não. Isso aqui não tá esquisito.
>> E aí a hora que bate nisso aqui tá esquisito, ele vai num vida e pesquisa e fala: "Ah, errou mesmo".
>> Como desenvolver esse feeling?
>> É o senso crítico que a gente tanto tem.
falando, cara, e interessante isso aí.
>> Ex. E o pior que muita gente tá falando que a até a pesquisa recente que a pesquisa na na inter tá tirando a capacidade de ressurrando aqui exatamente o inverso, né?
>> É, você cria são outras capacidades.
Você vê a história do metaverso que a gente começou o papo conversando. Ah, metaverso não pegou. Pegou.
A geração do meu filho é nativa do metaverso. Sabe o que salvou sanidade mental desses moleques na pandemia?
Metaverso, só que o metaverso deles não é 3D com VAR, é o Roblox, é o Fortnite.
São essas plataformas. Na pandemia eu assisti um show de um rapper, não sei se foi, Travis Scott, >> foi >> dentro do Fortnite com meu filho e três amigos dele. Foi a experiência mais louca da minha vida. Eu tava num em casa, cada um tem seu videogame para não dar briga, né? Eu tava num videogame, ele tava no outro. A gente de fone sentou na grama com os amigos dele, ficamos assistindo show. Eu olhei para aquilo, eu falei: "Meu, que que eu tô fazendo?
>> Que que eu tô fazendo aqui?" E a sensação de que eu tava com os moleques mesmo e eles falando bobagem, tirando sarro, tal, são nativos desse mundo.
Você não acha que um moleque desse vai comprar coisa igual a gente compra numa numa telinha boba com produto, etc e tal? A visão deles é outra, né? E a forma com que eles estão absorvendo e no dia a dia para mim é algo extremamente promissor, sabe? Então, é por isso que eu acredito que a IA vai chegar cada vez mais em todo mundo. Então, eles quando entrarem em qualquer coisa que vão fazer na universidade, eles vão saber usar IA e vão descobrir um jeito de usar IA para facilitar a vida. E é daí que o cara vai sair um profissional eh que consegue usar IA, né? Eu eu acho que hoje o economista, o contador, o contabilista que não sair da faculdade programando em Python, >> né? É aquela história, a Iá não vai tirar o trabalho de ninguém.
Quem vai tirar o teu trabalho é uma pessoa que faz o que você faz e sabe usaiar.
>> Sim, >> porque ele vai ser mais produtivo, ele vai ser mais eficiente.
>> É, o problema social de tudo isso, na minha opinião, é que a gente começa a eliminar os as posições mais simples, né? Não quero desvirtuar o o >> mas é um ponto importante >> o o tema do episódio, né? Mas a a IA eh dentro da bolha que nós estamos, que que tem uma capacidade de pensamento estratégico, etc., ela só vai somar, né?
Então é o que você disse, uma pessoa que faz o que você faz, sabe usar, ela tem um nível de tomada de decisão diferente porque ela não precisa tanto daquele trabalho operacional. E aí a gente tem uma crise de pessoas que faziam o trabalho operacional, que normalmente levavam insumo pro cara que toma decisão estratégica de pessoas vão ficar sem uma ocupação, né? Isso é um problema social que a gente vai ter que resolver no tempo. Isso é fato. Ou se melhora com educação para que todo mundo, todos os humanos sejam capazes de tomar decisões estratégicas e não precisem de de trabalho mais operacional. A gente tem que ver como lidar com com essa massa de trabalho.
>> Perfeito. E aí, nesse ponto que você falou, só dando um gancho a mais essa questão social, é certo, alguém que sabe usar melhor vai tomar o seu lugar, mas e como vai ficar a capacitação para as pessoas chegarem nisso? Esse que é essa essa história essa história do letramento, né? Então assim, o letramento de a extremamente importante, né? Eu tava num evento em Brasília na semana passada que foi organizado pelo Ministério da Ciência e Tecnologia, eh, LNCC, enfim. Eh, e teve um painel de discussão de governo sobre era era sobre Lar de Língua de Módelo, era um evento específico para falar de LLM. Foi muito legal. E quem falou umas coisas bem legais foi o pessoal do governo do estado do Piauí, que eles lançaram aí a agora chamada soberania, vai ser aberta.
Eles lançaram o maior dataset em português do Brasil, que chama Jabuticaba, também aberto.
>> Maravilhoso o nome, >> maravilhoso o nome que foi literalmente criado aqui, né? A gente teve recentemente também o lançamento do Gaia, que é o o Gemini otimizado para Português do Brasil, >> foi feito pelo SEIA, pela por um outro startup que eu não lembro o nome, pela Amadeusia, >> que tudo do ecossistema Nvidia, do Inception, tal. Eh, e teve essa discussão do governo e eu achei legal que o secretário lá de de ciência e tecnologia, ele falou, pegou muito nisso, não é só trabalhar o cara que vai desenvolver e a gente tem que ter letramento, as pessoas têm que aprender a usar isso na base. Isso.
>> Então eles têm essa preocupação eh de levar o letramento, né? Eu acompanhei projetos de A em que a IA removia postos de trabalho de situações em que era insuportável pro pro proprietário da empresa e insuportável para quem trabalhava. Era aquele trabalho que ninguém aguentava mais do que duas semanas e o cara levava uma semana para aprender. Então a rotatividade era tão grande, o custo era lá em cima e como era o negócio relacionado a imóveis, etc. Isso era transferido para quem paga a conta no final, né? Então era o tipo de coisa que assim ninguém gostava de fazer, ninguém aguentava fazer, virava aquele emprego que sabe é uma situação muito de emergência, mas não tinha jeito. A pessoa começava a enlouquecer fazendo aquilo, era muito repetitivo, né? Então, >> só que necessário, >> só que necessário. Então, existem casos eh e casos de aplicação, né? O que eu acho legal dessa história de agente QAI é que eu acho que essa molecada aí da idade do meu filho, cara, eles vão fazer isso aí com o pé nas costas, sabe? E daqui a pouco vão aprender a fazer porque já tem plataforma com drag drop, >> já tem plata próprio Langflow, você consegue fazer e arrastando bloquinho, tal.
>> O Langflow ele é a implementação do Lang Chain, que é código para um uma linguagem visual, né? Para um >> é acho que alguma coisa assim. Eu confesso que eu não estudei o Langflow, eu até instalei ele, né? Eu me encantei com o Clei.
>> É que eu acho que o Crei também tem o a versão open source, que é Python puro ali, que é a que eu desbravo até hoje. E você também tem a versão, >> tem o serviço que é aí é bonitinho, é visual, drag drop. Eu também uso o Python.
>> Eh, e e tá de boa, né? Eu uso o Python com o console do Cloud me ajudando com a documentação e gerando Python para mim, usando Tuz lá, né? o a a própria documentação, se você entrar no help da CAI, você vai ver que eles têm um chat um chatzinho lá de GPT. Depois que eu usei aquela primeira vez, como eu tenho a conta premium do chat GPT, aquilo foi parar dentro do meu chatt.
>> Ah, entendi.
>> Aquele cara me ajuda a criar os agentes.
>> Então isso é maravilhoso porqueudo. Eu tô usando IA para criar IA.
E e esse é uma coisa que eu queria falar, você tava dando um exemplo e nessa linha do eu tava fazendo essa pesquisa de vibe coding e eu comecei com a parte do da especificação do sistema.
Até mostrei isso pro ontem. Eu escrevi um texto totalmente aleatório explicando o que eu queria que fizesse, como que seria um fluxo de login.
>> Uhum. Aí a própria pegou isso, organizou como seria, gerando uma especificação funcional mesmo, criando uma jornada do usuário para depois aí a pegar e desenvolver. Eu saí disso paraa tela de ideia assim totalmente, sabe como a gente tá conversando, ah, podia ter isso, podia ter aquilo, totalmente solta, sem muito muita preocupação. E aí depois foi colocando a ordem. Aí o que foi legal, um pouco do que você tava comentando, eu falei para ela no prompt, né? O que você não souber, não tente resolver. Coloca tudo, eu preciso disso.
>> E aí pega o tudo, você vai resolvendo e tirando os tudandos. Ela vai te guiando, né, literalmente para refinar o processo, >> você vai quebrando os problemas em problemas menores.
>> Uma coisa que primeiro queria deixar aqui o disclaimer que duas semanas atrás a gente publicou um episódio sobre vibe coding. Deixar aqui o o link vai ficar na descrição, deixar aqui no card em cima da careca do ROM aqui, provavelmente. E e que a gente pegou um caso de um um amigo nosso aqui, o Fabinho, que é que é cohost aqui em alguns assuntos mais ligados à empreidurismo, que ele refez a plataforma dele inteira com vibe code.
>> Eu tenho algumas preocupações em relação a isso. Tenho, mas cara, eu tenho uma experiência muito boa para contar e aí eu vou contar ela e passar uma pergunta para você que tá lado a lado com Dev no dia todo. Eh, eu tinha feito uma experiência pra empresa que eu trabalho hoje usando LLM, né? Então, basicamente, eu precisava pegar uma uma série de documentos digitalizados, >> passar por uma LLM, calcular um grau de risco e gerar uma planilha >> com extração de alguns dados ali baseado em num um OCR interpretativo, digamos assim. Então eu fiz ali toda minha engenharia de prompt e tal, peguei uma massa de dados, cara, eu como dev routs ali, cara, eu abri ali o o meu editor de código e fiz ali um script node, chamei API, tal, cara, tudo console, gerava JSON, aí depois fiz um JSON virar planilha, >> beleza? Aí apresentei na na companhia, falou, aí eu recebi um feedback dos diretores, falou: "Cara, isso tá muito bom, mas isso aqui não tá, isso não vende". Eu não consigo demonstrar isso aqui. Pro cara técnico, eu olho aqui, eu vejo o código, vejo o resultado. Faz uma, faz uma tela, velho. Faz uma tela que você sobe o documento e mostra o resultado, gera um gráfico.
>> Falei: "Porra, pode crer, né, >> cara? A última vez que eu programei JavaScript era com JQuery.
>> Somos dois, viu?
>> E HTML. Falei: "Caralho, bicho, beleza, você quer fazer um nodezinho Python?" Eu me viro agora. [ __ ] fazer tela, bicho.
Cara, eu eu foi aí que a a IA me conquistou para para código, >> te mordeu. Eu abri o drawo, eu desenho uma tela no drawo. Isso aqui tem que ter um seletor de arquivo, aqui tem que ter um preview de imagem, aqui tem que ser um text box, tal, tal, tal. Botei o os IDs do HTML e tal, exportei um PNG, mandei no chat dept, falei: "Faço HTML, CSS dessa desse protótipo".
Cara, veio e veio limpo.
>> Você fala: "Meu Deus, >> cara, eu não acredito. Eu abri, eu salvei o CSS, eu salvei o HTML abrindo browser, era aquilo que eu desenhei e tipo limpo." OK. Algumas hierarquias de CSS poderiam estar mais organizadas, otimizadas.
>> Tudo bem, mas cara, resolveu o meu problema. Falei: "Porra, beleza, agora vou fazer o JavaScript". Cumpriu a missão, né?
>> Isso. É, eu comecei a fazer o JavaScript, cara, com JavaScript puro.
Ou seja, aí que que eu fiz? Aquele bet que eu fiz, que lia uma tonelada de arquivo, gerava um um CSS, eu abri, transformei ele para ter o processamento granular via rest para um e transformei num web service.
>> Uhum. HTML, cara, a interface ficou linda. Eu fiz em meia hora, né? Falei: "Caralho, bicho, isso é maravilhoso." E aí eu queria te perguntar, como é que os devs estão vendo isso?
>> Olha, eu eu não acompanho muito essas aplicações de ar. A gente tem um grande evento no Brasil de vários meses, né, no TDC. Eh, já virou trilha do TDC a discussão de de IA para produtividade.
>> Uhum. Como eu sempre tô no TDC ou na trilha de A ou no fórum executivo, eu não tenho, não consigo acompanhar essas coisas, né? Eu tenho alguns amigos que são especialistas em otimização de código e eu sempre falei que o dia que um desses caras falar para mim que ferrou é porque ferrou.
Um deles é pioneiro de cuda no Brasil, inclusive desenvolvedor do Open CV, né?
É o cabelo do vivo Linux, tal. Todo mundo uma vez na vida já teve uma merda no Linux e foi um texto dele que ajudou, né? é um amigo, um grande, é um grande amigo e irmão meu >> e de tempos e tempos ele repete eh alguns testes de otimização de código, como ele é muito especializado eh em processamento paralelizado, ele gosta de dar esses desafios, né? A coisa tá evolu evoluindo rápido. Então assim, ainda não substitui um programador experiente. Você precisa de um cara para olhar para aquilo e falar: "Tá bom, não tá bom, tem consistência".
como você falou, o CSS não tá tão certinho. Lógico, para um protótipo, para um para um teste, tá feito, tá lindo, né? Eh, para uma coisa de produção, eh, tem que tem que ter mais coisa, né? Então, eh, o que eu tenho visto nesses eventos, né? E e como eu participo do fórum, eh, normalmente do fórum executivo de a, tem muitos se leva lá, eh, vendo caso de aplicação, etc., né? A conversa com eles é que, de fato, aquilo tá aumentando a produtividade, tá chegando cada vez mais, cada vez mais na mão do desenvolvedor, né? Agora, como desenvolvedor, a minha experiência é parecida com a tua. Eh, [ __ ] lembra do tempo que a gente abriu o VI, >> criava um arquivo em branco e falava: "Isso aqui vai virar um sistema de contabilidade". [ __ ] era um parto, né?
Hoje em dia você consegue e pegar um chatt da vida, falar: "Estrutura para mim aí um projeto em ser, eu quero pôr isso, aquilo, aquele outro". Ele monta tudo para você. E eu acho que esse é o grande, é a grande avanço que a gente tem, porque, cara, a gente, eu sempre faço esse contraponto, porque a programação ela sempre foi meio que entocada, quase uma arte, sabe?
>> Uhum. E se a gente olhar para todas as ferramentas que a gente tem dentro de TI, navegação na web, eh interação humano máquina, eh eh própria questão de de visão espacial, de de viar, a gente evoluiu muito nos últimos anos.
Se você parar para pensar, tirando o, e aí eu não tô falando sobre Lombock e ferramentas de Bootstrap, etc., que já faz algumas algumas coisas automáticas no código.
A gente tem uma uma operação tinha, né, até então uma operação de de desenvolvimento que era artesanal, que o dev tinha que digitar letra por letra de um código, cara, né? Às vezes você tá desenvolvendo um método ali na tua no classe, na tua programação, independente do paradigma que você tá usando, que você sabe exatamente o que ela tem que fazer, o input que ela tem, o retorno.
E, cara, você perde 10, 15 minutos escrevendo, escrevendo uma coisa que é trivial.
>> Escrever uma coisa que é trivial, >> né? E agora a gente dá produtividade da escala de fato industrial para isso.
Então você não vai deixar de pensar naquele método, naquele na na a engenharia ainda é tua, mas cara, tu não precisa digitar letra por letra mais.
Entendeu? Acho que a gente eh eh saí saiu do do paleolítico da programação, né?
>> Perfeito. E aí você olha pro para essa brincadeira, né? Eu brincando com Romo, conversando bastante o contexto de uma squad hoje, como tá montada, ela já sofre impacto do advento de ferramentas e da produtividade que traz para isso. A composição que a gente teria de My Squad, você já consegue tirar algum elemento dela em função da produtividade que o cara mais senior ganha e não fazer, não perdendo tempo no no trivial, né, como você tava dizendo.
Acho que isso é bem importante, né?
Agora, e é isso, eh duas coisas que eu queria colocar. Eh, ao mesmo tempo também não tem uma certa resistência dos deves ainda em usar EA ainda porque ele tá ainda tem aquele preciosismo, [ __ ] mas eu eu quero criar o meu código, eu quero ter o lado eh enfim, >> artístico. É o lado artístico, >> o cara que faz arte comentação, cara.
Tem tem um negócio que chama fungada no cangote que faz qualquer um ter o senso de prioridade.
>> Exatamente.
>> Foi o teu caso com a tela, né? Foi educadamente uma fungada no cangote.
Isso aqui eu não consigo apresentar. Tá uma merda, faz alguma coisa, pronto.
>> Exatamente.
>> Teve que se render. Eu acho que em em algum momento todo mundo se rende. Eu usei o o chat GPT lá, o GPT da CWI para depurar erro que eu tava tendo. E foi muito legal porque o rodava, dava um erro. Eu copiava o erro e colava lá. Ele me explicava o que era o erro e me explicava como usar aquele direito. No final de uma hora, uma hora e pouco brincando, além do meu agente tá super otimizado, eu aprendi muita coisa da API sem ter sem ter que ficar além da documentação, porque eu ia fazer uma leitura linear da documentação.
>> Control F. Olha lá, como fazer os maias.
É, [ __ ] E aí você vai lendo quebrado, aí você não entende conceito, né? ou ou vai fazendo aquela leitura linear que você vai levar horas, horas e horas.
Não, ele foi me mostrando as coisas que eram importantes, né? Perfeito.
>> Eu fiz testes no passado de de otimização de código também. Algumas vezes eh ele dava, ó, faz isso aqui de forma mais acelerada para mim, né? Uma das das brincadeiras, pegava código feito, por exemplo, com pandas, né? Tava lá usando panda, sai kit learn num pai.
Eu catava o código, colava lá e falava: "Converte isso pro Rapids para mim".
Blum, vi o código de rapids prontinho, né? Eu olhava lá, pô, tinha algumas coisas ali que dava para melhorar, tal, né? Ao invés de eu fazer na mão, eu comecei a cobrar ele. Não, essa função não tá legal.
>> Isso.
>> Você consegue encolher isso aqui, ó.
Isso aqui você tá usando. Esse loop não precisava.
>> Fui falando, a hora que você chega no final, você fala: "Caramba, na mão, né? Não foi perfeito de primeira. Talvez o final não está perfeito, mas se eu fosse fazer isso sozinho na mão, eu tinha levado muito mais tempo.
>> Exato. E olha o que é legal, você gerou um código, tudo bem, você entende um pouco de código, né, modo de dizer pouco. Você gerou um código conversando como se tivesse conversando com um per programming, >> né? vamos dizer, um per programming ali, conversando com ele. Cara, eu me pego às vezes na panhar, pô, mas se eu fiz isso de novo, eu acabo escrevendo como se tivesse uma pessoa. Você fala: "Pô, >> sim, ó, o o exemplo o exemplo que você deu >> nesse nesse caso que eu falei que tinha que subir a imagem e tal". Basicamente eu tinha que subir a imagem, gerar um base 64 para subir para LLM para ele interpretar como imagem, como anexo, né?
>> E eu falei: "Cara, [ __ ] eu beleza, antes eu pegava isso, já tava no IO, tava rodando local, era um bet.
tava no io, ele ia do IO, transformava em base 64 e subia para PI no loop.
>> Agora no browser, eu falei: "Pô, mas eu não eu não quero ter que ter no meu service ter que persistir esse arquivo para ler, né?" Falei: "Porra, eu perguntei pra Lelm, falei: "Cara, tem alguma forma de eu gerar um base 64 no client, direto no client de eu não precisar fazer o upload?" Tem, tem sim. Os browsers modernos, você consegue fazer o pilho.
>> E você lá dentro você lê um arquivo temporário e você gera. Posso criar o código para você? Eu falei: "Eu vou te dar um beijo." Sou local história.
>> Ele usa local história. Você quer ver quando deve começar a usar essa história? hora que eles descobrirem que a o LM é muito boa para escrever documentação, >> [ __ ] >> E teste, >> e teste, porque deve que gosta de documentar, >> me apresenta um, >> eu não conheço.
>> Me apresenta um que >> é na base do forceps, né? E toma aí o código, né? Aqueles comentários que a gente encontrava antes, né? Não sei porque tá funcionando, mas não mexe, >> sabe? Essas coisas malucas em código erdado assim. Aí você pega aquele suegger do cara que não tem [ __ ] nenhuma, que ninguém entende desgraça nenhuma do que faz, >> cara. Você pega hoje qualquer lilema e fala: "Cara, lê esse código e define o que faz cada método e tal". Você tem um swager lindo, uma P exposta bonitinha.
>> Ó, um prompt legal, cara. Fala para ele fazer seguindo os padrões JS doc, Python doc da vida, ele já cria a partir o comentário no seu código para um ficar legível e você já gera documentação a partir dali. Cara, >> é lindo isso.
>> O meu que da Cai, ele criou a estrutura de agentes para mim, né? Me deu todos os arquivos, falou: "Quer que eu zip mando?" Eu falei: "Quero, cliquei no zip, putz, deu um erro, não consegui zipar". Eu falei: "Beleza, os arquivos estão aí, o texto, eu vou copiar, vou criar os arquivos, abrir lá o console, comecei criando pasta, tinha que criar um monte de pasta, eu falei: "Puta, eu podia escrever um shell script para escreve o que eu tenho que fazer em shell script." copiei e colei. E o mais maluco é que eu no prompt inicial eu tinha falado iso >> ao invés de falar eu estou usando a versão tal da API da CR porque para ele me dar tudo certinho, >> eu escrevi we us use, eu vou usar a versão tal, cara. no shell script dele.
Você acredita que ele me gerou um shell script que criou o Venv do Python, baixou a Caii, baixou todas as bibliotecas de dependência, criou todos os arquivos e botou o treco para rodar para mim.
Maravilhoso.
>> É, nesse projeto que eu tava trabalhando durante semana de estudo, ele me criou todo a aplicação do zero, um React Native mobile do zero, basicamente a partir daquele documento e do acesso ao Figma para seguir o layout, para falar que eu não fiz nada, eu ajustei uma foto a posição que ficou meio torta >> e curioso, né? Assim, se você, a gente tá tá discutindo, se fosse fazer isso, contratar uma squad, isso ia demorar se 8 meses, né?
>> É o projeto inteiro, né? Não só, mas sim.
>> Então assim, olha o tempo que encurtou, né?
>> E a gente tava falando, você tava comentando do seu filho, né, da notorialidade, a gente começa a perceber como isso vai tornando parte da nossa rotina. A hora que você senta no seu, vai lá no Google, vamos fazer uma pesquisa, eu me pego dando um prompt pro Google e não e não fazendo uma busca no texto.
>> Sim, mas eu acho que no fim, cara, é assim, ó. Se a gente tivesse tendo essa mesma conversa, eh, eu sou de 84, não sei vocês, mas é tudo >> não vamos pr essa parte ali coisa de 10 anos antes.
>> Isso, enfim, pouquinho, mas eu tô, >> eu sou de meia, então vou parar com acho que eu rodei sem óleo, então. Mas enfim, eh, se a gente tivesse esse papo, tipo, em 78, 79, a gente teria um impacto tão grande nas linguagens de alto nível? que, né, que começou a programar com a linguagem humana, entre aspas, da mesma forma que a gente, cara, galera que movia valor de registrador lá na Assembley, assemble, >> que era a forma de desenvolver software na época. Então, a gente criou mais uma camada de abstração, né, para facilitar e dar produtividade. Da mesma forma que a gente não conseguia imaginar na em de 2000 para cá, nessa geração que a gente teve de paradigma de de programação de linguagem alto nível, escrever um software, como a gente escreve em Java, em assembly, aí não tem como comparar, >> não tem, >> né? a gente daqui uns anos vai chegar à conclusão que não tem como comparar, fazer software no paradigma que a gente tinha de linguagem de alto nível com IA.
Só que eu acho que a engenharia humana ela vai permanecer a mesma, só que vai ser muito mais produtiva, né?
>> Perfeito, perfeito.
>> E tem uma questão da de tecnologia, né?
Eu acho que uma tecnologia ela vinga quando ela passa a ser onipresente.
Eh, eu trabalhei muito com IoT no Brasil. Eu fui, eu trabalhei 8 anos na Intel e eu trouxe as tecnologias de IoT da Intel na época, né? Então me envolvi muito com o movimento Maker, eu venho do movimento Software Livre lá daquela aquele bom do Linux lá de trás dos FL tal.
>> Eh, >> eu lembro que eu te encontrei uma vez no Fley.
>> É, >> e foi muito antes da gente se conhecer no podcast, >> mas foi e e eu lembro que teve fiz e depois teve um fim traumático lá. Teve um último evento em Porto Alegre que eu palestrei lá, mas sinto falta dessa.
>> É, eu também. Eu também sinto bastante falta do Fisley. E aí, e quando trouxe as coisas de Ioti, a gente fazia racatom, fazia muita coisa, tal, eh, depois não teve, o pessoal chega e fala, né, quando pô Joar, aqueles negócios de IoTi que você falava, aquilo morreu tudo, né? Eu mostro o meu relógio, falo, cara, tá aqui tudo que a gente falava tá aqui. Olha o teu, >> olha a tua casa como é hoje. Então, se a gente pegar esse episódio que a gente tá gravando hoje e for assistir ele daqui 5 anos, a gente vai dar muita risada com as coisas que a gente tá discutindo. Do mesmo jeito que eu dou risada com as coisas que eu discutia quando a internet chegou, >> ah, vai acabar com o mundo, ah, vai isolar as pessoas, ah, vai, quando chegou o e-commerce, matou o comércio tradicional, não vai mais ter. Então assim, o bom de ser velho é que eu vivi todas essas merdas, entendeu?
>> Chegada da internet.
>> Como assim um banco na minha casa?
>> Como assim? Eu vou pagar conta pelo pelo pelo computador que passou por tudo isso, né, cara?
>> Exato. E e hoje é unipresente. Você vê que assim a gente usa, né? E eu eu não tenho dúvida que a IA e vai ser isso em breve, né? A hora que ela chegar nas assistentes virtuais, Siri, Alexa, eh, o Google, etc., né? Eh, eu acho que a gente vai ter vai ter coisa bem interessante. O Jarves não tá longe, não, tá? Aliás, deixa eu dar uma dica pra galera. Quem tiver uma máquina com RTX em casa, procura uma aplicação da Nvidia chamada Chat RTX.
>> Chat RTX >> é, é uma aplicação para Windows, né? Mas >> aí você já me [ __ ] >> Não é que a gente é macaco velho. A hora que você olhar lá é um contêiner, levanta um contêiner e ela só tem uma interface para um contêiner. Dá, dá. Se for no root, dá para fazer. Tá bom.
>> A máquina não dá, né, cara?
>> Esse cara, esse cara instala um hag e uma LLM na tua máquina.
Então ele vai te dar uma interface, você vai pegar um diretório, dizer onde estão seus documentos, ele vai carregar aquilo e em minutos você começa a conversar com seus documentos. O teste, >> ele indexa teus documentos na Hag e você local e você tem LLM local rodando e você consegue bater papo.
>> O teste que eu fiz com isso foi quando eu abri uma vaga para trabalhar no meu time. Eh, eu conhecia as pessoas que iam aplicar e eu sabia que tinham três ou quatro ali que eu ia que eu queria conversar, né, de todo mundo que eu vi aplicando, olhando os currículos, tal.
Aí um cara do RH da Nvidia gerou PDF de todas as aplicações, eram 60, não lembro, bastante.
Eh, eu alimentei esse hag, eu comecei a bater papo. E aí, quantas aplicações tem? 64.
Quem tem essa experiência? Fulano ciclano Beltrano engano. Hum. Me fala mais sobre fulano. É isso aqui. Qual a formação dele? Isso aqui eu fui dando filtro e critério, eu cheguei nos quatro simplesmente batendo papo >> com a >> com aá dentro da minha máquina sem mandar meu dado para fora de jeito nenhum.
>> E essa eu tava feliz se você me falasse que eu não precisava mais da findete DB nos arquivosa.
>> É muito legal. Você roda local, você roda na tua máquina, né? E aí veio uma história interessante, né? Quando as LLMs começaram a se expandir, veio aquela história do mundo corporativo querer usar LLM com seus documentos, né?
Então, foi criado o Hag. Eh, e aí as empresas começaram usando. A gente teve casos eh complicados disso, de vazar segredo industrial, né? Teve uma de uma empresa de eh eletrônica que de repente sai uma informação do jornalista de um produto que eles iam lançar. E [ __ ] quem foi que caguetou isso? Quem foi o dedo duro? Tal. Na investigação descobriram que os engenheiros durante o processo de desenvolvimento >> plotaram lá o negócio, >> usaram para fazer sumarização de documento, encontrar informação, aquilo caiu na base de retreino. O jornalista não nasceu ontem e falou: "E se eu tentar procurar novo produto, etc e tal". Escutou um rumor de alguma coisa, entrou lá, Llou capivara toda do produto, né? E aí todo mundo, as empresas olharam e falar: "Não, pera aí, Enterprise, isso aqui não dá certo, né?
Porque eu tô pegando meu dado corporativo e eu tô levando ele para uma API. eh, que mesmo que ela que ela tenha nível de serviço, etc., a minha superfície de ataque já ficou grande, né? E >> e você já delegou a responsabilidade do seu dado pro para outro, >> exato, né? E a superfície de ataque durante o processo todo, mesmo usando, enfim, técnas técnicas todas aí. Eh, e aí essas empresas buscaram Nvidia, pô, ensina a gente a botar uma LLM open source para rodar dentro de casa. Montar uma infraestrutura otimizada de inferência não é um negócio assim tão trivial, né? a gente começou a escrever blog post, tutorial e etc, etc, etc. Mas convenhamos que assim, a galera de dev não manja de Devops, a galera de DevOps não entende exatamente dos nuances da inferência de a, né? Ou existem pessoas muito boas, mas a maioria, >> né? Eh, >> e aí as empresas chegaram e falaram: "Cara, vocês não conseguem facilitar nossa vida?" Então, foi aí que a gente criou um negócio chamado NIM, Nvidia Inference Microservices.
É só acessar o build.nvidia.com, vocês ouvir um monte lá. E o que a gente fez foi aquilo que eu contei mais cedo, a gente encapsulou as as principais LLMs, Open Search, Dipsique e uma série de outras dentro do contêiner.
Então agora para uma empresa rodar um hag internamente sem o dado sair, é simples. Ela olha o LM que ela quer usar, >> bota no Cubernetes ali, >> bota no Cubernets, vê quantas GPU vai demandar por causa do tamanho, etc. põe na infradela, >> licencia, suporte, a gente mantém aquele aquele contêiner atualizado o tempo todo. É só colocar no ciclo de MLOPS para atualizar ele, fazer um teste lá, problema resolvido, você tá com ele elen dentro de casa.
>> Legal. Eu queria aproveitar essa sua deixa e voltar num ponto ali do começo da nossa, no começo mais anteriormente, falando de exercício, aquela redução da máquina park.
Hoje na parte de código a gente vê também muitas empresas que estão preocupadas em aplicar LLM aberta e ter sua base de código publicado, né? E e de fato é é é algo a se considerar. Como isso não impacta? Daqui a pouco ter cada dev com a sua pequena máquina que roda sua capacidade ali grande sem ter necessidade de ter o data center ou cloud, alguma coisa assim. É, tem um ponto que é bom a gente até esclarecer para quem tá ouvindo a gente.
>> A gente tem a opção de algumas empresas rodarem prems, como o Jommar falou, e aí você já tem encapsulado, etc. Uhum.
>> Já tem, mas você tem que ter capacidade hardware para isso, que ele requer um investimento.
>> Mas você também tem condições hoje já acho que os principais players, desde o Cloud, Openi, Gemini, de você ter o serviço gerenciado privado, >> né? Então beleza, eu não preciso ter uma máquina com processamento, eu vou instanciar esse modelo dentro da minha nuvem, Google, etc. E aquele dado ele fica dentro do meu do do meu storage, dentro da minha nuvem e não é usado para retrain.
>> Perfeito. Mas a gente vê nas empresas só complementando ainda o efeito que a gente teve no começo da cloud. Por mais que a empresa garantia que era tudo privado, ela fala: "Ah, ainda não confio nisso".
Você ainda tem um pouco disso? E a diferença do NIM, né? É que eh principalmente para startups, né? Hoje, eh, todos esses serviços gerenciados com maior menor grau de segurança é a economia do token. Então, ainda mais usando a gente de a você não sabe a tua conta no final do mês.
>> Sim. É, é porque é tudo tudo baseado taxímetro, né?
>> Taxímetro.
>> Agora com NIM não, você sabe, ah, eu preciso de uma máquina com quatro GPUs para eu usar esse NIM. 230 bilhões de parâmetros. A máquina custa tanto por mês, acabou. Atende aguentar, né?
>> Exato. Atende a empresa inteira. Ah, precisa expandir. Bota outra máquina do lado. Cubernetes, ela levanta tudo baixa em qualquer infraestrutura e >> roda tranquilo.
>> Você que tá aí escutando esse episódio bacana e quer levar toda essa tecnologia, essas novidades pra sua empresa e não sabe como, chama o time da Vembers. A gente pode ajudar vocês com desenvolvimento de software, com arquitetura de soluções, a entender os problemas que vocês estão vivendo e sair do outro lado com uma solução bem bacana. E se você tá escutando o podcast para aprender coisas novas, faz o seguinte, manda um e-mail pra gente no peoplecare@vemers.Ou e você pode fazer parte também do nosso grupo de talentos. Valeu.
Agora o time do Relações Públicas vai gostar mais de mim.
Isso. Ô Jamar, eh você comentou eh vários exemplos e casos de startups brasileiras eh que estão usando a solução da da Nvidia, tal. E ou seja, então dá para afirmar que eh tem várias iniciativas no Brasil de empresas ou startups usando a solução da Nvidia.
Sim, usando os nossos SDC tem muita e uma coisa interessante, né? Dentro do programa Inception, a gente oferece treinamento de graça das coisas do Nvíia, $.000 de crédito da AWS para usar GPU, 350.000 O do Google tá expandido bastante.
>> A gente tem um programa de VC, tem muito benefício paraas startups. A coisa que esses caras mais me pedem é gente.
Hoje para você tirar um estudante da academia e ele produzir uma startup de a são quase 2 anos de treinamento. Porque o cara sai da academia, ele não sabe usar Cloud, ele não sabe usar Linux, ele não sabe usar uma console.
>> Caramba, >> ele não conhece essas intrãs da tecnologia que a gente conhece. Ele precisa aprender tudo isso para ser produtivo. E a hora que o cara tá produtivo, sabe o que acontece? Vem uma empresa de fora, chupa o cara. Isso acontece na América Latina inteira. Eu já rodei muitos países aqui, Chile, Argentina, Uruguai, Colômbia, México, Nameet. É a mesma história sempre. E tem startups hoje que tem programas educacionais, exatamente, para treinar a gente na universidade para ele poder contratar.
Cara, mas é muito louco porque a gente tá vendo claramente um descompasso entre o mundo acadêmico e a demanda de mercado. Exato.
>> Porque [ __ ] como é que o cara sai da faculdade, não consegue usar um beh, >> exato.
>> Tem alguma coisa errada, né?
>> Não, eu eu quase desmaiei quando eu saí da Intel, eu fui trabalhar na Zup, né, antes de vir pra Nvidia. Quando eu cheguei lá, eu vi que a galera só usava Open Curce em tudo quanto é canto. E os projetos que a ZUP desenvolveu, eu fui para lá para criar a área de developer relation e Open Curce. A gente tinha quatro projetos muito legais Open Curce lá. Bruno quis abrir o código, tal, por toda uma mentalidade assim que não existe no Brasil um cara igual ele. Eh, e a hora que eu cheguei lá, a galera toda usava opence e tal. Aí eu comecei a perguntar pros caras de Open Curce, cara, para eles open é ser anônimo de grátis.
Nossa, >> eu falei não tem licença, tem isso, tem aquilo teve um ano que rolou uma uma votação, uma eleição para pro board da OS Opense Initiative. Eu fui candidato, fui indicado pelo Soul Java >> e eu fiz uma apresentação num evento da OS exatamente para falar disso. Fala, gente, a gente parou de explicar pras pessoas o que é openarce.
A molecada tá achando que é grátis, é open, é free. Ninguém sabe mais o que que é licença. Grandes empresas usam opence, não tem política de uso dentro.
Isso é um liability gigantesco do ponto de vista de utilização. Então, a galera perdeu eh o conceito do que é isso, né? Então, >> e principal, né? Se perde o o >> a essência >> a essência de colaboração que permeou o open source, teoria. Engraçado que a maioria desses caras contribuía com um monte de projeto, mas não tinha noção do todo. Para ele era só um repositório que ele mandava pushe lá e acabou. Não entendia licença, não entendia nada desse tipo. Então hoje para você pegar um estudante e você dar esse banho de loja nele para ensinar, pô cara, ó, é open isso aqui, tá bom? Vai ter que ver a licença, né? Pô, se for uma uma eh eh permissiva, tudo bem. Uma MIT, uma PAS dois, tal, mas, pô, se for uma licença restritiva, igual a GPL, etc., a gente não pode usar o código, não pode usar biblioteca, tem que tomar cuidado com isso. Até isso você tem que letrar o cara depois que ele sai da faculdade, né? Então, usar console, usar Linux, entender como é que a coisa funciona, né? Hoje para Iá é Linux, Python e Docker.
>> Cara, que convenhamos é o básico do básico hoje de mercado, >> de mercado. E a galera muitas vezes sai sem saber essa história.
>> Então você imagina se ele não conhece isso, como é que ele vai conhecer a PI otimizada? Como é que ele vai entender de paralelismo? Como é que ele vai entender a importância de trabalhar com código otimizado pro hardware dele poder ser mais baixo, pro custo ser menor?
Então, as startups sempre dividem essa dor comigo, né? E e aí existem diversas startups que têm iniciativas educacionais. No caso da Nelspace, como eles trabalham com otimização de CUDA KNEL, o Brunão criou laboratório em algumas universidades e ele pega um pedaço daquele cluster das 24 GPU dele para deixar para esses caras estudar, porque ele precisa do cara, >> fazer pesquisa ali, >> fazer pesquisa ali, fazer fazer estudo mesmo, aprender a programar com Cuda para ele poder contratar. Então essa demanda por profissionais de a ela cresce muito rápido. A gente não consegue formar pessoas prontas para isso, né? O primeiro curso de inteligência artificial do Brasil foi criado na Universidade Federal de Goiás, na UFG, eh, que também tem o SEIA, né, que é o centro de de a deles, né, e é o professor Anderson, que é o grande delesador disso. O modelo que esse cara conseguiu fazer dentro da universidade tem que ser escalado pro pro Brasil inteiro. É uma universidade federal, ele tem um centro de pesquisa, ele atende as empresas da região e as startups e fazem parceria de pesquisa.
100% dos alunos dele saem empregados.
A maior parte dos alunos já faz estágio dentro de pesquisa desenvolvendo tecnologia aplicada para startup, usando tempocioso do cluster da universidade que não tá sendo usado. E aí a startup pequenininha consegue ter recurso computacional que ela não teria dinheiro para fazer. Mas só a a própria universidade ter um cluster dedicado para esse tipo de estudo, >> já mostra que tem um conteúdo programático mais virado pro mercado.
>> Exato.
>> Porque eu querente ver muito e e eu acho que isso tem um pouco até de de mística sobre os cursos de computação, né? eh, do cara que sai ou muito teórico ou ele sai muito mão na massa sem embasamento teórico. E e eu acho que cabe até um pouco de orientação, né, Jomaro, do cara que quer trabalhar com tecnologia, de qual curso escolher, né?
Porque às vezes o cara ele quer ser programador, quer tá ali mão na massa e o cara entra num curso de ciência da computação e cara, não, você vai ver fundamento para [ __ ] cálculo para [ __ ] aqui e sua área de atuação vai ser outra. E às vezes você quer um cara que tá com perfil mais de pesquisa, etc.
O cara entra no curso mais mão na massa, como na minha época chamava análise de sistemas, agora era é >> engenharia de software, né?
>> Engenharia de software, etc. O cara não tem tanto background, mas o cara tá ali na ferramenta, etc. Tá mais na no fronte, né? E eu acho que falta um pouco isso na área acadêmica de computação, >> falta orientação e e a segmentação do conteúdo programático para onde o cara vai atuar, né? E a gente tem um outro problema que acontece hoje, que a gente só vai ver essa conta, ela só vai chegar daqui uns anos. Eu lembro disso na época do software livre. Eu tinha muito amigo especialista em infra de software livre que o cara, o cara começou ganhando muito bem, muito cedo, largou a faculdade, uma hora a tecnologia muda.
>> Isso >> ele não tinha >> background técnico para se adaptar.
Aí já tá com 35 anos, dois filhos pagando financiamento da casa, do carro, >> com a corda no pescoço, dançou. Eu vi isso acontecer, por isso que é bom ser velho. Eu vi isso acontecer com software livre, eu vi isso acontecer com o desenvolvimento de app mobile, eu vi isso acontecer com HTML5, eu vi isso acontecer com IoT.
E eu tô vendo isso acontecer com Iá, porque a galera começa a fazer cursinhos online em escolas especializadas, nada contra >> o cara rampar rápido sem base, >> ganha dinheiro rápido, consegue emprego rápido, só que ele não tem base. Hora que a tecnologia, atende a ferramenta, mas não atende, não entende a teoria.
>> Exato. Vira um usuário de ferramenta, um usuário de framework, ao invés de entender a tecnologia. O pessoal pergunta, Mar, que ele gosta de ser de programação, você você programa? Depende >> é que você quiser.
>> Eu acho que eu programei numas nove ou 10. Não sou bom em nenhuma. Igual pato, faz de tudo, não faz nada bem feito.
E eu não aprendi a programar bem até hoje. Eu programo desde 1986.
>> Mas se sair uma linguagem amanhã, tu te vira?
>> Me viro porque tem conceito, porque tem fundamento. É a história que a gente tava comentando. Eu sou engenheiro eletrônico.
>> Ex. Eu conheço o hardware, eu sei como é que o Bit trabalha dentro da GPU, dentro da CPU, dentro do barramento. Isso para mim é o básico para eu poder trabalhar com que eu trabalho hoje. E você não precisa nem tão longe nisso, mas se você pegar galera formada hoje que vem aí com Python, com Node, Java, se você perguntar para essa galera que é um paradigma de programação, a galera não sabe. Então o cara vem tão viciado ali em Java node, você falar pro cara o que que é um paradigma declarativo, uma linguagem recursiva, etc.
>> Não tem ideia.
>> O cara não tem ideia, cara. Não tem noção do que é o paradigma de programação como todo. É um usuário de ferramenta >> na prática, às vezes, é isso que você falou, ele não aprendeu a programação ali, ele aprendeu a usar aquele framework, ele aprendeu a usar usar aquilo. Se você mudar, >> esse esse é o cara que é ameaçado pela EA.
>> Esse é o cara que é ameaçado pela EA.
Perfeito.
>> Não, e esse é o cara que amanhã, a hora que a tecnologia mudar, ele não vai conseguir pivotar rápido isso, >> porque ele vai depender desses mesmos cursinhos que ele fez.
>> Uhum.
>> Que provavelmente vão ser diferentes, vão exigir outros skills e vai ter passado 10 anos. A capacidade e a facilidade de aprender já não é mais a mesma.
>> Exato. Perfeito. O tempo não é mais.
>> Então, o tempo não é mais o mesmo.
Então, esse é um negócio que eu tenho falado bastante por aí em evento e falado com universidades, né? E a primeira é letramento de A, então a gente tem que levar IA para outras áreas. Tem universidades que estão começando a fazer isso. Vim agora do México, fiz uma reunião com o board do universidade lá, vários diretores, né?
Achei muito legal. Pessoal de economia preocupado, pô, como é que eu leve a lá para dentro? Como é que eu levo data sciência lá para dentro? Pessoal de várias áreas já pensando em como é que eu vou letrar o meu profissional para ele sair no mercado sabendo pelo menos usar isso. Esse é é um um lado que a gente tem que tratar. Esse letramento tem que descer até ensino médio fundamental. Se uma professora que tá dando aula pro menino de 7 anos não souber o Zaiá, vai ser complicado. O moleque vai conhecer. A gente tem um gap muito grande, né, cara? A gente deveria ensinar a lógica ainda no ensino fundamental.
>> Exatamente. Meu primeiro cursinho de programação na minha vida.
>> Mas aí >> quando eu era molequinho, a primeira aula que eu tive chamava Introdução à lógica.
>> Pois é, cara. Imagina, >> cara, aquilo ali fez a diferença na minha vida como programador até hoje, porque você aprende a raciocinar, você aprende a quebrar um problema em problemas menores. E não é simplesmente sair igual louco escrevendo código. Você tem que pensar no que você vai fazer.
Mas nisso tem algumas escolas, né, a maioria delas obviamente particulares, mas também tem nas escolas estaduais incentivos a a aprender.
>> Existem as olimpíadas de robótica onde o pessoal resolve.
>> Sim, é que tem iniciativas isoladas, mas deveria ser uma política de estado, né, cara? Política, né? É, exatamente. E inclusive nessas Olimpíadas eles conseguem vaga na universidade pelo por meio da de robótica, vai competir fora do país. Tem um incentivo, mas ele é muito insípio ainda, né?
é incipiente. E a e a questão do letramento é é da da faculdade para antes e >> não é a partir da faculdade, >> até pro cara poder fazer uma opção melhor pela faculdade.
>> Exato. Que ele vai fazer na frente. E e você falou da de questão de política governamental, né? Eh, uma das coisas que eu tô vendo no Brasil de forma muito positiva é o que tá sendo feito em torno do Plano Nacional eh de inteligência artificial. tem muita iniciativa legal já acontecendo, tem muita iniciativa eh que eles estão planejando fazer pelos próximos tempos e eu tô esperançoso de que de alguma forma a gente vai conseguir endereçar alguns dos grandes problemas com isso. Não sei se vocês viram recentemente o o Hadad esteve visitando o Jensen >> para falar do Plano Nacional de Data Center. Cara, aquilo ali é game changer.
Tô aqui e a gente falou que, cara, é impressionante como o Brasil tem condições de e energética, de conhecimento, etc., para ser um grande polo de data center.
>> E e como isso não aconteceu antes, né, cara?
>> E não é data center. O que a gente tem agora são fábricas de A. Procurem aí os os vídeos do Jens explicando o que que é isso.
>> E a I precisa ser soberana.
Os países hoje estão investindo em criação de infraestrutura de inteligência artificial e de projetos, principalmente de LLMs, com soberania.
Entra num chat GPT da vida, faz uma pergunta sobre a história do Brasil, você vai ler Grosellia.
>> Uhum.
>> Porque muito do que tá ali foi traduzido da Wikipedia em inglês e é uma versão americanizada ou internacionalizada da nossa história, da nossa cultura.
>> Por que que o Brasil precisa ter Lluralmente eh adequada?
Porque as crianças não estão mais usando o Google, >> estão usando o chatpt.
>> Tão usando o chatpt. Se o chatpt >> normalizar a história na cabeça dele com algo que é global e e não é regional, a gente perde identidade cultural. Aí a gente entra numa esfera de que quem dominar IA vai dominar também o pensamento, porque é como o Google hoje determina o site que você acessa, a gente tem um outro problema geopolítico e é por isso que a gente vê Estados Unidos e China rivalizando tanto, porque, cara, de certa forma, o seu controle sobre a controle sobre informação.
>> Uhum. Então isso dá margem para um outro episódio, para uma outra conversa. E aí só para quem quiser, para quem quiser investigar, a gente tem o projeto Soberania, tem o projeto do Gaia, tá?
Esses dois já foram lançados e tem um projeto legal sendo desenvolvido no Chile que chama Latan GPT.
Latan GPT, eles estão criando uma LLM que vai ser treinada com base na cultura ah e na língua espanhola, latino-americana e brasileira.
>> Show de bola. São projetos que eu tô acompanhando muito de perto e eu tô e eu tô ficando bem empolgado com as coisas que me aconteceu. Vou passar todos esses links para eu colocar aqui na descrição.
A gente tá mega estourado do nosso episódio. Deveria ter 1 hora e meia, deve ter agora umas 3 horas de episódio, >> mas parece que faz uns 15 minutos.
>> Pois é, >> eu sempre falei para todo mundo que grava podcast comigo, falou: "Olha, eu ficaria 4 horas falando se tivesse cerveja".
>> Acho que tem. Então é um problema, né?
>> Quase chegamos lá. Quase 4 horas lá. E cara, você respondeu a minha última pergunta que era que você diria como o responsável pro relacionamento com os desenvolvedores, que você diria para eles. Mas esse essa última fase aqui você já disse tudo que deveria, né? Mas eu vou te dar a oportunidade de resumir isso olhando para lá e e e dando seu último recado pro pros desenvolvedores.
>> Galera, estudem IA, estudem tecnologia, a gente tem que perder a síndrome de viralata do Brasil. Quando eu me formei nos anos 90, a gente aprendia tecnologia, que era migalha que caía da mesa das grandes corporações. Depois do opence, depois do software livre, isso morreu. Hoje a Nvidia lança um hardware, ela lança um software, ele tá disponível para qualquer pessoa em qualquer lugar do mundo aprender ao mesmo tempo. E brasileiro tem uma flexibilidade muito grande, uma criatividade muito grande.
Quando o gringo fala para mim: "Isso é ufanista". Eu falo: "Não, latinoam americano para sobreviver tem que se virar". Não, mas o mundo inteiro é assim. Me dá um exemplo. Falei dou. Com que que você aperta parafuso na sua casa? Eu falo com a chave de fenda.
Vocês usam chave de fenda? Falei: "Usa depois que entortou uma chave, dois garfas, a faquinha. Quem aqui não tiver uma faquinha torta em casa, >> quem nunca abriu a tampa do gabinete com a faquinha de ponta?" >> Opa, opa.
>> Ó.
>> E, e, e o tira grampo, o tira grampo.
>> A gente a gente para sobreviver historicamente, né? Teve que ter a criatividade como algo que faz parte da nossa cultura. Então eu brigo muito com essa história da síndrome de Viralata, né? Quando eu vejo empresa com Manel Space que o Bruno compara o que ele tá fazendo com o time dele, com o time do de PSIC e não é exagero.
Cara, a gente pode fazer coisa gigantesca aqui. Só precisa de gente capacitada que não foge da escola, não foge da universidade. Não é só pelo diploma, aquele papel lá que não vale nada, é pelo conhecimento que você vai ter >> pelo network. Contribuam com projetos openurce e bora mudar a história do Brasil. Vamos botar esse país no mapa da da EA, porque já avisei, com a gente que II, os dois principais firmworks são brasileiros. Sabe por quê? Você tem que ter um jeitinho para fazer a gente.
>> Tem que ter, tem que ter jeitinho.
>> Cara, não posso falar mais nada depois dessa desse encerramento aqui. Só agradecer meus amigos pela presença.
Jomar, cara, tu vai ter que vir muito aqui.
>> Pode contar comigo que eu adorei. Tem no mínimo umas outras duas aqui. Só tem mais, viu?
Dá para fazer toda, todo mês tem um episódio baseado.
>> É, pô, obrigado mesmo, cara. Eu agradeço.
>> Você que acompanhou a gente até agora, muito obrigado pela audiência de vocês.
Se a gente contribuiu de alguma forma com o seu desenvolvimento profissional, com a sua carreira, você pode contribuir com o PPT no Cupila sendo membro do nosso canal. sendo membro do nosso canal, você vai contribuir com um valorzinho aqui por mês pra gente manter essa estrutura, pagar aquele moço simpático que tá ali operando o podcast, pagar a cerveja que a gente tá oferecendo aqui pro nosso amigo Jomar e você ajuda a fomentar a nossa comunidade. Se você não pode contribuir dessa forma, você já ajuda demais deixando seu like, comentando nesse episódio, eh, distribuindo aí no Telegram, no Teams, no ia falar Mirk, mas ninguém usa Mirk, né?
>> Nossa, essa foi fundo agora. Essa foi lá embaixo.
>> Essa foi fundo >> paraasnet já foi para dentro. Então, eh, quando só, só distribui, faça a nossa comunidade crescer, que já ajuda demais o nosso canal, o seu reconhecimento e a sua participação eh vale muito mais do que qualquer dinheiro pra gente, meus amigos, novamente, obrigado, João Maar, obrigado, galera que acompanhou até agora, valeu.
[Música] [Música]
Episódios Relacionados
1h 24minPPT NEWS: Reboot - Últimas notícias do mundo Tech | PPT Não Compila Podcast
Arthur Soave, Rômulo Barbosa
14 de mai. de 2025
1h 23minData Deep Dive: Engenharia de Dados | PPT Não Compila Podcast
Luiz Eduardo Alves Severino, Rômulo Barbosa
1 de mai. de 2024
1h 26minSAP: Estratégia e Uso do ERP Corporativo | PPT Não Compila Podcast
Marcelo Salles, Cláudio Fontes, Rômulo Barbosa
17 de dez. de 2025
1h 27minUma Fábrica de Software Completa só com Agentes de IA | PPT Não Compila Podcast
Fábio Martinelli
10 de dez. de 2025