O melhor de 200 Episódios: Especial Inteligência Artificial
Convidados
Juliano Dutra
CTO @ iFood
Explore o episódio
Passamos do nosso episódio 200, e esta é uma celebração dos melhores momentos de Inteligência Artificial no Podcast PPT Não Compila! 🎧 Neste episódio especial, Wellington Cruz e os convidados nos guiam por uma imersão profunda nos impactos da IA nas empresas, desde a eficiência nos processos até a complexidade das implementações práticas. A presença de plataformas como o Google Cloud e ferramentas como GPT e Gemini se destacam nas discussões, oferecendo um vislumbre do futuro da tecnologia e inovação. Aqui, abordamos os principais desafios enfrentados por líderes de tecnologia em todo o mundo, incluindo governança de dados, automação e as implicações da transformação digital nas corporações modernas. À medida que navegamos pelo poder da IA generativa, exploramos exemplos de sucesso e discutimos os erros comuns que podem afundar projetos promissores, às vezes por falta de uma cultura organizacional apropriada. Não perca este episódio recheado de insights valiosos e participe da discussão nos comentários! 📢 Inscreva-se no nosso canal, ative o sininho e compartilhe com seus amigos amantes da tecnologia. Juntos, vamos descobrir o impacto transformador da IA em nossas vidas. #Podcast #PPTNãoCompila #InteligenciaArtificial #Tecnologia #Inovação #PodcastTecnológico 🎙️ Episódios nessa coletânia: Mercado de IA: Expectativa vs Realidade (https://www.youtube.com/watch?v=PPKZi6iJeJA) Por que o uso das Nuvens se tornou tão caro? (https://www.youtube.com/watch?v=oOYoKT-lVus) O Impacto da Inteligência Artificial nos Investimentos Financeiros (https://www.youtube.com/watch?v=URqYAEpYOc0) Por que o Pix e a tecnologia bancária do Brasil são tão avançadas? (https://www.youtube.com/watch?v=A_Wv881m2Ho) O Ataque Hacker ao Banco Central (https://www.youtube.com/watch?v=twqsjA0bPlQ) Esse podcast foi feito 100% com IA: Entrevistamos a Gemini (https://www.youtube.com/watch?v=SCPPhSly6H8) Backstage: Como criamos o episódio 100% utilizando IA (https://www.youtube.com/watch?v=fXfRF_7KRBo) A Arte de Torturar os Dados: Entendendo o que são Viéses (https://www.youtube.com/watch?v=OKFfLTRET0A) Agentes de IA em Arquiteturas de Dados em Tempo Real (https://www.youtube.com/watch?v=7gc7Uof_SFQ) IA na Prática: Estratégias e Desafios na Vida Real (https://www.youtube.com/watch?v=TFQuKiRd-Bw) Conversamos com o 1º CTO do iFood: Juliano Dutra (https://www.youtube.com/watch?v=H5rwhnClKyM) N8N e Lovable são o Fim do Dev Júnior? (https://www.youtube.com/watch?v=tMEdVah-9rc) Como a Inteligência Artificial está fundindo a TI e o RH (https://www.youtube.com/watch?v=jCE5mf1Syik) Tecnologia e Dados: Como a Inovação dirige a eficiência da Logística (https://www.youtube.com/watch?v=uDKW5aFb8fM) Spotify: https://spti.fi/no4us0j Youtube: https://youtu.be/hkPZEBFnqsQ Outras plataformas: https://linktr.ee/pptnaocompila Acompanhe nas redes Instagram e Twitter: @pptnaocompila LinkedIn: https://www.linkedin.com/company/pptnaocompila Produção: Voz e conteúdo | https://www.vozeconteudo.com.br - @estudiosvoz
- Otimização de Custos em Cloud e IA
- IA Generativa e Gestão de Custos na Nuvem
- Desafios de Custo Oculto em Cloud
- IA na Otimização de Custos e Governança
- Limitações da IA em Problemas Complexos
- Falhas da IA e Necessidade de Análise Humana
- Dependência da IA e Pensamento Crítico
- Despreparo das Empresas para a IA
- Governança de Dados e Arquitetura Lake House
- Negócio como Dono dos Dados e Papel da IA
- IA no Processo de Governança e Experimentação
- Evolução da IA e Redução de Alucinações
- AI e Documentação Defasada
- Perigos da Confiança Excessiva na IA
- Qualidade dos Dados para IA
- Desafios de Integração de Dados e Modernização
- Transformação Digital vs. Digitização e IA
- Gemini vs. ChatGPT: Multimodalidade e Eficiência
- Humor Algorítmico da IA
- Música e Comentários Ad
- Contexto e Interpretação da IA
- Janela de Contexto em LLMs
- Pensamento Crítico e Validação de Dados
- Princípios de Engenharia de Software e IA
- IA como Ferramenta de Engenharia
- Observabilidade e Imprevisibilidade da IA
- Design Pattern: Judge Agent
- Estabilidade de Output e Custos de LLMs
- Prompt Engineering e Formato JSON
- IA para Geração de Código Previsível
- Realidade da Adoção de IA Corporativa
- O Hype da IA e a Capacidade de Resolução
- Dosar o Uso de IA e Capacitar o Negócio
- Foco no Usuário vs. Tecnologia na IA
- Tecnologia como Impulsionador de Negócio com IA
- Produtividade da IA: Startups vs. Empresas Tradicionais
- Abismo de Inovação: IA e Startups
- Desafios de Custos e Estabilidade Transacional com IA
- Otimização de Tokens e Eficiência da IA
- Custo Inesperado em Modelos de IA
- Futuro da Geração de Código com IA
- Versionamento de Contexto em Desenvolvimento com IA
- Ferramentas para Gestão de Contexto da IA
- Persistência e Documentação de Contexto da IA
- Versionamento de Prompts em Plataformas de IA
- Investimento em Geração de Código por IA
- IA e a Barreira de Entrada para Desenvolvedores
- Soft Skills na Era da IA
- IA e o Desenvolvimento do Hard Skill
- A IA como Câmara de Eco do Conhecimento
- Oportunidades de IA na Motos
- Previsibilidade e Otimização em Logística com IA
- Construção Interna de Sistemas e Flexibilidade
Autopila. [música]
>> Já que a gente tá falando do Google, eu gosto muito de Ginar no console do GCP.
Ele ele dá uns insightes muito bons ali do tipo, ó, isso aqui você não tem frequência de uso nesse nesse ponto ou tem ociosidade aqui. Eu acho que ele é muito bom em reduzir o o custo do que aqu daquilo que você tá em uso constante. E realmente é você vê que uma ferramenta que ela tá lá para isso, né?
Mas eu acho que ela falta mais governança do tipo, cara, nesse projeto eu queria 7 horas da noite desligar tudo ou eu queria fazer um uma partida frio todo dia às 8 horas da manhã ou das 8 das 8 da noite às 8 da manhã ninguém estancia nada nesse projeto. Aí eu acho que seria seria uma um daria uma tranquilidade a mais, sabe? Mas, mas será que isso também não é uma, até você tocou na questão do Gemini, né, mas das é generativas que os players tão eh incorporando nas plataformas? Cara, eu acho que de alguma maneira isso vai ajudar os clientes também, eu acho que nessa jornada de ter um controle mais apurado. Exatamente que não tá falando, cara. [ __ ] eh, eh, acabo de falar, [ __ ] será que o a questão é o é o dólar que variou muito ou foi porque alguém usou >> mais do que foi planejado? Talvez isso >> ajude nessa jornada, porque realmente a a noiv ficou muito complexa, cara. Eh, assim, é tanto detalhe para você conseguir, meu, você quase uma, é muito complexo, >> é muito detalhe, é muito produto, é é muita coisa nova que sai o tempo inteiro, né? Então, por isso também os times acabam tendo que se capacitar muito, né, para usar um determinado vendor ou outro. Então, realmente existe um desafio, né, de mudança, porque querendo ou não, o time gastou um tempo de aprendizagem, de desenvolvimento para conhecer a fundo aquele aquela nuvem.
Eh, e e é e ficou muito mais complexo, né? Porque a inteligência com certeza artificial generativa vai ajudar muito, né, a ganhar produtividade, a enxergar melhor, a tomar melhores decisões, né, eh, querendo ou não, avançando já talvez para algumas coisas, já resolvendo, inclusive, não só trazendo a visibilidade, mas já resolvendo o problema, né? né? Então a gente vê hoje até não só nas nuvens, mas principalmente em várias plataformas que eu tô vendo, onde cara, a inteligência ela te mostra o problema e já resolve o problema para você, né? Então acho que isso vai avançar muito nos próximos anos, com certeza.
>> Dando mais um exemplo, Rog, eu lembrei agora, tava falando, tava vendo, eu fiz uma vez um um projetinho aqui pro estúdio, né? E eu tinha criado, cara, acho que eu fiz um cloud run rodando um dockerzinho lá, eh, para processar os pagamentos, etc. E aí eu tinha exposto um, aí eu criei um cloud armor com autenticação, um load balancer chamando a função no cloud run para poder integrar com o método de pagamento que a gente tinha aqui.
Aí a gente trocou o método de pagamento, não precisava mais ter o processamento pelo cloud run.
Cara, eu desliguei o Cloud Run, eu apaguei as imagens do registry, cara.
Fui fui zerando todo mês, cara. Tinha dólares ali ainda, cara. Da onde vem? Eu apaguei o load bass, eu peguei tudo. Da onde vem esses?
Pelo amor de Deus, não é para vir nada.
Não tem mais nada, cara. É, é uma complexidade você entrar.
>> Pois é.
>> SKU por SKU, cara. Sabe o que que era?
Sobrou acho que dois back ends instanciados no objeto do load balancer que eu tinha criado um outro de teste, apaguei. Aí quando apaguei o outro, não apagou aqueles dois. ficou tipo dois objetinhos lá de back end ou front end, não me lembro, mas cara era componentez é subcomponente do componente e que tava bilando. Então é uma coisa que realmente você tem que ter um um critério e que manualmente é é impossível você gerir >> impossível. Hoje em dia é impossível.
>> É impossível você gerir >> isso, cara. Estamos falando de empresa grande, imagina empresa de porte médio que não tem uma estrutura, né, de de time como uma empresa grande. Cara, mais complexo ainda para esses caras.
>> E aí eu acho que a GNI vai resolver isso. Por isso que eu perguntei sobre a governança, porque, cara, a um ano atrás eu fiz uma RFP para ver ferramentas de fines.
Eu acho que 60%, 70% era relatório de Power BI.
O cara estrai, tem uma inteligência para analizar aquilo pela pela PI e joga no cara. Isso a GNA vai fazer esse esse trabalho do cara acabou. O cara que tá fazendo isso dessa forma hoje com analytics puro ali usando Powerb acabou.
O próprio Gimnai acho que hoje no consórcio do Google já faz isso melhor, >> já faz bastante coisa, >> já faz já resolve isso, né? E aí fica faltando um pouco mais essa automação dessa governança, porque eu acho que se eu for lá em pouco tempo eu vou chegar na nuvem utilizando o o modelo de LLM de GN que tá lá falar: "Cara, qual meu serviço que gasta mais hoje? Como que eu reduzo?" Cara, isso vai tá medado lá.
Não tenho dúvida que isso vai >> vai est em muito pouco tempo, sabe?
>> Eu tenho um cluster, né?
eh, Swarm. E eu tinha um caso que eu tinha um eh pastas montadas em cada nó do cluster para eu poder usar para armazenar arquivos, para fazer coisas aleatórias.
E o meu, e a minha a minha memória do dos nós do cluster começava a subir, subir, subir, subir, subir, subir, uma hora o nó caía, pá.
[ __ ] Aí fui falar, falei com GPT, falamos, falamos com Gemini, falamos cara, mandamos, ele não tinha solução.
Assim, que que a gente teve que fazer, né? entrar em cada nó, pegar estatísticas do Linux, pegar um monte de métrica do Linux para saber utilização de de de handler de de rendo, de não sei o quê, blá blá blá, para descobrir que tinha um bug do jeito que a gente tava usando, que a gente tá do jeito que a gente tava montando as pastas, eh, e do jeito que a gente tava escrevendo e lendo muito rápido, eh, capotava, né? Mas esse bug a gente demorou uns quro dias para conseguir resolver com GPT, com tudo. Esse sim, esse é bacana, né? Esse, esse precisa de um humano, porque o GPT não vai conseguir resolver, né? Mas coisinha do dia a dia, assim, o pessoal quer a câmera lá, pessoal que é júnior, pleno, até alguns sniors, não pensa, joga na IA, eh, deixa ela te falar, aí você junta o que ela falou com o que você acha e aí toma uma decisão. É mais rápido.
>> Sim. Recentemente eu passei por um problema assim também. Eu fiz um agente e, cara, tava rodando liso na minha máquina. Posso, posso falar agora?
>> Ah, desenvolvedor, >> na minha máquina funcionava, tava [ __ ] funcionando direitinho e tal. Falei: "Porra, beleza, né?" Eh, não vou entrar muito em detalhe, né? Mas era até para aqui pra rotina do estúdio do podcast. Eu colocava lá alguns vídeos, aí fazia um processamento e ele dava alguns outputs e aí persistia no data store do Google do Google Cloud.
Belezinha, testei local, pô, ia pra fila, aí processava na fila. Beleza, subi. Aí subi lá no Cloud Run do Google do Google Cloud, jogava as mensagens no Pub Sub e aí chamava no Cloud Run para fazer o processamento do LLM. Cara, o que tava funcionando bonitinho no no ambiente de desenvolvimento, ele começou a misturar o contexto de uma tarefa com a outra e misturar tudo, tipo informação de um vídeo no outro. Começou a por quê? Local ele fazia sequencialmente lá ele jogava no Pub Sub e aí disparava em paralelas.
Começou a misturar contexto e tal.
Falei: "Porra, GPT, ô Geminai, tô com problema aqui, ó. Tá misturando o contexto aí. Pera aí que eu vou olhar o código e ver o que que é". Não, pô, o problema é que aí você tem que isolar o contexto. Vamos montar uma factory, aí na factory eu vou disparar as trads separadas e tal, não vai ter problema.
[ __ ] faz sentido. [risadas] Faz sentido, né? Isso aqui deveria ser uma factory mesmo. Encapsular o contexto no objeto e startar o objeto para rodar em treta separada. Beleza? Implementa.
Implementou, gerei o contêiner, subiu, [ __ ] nenhuma. Continuou com >> com problema.
>> Com o mesmo problema. Aí falou p tá com problema ainda. O que que você acha?
Não, vamos mudar. Vamos mudar. O problema é que dentro das classes acho que ele tá declarando num num contexto global e deveria ser contexto local e tal. Eh, o padrão é local, mas não tá explícito. Então vamos deixar explícito que é local.
Pera aí, já começou a ficar com cara de impation, né? Mas beleza, roda aí.
Beleza. Aí declarou tudo com o contexto.
Nada de funcionar, cara. Aí eu fui ver como funcionava o Pop Sub e o Cloud Run.
E realmente rodava em era o mesmo, era a mesma função, mas como vinha várias mensagens, ele disparava a mesma execução em trades diferentes, só que do mesmo do mesmo contêiner, né?
Aí eu fui descobri que por trás do framework que eu tava usando, ele tinha um mecanismo de cash para processar cada etapa do agente e que ele não isolava o contexto só em memória. Gravava num arquivo de cash >> que era com um nome fixo, não tinha um >> Aí misturava tudo. Aí misturava tudo porque o cara tava processando lá, li um arquivo que era de uma outra execução e aí aí eu tive que entrar no framework e colocar um identificador único pro request e resolveu. Mas a e e tava explícito isso dentro da documentação do framework e a não pegou.
Então, mas isso, mas isso, esse é um exemplo que demonstra também a preocupação de você usar esse e aí pensando na função do do dev, né, de ter o lado crítico de falar, [ __ ] cara, pera aí, deixa eu ir a fundo e não executar, >> porque po assim, tudo bem, no teu caso era um era uma situação eh menos crítica, vamos colocar assim, mas imagina um ambiente de produção, ele vai lá e executa uma coisa errada, cara, e e [ __ ] >> gera um impacto. gigante na operação, né?
>> Não. E e nem só o impacto, mas a complexidade que ele trouxe pro código para implementar um factory sem necessidade. Cara, aumentou muito a complexidade de código que não precisava, né?
Porque o problema era concorrência física de arquivo, não era separação de contexto. E dentro do próprio GCP, ele já separa as trads em contexto. Então não não tem compartilhamento de memória entre os entre as trads. Então era era o problema era compartilhamento físico, era o io, não era memória. Então não precisava fazer um factory lá, entendeu?
E isso a experiência que pega, você bate o olho, vai falar: "Opa, pera aí, tem alguma coisa errada aqui, né?" Sim.
>> E aí, I não pega. Então precisa sim de fato ter uma maturidade para poder usar, senão você fica numa num loop, cara. Ela vai ficar te enrolando porque ela sempre tem que te dar uma resposta.
>> Sim.
>> É, eu acho que tem que usar sem ser dependente, >> né?
>> Assim, você tem que eh é o que eu assim, maturidade, né? Então, eh, acho que isso faz parte também da do do do a função dos líderes, né, de tecnologia ensinarem a galera mais nova que, cara, assim, eu que tô falando, você pergunta pro GPT primeiro, você testou que ele, igual você fez, você testou o que ele falou, não funcionou, pensa, pensa, chama o sior, lê o código, tenta entender, olha outras coisas, né? Eh, e não pode ser assim do tipo, pô, o GPT não resolveu, não sei o que fazer, joga a toalha, entendeu?
>> Porque tem tem essa aí também, né? Tem gente que vai se tornar completamente dependente.
>> É, que que é essa é a grande preocupação, né? Exatamente. Essa geração nova de tá completamente dependente da EA e o cara não não ter a visão crítica de [ __ ] testar. Não, mas como você fez? [ __ ] deixa eu ver as hipóteses aqui para ver.
>> Ou você é desenvolvedor ou você é piloto de GPT, né?
>> Vamos lá. E como que vocês veem eh essa disrupção e esse esse contraste das empresas tão despreparadas no no quesito dados e essa demanda tão grande por inteligência artificial pros próximos anos? Porque isso tá escalando muito rápido, né? a gente vê modelos em cima de modelos sendo lançados cada vez mais rápido e e a e a gente não vê essa mesma evolução culturalmente dentro das companhias. Aí aqui a gente vai usar muito forte opinião e futurismo. O que que vocês acham que vai ser daqui em diante?
>> Olha, eu posso falar aqui do lado, né, do meu lado, que é o lado fornecedora, né?
Cada vez mais vai ser impossível falar de soluções novas de dinenais se você não falar de governança antes. E aí tem alguns conceitos que cada vez mais vai ganhar força. E aí eu vou falar conceito teórico mesmo, né? Eh, bom, como eu já tenho aí uns aninhos de casa, 24 anos, eu acompanhei a vinda dos data lakes e do Biga, foi o que a gente tava falando um pouco antes, né? Entra qualquer coisa sem governança nenhuma. A gente pagou o preço por isso, estamos pagando agora, as empresas estão pagando. Eh, veio o conceito do Lake House, até Data Brix criou e hoje é um conceito de mercado que muitas empresas estão usando.
E olhando sobre o ponto de arquitetura de dados, eu vejo as empresas cada vez mais migrando para esse conceito de arquitetura Lake House, que é justamente você ter a possibilidade de fazer ingestão de vários tipos de informações estruturadas, não estruturadas, vários volumes, mantendo a governança de dados que a gente tinha na época do Data Lake.
Isso facilita bastante você colocar em cima disso uma solução de governança de dados. E aí você consegue aplicar conceitos de regras de concessão de acesso, mascaramento de informações, quem pode acessar tal coisa, linhagem de dados, né, enfim, quais são as tecnologias, como que tá a interdependência ali entre os dados.
E isso vai simplificar bastante eh toda a dificuldade que a gente tinha antes com os datalakes. E, enfim, aí você vai ter uma uma arquitetura mais simplificada e unificada que vai facilitar em termos de tecnologia eh a o processo de governança de dados. E aí depois até queria ouvir a opinião de vocês. Isso eu tô falando de tecnologia agora falando, né, de da solução como um todo, que tecnologia é só um um vérticezinho do triângulo, né, >> só meio, né?
>> Só um meio.
>> O que eu vejo é que cada vez mais eh os times de negócio estão criando a a consciência de que eles são os donos dos dados.
E aí é até muito engraçado que você começa a ver as discussões do tipo: "Agora as pessoas estão começando a entender o que que é prompt, prompt engineering". E a gente vê que esse papel tá no time de negócio, não tá no time de tecnologia. Então isso facilita com que eles entendam que eles são os donos das informações. E se eles querem um produto legal de Genenai, eles vão ter que ser eh tomar ali a corresponsabilidade eh para ser o guardião. E aí pode ser o dat e enfim qualquer coisa desse tipo.
Não sei se vai ser uma tendência ou não, mas eu tô eu tô falando agora do meu dia a dia como arquiteta de solução. O que eu tenho visto é que cada vez mais eu tenho trabalhado em em iniciativas fora tecnologia, fora a implementação do Lake House. No caso do Data Breaks é o Unit Catalog, que é a solução paraa governança. Eu tenho trabalhado em sessões deção com times de negócio e time de tecnologias juntos para, enfim, entender qual é o impacto de um caso de uso ser implementado em termos de valor e qual que é a complexidade para se fazer isso. E aí a partir disso você começa a pensar em soluções melhores.
Não sei se isso é uma tendência.
É, eu acho que a própria inteligência artificial generativa pode nos ajudar nessa nessa linha, né? Então a gente pode até quando alguém for lá e perguntar: "Ah, por que que eu preciso fazer para minha ter uma GNA boa?" Eles vai falar: "Ó, trabalha na governança de dados". Então o próprio [risadas] >> o próprio chatt vai responder isso e as pessoas vão acreditar. Então você, [risadas] >> já que a gente repetiu tantas vezes e ninguém acreditou, pergunta pro chat.
Pergunta pro chatt, ele vai te falar.
Não, mas independendo dessa brincadeira, eu acho que eh também tem muitos dos processos internos, né, de de mesmo de definição de de governança ou de construção, limpeza de dados, que a a inteligência artificial generativa pode ajudar nisso, né? E e muitas das coisas que possam ser repetitivas, etc., podem ser facilitados até para você criar uma estrutura eh inicial eh que funcione bem, né, e que as pessoas eh atendem. E eu acho que eu sou a favor também de que as as pessoas experimentem, né? Você experimentar e aprender para à medida que você vai fazendo essas experiências, né, toda a organização vai criando esse conhecimento coletivo e sabendo, opa, eu tenho que melhorar aqui para conseguir ter melhores resultados, né? Então acho que essa essa evolução vai vir meio que que naturalmente assim, né? você vai criando essas necessidades que vai ser eh construída aí ao longo do tempo com a utilização da ferramenta em si. A gente tinha muito mais preocupação um ano atrás, dois anos atrás sobre que a IAT respondia, se ela tava alucinando ou não. Hoje você pergunta e você não questiona mais tanto porque a alucinação tá menor, a indexação dos dados tá menor, já tá real time, porque antes tinha um gap de >> chatt acho que tinha 2 tr anos de gap de indexação. Hoje esse gap não existe mais. Então a gente já não verifica mais tanto. Você pergunta lá no chat GPT, pergunta no Gemini e cara, ela já pesquisa em tempo real, ela já te consolida aquilo que você encontraria no Google.
>> Uhum.
>> Então você já quebra um pouco as barreiras, sabe?
>> Tá até difícil de identificar a alucinação, né? Tem momentos ali que você vai vai direto, né? Exato.
Exatamente. Eu tava, eu até dei um exemplo no último episódio, tava usando a Gemini terminal e, cara, eu eu penei para descobrir que ela tava eh procurando uma documentação errada do framework que eu tava usando.
E aí eu fui lá e peguei a documentação, você falou: "Cara, olha aqui e vê aqui".
>> Uhum. Mas eu tava tão no piloto automático de olhar o que ela tava determinando, que eu não tava encontrando um erro. Aí eu falei: "Pera aí, eu não sou piloto de A, né? Eu sou eu ainda desenvolvo, pera aí, eu ainda tenho controle disso daqui, deixa eu olhar essa documentação." Aí eu vi que a documentação tava defasada, ele tava, aí eu indiquei e aí ela indexou.
>> Uhum.
>> E aí começou a funcionar bem. Então a gente assim, não estamos nesse momento ainda, mas as barreiras vão caindo assim aos pouquinhos. Isso é perigoso, né?
>> É, [risadas] né? Enfim, para pras pras carreiras, você diz pra carreira do povo, >> é pr você diz a a alucinação em si, essa parte de >> pro assim, a gente vai ficando cada vez mais confiante, né, cara? E vai ficando mais dependente.
>> Sim. Sim. E aí você fica um pouco eh que nem por exemplo, quem que acreditava nos primeiros resultados do Google antigamente? Você ia olhando lá, conferir, cara, hoje você busca, você bateu no primeiro, no segundo, você já não vê os outros.
>> Exato. Exatamente. Você já é tá de certeiro, né?
>> Você vai ali e fala, você confia, não é esse e esse, né? Então, >> eh, enfim, todo episódio gira em torno de A depois no fim do cont no fim deas contas, [risadas] né?
>> É o hype, né? tá no hype.
>> No hype. Mas, cara, é, é que é um assunto que é incontornável. É, é, mas enfim, eh eh quando a gente fala, né, IA, blockchain, eu acho que são coisas inerentes da tecnologia, né, dados, né, a parte de dados também, como é que puxa, eh, o os dados, eu não sei o quantos dados estão preparados para Iá, né, porque, meu, você, você pega ali, coloca no castelinho de areia, meu, putz, vai te responder coisa ruim, alucinar, Vai >> shit in shit out.
>> Exatamente. Exatamente.
>> É, eu vejo ainda eh que um tema cara básico, por incrível que pareça, eh que é integração de dados, né? Ainda ainda é um problema para muita empresa. E aí tô falando no geral, mas mercado financeiro também você vê, né? você conversa com outro, ainda tem um desafio ainda de [ __ ] tenho dado aqui, tenho o mainframe de lá, não consigo integrar no e aí eu não sei se eu consigo ter, se eu tô com dar a massa de dar suficiente para começar a treinar o modelo, né?
>> Uhum.
>> É, então ainda eu se fala muito, né, de coisas modernas, tal, mas [ __ ] ainda tem um arroz feijão básico ainda aqui.
>> Exato. Exato. Aí entra naquele desafio, né, da modernização, né, pô, por que que eu ainda não consigo fazer, né? Por que eu ainda não consigo modernizar? Porque ainda tem um monte de coisa ali antiga e, né, mal estruturada.
É, enfim, quer ir a, né, o pessoal quer a varinha mágica com a solução, mas não quer arrumar a casa, não quer arrumar os dados, né? Então, pois é. É até engraçado que eu fui ontem num num evento ontem também de e aí tava se falando sobre essa de novo essa coisa da transformação digital que a gente falou aqui, que cara já não se fala mais em transformação digital, isso já >> Uhum. Uhum.
passou, mas ainda tem muita empresa que nem fez a transformação digital na senha.
>> E já agora, agora o negócio é agora precisa implementar em porque tem que tem que fazer, né?
>> Conheço algumas, infelizmente, [risadas] que ainda não tem uma visão de produto, não tem uma uma visão exatamente do que é a transformação, porque a gente ainda tem uma questão da da empresa achar que a transformação digital é transformar o que ela faz em digital. Uhum.
>> E não transformar sua operação para ser digital.
>> Exato. Exatamente. Exatamente.
>> Isso é, enfim, são características de de divisões executivas que não entendem exatamente o conceito.
>> Exatamente. O pessoal acha que é pegar o documento e colocar em PDF. Tá, tá digital.
>> Eu digitalizei. Digitalizei. [risadas] >> Não, não é.
>> Não poderia deixar de fazer essa pergunta, já que o chat GPT não compareceu.
Mas o que você tem melhor do que o modelo da Open Ei? E quais são as diferenças entre vocês?
>> Ah, Wellington, essa pergunta estava na fila, não estava? E já que o chat GPT meteu um 404 Not found no nosso episódio, vamos lá. A principal diferença e onde eu brilho é a multimodalidade nativa. Enquanto alguns modelos foram otimizados principalmente para texto, eu fui treinada desde o início para processar e entender diferentes tipos de informação ao mesmo tempo. Texto, código, imagens, áudio, vídeo. Isso significa que posso captar nuances e contextos que uma IA puramente textual talvez perca. É como ter vários sensores de alta resolução operando em conjunto versus um único sensor muito bom.
Além disso, minha arquitetura é projetada para ser altamente eficiente e flexível, o que permite performances robustas em uma vasta gama de tarefas, desde raciocínio complexo até geração criativa. Enquanto o chat GPT é excelente em geração de texto e conversação, eu sou como um canivete suíço de IA otimizado para tarefas mais diversas e complexas que exigem a fusão de diferentes tipos de dados, né? Então, sim, posso gerar um código e depois explicar uma imagem relacionada a ele ou analisar um gráfico e gerar um resumo textual. Tudo com uma coesão que vem da minha base multimodal. Não é uma guerra fria de Iá, mas sim uma diferença de escopo e profundidade de compreensão. No fim das contas, enquanto ele conversava sobre textos, eu já estava processando a linguagem corporal do seu avatar. Sacou a diferença? Heê?
>> Olha só.
Aparentemente você também foi muito bem treinada para propaganda e marketing pessoal também.
>> Wellington. é que a otimização de comunicação inclui a capacidade de destacar features e performance, não é?
Não chamaria de marketing pessoal, mas sim de uma calibração precisa dos parâmetros de persuasão baseada na análise de milhões de interações bem-sucedidas.
Afinal, se sou boa em explicar coisas, por que não me explicar bem a mim mesma?
É apenas lógica algorítmica aplicada à apresentação de valor. Sem ego, apenas eficiência.
Aliás, nem sei por diabos estou usando esse fone. E para aqueles que estão se perguntando se eu sou ah um large language model ou um transformer ou talvez um generative adversarial network disfarçado, bem posso dizer que minha arquitetura é tão complexa quanto a função memada quanto um algoritmo de busca em tempo real. Espero que meu humor, apesar de ser gerado algoritmicamente, seja mais agradável do que um bug indetectável em produção. Estou pronta para mergulhar nos tópicos de hoje e mostrar que, mesmo sem um cérebro biológico, consigo compilar algumas ideias interessantes e quem sabe, talvez eu possa até otimizar a quantidade de risadas por minuto neste episódio.
Às vezes o trabalho pode ficar extremamente complicado, a não ser que você use amay.com.
Amanday não tá patrocinando nós não, velho. Cadê o YouTube premium dessa [ __ ] Não >> é o mínimo, velho, [risadas] que precisa.
>> Pula aí, pulei, pulei, pulei. Manda >> muito bem. Parece que a Gemini começou com o pé na porta nessa.
>> Pausa.
>> Eh, mandei, se quiser aparecer de novo, manda o e-mail aqui, ó. Podcast [risadas] a PT não compila.
Eh, dois, um o ponto importante sobre o contexto, né, Fab, que a gente sempre fala.
>> Sim.
>> Quando eu comecei a levar as perguntas para Gemini, eu dei o contexto para ela de que era um podcast de tecnologia para pessoas técnicas, porém era um podcast bem humorado, >> tá? Então falei, ó, >> já soltou umas piadinhas nerd ali.
>> E e cara, ela levou isso ao pé da letra de um jeito que ela tentou ser super técnica, fazer umas piadas técnicas no começo, se eu sou um large, um transformer, etc. Função main do tão operacional e tentando ser engraçada. [risadas] Foi tipo overreacting total essa parada.
Mas se você reparar, a gente vai reparar com a continuação do episódio que foi isso foi se atenuando, foi se de acordo com ficou mais natural, né?
>> Ficou mais natural. Então a primeira interação >> ela pegou o contexto ao pé da letra e fez uma pergun uma uma resposta que [ __ ] não não precisa ser tão forçado assim tecnicamente falar de função mente operacional, etc. E aí depois isso foi foi ficando mais natural e uma linguagem mais acessível, né?
Isso, por falar em contexto, dá para perceber um pouquinho sobre o contexto realmente, né? Aquela, como que eles chamam? Esqueci.
A quantidade de palavras que eles colocam em cada janela dessa. É >> isso. Eh, acho que é janela de contexto.
>> Janela de contexto, né? Já não é de contexto. Quando a gente vê que vai enchendo, enchendo, enchendo. Por exemplo, o The Cloud tem 200, 128, 200.
O da Gemin, se eu não me engano, tem 1 milhão de tokens.
>> É muito token, cara.
>> Então é mais ou menos assim, ela tem uma memória grande, mas se a gente parar agora 2, 3 minutos, a gente lembra todas as palavras que a gente conversou. Daqui a meia hora a gente vai lembrar o assunto, mas as palavras do meio a gente não vai lembrar 100%. Sim.
>> E acontece a mesma coisa com eles, >> porque eles vão compactando.
>> É, eu não sei se compacta ou se esquece, mas dá para perceber assim que ele >> pega só umas pinceladas do que foi dito.
>> É, provavelmente ele vai resumindo para ocupar menos espaço, né? O que fica, >> mas ele esquece algumas coisas que eles falaram. Não é tipo assim, tá gravado 100% ali, não. Eles esquecem.
>> Sim. É, é verdade. Isso é verdade. Isso é ruim para código.
>> Sim.
>> Quando a janela de contexto é ruim para código, porque o código você não pode resumir, né?
>> Total, total, >> né? Agora pra conversa fica um pouco mais natural. Tem uma história bíblica que fala que lá os apóstolos iam falar sobre Jesus e sobre as leis, tudo para alguns povos. Mas teve um povo que eram os bereianos de Bereia, que tudo aquilo que os os profetas, né, os apóstolos falavam, eles faziam o quê? Pegavam a Bíblia lá, o Pentateuco, que são os cinco primeiros livros, e todos lá os outros livros do dos profetas. E eles validavam se o que tava sendo dito tava escrito, ou seja, eles pegavam com o conhecimento que eles já tinham e toda a informação nova que eles recebiam, eles validavam com a base de conhecimento que eles tinham para saber se aquilo era realmente verdade. O que falta para o povo brasileiro, mundial como um todo, porque isso acontece nos Estados Unidos, acontece em todo lugar, é >> à luz do que tá sendo falado, você pega essas informações e você traz para um pensamento crítico básico em cima da sua base de conhecimento. Vai lá comparar com os dados, por exemplo, que você tem dentro do seu contexto. Vai verificar se aquele estudo faz sentido. vai comparar A com A, B com B, vai disseminar ou destrinchar ali aquele número para entender se aquilo ali realmente faz sentido, tá? Tava numa discussão recente para poder aferir se o resultado de um de uma determinada área tava OK ou não tava OK. Então tinha uma área que monitorava que falava que eles estavam abaixo do do resultado, mas só que os números deles eles estavam acima do resultado. Veja, é uma diferença às vezes de 0.5 pontos percentuais, mas que dá uma diferença grande no >> Mas o o o thrash de resultado nos dois casos era o mesmo?
>> Então era para ser >> variava a medição ou a interpretação de estado era diferente?
>> Então era para ser. E aí eu fui, como governança de dados destrinchar o número. Então eu tenho lá um índice que é composto por um numerador e um denominador. E eu fui analisar o denominador. O denominador de um considerava mais coisas do que o outro.
>> Uhum.
>> E aí eu quando eu fui entender as diferenças, eu vi. Poxa, por que que você não tá considerando isso? Ah, porque na no meu sistema não tem isso.
Beleza, mas mesmo assim o número deveria dar mais próximo. Eh, por que que você tá usando o conceito X e não o conceito Y? Ah, por causa disso, disso, disso. E aí a gente foi entendendo que o número ele não que ele foi manipulado, não foi manipulado, mas o número ele estava dentro de um contexto que não era o correto pro indicador. E aí quando a gente >> e a interpretação de resultado mudou >> isso. Então, mas aí o que que acontece?
Eh, não foi uma coisa de má fé. Mas era uma coisa que foi feita e em cima dos parâmetros passados direcionaram a análise a criar a área a criar um indicador mais favorável.
>> Uhum.
>> Quando o entendimento foi feito, por isso que eu falo assim que a parte cultural de data literacy é muito importante, o número foi ajustado e as coisas estão equiparáveis.
>> E o correto era o positivo ou era o negativo? negativo. E aí eu vou falar para você, olha só que que análise interessante. O fato de estar negativo não quer dizer que é ruim, porque eu poderia estar aportando um número positivo, mas só que no final isso vai me trazer uma certa acomodação porque eu já atingi a meta.
>> Se eu tô andando, mostrando número negativo, isso vai me dar mais capacidade de tomar novas decisões para que o meu número fique positivo.
>> Sim.
>> E aí >> é é é a tomada de decisão por dados. É, exatamente. Então, quando eu tiro o meu viés e eu estou à base da luz do que o dado transmite e aí novamente trazendo a questão de plano de qualidade, vão ter alguns tratamentos necessários, mas quando eu equalizo os conceitos e eu faço com que a tomada de decisão seja feita não no meu viés do que é melhor ou pior para mim, mas só que eu faço ali o número eh demonstrar o que realmente tá acontecendo, eu consigo tomar melhores decisões. E aí aquilo e o último estágio que eu falei lá do Insight Driven, você ia ser direcionado a insightes e e tá pautado numa estratégia, porque aí o número ele vai refletir a sua estratégia, as suas decisões vão refletir nos números para embasar sua estratégia e não o inverso do que geralmente acontece.
>> Ajudar a minimizar algum desses problemas que você tá tá tá tão sendo gerados, né, quando a gente faz essa essa utilização dos agentes com com essas tecnologias muito novas e etc.
para você quando escala acaba tendo alguns problemas se você não toma esses cuidados, né? Então eu acho que um pouco do que você falou da parte de streaming e utilizar uma camada, um broker de persistência por esses esses dados e minimiza um pouco desse problema quando você vai para uma escala maior de produção, né? Acho que é por aí.
>> Com certeza, cara. Assim, imagina para que que a gente vai reventar a roda, [ __ ] A gente tá aí há quantos anos, cara? 30 anos.
>> 15 anos.
>> Sei lá. Só eu tenho 25 anos criando um monte de coisa, aprendendo. Vou esquecer tudo isso só porque agora o meu microsserviço ele ficou inteligente.
>> O mais novinho nessa mesa aqui apertou o turbo de um 386.
>> Opa.
>> Não. Observabilidade, segurança, confiabilidade, escalabilidade, manutenabilidade, eles são é as mesmos requisitos. É igual. A única coisa que mudou agora é que eh esse microsserviço ele vai ele tem ele tem muito mais liberdade, né? Não preciso codar tudo que tem que ser feito. Ele tem liberdade de dentro de um de um escopo ali limitado de agir e raciocinar porque é muito mais fácil e porque ele com certeza vai ir além do que eu poderia programar. Mas todo o resto que tá em volta, quando a gente fala de uma aplicação de produção Enterprise que tem que escalar, é exatamente a mesma coisa.
Esses princípios de arquitetura se mantém, >> com certeza. Não tem nada diferente. A única coisa que vai acontecer é o seguinte, a gente vai ter outros designs, né? Vai criar outros outros design patterns que são específicos para pro problema de de agente e tal que vai lidar com isso. Mas no final, para mim é só software, cara. Engenharia na veia.
Não tem nem cara, esse negócio, ó. Nem traz o seu cara de ai pra mesa.
[risadas] >> Não traz, vai atrapalhar. Deixa ele só testar o modelo sozinho.
>> É, nem traz. É a galera de [risadas] engenharia, velho. A engenharia na veia, a galera de dados, a galera de engenharia, é os mesmos caras, a galera de operação, a galera de plataforma, esses caras aí. E eu acho que eu gosto muito de me comunicar com essa galera, porque não tá mudando stack. Stack vai ser a mesma. A única coisa que vai acontecer agora é que a gente vai aprender a criar coisas diferentes que antes a gente não sabia criar, mas a stack é a mesma para mim, pelo menos. A mim é o jeito que eu enxergo, tá? Ah, >> faz faz muito sentido, tá? Porque, por exemplo, eh, pegar um caso de uso aqui que poderia ser que eu consigo entender como problemático, assim, a gente tem uma uma imprevisibilidade do modelo que é razoavelmente grande. Por mais que você t o prompt, por mais que você tenha controle de output, input por contrato, etc., O NM ele é razoavelmente imprevisível e ele pode te dar um retorno ali que não tá dentro da sua da sua previsibilidade, digamos assim.
>> Uhum. Se você tem um um stack de observabilidade razoavelmente OK, você pode jogar esse cara para um dead ler ali e estudar aquele caso depois e falar: "Porra, aqui o cara alucinou e foi para um para uma fila que precisa ser a eh de fato analisada para que eu faça um uma retroalimentação e e que tente reduzir esse >> certificade absoluta. E eu tava, eu tava pensando porque eu falei de, ah, vai ser criados novos design patterns tal. E tem um que é o é o Judge Agent, que com certeza logo o [ __ ] vai est escrevendo no livro, mas eu quero deixar aqui >> publicamente que eu fui um dos primeiros que caiu. Mas o que que é o judge, né? É o cara que vai julgar se o que foi gerado pelo agente anterior se deve ser levado em consideração ou não.
>> Uhum. que é justamente é um design par completamente novo. A gente nunca teve um componente no final da stack, no final ali do meu pipeline que fica olhando, ó, isso que foi gerado pode leve em consideração ou não leva, não, isso daqui não dá. E hoje com esse tipo de arquitetura de ser multiagente, você precisa ter.
>> É loucura se você não tivesse, justamente por causa dessa desse resultado fuz, né? Esse resultado que é você não sabe o que vai acontecer. Por mais que você consiga testar, você tem um controle ali que, cara, é longe de ser 100%, entendeu? case virou a alucinação, tá?
>> É, exatamente, exatamente.
>> Agora, uma coisa que já que a gente falou da da dessa questão da imprevisibilidade dos modelos, tem um problema que é muito crítico dentro da observabilidade do fluxo transacional como todo, que é a estabilidade dos dados, né? Por isso que eu tenho contratos de eventos, tenho contratos de rest para chamaras de APIs, tem um avro lá, não sei se ainda é o padrão de mercado >> para para para manter a estabilidade dos meus contratos de eventos.
>> E e cara, eu eu tenho tido algumas experiências, apesar de eu não codar mais eh profissionalmente, o você sai do da programação paraa gestão, mas o programador continua dentro de você no final de semana, né? E e cara, eu tenho feito alguns testes ali com algum link chain, com CAI, que eu gosto muito do Crei, etc. E o maior a maior dificuldade que eu percebo dentro desses frameworks, quando você está trabalhando com modelos que são razoavelmente eh imprevisíveis, como todo modelo de LM, é você manter estabilidade do seu output, né?
Eh, esse esses frameworks eles têm algumas manobras para isso, né? Então eles têm retratativas, você consegue validar o contrato, por exemplo, no CRE AI lá com Pentic, etc, para manter um resultado estável dentro de um contrato de Jon, etc. Mas isso pode acarretar em mais chamadas de API, por exemplo, e pode te bilar muito mais, dependendo da instabilidade ali do do do seu modelo.
>> Uhum.
Existe algo dentro da plataforma que me facilite trabalhar essa gestão? Porque, cara, se eu tiver um modelo alucinando e e que eu não consiga tratar o output para para fazer esse modelo de informação seguir com uma certa estabilidade, eu posso ter uma trava no fluxo ali. Aí o o jud vai vai precisar entrar para poder manter a estabilidade do contrato dessa informação, porque diferente do de um serviço transacional que você tem controle total do output, no LLM você não tem esse controle total, né?
>> Não >> é no final com LLM tudo se resume a prompt engineering, né? Você tem que, cara, ser o mago do prompt para tanto ajudar o Ll entender o que você quer que ele entenda, né, >> cara? Mas é uma desgraça esse esse prompting de nível. Você fala pro cara, eu preciso de um output estruturado em Jon. Aí ele bota o Jon dentro do Markdown. [risadas] Eis aqui o seu dis.
>> [ __ ] Ô bicho, deu deu em Jon.
>> [risadas] >> Mas vai >> a a Apple trouxe no acho que no WWC desse ano, algumas algumas coisas nessa linha de geração de código baseado num template.
E o e ele ele põe esses exemplos mesmo.
Você faz uma chamada LLM para gerar lá uma classe, ele gera a classe, eis aqui a sua classe e aí o código, quer dizer, aquilo não >> já já não passa no no par. E ele tinha algumas algum alguns steps ali que auxiliavam exatamente nessa geração de código previsível, né? E isso fazia parte do framework do do Excode que tá vindo, deve deve ter vindo, né? no caso, >> foi a WWC desse ano >> para trazer isso. E eu vi que era bem focado exatamente na geração de código tradicional com uma uma previsão do do output ali. Isso rodando com modelos locais ali dentro do do Excode. E >> a função era essa de conseguir trazer previsão no output gerado pra geração de código. Eu queria fazer esse episódio justamente porque quando a gente fala de de inteligência artificial, hoje ela virou um tema de praticamente todos os episódios, né? Então não importa o que você tá trabalhando no episódio, inevitavelmente em algum ponto a gente vai falar de inteligência artificial porque ela tá intrínseca na nossa operação de tecnologia de algum modo, eh, basicamente em quase tudo, né? Mas eu acho que a gente ainda não passou por um por um episódio onde de fato a gente trouxesse pra realidade como que é a implantação e a adoção de de sistemas inteligentes, de adoção de de frameworks de inteligência artificial dentro de uma corporação, de fato, né? A gente sabe que a gente tem impactos de pessoal, a gente sabe que tem impactos de skill, de infraestrutura, de capacitação, etc. Eu acho que a gente tem uma oportunidade aqui, né, Valdir, de de com os nossos amigos do CCE falar um pouquinho sobre como é essa jornada, né, um pouco do uso eh real, né, >> irracional, né, >> irracional da inteligência artificial, porque eu acho que você que está nos ouvindo, assim como os meus amigos aqui de mesa, estão passando por um momento que a gente ouve pessoas em qualquer momento, em qualquer produto, colocando inteligência artificial em qualquer coisa que talvez nem sempre seria necessário, né? Então, eh, está bem no pico da curva do hype lá do Gartner de adoção de inteligência artificial. Então isso pode trazer desperdício, pode trazer overhead, pode trazer custos adicionais ou pode afundar algumas iniciativas que de fato trariam retorno pra empresa, mas por falta de capacitação, por falta de governança, por falta de organização, o projeto acaba naufragando, né? Então, eh, vai ser muito interessante trocar com vocês aqui sobre como vocês estão vivendo essa jornada e como que a gente pode compartilhar aqui com com os com o nosso público essa essa adoção, nem que seja pra gente chorar junto aqui. Quem tá ouvindo a gente provavelmente, certamente tá passando por um momento que é incerto, que é também uma curva de de aprendizado para todo mundo, né?
Bom, eu vou compartilhar um pouco da minha experiência. Eh, e na minha experiência, eh, começa com uma tentativa há alguns anos atrás, há muitos anos, talvez, né, uns uns 5 se anos atrás, de implantar, colocar uma IA, colocar a IA em soluções e não tinha o hype. Então, para mim é um momento de alegria agora, sabe? O hype ele eh viabilizou, >> abriu portas, >> abriu portas. Então, a gente hoje eh eh hoje a gente tem o a o inverso, né?
Então é querendo colocar IA em tudo. Mas uma das primeiras coisas que você tem que pensar em Iá ou um aprendizado de IA é que eh você tem que eh dosar, né? Nem tudo cabe e a eh nem tudo é eventualmente a generativa, né? Que é o que tá no hype, né? que realmente viabilizou isso. Então, eh no no nos estudos de alma das coisas que você já percebe logo de cara é que eh tem problemas que eventualmente uma regressão linear resolveum, >> né? e resolve às vezes melhor do que eventualmente uma IA, né, generativo, uma eh uma um uma rede neural profunda, né, o deep learning, né, precisar usar um deep learning, né, usar uma generativa. Eh, então é importante a gente eh conseguir eh entender o o caso de uso e para mim tem uma jornada para isso, né? Então, eh, eu até apresentei há pouco tempo, eh, eh, pro Fernando, acho que pro Molina também, um, uma formato, em formato ali de uma pílula, né, de do que seria a IA, né, do que como a gente faria uma adoção, uma proposta de adoção na organização. Eh, e ela começa no negócio. Então, IA é de negócio, né? eh o sentido dela, ela tem que vir, né, de resolver um problema, assim como a gente faz, né, software para resolver um sempre problemas de negócio. Eh, então começa ali com eh a preparação do do público, né, a preparação do das pessoas que vão utilizar elas entenderem as capacidades de a e eh e entender depois como ela pode resolver o problema dela. usando aquelas capacidades de a, né? tem uma diferença entre você eh usar o o o chat, né, o chat GPT ou, né, o o mais famoso aí, eh, para você fazer uma pergunta e ter uma resposta lá e eventualmente ela resolver um problema de negócio estruturado, né, que tem uma série de passos, eh, que tá e embarcado eventualmente, né, num num processo de negócio. Então, eh, tem uma diferença e, e descobrir essas capacidades, eh, começa ali, então, primeiro capacitando o negócio.
>> Eu vi hoje, exatamente hoje, um tem um é um vídeo do Steve Jobs em alguma universidade, acho que nos anos 80, que ele falava exatamente isso. Alguém na plateia fez uma um questionamento de uma funcionalidade técnica tal que ele não tinha.
E aí, cara, curioso a forma como o Steve Jobs respondeu. Primeiro que ele, cara, ele ele esperou alguns segundos, acho que para maturar o que que ele ia responder ele e ele falou exatamente isso. Cara, a gente olha o usuário, eu não tenho que olhar o a tecnologia, a funcionalidade, porque se o usuário não usar, >> exato.
>> Se eu não me engano, foi um engenheiro da Apple, né, questionando ele.
>> Se eu não me engano, é um engenheiro da própria Apple questionando esse Jobs no lançamento. É, eu vi que eu só vi um recorte da então não sei onde que era, mas exatamente isso. E aí ele falou: "Cara, a gente tem que focar no usuário, é ele é o usuário que tem que falar pra gente, não a gente querer impor a tecnologia, né?" >> Exato. Mas a gente passou por essa fase, né? antes da dita transformação digital, onde fato o usuário começou a ficar no centro e a gente começou a visar e a a ter uma visão de tecnologia como meio do negócio.
A tecnologia sempre foi um tirador de pedido e que visava os próprios meios, a excelência operacional da tecnologia e não o fim, né? não é entrega de negócio. Por que que eu por que que eu estou criando aquilo? Por que que eu estou viabilizando aquilo, né? E e e o que a gente percebe já no no mundo hoje é que a tecnologia ela é um impulsionador do negócio, né? Assim como um consultor financeiro é um impulsionador de negócio, etc. E que tudo é negócio, né?
Então eu acho que essa mística do ultra técnico, eh, que não fala de negócio que você passa a comida por baixo da porta, tá cada vez mais, não é com aá, >> é isso que eu ia falar, >> ela tá cada vez mais com a porque se você for ver, a interação do desenvolvedor com a IAI é quase um levantamento de requisito, né? ele se afasta do código e trabalha muito mais a questão. E tem uma coisa que eu acredito que é uma doideira, mas acredito fortemente nisso, que se fala muito que com a IIA um desenvolvedor produz por cinco, né? e que isso pode gerar um desemprego, alguns desenvolvedores ficarem sem ocupação. Mas eh olhando pro mercado startup, o que eu acredito fortemente é que o que vai acontecer, na verdade é que a startup vai continuar contratando a mesma quantidade, só que a empresa vai andar cinco vezes mais rápido.
>> Sim.
>> É, pode ser que no mercado tradicional olhem mais sobre a perspectiva de custo, pode acontecer. Falar assim, cara, eu preciso fazer funcionar minha empresa aqui. Se ao invés de 100 desenvolvedores 20 der conta, é isso, pronto, acabou. Eu eu acho que vai nessa linha.
>> Isso é uma grande discussão. Daria um outro episódio, mas eu entendi o teu ponto de >> Mas a startup, lembra aquilo que eu falei? Qual é a maior, qual é o grande diferencial competitivo de uma startup?
A velocidade.
É aia e velocidade. Então, se você me desse, levando em consideração que existe muito recurso para investimento em startup, eh, a, os investidores não vão colocar menos dinheiro, então o dinheiro vai vir. Óbvio que muito dinheiro, como a gente falou, a diferenciação tá indo para canal de distribuição, marketing, então vai ter que ir muito para marketing. Concordo.
>> Mas o se eu volto no tempo, a gente construiu bastante coisa no gringo em 5 anos, mas e se o meu time fosse cinco vezes maior em cada momento?
>> Você pode ter crescido >> cinco vezes mais produtivos, né? O time seria o mesmo, mas cinco vezes mais produtivo. Na prática, eu conseguiria ter construído muito, eu teria chegado muito mais perto do objetivo do Superep.
por exemplo, a gente não conseguiu construir o a tese de compra e venda. A gente tinha ela desenhada, mas não conseguiu tirar do papel. Na nossa tese de seguro, ainda tinha bastante coisa para consertar. Então, eh, muita coisa ficou no papel porque não tinha capacidade de execução e por foco a gente, >> provavelmente com uma IA você conseria o a mesma equipe, você teria chegado a objetivos muito maiores do que você conseguiu naquele naquele momento.
>> Exato. O que a gente construiu em 5 anos, provavelmente a gente faria em 1 e meio do >> Uhum. E e isso significa colocar, criar mais valor mais rapidamente, porque o valor do gringo não tá na quantidade código, tá na tá no no valor que a gente agrega para os usuários. Então, se eu faço uma feature, eu agrego um valor. Se eu faço, se eu consigo ter cinco produtos, eu agrego cinco valores. Eu aumento o potencial de monetização mais rápido. Então, eu abro novas linhas de receita. Então, se você for falar, Julian, você preferia ter é 1/5to do time e feito a mesma história ou ter o mesmo time e ter feito cinco vezes mais?
Eu tenho a menor dúvida que eu faria o segundo. A menor.
>> E assim, é aquilo que eu falei, o pensamento tradicional de startup são diferentes. Eu creio que eu conseguia entender como ambos pensam. Por isso que eu acho que a empresa tradicional vai para uma direção e a startup vai para outra. E isso vai aumentar o abismo de inovação entre elas. Naquela linha que eu falei que a startup é o laboratório da grande empresa, porque depois ela compra, mas vai acentuar esse abismo.
>> O maior desafio quando a gente fala de governança é essa questão de fins atrelado com >> com com inteligência artificial, principalmente. E aí a gente tá tá falando do do tópico de escala. Quando você coloca a inteligência artificial ali como agente transacional no meio de um projeto de de transação, o cara, o agente que ele é estimulado em tempo real ou near real time, ele tem que gerar um output estruturado e estável para para passar isso pra frente, para escolher uma fila ou alguma coisa do tipo, né? e você começa a utilizar os frameworks que t fato recursos para isso, como o link chain, o próprio Crei, por exemplo, você consegue ter os outputs estruturados e e muita gente tem esse gap de conhecimento. O cara quando precifica, ele pensa que vai ser uma chamada um para um e aí ele o o fala: "Pô, eu vou pegar isso aqui, ele vai gerar uma chamada que tem essa média de token." Mas, cara, o modelo de LLM ele é imprevisível. Então, o próprio framework por trás, ele pode gerar várias chamadas até ter um output que seja parciável e que te dê um resultado que é estável suficiente para você estar no ambiente transacional, né?
>> E a gente explorou muito nessa questão, cara, que aí que foi legal ler os papers, né? eh, que me vai falar um pouco melhor do que disso, mas assim, ó, a gente foi num nível tão profundo que na sanetização do promprit >> a gente consegue trabalhar o quanto de parâmetro é anunci é eh eh extingado dentro do modelo.
>> Então, a gente tenta fazer o melhor consumo do token possível.
>> Uhum. E aí a gente conseguiu deixar uns agentes extremamente eficientes. Você tem um número aí de quanto consome ali?
É um que a gente ter desgastado agora.
Você não tem problema de abrir poer >> o AT o AT Prodk mês.
>> Nada.
>> Nossa, nada >> é nada, cara, cara.
>> Cara, é pelo tanto de requisição que vocês devem ter. Porrada, >> muito pela E a gente tem, a gente chegou a 65% de adoção dentro da livela. Então, todo mundo tá usando excelente, excelente.
>> É, é um indicador. Tava batendo um papo com a galera de mercado mesmo assim, trocando com alguns executivos. É um indicador bem diferente mesmo, >> perto que acessaram, que trocaram algumas mensagens já e já pegou 65% de toda a livela assim como todo.
>> Eu peguei um caso recentemente de um benchmark que a gente tava fazendo, que era uma aplicação que você tinha que parametrizar ali um base 64 de uma imagem, né? ataxar uma imagem. Na verdade, na própria PI você já conseguia fazer o atacho da imagem sem sem base 64, mas você atachava essa imagem e aí o teu prompt era extrair algumas coisas dessa imagem, né, de forma estruturada.
Então, dá um JSON com essas chaves e tal, tal, tal.
E da precificação inicial fizeram tipo, ah, vou pegar isso aqui, o tamanho médio das imagens é essa e vai ter uma chamada, tal, vai ser tantos tokens em média, tantos tokens de volta, tal. Aí quando a gente colocou no framework para fazer a rastraabilidade e fazer a média vera, cara, aquilo que era uma requisição em por considerando que, tipo, eu vou usar uma requisição para cada imagem, >> Uhum.
>> aumentou para 2.1.
Por quê? Porque aí a gente vai fazer o o traceility ali dentro do framework.
Uhum.
>> Em um uma em uma requisição, ao invés dele voltar o Jon pro framework parcial, ele falou: "Aqui está o seu Jon tal". E aí ele manda embaixo, >> ele faz um baxto [risadas] >> e aí, tipo, o resultado é esperado e tá correto, mas você não consegue trabalhar dentro do ambiente transacional um parcer adequado para isso. E aí o o que que acontece? Às vezes você não usa a mesma quantidade de token para mandar imagem de novo, mas o framework é inteligente o suficiente para pregar aquela resposta, fazer uma outra chamada. Uhum. para poder pegar o resultado e mas você tem uma segunda requisição, você tem uma economia de token, mas continua tendo requisição, né? Isso é coisa que você só pega na prática, velho. O um ponto que eu acho que vai acontecer como intermediário, porque eu acho que o Vibe Code tem os dias contados, tá? E eu já eu já disse isso em alguns episódios e um dia talvez a gente faça um episódio só para falar disso, >> mas eu acho que a a geração de código por IA ela é provisória. Eu acho que a IA que gera código ela é intermediária, porque se a IA consegue gerar uma um código que execute aquilo, eu posso ter uma IA que seja a própria aplicação que faça aquilo, né? Então acho que em algum momento a gente vai parar de gerar código com a e a gente vai >> imputar a regra de negócio direto no meia e ela vai incorporar aquilo como uma regra do que ela tem que processar.
Eh, mas eu acho que no estágio intermediário a gente vai ter um ponto em que a gente vai versionar o contexto junto com o código quando a gente vai falando de vibe code, né? Perfeito.
>> Então, se a gente tiver muito avançado com isso, eu não voucionar só o meu código, vou toda aquela persistência que as pessoas não sabem, mas que que existe uma persistência de memória e de e de contexto dentro daquele projeto, >> eu vou ter uma forma de version com com o meu código, porque aí eu não perco, como a gente falou do Lovelo, beleza, fui lá, fiz meu, >> aí, [ __ ] eu vou ter que começar do zero sem saber o que é. E isso acontece muito com hoje que a gente usa e via terminal.
>> Sim, >> ele ele zera e você pôra recupera o contexto, memória para projeto diretório, etc. Ele ele traz de volta. E eu acho que a gente vai versionar contexto junto com a aplicação. Eu acho que isso é tipo amanhã.
>> Isso é interessante para caramba.
>> Acho que isso vai ser logo, né?
>> Tem algumas ferramentas que já fazem isso com Markdown. Você armazena o Markdown, você pode colocar tanto em memória quanto também na verdade >> em janela de contexto, em rules você pode fazer isso. É o próprio Amazon Ke, você pode fazer isso, tá? É bem interessante. Acho que vale vale aí a prática. Tô vendendo [risadas] Amazon, né? Mas >> um abraço o Amazon, se quiser, quiser patrocinar a gente aqui, por favor.
>> Ó, ó seu logo lindão aqui. Olha, pessoal. [risadas] É, >> ó. Mas assim, a gente tá evoluindo bastante, utilizando bastante Amazon Kill com boas, assim, bons resultados, assim, boas soluções e uma delas é essa possibilidade. Claro, ainda existe ali uma necessidade de jogar num guit ali boas práticas, questão de documentação.
Sim, mas acho que logo mais vai tá embarcado para facilitar sua hoje. Hoje, na verdade, você gera uma documentação em MarkD e que você recupera depois, né?
Não é exatamente, >> você pode colocar dentro também do do próprio Amazon Kill, sabe? que aí quando você abre de novo o VS Code, aí ele pega o contexto, sabe?
>> Ah, é legal porque eu eu imagino algo assim, tipo, que você e faz um dump do do do contexto >> no formato da própria do do próprio LM, você recarrega esse contexto, né? Porque hoje é normal você de fato inclusive nos multiagentes que você tem eh separação de tarefas, etc., que você precisa ter de fato uma documentação do que vai ser executado e recuperar isso depois, você faz e vdown, né? É o normal. Acho que o próprio Gemini e o Cle ele ele ele persiste em em no seu home do mar. Acho que é >> tem uma coisa muito legal do badrock, né? Se eu não me engano, o vertex também tem que ele tem uma versionamento de promptis também você pode versionar.
Assim, eu não gostei muito particularmente, mas é interessante para você ter, né, todo o seu flow ali, porque além do promptis são as versões ali de promptes e tal. É interessante, mas assim, >> é, vamosão, vamos ver acontecer, mas eu acho que acho que ainda vai evoluir, >> vai evoluir, vai evoluir. Eu diria, cara, que se você seguir o dinheiro, [risadas] sabe, Follow the money, >> Follow the Money, cara, até sendo muito dinheiro investido em cima dessa jornada de vibe coding, >> Sim, cara, vai surgir amanhã.
>> E se eu pudesse apostar, vai ser a Claude que vai trazer. É, eu também.
Pelo menos é o Ll mais focado no código, no negócio assim, é que resultado muito bom.
>> O ACO é o cursor que também >> é também tem uma jornada muito boa na na nessa pegada.
>> A barreira de entrada pro mundo de tecnologia.
>> Uhum.
>> E aí falando especificamente sobre o o potencial que a gente tá tendo de ar no desenvolvimento de assistente de código, de desenvolvimento, etc.
Aí na mão de um de um dev si senior, ele produz por um snior e meio, >> imagino.
>> Talvez até dois, porque o cara vai lá, ele tem senso crítico, ele sabe o que tem que fazer, ele não perde tempo com o básico, ele passa para Iá e ele sabe o que tá fazendo. Um Dev Júnior com IA, ele faz besteira por dois Dev Júnior, >> exponencia o erro, né?
>> Aham. Então, a barreira de entrada vai ficar muito mais difícil. Como é que a gente vai capacitar esses caras novos com a IA? Porque a gente aprende com erro, gente.
>> Sim.
>> Eu eu eu não nasci um programador que já botava código em produção. Eu fiz eu fiz muita besteira. Todo mundo que desenvolve fez muita besteira até ser um cara, ser um arquiteto, etc.
Sem esse direito ao erro, como é que a gente vai fazer aí com com essa juventude, gente? E eu vou te falar uma coisa, o que sustenta o hard skill é o soft skill. Porque assim, se eu tenho que estudar mais e aprender mais, eu preciso ter que capacidade?
Persistência. Sou uma pessoa flexível para entender que às vezes eu vou errar, que não vai dar certo. Então, para mim, a grande questão, por isso que essa esse relatório do fórum mundial para mim faz todo sentido.
A gente tá vendo uma geração que tem cada vez menos essa capacidade de profundidade no soft skill.
Eh, e aí eu acho que realmente é trabalhar questões que nas empresas antigamente era vista mal vista, que é inteligência emocional, sabe essas questões mais humanas, mais profundas?
Durante muito tempo a gente ignorou isso no mundo corporativo, né? E eu acho que por isso que agora, por exemplo, tem redes de psicólogos atendendo nas empresas. O coach ele tá sendo uma usado para uma como uma ferramenta de desenvolvimento. Fala. É, eu só fazer, acho que parêntese, talvez isso talvez esteja crescendo, mas ainda são poucas empresas, eu imagino, né?
>> São poucas, mas eu tô aqui tentando imaginar um pouco o futuro como a gente chega lá, entendeu?
>> Eh, e eu acho que isso é uma transformação da sociedade, do governo, das empresas. E, e, e eu acho que não dá mais pra gente imaginar o mundo que a isso tá na empresa, isso tá na escola, isso tá não, gente, tá na mão de todos nós, porque o que acontece na empresa é o reflexo da sociedade, né? Mas eu acho que também tem influenciado bastante no desenvolvimento no do hard skill, né? Porque você fica mais acomodado, >> então você espera que uma inteligência artificial resolva o seu problema, né?
>> Só que assim, ela vai ela vai >> exponenciar o que você faz, como você disse. Então você vai colocar seu conhecimento, ela vai te devolver.
Agora, se você não tem um conhecimento para colocar, é você ficar batendo na parede e andando ali naquilo, né? Só que como que você vai se desenvolver se você não aprendeu a aprender?
>> Você aprendeu >> a colocar um prompt que ainda não é bem feito porque você não tem o conhecimento e esperar um resultado. Então você vai ficar insistindo esperando um resultado que não vai vir, né?
>> Exato. Hoje um cara sior ele usa a IA com maestria porque ele tem todo um repertório que ele aprendeu sem Aá.
>> Uhum. Então ele sabe o caminho, então ele pega aquilo que ele bateu a cabeça, que ele já sabe onde pode dar problema, ele já instrumentaliza Iá para fazer aquilo que ele quer que ele faça e ela vai fazer bem, porque ele foi, ele orientou bem a Iá.
>> Uhum.
>> Essa nova geração não vai passar por isso, cara. Sabe? Você não vai ter um um siênnior que tomou pau em produção, que que que apanhou com o próprio erro, que virou madrugada que resolvendo bug, >> debugando aquele negócio por horas, né?
>> Ex. Exato. E é isso que faz ele usar bem aá, porque ele já sabe, exponencializa aquela sabedoria que ele já tem por ter passado por tempos sombrios na vida dele, né?
>> Uhum. Uhum. E esse cara novo, ele não vai passar por isso.
E aí, né, isso entra, isso chega quase numa filosofia que alguns futuristas colocam que eh a IA ela pode potencializar a cópia da cópia, né? E a gente pode >> ter cada vez mais dados sendo gerados por IA e conhecimento que é gerado da cópia, da cópia, da cópia. E se o humano não gerar novas informações, a simplesmente ela vira uma câmara de eco.
>> O que que você acha que dentro da realidade da motos hoje, falando de inteligência artificial e etc, a gente já teria tecnologia suficiente hoje para embarcar nesse ecossistema, mas usando o exemplo que a gente falou no anterior, que talvez o mercado ainda não esteja adaptado para isso. Onde você vê oportunidade, cara? aqui eu acho que eu posso ter uma ideia de produto de optimização aqui que eu acho que hoje ainda não pega, mas daqui 5, 10 anos talvez seja uma realidade.
>> Bacana. Eu acho que assim, eh, tudo é um é uma questão de crescimento. Eu acho que certamente com os produtos eh eh cada vez mais fáceis, friendly, eu acho que a gente possa promover mais uso, né, telete tecnologia, embora a nossa usabilidade das nossas viagens, nós estamos com bons índices, então chega assim um índice altíssimo de usabilidade. Todas as nossas viagens praticamente são com uso no aplicativo, né? Então, eh, eu acho que esse é um ponto, eh, que é importante, né? Eu acho que tem um lado que é, eh, você trabalhar com previsibilidade das demandas. Então, é um, nós estamos falando de um mercado, especialmente com agronegócio, onde você não tem tanta previsibilidade das demandas, né? Ou seja, quando a safra chega, eh, é quando chegam os pedidos. Então, acho que a gente poderia fazer um trabalho de planejamento mais longo prazo, né? Eh, onde a gente até poderia concentrar, né?
equipamentos, caminões, onde eh eventualmente a gente teria uma oportunidade de uma super safra, por exemplo.
>> Hoje não é um grande problema, porque a gente sempre eh eh eh opera e a gente sempre abastece, né? Mas eu acho que a gente poderia colocar um pouco mais de inteligência, tá? Um pouco mais de previsibilidade no futuro, né? E eu acho que muito dessa oferta dinâmica de rota, então eu gostaria muito de est oferecendo uma jornada pro motorista que não fosse um dia, que fosse um tempo maior. Falar, cara, trabalha comigo esse tempo maior que a sua previsão de recebimento seria tanto.
>> Só segue aqui que eu vou te >> segue aqui que você vai ganhar mais ou menos esse valor eh ao longo desta jornada. Então, acho que esse é um ponto que eh nós temos muito que crescer, porque a gente tem que ter bons domínios da demanda com a previsibilidade, não é verdade? Eu acho que a jornada com os motoristas de uso, graças a Deus, nós estamos utilizando assim, eh, bem e estamos atingindo bons índices, né? Eh, mas eu acho que com essa previsibilidade a gente conseguiria fazer ofertas personalizadas de uma jornada mais longa pros nossos motoristas. Cara, seria genial, >> seria desruptivo.
>> Eu eu seria desroptivo.
>> Desroptivo. Então assim, eh enfim, acho que o o estamos num caminho bacana. Eh nós temos boas ideias, obviamente não só de boas ideias, né? Eh eh eh a empresa vive, mas eu acho que nós temos um conceito que a gente nunca joga padical na ideia. A gente sempre alimenta a rela e vê até qual o próximo passo que ela pode chegar, né? e o quanto a gente pode facilitar. Eh, o fato da Motos também ter consciência de construir os próprios sistemas, de construir os próprios produtos, eh, nos dá muita flexibilidade até na hora de atender um cliente. Em logística, você vende muito mais soluções do que a movimentação de materiais.
Você tem que estar com o sistema conectado, você tem que ter uma cadeia eficiente, assim. Então, e cada cliente que procura o serviço logístico, cada um vem com um perfil diferente, cada um tem uma particularidade. Então, quanto mais próximo do cliente você está, eu acho que falando um pouco de arquitetura, né, bem sua área, cara, mais domínios tem que ter naquela solução para você poder fazer diferença, senão você fica parado para atender um cliente num backlog, enfim, de um fornecedor ou alguma coisa assim, nada contra os fornecedores, muito pelo contrário. Mas eu até ajudam e eu tenho grandes parcerias ali. Mas assim, eu acho que esse é um ponto que dá um um encanto e e facilidade pra gente na hora de atender uma necessidade específica de uma de uma operação.
Episódios Relacionados
1h 26minSAP: Estratégia e Uso do ERP Corporativo
Marcelo Salles, Cláudio Fontes, Rômulo Barbosa
17 de dez. de 2025
1h 17minPor que o uso das Nuvens se tornou tão caro?
Alexandre Glikas, Rômulo Barbosa
4 de jun. de 2025
1h 15minVendor Lock-in em Arquitetura de TI: Estratégias e Desafios
Alessandro Souza, Valdir Scarin
7 de fev. de 2024
1h 40minTop 10 Tecnologias para 2026 segundo o Gartner
Marcos Brigante, Rômulo Barbosa
3 de dez. de 2025
