🎙️
PPTNC
HomeEpisódios
YouTubeSpotify
Spotify

PPT Não Compila

Podcast sobre tecnologia e transformação digital

  • Home
  • Episódios

© 2026 PPT Não Compila. Todos os direitos reservados.

N8N e Lovable são o Fim do Dev Júnior? | PPT Não Compila Podcast

22 de out. de 2025•1h 56min
Inteligência ArtificialDesenvolvimento de SoftwareArquitetura de Software

Convidados

Felipe Kimio Nishikaku

Head de IA @ Livelo

Levi Bertolino

Head de IA, Inovação e Arquitetura @ Livelo

Seguir no YouTubeSeguir no Spotify

🚀 Neste episódio do Podcast PPT Não Compila mergulhamos nas revoluções do N8N e da Inteligência Artificial com Lovable, explorando como essas tecnologias estão transformando a indústria! 🎧 Wellington Cruz lidera a conversa junto com Clauber Stipkovic e os especialistas Felipe Kimio Nishikaku e Levi Bertolino da Livelo. Eles revelam como as ferramentas estão sendo utilizadas na Livelo, promovendo inovação e automação! 🔍 Pela nossa jornada, descobrimos como o N8N simplifica as integrações, enquanto o Lovable promete redesenhar o desenvolvimento de frontend. Nossa discussão cobre desde os desafios da integração até as soluções práticas adotadas pelo time da Livelo. ⚙️ Será que a automação está pronta para substituir processos manuais e otimizar operações em larga escala? 🔥 Não perca essa oportunidade de entender o papel vital dessas ferramentas no cenário atual da tecnologia. Ganhe insights valiosos sobre o futuro da TI e participe da nossa comunidade amplamente inovadora! Inscreva-se no nosso canal, deixe seus comentários e compartilhe esse conteúdo com sua rede! 🌐💡 #Podcast #PPTNãoCompila #N8N #InteligênciaArtificial #Automação #Lovable 0:50 Abertura e apresentação 6:11 N8N 10:58 Início de uso de N8N 13:30 Stack 16:25 Estratégias e uso de N8N na Livelo 23:15 Desafios de FinOps e IA 28:35 Arquitetura e uso de N8N 40:45 Treinamento de agentes na Livelo 46:38 Segurança de Informação 56:50 Expert Livelo 59:51 Lovable 1:06:33 Design System da Livelo 1:12:44 Dev Júnior e desenvolvimento com IA 1:21:38 Ferramenta de teste de Regressão em Interface 1:27:55 Visão sobre Futuro 1:38:26 Recado para ouvintes 1:46:21 Dicas para quem quer iniciar com uso de IA 1:53:10 Agradecimentos e considerações finais Convidados: Levi Bertolino : linkedin.com/in/levibertolino/ Felipe Kimio Nishikaku: linkedin.com/in/felipe-kimio/ Clauber Stipkovic: linkedin.com/in/cstipkovic/ Spotify: https://sptfy.in/cohj Youtube: https://youtu.be/tMEdVah-9rc Outras plataformas: https://linktr.ee/pptnaocompila Acompanhe nas redes Instagram e Twitter: @pptnaocompila LinkedIn: https://www.linkedin.com/company/pptnaocompila Produção: Voz e conteúdo | https://www.vozeconteudo.com.br - @estudiosvoz

  • N8N: Facilidade de Uso e Aplicação
  • AI na Análise de Pull Requests
  • Abertura e Tema do Podcast
  • Visão Estratégica de IA na Livelo
  • Automação e Escalabilidade: Discussão Central
  • Promoção e Interação com a Audiência
  • Transição Musical
  • N8N: Popularidade e Foco no Desenvolvedor
  • Desafios do Low-Code/No-Code
  • N8N na Livelo: Escolha e Curva de Aprendizado
  • Complexidade e Governança de IA em Escala
  • Estratégia de IA na Livelo: Resultados e Abstração
  • Stack Open Source e Controle de Custos de IA
  • Transição Musical
  • Otimização de Custos e Eficiência em LLMs
  • Implementação de N8N e AI Interna na Livelo
  • Limites do N8N e Gestão de Expectativas
  • Modelo de Inovação e Governança na Livelo
  • Capacitação e Cultura para Não Técnicos com N8N
  • Treinamento e Mensuração de Valor em Agentes de IA
  • AI Board: Ética, Legalidade e Segurança da IA
  • Promoção: VMBERS
  • Segurança da Informação e Riscos de Vazamento com RAGs
  • Controle de Acesso e Isolamento para Segurança da IA
  • Pioneirismo em Agentes Transacionais de IA na Livelo
  • Experiência com Low-Code para Frontend (Lovable)
  • IA e o Futuro do Desenvolvedor Frontend
  • Otimização do Fluxo de Desenvolvimento com IA
  • Impacto da IA na Capacidade Crítica e Aprendizado de Desenvolvedores
  • Qualidade de Código e IA na Revisão de PRs
  • Gerenciamento de Contexto e Memória em LLMs
  • O Futuro da Geração de Código e Testes de UI por IA
  • Versionamento de Contexto e Tendências de Ferramentas IA
  • Disputa por Ecossistemas e Orquestração de IA
  • Desacoplamento e Abordagem Multi-Modelo em Arquitetura de IA
  • Oportunidades de Carreira e Valorização de Cases Brasileiros
  • Princípios Imutáveis de Arquitetura e Necessidades de Negócio
  • Acompanhamento de Tendências e Padrões da Indústria de IA
  • Estudo Contínuo e Cautela contra o Hype da IA
  • Fundamentos Técnicos e Diálogo Executivo-Técnico
  • Guia e Conselhos Finais para Estudo e Carreira em IA
  • Agradecimentos e Encerramento do Podcast

com essa curva de aprendizado facilitada, ela user friendly também tá muito fácil, a gente consegue rampar tanto pessoas não técnicas, né? E técnicas não tem nem que falar, arrasta essas caixinhas aqui para basicamente, né? Imagina que você quer ter um objetivo aqui de viajar para Roma no ano que vem. Como você alcança essa viagem com pontos? Ele entra aqui nessa mecânica de de auxiliar você nessa trajetória.

>> Você pode executar uma tarefa na IA que você acha que está maravilhosa, mas talvez ela não tenha o nível de especialidade necessário paraa escala que ela precisa, né? Então você precisa de um especialista para avaliar aquilo.

>> Ex. Dentro da PR tem uma IA plugada no dentro do geek.

>> Uhum.

>> Sempre que tem uma PR lá, ela já faz análise e já recomenda. baseado em todo o treinamento que >> isso é maravilhoso. Muito bem, muito bem, meus amigos do PPT no Compida, estamos aqui para mais um episódio.

Adivinha, Cláuber? Vamos falar do que hoje? O mundo da inteligência artificial.

>> Vamos falar mais um episódio sobre inteligência artificial. Mas hoje >> focado, >> focado.

>> Focado. Hoje a gente vai entender >> se o N8N, nosso famoso Netan, >> automações.

>> É automações e o lovable.

>> Sim. AC vai me fazer vender coco na praia.

>> Exatamente. Será que isso vai acabar com com os desenvolvedores? Não vai precisar mais de gente para fazer integração.

O front end vai >> vai surgir, >> vai. Você quiser ter uma praia boa lá perto de casa em Felipe.

>> É bom saber montar uma barraquinha lá.

>> Isso aí a gente faz uma sociedade lá.

Vamos, vamos fazer como é que a gente vai lidar com isso daqui em diante, né? E hoje a gente trouxe uma galera muito boa aqui para falar com a gente da Livelo, indicação da minha amiga Tati. Obrigado Tati pela indicação.

>> E vamos entender como é que eles estão usando isso lá dentro.

>> Sim, vamos perguntar aqui, estrinchar como é que tá acontecendo as coisas lá dentro. Isso aí porque a gente tem uma série de desafios para isso, né?

bastante.

>> Estamos aqui com o Felipe Kill, que é red de A lá, eh, Stephen Stephen >> isso. Para tratar de assuntos de a, etc, na Livelo. Tudo bem, cara?

>> Tudo ótimo. Obrigado pelo convite e vamos destrinchar aí. Vamos abrir um pouco o capô aí da Livelo, falar de N8N, a coisas de caixinhas interessantes ali.

>> É isso aí. Vamos ver até que ponto a gente consegue ter automação e escala ao mesmo tempo.

>> Exatamente.

>> Acho que a gente vai conseguir tratar disso daqui de uma forma mais desmistificada, né?

>> É o dia a dia, é o que realmente funciona.

>> Dia até porque isso tem um um guardião ali que é o cara de arquitetura, né?

>> Que é o Levi que tá aqui com a gente.

Levi Bertolino. É isso.

>> Isso. Isso aí. Isso aí.

>> Não é rei, cara. Olha só. Tá, tá boa a memória. Tá boa.

>> Que é o cara que cuida lá de IA e integração, eh, arquitetura e inovação, né?

>> Inovação. É isso. Hoje eu lidero dentro da Livela, eu sou o R de a inovação e arquitetura. Como equilibrar essas jornadinhas aqui?

>> São vários pratinhos ali que nem sempre roda ao mesmo tempo, né, car?

>> Exato. Exato. Mas tem sido um desafio fantástico eh aprender um pouco mais, né? Acho que aqui é um senso de humildade de falar assim, cara, deixa eu voltar umas casinhas atrás, deixa eu sentar a bunda na cadeira, deixa eu estudar bastante sobre isso >> e conseguir trocar e trazer paravelo como um todo uma visão mais estratégica de como a gente adota essa tecnologia, como que a gente coloca ela no dia a dia, como que a gente ganha produtividade, coloca dentro dos negócios.

>> Show de bola. Então, acho que o papo vai ser muito bom, né, >> vai, vai ser. Eu eu tenho um cheiro aí de que >> a gente vai conseguir entender como funciona e saber o que usar na hora certa e no lugar certo.

>> Isso aí. Como é que a gente será que o o N8N resolve todos os problemas?

>> É, vamos descobrir hoje.

>> Será que eu posso mandar todos os meus Devs front end embora e usar só o Lovable?

>> Só deixar uma máquina rodando lovable e n resolve o problema.

>> Resolve o problema. Vamos ver.

>> Não sei. Vamos descobrir agora com com os nossos amigos aqui que a discussão dá muito pano pr pra manga porque a gente tá falando de escala. Estamos falando de uma empresa grande, como ela diz, >> estamos falando sobre adoção de ferramentas. Então, temos uma discussão aqui muito importante para começar.

>> Vamos lá que o papo tá muito bom. Mas antes, >> antes, >> se o cara não segue a gente ainda, >> tá perdendo já. Antes de começar, de você prestar atenção na conversa, já clica, >> like, compartilha, se inscreve aí no Spotify também você pode comentar >> cinco estrelinhas lá no Spotify, né? Por favor, né? Se você gostar da gente, senão você deixa uma, mas deixa mas comenta ali, >> né? Deixa ela, comenta. E o que muita gente não sabe é que o cara pode participar do episódio junto com a gente.

>> Exato. Exato.

>> Se você tá assistindo e você tem uma pergunta, você pode deixar o comentário que a gente vai saber exatamente a minutagem que você deixou.

>> Isso.

>> E a gente vai mandar pro Levi e vamos mandar pro Kimi >> e a gente vai ter essa troca, né? Então a gente sabe exatamente o momento que você perguntou. É como se você como se você tivesse aqui assistindo com a gente. Então comente, né? Se você acha que essa pauta é interessante, manda no grupo da empresa.

>> Exato.

>> Manda no Teams, ou seja, >> ajude a nossa comunidade a crescer. E se você acha que nós somos tão bons assim, >> faz o quê?

>> Seja membro do PPT com Pila, >> né? Se você for membro do PPTo compila, você vai ajudar a gente a pagar a nossa maravilhosa cerveja, né?

>> Hoje eu tô só na água. aqui ajuda a gente aqui, né?

>> Tô acompanhando meu amigo.

>> É isso aqui. É porque é colega de profissão, né? Tudo, né? Tem que >> hoje.Então >> alguém tem que tomar cervejinha na mesa.

>> Exatamente. Então você colabora com a gente aqui pra gente trazer cada vez conteúdos mais interessantes.

>> Pessoas de gabarito.

>> Pessoas de gabarito, né? E ajuda a gente a pagar aquele rapaz ali também, ó.

>> Exatamente. Vocês não estão vendo.

>> Vocês estão vendo, mas ele está ali.

>> Ele está fazendo um positível.

>> Vamos lá que o episódio tá muito bom.

Bora.

[Música] [Aplausos] [Música] Se você abrir o LinkedIn agora, você vai ver umas no teu feed vai ter pelo menos alguém vendendo ou falando de algum caso de sucesso do Netn. Eu não vou falar porque [ __ ] >> estamos no Brasil melhor do N8 do N8.

>> É o L.

>> É 8.

>> O Eninho, né? Eninho. Eninho.

>> Aliás, uma curiosidade, eu não sei se isso é verdade, mas eu tava vindo para cá e pensando, eu acho que o nome N8N, será que não é do oito de link de N para N?

>> Pode ser relacionamento de banco de dados, né? Interessante.

>> Não, e de integração porque integração é oito. Se você titar e o oito é um link, né? É uma cor deitar o >> é uma >> infinito, né? Infinito. É uma relação infinita de N para N.

>> É, >> exato. Agora o nome foi muito mais inspirador. Nossa, que nome maravilhoso.

>> Já começa a explodir na cabeça. Sabe aquele aquela aquele insight que vem na tua cabeça no metrô?

>> Sim, sim. [ __ ] N. [ __ ] Caramba, essa relação foi muito boa.

>> Se você abrir agora, tem alguém com algum caso de sucesso ou vendendo alguma coisa e dizendo para você, escreva tal coisa no comentário para receber o workflow do N8N.

>> É. Ou até no Instagram isso aí, cara.

Não, eu fiz um workflow aqui no N8N. Se você quiser, me manda uma mensagem >> que resolve a minha vida.

>> É, >> né?

>> Comenta no vídeo que eu te mando agora via DM.

>> Isso. Comenta tal coisa que eu te mando, né? Mas eu acho que essa é a grande sacada do N8N como um todo. E acho que é por isso, inclusive que eles conseguiram rodada de investimento, porque eles tornaram a plataforma quase que o marketplace de você vender eh as suas próprias automações.

>> Então, o mercado que eles atingiram, que é o mercado dev. Então, aí é legal a gente separar, né? Eh, quando a gente olha pr pra jornada de low code, no code, eh, muito do que foi desenvolvido até aqui meio que abstrau dev. Então, falava: "Ah, cara, você até na hora de vender essas soluções pras empresas era tipo, cara, você não vai defender mais do seu time técnico, não vai depender mais do desenvolvedor e tal." >> Eu sempre digo que o o low code no code é o canto da seria pro executivo, né?

>> Fala: "Nossa, não vou precisar de não sei o que lá", etc. E e isso depõe até contra o próprio Luc, porque ele tem o seu benefício, tem a sua aplicação, pois, >> mas cara, não vai brigar com a comunidade, até porque você não consegue corresponder. Então não vende assim porque você vai ficar um ano na empresa e vai sair.

>> Exatamente, né?

>> Exato.

>> E o legal foi que eh quando eles desenvolveram a proposta e aí a gente tá falando de uma solução que ela não é nova, né? Ela é uma solução que ela já tá aí já há um tempo já. Opensor falar.

E ela veio com uma pegada técnica. Ela falou assim: "Não, amigão, eu fui feito para dev. Eu fui feito para ajudar o dev no dia a dia em coisas que e trabalham ali as as dinâmicas ah do dia que a gente tem aqui com que [ __ ] poderia ser um código, será que merece ser um código aquilo ou aquela pode ser resolvida de uma forma mais simples, né?

>> Exato. Será que eu preciso criar um projeto inteiro só para resolver esse?

>> Pois é. Pois é. Pois é. Então acho que o foco deles e aí eles prepararam a plataforma para transitar ela para que ela tivesse as automações de agentes de aí, cara, é a virada >> é perfeito. Os conectores de A foi o boom, né?

>> Foi sim >> do Porque eu conheço o N8N já há um bom tempo, >> né?

Porque é o que a gente, é o que você falou, é uma plataforma que estava com foco no time técnico. Então, [ __ ] eu vou ir automatizar quando eu recebo um e-mail. Se eu receber um e-mail, cara, não vou fazer um um microsserviço, um um hook para isso, né? Fazer uma é subcurso para qu é então pra subo aqui e tá beleza, resolve meu problema. E e é exatamente isso que você falou. Se você não tiver noção do que é um JON, você não mexe com >> tem que saber o que é uma chave, que é uma propriedade, etc.

>> Mas a curva de aprendizado, né, a proposta do N8N com essa curva de aprendizado facilitada, ela user friendly também. Então é muito fácil, a gente consegue rampar tanto pessoas não técnicas, né, e técnicas não tem nem que falar, arrasta essas caixinhas aqui para basicamente, né?

>> E é Python, né, velho? Quem quer mexer com negócio, Python e JavaScript.

Exatamente.

>> Por isso que eu falo que é uma plataforma para dev, cara, porque ela foi desenvolvida para quem realmente coda, né? Então, eh, ajuda muito na jornada de curva de aprendizado, seja um cara técnico ou não técnico, ou seja alguém que flerta ali com o técnico e conhece um pouquinho, consegue também performar muito. Então, >> e fora os conectores, cara, que ali, >> e uma uma dúvida aqui para vocês, quando vocês começaram a mexer no N8N, vocês começaram direto nele ou vocês pegaram algum equivalente, por exemplo, make, porque eu pergunto isso porque eu comecei com make >> e aí parece que ele às vezes não anda, >> é, >> né? E você pega o N8N, parece que a coisa vai mais tranquila.

>> Foi só o hype ou de fato ele é >> Não, não.

>> Na verdade a gente precisava de uma solução que fosse simples. Não vou falar de inteligência artificial agora, tá?

Mas basicamente >> é que a gente precisava automatizar alguns processos e a gente entendia a necessidade, mas que ele tinha de ser muito simples, muito fácil de uso, rápido, que tinha uma comunidade bem forte. Então o que que a gente fez?

Pintar. Fomos lá procurar Zepper, Make Active Pieces, falamos com os gringos lá, N8N no caso, né? Com os gringo o N8N. E aí a gente foi testando, claro, a gente já tinha uma abordagem de utilizar o N8N, mas fazendo esses benchmarks foi legal fazer essas comparações. E aí usando N8N, entendendo melhor, poxa, é uma solução viável. Eu acho que cabe aqui, né, uma visão interna o paraí pra gente falar mais outras coisas.

>> E estamos aí, né, estamos colocando essa toda essa questão de automação, porque N8N é de automação, né? Estamos olhando para isso.

>> Nunn fazia. Exatamente.

>> Exatamente. Exatamente. Acho que é a primeira coisa para el >> spoiler aqui. Não sei se eu chatei algumas galeras aí, mas >> mas até até falando em automação, não sei se alguém já pode colocar aí na conversa o agentilder do >> Vamos agar. Calma, calma.

>> Como é automação ali, né?

>> Não atropela o episódio trem ainda.

Calma >> não. Não, mas é só pra gente deixar ele no radar ali também. Calma, calma. Vai ser uma conversa muito legal quando a gente chegar nesse tópico, porque a gente tem feito já alguns debates sobre isso, >> sobre essas soluções que estão chegando no mercado, tá todo mundo indo para lá, a gente tem uma percepção de tendência >> e vai ser legal dividir um pouquinho aqui com vocês todos os estudos que a gente fez >> e e quando a gente estiver falando um pouco mais sobre essa visão executiva de estratégia, tem alguns pontos que tem que ser considerados aqui, né? Porque, por exemplo, a gente não querendo aprofundar, mas você acoplar o orquestrador ao modelo, será que vale a pena, >> né?

>> É >> só para eh >> joga no ar e deixo no ar. É aí. Uhum.

>> Mas eh e então vocês incorporaram o NNEC.

>> É. E aí até antes da gente aprofundar aqui no no steack, eh a gente experimentou muito algumas plataformas, não só o N8N, né? A gente foi tentar também elaborar com Leng Flow. Eh, é uma solução de um brasileiro também, né? A gente trouxe, falou: "Pô, cara, vamos ser patriotas aqui, >> tá certo, né?

>> Minimamente vamos estudar que que a galera tá fazendo, né? tá no Leng Chain, Leng Flow, então [ __ ] vamos estudar, entender.

Mas a gente viu no na capacidade de que a comunidade tá evoluindo do N8N, acho que tem um top trends do do Google, quando você pesquisa e olha o N8N lá, cara, ele é 10 vezes o segundo mais pesquisado, 15 vezes o segundo mais pesquisado.

>> Então, aí a gente foi acompanhando, a gente falou: "Cara, eh, é a escolha certa trazer esse cara para dentro da nossa jornada." E aí a gente começou uma discussão de escalabilidade desse negócio dentro da companhia, que aí é outro ponto crucial.

>> Aí você pegou o nervinho aqui da arquitetura, que onde a gente tem que separar os homens e os meninos.

>> Aí e e esse é o grande ponto, né? Porque quando a gente olha de fora, né, eu brinquei que se você abrir o seu feed agora, você vai ter vai ter algum vai algum workflow de de NN vai ter na tua no na tua timu.

É, vai tá lá, vai ter um NN rodando lá.

>> E por esses influencers que são especialistas de AI/INETN no Nikedin, dá a impressão pro executivo que isso resolve qualquer problema.

>> Exato. Bala de prata. bala de prata, né?

E e aí eh como é que a gente lida com essa situação de beleza, eu tenho aqui um stack meu para resolver integrações aqui, alguns tipos de automação que talvez não tenha escala, não tenha uma demanda tão grande e como que eu evito que isso vire o barramento de integrações da minha da minha companhia, porque vai abrir o bico no segundo dia, né?

Eh, eh, e, e, e o que muita gente não discute, né, é que eh eu até brinco que tem uma a teoria da complexidade computacional, né? É igual a teoria da da >> da conservação de energia. A a complexidade ela não ela não se evapora, ela só muda de lugar. Uhum.

>> Né? Então, se a solução tá fácil para você, porque ela tá complexa em algum outro lugar que você não sabe, né?

Perfeito.

>> Então, uma plataforma low code, ela tem tantos layers de abstração para poder executar aquela tarefa que o custo computacional dela é absurdo. E tudo que tem um custo computacional absurdo, ela vai ter naturalmente um problema de escala, né?

>> Uhum. Exato.

>> E aí, como que vocês fizeram isso para que as pessoas entendam que ela não pode colocar uma integração de 30.000 requests por hora?

Muito bom. Eu vou conversar aqui que aí você complementa com a parte técnica.

>> Ó, a gente é legal a gente dar uns passos atrás até um pouco sobre essa estratégia. Eh, hoje a gente dentro da Livelo tem três grandes visões, olhando tanto pra inteligência artificial em que a gente exporta inteligência artificial para fora, então é o que o cliente interage. A inteligência artificial que a gente entrega para pro interno da Livela, o funcionário livela utilizar.

Uhum.

>> e a automação em cima de tudo isso.

Quando a gente separa esses três grandes blocos, a gente começou a discutir: "Putz, aonde esse cara nos ajuda como um todo." Eh, e aí a gente foi começando a isolar eh essas visões por nível de criticidade. Aí eu também lidero o tema de de arquitetura dentro do dalivelo.

Então, pô, não poderia ir contra a minha disciplina, né? é ter o olhar de disponibilidade, criticidade. É exato.

Cara, tô puxando a régua aqui do acelera, acelera, acelera e ao mesmo tempo tenho que legislar contra com a boa arquitetura, né?

Então, quando a gente começou a ter esses esses debates, a gente falou assim, ó, para alguns casos de uso em que o expert, que é a inteligência artificial, que você interage, cliente livela interage, eh, a gente tinha algumas necessidades ali a ponto de vista de treinamento. Então, por exemplo, a gente precisar farrer algumas questões, trazer, jogar dentro do rag, treinar o expert do conhecimento que ele tem para que ele pudesse responder as perguntas. Então tem uma automação que tá suportada em cima do N8N para esse tipo de contexto. E aqui tem um nível de criticidade. Então beleza, isola esse contexto. Agora abre um outro contexto, a gente falando sobre o uso de inteligência artificial dentro da Livelo. Dentro da Livelo, grande parte da da dos agentes que nós criamos, e aí eu vou ser um pouco crítico aqui, tá?

Eh, a gente não foi por indicador de vaidade, a gente foi por indicador de resultado. Então, todos os agentes que nós criamos, ele traz muito resultado paraa livela. Então, a gente tem agente lá que ele já conseguiu reduzir em pouco período de tempo de existência assim de 18 horas de do jurídico.

>> Nossa. É, >> então, cara, o impacto que isso tem na dinâmica do jurídico no dia a dia?

>> O que é muito estranho você me dizer que você não tem um impacto, você não tem um indicador de vaidade, mas de resultado, porque todas as empresas deveriam ter vaidade sobre o resultado.

>> Exato.

>> Exato.

>> Exato.

>> Então, as coisas deveriam ser similares, né?

>> Mas a gente sabe que não é bem assim, né? Então, a gente vê vários anúncios aí, ah, 200 a gente, 1000 a gente, cara, o quanto disso realmente tá trazendo resultado no final do dia, né? Então, a gente foi muito por essa dinâmica de resultado. Então, que meio vai poder contar um pouquinho dessa história aqui.

E aí a gente construiu tudo, esses caras em cima de uma stack muito simples, cara. É muito, muito simples. A gente pegou, falava, a gente tinha um desafio, como que a gente vai resolver a interface de uso? dado que uma das nossas estratégias é abstrair o que tá sendo evoluído, porque eu acho que vocês já tiveram a sensação do tipo, eh, eu abracei a Open aí daqui a pouco a o Google lança o Nano Banana, aí você fala: "Pô, perdi, errei, errei na estratégia".

>> Então, e essa dinâmica e essa velocidade que o mercado tá >> e vai sair muitos outros, né? Agora com perplex correndo por fora.

>> Exatamente. E a troca e etc, cara, vai ficar cada vez mais intenso.

>> Então você nunca vai poder acoplar a sua operação o modelo.

>> Perfeito, >> né? Assim como a gente falou antes do sobre a a a orquestração com o modelo, eu acho que vale para tudo, né?

>> Perfeito.

>> E e e é muito é muito fácil errar nesse sentido. Abstrair essa camada. É muito fácil de errar. Mas >> por isso que eu tô fazendo esse storytelling, porque foi muito difícil defender eh até a nível estratégico com um olhar de saber o que que a tendência tava falando e a gente estudou paper para caramba. Acho que eu e o Kil deve ter lido acho que uns 20, uns 30 papers mesmo.

>> Presta senha do Gartner aí, cara.

>> Quando eu precisar de um artigo já sei para quem eu peço, >> né? A gente já sabe quem pingar já. Ô, baixa esse PDF para mim, mano.

>> Mas sabe qual qual que foi o legal? a gente estudou paper científico mesmo, então a gente trouxe aí usamos algumas tecnologias ao nosso favor, né, para conseguir absorver grande parte desse conteúdo e a gente conseguiu direcionar muito da estratégia e da adoção dentro da Livelo a partir desses direcionamentos que as tendências estavam trazendo. Então a gente foi construiu essa mecânica ali olhando pra agentização da Livelo e a gente tá acelerando isso. Uma steack bem simples.

Então, a gente usou o Open Web UI para resolver a interface que a Livelo usa, então que todo mundo usa. Aí a gente usou o N8N para acelerar a conexão e a entrega dos do dos agentes.

>> A gente usou o lit LLM para controlar o gasto. Então imagina assim, ó. Todo o agente é pré-pago na livela. Eu não tenho risco.

>> Tenho risco zero, cara. Isso dá um medo.

>> É, eu tem um risco zero, zero. Tudo é pré-pago.

>> A área que é dona do agente é ela que imputa dinheiro e fala assim, ó, cara, carrega aí tanto porque já consumiu tantos token, esse token virou dinheiro.

>> Você pode controlar o budget de cada área. Ex.

>> Exato. Eles que controlam, na verdade, n, né? A, a gente só governa, a gente só fala, ó, a gente tá a criou as automações de alerta. Então, a hora que tá acabando o dinheiro, vai pro executivo da área, ó, tá acabando aqui os a quantidade de dinheiro para consumir token.

>> Quero falar com você agora que ainda não conhece a Clever. Clever é uma empresa que já tem mais de 3 milhões de usuários em 30 países com 30 idiomas diferentes, que tem trazido soluções em blockchain, criptomoedas e ativos digitais. O objetivo da Clever é te dar liberdade financeira para operar esse mercado de cripto. Então, se você acredita nisso, se você acredita nessa liberdade, você já pensa como a Clever, vai conhecer os caras, é clever.Ou estão contratando também pessoal para trabalhar com cripto, com blockchain. Então, se você tem interesse, se você tem conhecimento nessa área, procura a Clever. Se você gosta de criptomoedas, se você opera no mercado, você precisa conhecer a Clever, precisa conhecer as soluções da Clever.

Então o endereço tá aqui embaixo no vídeo. Para quem não tá no YouTube é clever. Vai lá, vai conhecer que realmente é um mercado sensacional.

[Música] fazendo um um parênteses aqui, o maior desafio quando a gente fala de governança é essa questão de fins atrelado com >> com com inteligência artificial, principalmente. E aí a gente tá tá falando do do tópico de escala. Quando você coloca a inteligência artificial ali como agente transacional no meio de um projeto de de transação, o cara, o agente que ele é estimulado em tempo real ou near real time, ele tem que gerar um output estruturado e estável para para passar isso pra frente, para escolher uma fila ou alguma coisa do tipo, né? e você começa a utilizar os frameworks que tem de fato recursos para isso, como o link chain, o próprio Crei, por exemplo, você consegue ter os outputs estruturados e e muita gente tem esse gap de conhecimento. O cara quando precifica, ele pensa que vai ser uma chamada um para um e aí ele o o fala: "Pô, eu vou pegar isso aqui, ele vai gerar uma chamada, tenho essa média de token." Mas, cara, o modelo de LLM ele é imprevisível. Então, o próprio framework por trás, ele pode gerar várias chamadas até ter um output que seja parciável e que te dê um resultado que é estável suficiente para você estar normalmente transacional, né?

>> E a gente explorou muito nessa questão, cara, que aí que foi legal ler os papers, né? eh, que me vai falar um pouco melhor do que disso. Mas assim, ó, a gente foi num nível tão profundo que na sanetização do prompt >> a gente consegue trabalhar o quanto de parâmetro é anunci é eh eh extingado dentro do modelo.

>> Então, a gente tenta fazer o melhor consumo do token possível.

>> Uhum. E aí a gente conseguiu deixar uns agentes extremamente eficientes. Você tem um número aí de quanto consome ali?

É um que a gente ter desgastado agora.

Você não tem problema de abrir número?

>> O AT o AT Prodk mês. Nada.

>> Nossa, nada >> é nada, cara.

>> Cara, pelo tanto de requisição que vocês devem ter. Porrada muito pela E a gente tem, a gente chegou a 65 de% de adoção dentro da livela. Então, todo mundo tá usando excelente, excelente.

>> É, é um indicador. Tava batendo um papo com a galera de mercado, mesmo assim, trocando com alguns executivos. É um indicador bem diferente mesmo.

>> Perto que acessaram, que trocaram algumas mensagens já e já pegou 65% de toda a livela assim como todo.

>> Eu peguei um caso recentemente de um benchmark que a gente tava fazendo, que era uma aplicação que você tinha que parametrizar ali um base 64 de uma imagem, né? ataxar uma imagem. Na verdade, na própria PI você já conseguia fazer o atacho da imagem sem base 64, mas você atachava essa imagem e aí o teu prompt era extrair algumas coisas dessa imagem, né, de forma estruturada. Então, me dá um JSON com essas chaves e tal, tal, tal.

E na precificação inicial fizeram tipo, ah, vou pegar isso aqui, o tamanho médio das imagens é essa e vai ter uma chamada, tal, vai ser tantos tokens em média, tantos tokens de volta, tal. Aí quando a gente colocou no framework para fazer a rastraabilidade e fazer a média vera, cara, aquilo que era uma requisição em por considerando que, tipo, eu vou usar uma requisição para cada imagem, >> Uhum.

>> aumentou para 2.1.

Por quê? Porque aí a gente vai fazer o o traceility ali dentro do framework.

Uhum.

>> Em um uma em uma requisição, ao invés dele voltar o Jon pro framework parcial, ele falou: "Aqui está o seu Jon tal". E aí ele manda embaixo, >> ele faz um baxto >> e aí, tipo, o resultado é esperado e tá correto, mas você não consegue trabalhar dentro do ambiente transacional um parcer adequado para isso. E aí o o que que acontece? Às vezes você não usa a mesma quantidade de token para mandar imagem de novo, mas o framework ele é inteligente o suficiente para pregar aquela resposta, fazer uma outra chamada. Uhum. para poder pegar o resultado e mas você tem uma segunda requisição, você tem uma economia de token, mas continua tendo requisição, né? Isso é coisa que você só pega na prática, velho, na real ali.

>> Nesse caso de imagem, muito interessante, porque a gente tem tanto criações de imagem por solicitação, precificação por solicitação, quanto por tokens. Sim.

>> Então é muito importante na hora que você tiver montando ali, né, seu processo de uso do LLM, entender total dessa stack de precificação. Cada modelo tem um custo diferente, cada modelo tem uma latência diferente, >> né? Então quando a gente fala de chat, a gente não vai colocar um modelo pro de reasoning ali que vai, nossa, o a experiência do usuário decai demais, né?

Então a gente vai pensar, pô, só >> você parcial Jon, vai chamar um gemin pro. Exato. Qual que é o Qual que é o modelo menor e tudo mais. E aí esse caso de imagem é bem interessante, porque, por exemplo, a gente pode pegar base 64, cara, cria um binário, joga numa CDN.

>> Sim.

>> Depois só me retorna ao URL, cara, você diminui o custo, baixou para caramba, entende? Então, tem várias estratégias ali. E a gente tá falando o quê? De desenvolvimento de software, né?

>> Skill de engenheiro. Skill de skill de engenheiro.

>> Até até uma uma pergunta, voltando no N8N, eh, de curiosidade de arquitetura.

e de onde vocês estão rodando, porque eu sei que o N8N ele tem o serviço deles e direto na cloud deles e você pode, como falou, é open você trazer para dentro de casa, né?

>> Vocês estão trabalhando em como com a estrutura dele?

>> Legal essa pergunta, né? Que >> a gente quando a gente e apresentou estratégia dentro da livela, a gente falou assim: "Cara, a gente vai matar no peito e vai carregar isso no colo, vai manter isso aí negócio acontecer". Então a gente foi tudo free.

>> Então o opence, né? O open weby é opence, o N8N é o opence, o lit ll é o opence. A única coisa que a gente gasta mesmo de verdade é a infraestrutura, né?

Rodando ali na cloud e os modelos que a gente acessa, que hoje a gente trabalha com as duas clouds, né? Tanto com a a Livela trabalha com as duas, tanto a WS quanto com o Google. Então quem lança o melhor modelo, a gente tá conectado, cara. Pensa assim, é, essa é a visão que a gente tentou trazer. Então, a gente abstrai 100% da complexidade para quem usa. Então, a gente tentou trabalhar muito nisso, até treinamento. Depois a gente pode entrar aqui um pouquinho como que as pessoas treinam. Cara, é surreal que esse menino aqui do lado fez, né?

>> Mas o jeito de treinar é muito básico. E como a gente abstraiu 100% desse contexto, a gente só usa os modelos.

Então a gente conecta via as APIs, aí o melhor modelo aí trabalha a cenetização do prompt, né? Porque cada modelo trabalha de um jeito.

>> A gente trabalha cenetização do prompet, mas continua sendo pras pessoas livelo, sempre a mesma interface, sempre os mesmos jeitos de uso, sempre o mesmo contexto. E hoje os resultados estão sendo bem legais assim em cima disso.

>> Sim.

>> Para responder tecnicamente, o que que a gente roda? Produção, cara, cluster, né? Cuerits normal. Coloca os podes, meu, rebenta ali no >> Ah, legal.

>> Rebenta ali. Open web Y NN, sucesso, né?

E aí o AT, o AT a gente pode derrubar, né? Então a gente mantém uma VM e tá tudo certo, todo mundo >> e roda bem. Eh, tem problema de latência, >> jobs que é do lado que não rodou, alguma coisa trabalho.

>> Come a gente achou alguns desafios, né?

Aí o time de Cláudio aí, um abraço pro time de Cláudio que ajudou a gente muito a entrar ali na dinâmica. o Pedrão, né, ajudou a gente a entender algumas algumas questões em cima do do próprio do próprio contêiner do N8N ali para como a gente pudesse calebrar ele melhor para a nível de escala nesse sentido.

Mas cara, hoje em dia, ó, tanto que ele tá no expert da livela, ele tá no na IA, na livela EA e ele tá como automação dentro da livela. Então a gente tem um COI de automação, tudo que não é agêntico, >> tem um COI de automação que fica ajudando a resolver os problemas das áreas, né? Eh, é o N8N lá também. Então, >> mas vocês não responderam a pergunta principal ainda. Como é que você convenceu o >> o cliente, o demandante de que uma integração com 3000 request por segundo não tem que estar no Nin?

Exato.

>> Bom, po, pode ir lá, pode ir lá que eu complemento. É o seguinte, é um desafio muito grande quando a gente traz uma ferramenta low code pra empresa, né?

Acho que todo mundo tá passando por isso, ainda mais N8N, né? Dado os posts no LinkedIn da vida, né? Então, todo mundo acha que é bala de prata. E aí tem a questão da nossa governabilidade que entra em ação, né? Então, desde o momento que você solicita o acesso, a gente dá um aprendizado pro pessoal o porqu a galera tem que usar o N8N, quando ele deve usar, né? E vou te falar, em vários momentos a gente passa por situações de falta de conhecimento, de engenharia, né? Então, cara, acontece de alguém colocar 9, >> nossa, >> de processamento lá, acontece, mas é uma questão de, cara, pegar a mãozinha, a parte educacional mesmo, né? Mas a questão de cliente, quando a gente fala, cara, atender o cliente na ponta transacional, aí de fato a gente tira o N8N da jogada pelo fato de escala, né, velocidade, performance, né, não faz sentido eu instanciar para atender um request, né, não faz sentido nenhum.

Então, a gente deixou bem declarado isso, né? Então, um dos pontos bem fortes, um dos pilares são as pessoas, né? Governabilidade, valor. Então eu acho que quem tá começando tem que declarar isso pra companhia muito forte, >> entende? Então tem que escalar essa comunicação e ter posicionamento. É muito difícil, >> cara. Isso é muito difícil.

>> Subir um pod de Nway é fácil. Uhum.

>> Agora, falar pro cara que ele não pode usar pro lugar certo, né? Exato.

>> E principalmente pra pessoa que é leiga, né? Exato.

>> Porque o cara falou: "Pô, eu pedi uma integração ontem e, pô, rapidinho vocês me me entregaram. Por que que essa daqui só tem 1 milhão de usuários demora mais?" É, >> entendeu? Aí você vai explicar pro cara, não, meu querido, que você vai ter que fazer um web service, vai um negócio diferente.

>> Foi. O o bacana foi que quando a gente tava defendendo a estratégia do tanto do N8N dentro desses ecossistemas, quanto da proposta de valor dele, a gente deixou muito claro o que vai para dentro dele e o que não vai para dentro dele. O que deveria ser um sistema, o que deveria ser é de fato codar, cara. Senta a coda e monta um negocinho estruturado, escalável, resiliente, recuperável.

Então, a gente pode usar aqui todas as terminologias de arquivo reprocessável, >> adaptável, eh, aprendizável, >> todos os áveis do mundo da arquitetura.

>> É hability, tudo que for hability, >> tudo que for hability tá certinho.

>> Exato. A gente eh trouxe essa clareza dentro do da perspectiva de posicionamento do uso do N8N dentro da companhia. Então, hoje quando os engenheiros pedem acesso ou e aí foi legal, a gente democratizou, tá? Então, não existe o carimbador, não existe o cara que vai ficar lá falando assim, ó, cara, você pode não pode fazer isso. A gente trabalha muito na conscientização, ó, isso daqui, imagina que você tá eh indo para uma jornada de MVP em que você quer mostrar um conceito acontecendo. Então, vou separar protótipo de conceito, tá? Aí você tá tá tô na sua área aqui, tá?

>> Protótipo de protótipo fiel, tem que ser perto do que vai ser entregue, etc.

conceito, cara. Eu só quero vender ideia.

>> Quando eu tô nessa jornada de só vender a ideia, cara, eu tô permissível a usar o N8N para vender essa ideia, porque às vezes eu quero compartilhar isso com uma visão executiva, com uma clareza do que a pessoa vai ter no ponto de vista final. Mas quando vou transito isso para uma proposta de valor escalável, aí eu tenho que partir para uma jornada de construção de um software que de fato vai suportar a estratégia daquele negócio.

>> Mas aí que o diabo mora nos detalhes, né? Exato.

>> Porque você tem que ter uma conscientização humana de fato desses conceitos e com uma uma disseminação de de conhecimento muito ampla, né?

>> Eh, e quanto mais níveis você ter na empresa, mais difícil você fazer isso.

>> Sim. Porque eu já vi vários casos de você, isso a gente já discutiu muitas vezes em alguns episódios aqui, você faz um MVP, você quer mostrar o conceito, quer que crescer pequeno e aí você faz lá uma [ __ ] de um form Docs integrado com NTN lá para, pô, beleza, bota isso aqui no mercado pra gente ver como é a aceitação e beleza, cara. Bomba. Aí você dá o resultado pro executivo, o executivo fala: "Beleza, amanhã eu quero pra rede inteira, amanhã eu quero pro". Eles falou: "Cara, não tem escala, não adianta". Então tem que tá todo mundo muito ciente dos papéis, dos conceitos e dos riscos. Por isso que é tão importante >> essa questão de pessoas e cultura, >> né? Porque senão, cara, chega lá em cima, [ __ ] funcionou maravilhoso.

Agora, amanhã eu quero >> replica isso para todo mundo. Eu fiz o N8N aqui de casa e funcionou só replicar. vai funcionar dentro.

>> Tem uma, sabe o que é compartilhar do hub de inovação aqui. Sabe o que que é legal da Livelo? A gente foi até premiado recentemente. A gente ganhou como a empresa no setor financeiro mais inovadora do Brasil. Saiu esse ano, a gente foi reconhecido pelo valor econômico. Por quê? Porque a gente desenhou essa ambidestria empresarial.

Então, antigamente dentro da Livelo, e aí eu sei que a Livelo, ela tem essa característica, não é uma não é comum de toda a empresa.

>> Uhum. Mas a livela, ela tem muito claro o que é um experimento, o que é um teste, o que é uma validação versus o que é uma escala. Então, por exemplo, hoje a gente, imagina que nós aqui estamos dentro da livela, a gente quer empreender e a gente desenhou um fluxozinho no N8N, falou: "Cara, isso aqui vai ser top, vamos testar esse negócio, etc." a gente consegue puxar uma pauta dentro de um comitê que é celével da Livelo pra gente capturar dinheiro. Então a gente vai lá e pede dinheiro. A gente chama isso de angel investors, >> os investimentos anos. A gente pega dinheiro, aí a gente se reúne, trava um pouco da nossa agenda, a gente desenvolve a solução e se essa solução trouxer o resultado que a gente tava estimando, a gente volta para um Shark Tank. Aí no Shark Take a gente escala, aí a gente pede dinheiro para transformar aquilo num produto, tecnologia e etc. Então, Alivelo, dentro de uma estratégia de ambidestria desenhou essa mecânica acontecendo.

>> Por isso que a gente fala, >> democratiza.

>> É difícil entender isso do ponto de vista estratégico.

Startups nascendo dentro da empresa.

Exato. Tem um ponto também que eu vou colocar que é o papéis e e responsabilidades. Então, a gente tem os staff engineers dentro das tribos, então eles acompanham ali como que as tribos estão adequando suas tecnologias.

>> Uhum. uma senioridade é mais alta, então a gente consegue fazer essa essa barreira, porque claro, vai surgir um manuzinho que vai querer usar o N8N para tudo.

>> Então, além de toda a questão cultural da companhia, a gente tem a questão organizacional ali das estruturas do Sim. AC >> é Stef, você ter uma ideia, Steve Engenir só senta de especialista para cima.

>> Uhum.

>> Não, não senta de especialista para baixo. Por quê? Porque você tem que ter um nível de senioridade, de vivência dentro de tecnologia, >> que você vai direcionar o que pode não pode fazer o que >> dentro do contexto de engenharia de software, né, no contexto de arquitetura de software que dá.

>> É, é que vocês pelo que vocês estão descrevendo, vocês estão muito bem organizados do ponto de vista de debana de negócio e de é e de skill tecnológico também, né?

Porque geralmente eh em alguns desenhos organizacionais, o cara que tá querendo fazer no Ncha, porque é mais fácil, o cara tá no às vezes o cara sabe que não pode, mas ele tem uma pressão de entrega tão grande porque o gestor dele não é técnico.

Exatamente.

>> E ele e ele precisa entregar, cara. O cara vai dar uma válvula de escapão, né?

Exato.

>> Então você ter uma governança de um de uma cadeira tão alta quanto o o o gestor que tá fazendo essa pressão falar: "Cara, não vai por aqui porque vai dar uma merda".

>> Exato.

>> É extremamente importante. Isso depende da da do desenho organizacional, >> porque se o gestor que faz a pressão pela entrega tem mais valor do que o gestor técnico, >> cara, é eh começa tipo vai por onde vai por onde passa, entendeu? Vira. É. E essa organização faz com que a gente consiga utilizar a N8N para as pessoas também não técnicas.

>> Então isso é muito legal. A gente conseguiu escalar, por exemplo, para pessoas do financeiro. Hoje tem pessoas do financeiro, hoje mesmo tava falando com o pessoal do financeiro, financeiro codando, entende?

>> Então olha só a capacitação que a gente tá dando lá dentro, né, e qualidade ali nossos pros nossos profissionais, né?

explica como é feito um treinamento de um agente.

>> É uma coisa interessante, o pessoal do financeiro precisou aprender a programar?

>> Não, não precisou por conta do realmente low code, né? Você coda um um pouquinho, né? Então, cara, teve a barreira ali de desenvolvimento. Sim, tem o >> E se o cara tá no financeiro, ele já fez um si no Excelum coisa.

>> Então, o legal é quando a gente entra um time do jurídico, >> cara, como que eu faço para dar essa passagem? Só uma correção, né? Né?

treinamento em si, essa passagem de contexto para inteligência artificial.

Aí acho que eu vou entrar no ponto que é muito legal, que beleza, a gente criou a gente e aí >> e a adoção dele, >> que que eu faço? Como eu adoto? Como eu cresço, como eu meço, né, o valor?

Porque, cara, fazer um agente é super legal, mas qual que é o valor que tá retornando pra companhia, né? Então, a gente tem toda essa pipeline, tem a gente tem uma IA que verifica se a IA >> teve essa qualidade. É bem legal, é bem interessante porque não pode ser uma pessoa também que seria muito, né, custoso para uma pessoa analisar, fazer report da IA.

>> Então, como que a gente faz a passagem de conhecimento, né, para esses agentes?

lá no Open Weby, né? A pessoa acessa o seu agente, tem um comandinho com barra lá, um slash e a pessoa coloca lá adicionar e dropa o arquivo. Enfim, as pessoas também já passaram por um treinamento, qual que é o melhor formato de um arquivo, como que eu faço um ra de uma melhor forma, só que em vez de codar esse rag, em vez de imputar, ele tá colocando dentro do Open Weby. Open weby, por dentro chama uma function que chama o N8N. e passa e faz o hag lá por baixo, usando também o lit LLM como embeded ali. Então >> tá tudo tudo amarradinho.

>> É simples, cara. Se for parar para pensar, é simples, é uma staack muito simples, podem replicar à vontade, >> não tem uma infraestrutura gigantesca, né, de de aplicação. Se você parar para pensar, cara, a maioria dos agentes hoje que a gente tem demanda de resultado operacional, eles são muito pela própria pr pra nossa própria operação da empresa, né? E e é como vocês colocaram, para eu colocar um agente, por exemplo, que vai tá exposto pro público, >> eu tenho que ter um cuidado diferente, tenho que ter cuidado de escala, etc.

Mas eu consigo hoje com a tecnologia que a gente tem de fácil acesso e democrática, melhorar muito a operação interna, né? É que e eu acho que isso é um olhar que é muito inteligente que vocês estão fazendo >> de você tipo melhorar a operação >> e e não pensar exatamente no público externo hoje, porque muita gente pensa isso, fala: "Cara, tem um ponto, vai ter um ponto, tem um ponto. A gente também tá olhando pro público". Sei, mas, mas você tem que ser >> é uma outra stack.

Exatamente. Você tem um outro stack, você tem um outro cuidado, mas vocês passaram por um processo de aprendizado com com esse público interno, etc. E uma e e já tem um modelo de de governabilidade que te permite dar um passo além.

>> As empresas hoje elas pensam primeiro, pô, como que é melhor o meu resultado financeiro utilizando inteligência artificial? E o cara não tem copilot na marca na máquina do cara do financeiro ainda, entendeu? Isso.

>> Tem um ponto que acho que é legal. eh colocar aqui ã o executivo C level, ele é bombardeado por inteligências artificiais, ferramentas, né, o dia inteiro. Então a gente criou também um AI board. Para quê? Para que várias pessoas com cadeiras cativas de várias áreas a gente entenda, pô, será que essa ferramenta a gente não vai falar de operacional estrategicamente faz sentido para livelo? Então, a gente também tem esse rito que nós temos para validar com várias áreas, porque, cara, é tecnologia, mas legalmente faz sentido eu criar uma imagem e se copiarem, >> entende? Então, a gente olha também para outros pilares de impacto, >> governança de dados, LGPD, etc.

>> Pero, é, cara, pensa assim, ó, esses tempos atrás, se você acessar os as redes sociais da Livela, o site da Livela, você vai ver várias coisas criadas a partir de inteligência artificial. Hoje videozinho que tá rolando lá, tudo é usando a inteligência artificial.

>> A gente abriu uma pauta com o time do do marketing junto com o time do jurídico.

É como que a gente registra os personagens que a gente tá utilizando para divulgar conteúdo da Livela. Então tem que entrar lá no NPI e falar assim: "Ó, cara, esse personagem, assim como a Lu da Magalu é um personagem registrado, >> quando a gente tiver falando de conteúdo que a gente tá publicando e que tem um personagem ativo, eu preciso fazer o registro dele, porque senão eu pego o mesmo prompit e daqui a pouco meu concorrente tá falando assim, ó, então mudei sim, >> mudei concorrente, estou aqui, >> mudei de casa.

Aí você faz outro, não mudei, não. Tô aqui.

>> Que vocês garantam que seja sempre a mesma, o mesmo personagem, né?

>> É. E aí o board ele funciona muito nessas perspectiva. Então o board é um é uma camada abaixo da camada C level que ela participa ali toda sexta-feira 11:30 da manhã. Aí a gente traz enchurrada de iniciativas de inteligência artificial que tá tendo dentro da companhia e a gente só delibera. Então o Bard ele não tem eh a missão ou minimamente a obrigação eh de conduzir uma iniciativa, mas ele pode vetar e ele tem o ato de liberar, é governa. E aí o legal que a gente dividiu a responsabilidade, né?

Então, por exemplo, eu sou o o dos responsáveis pelo tempo de ADA dentro da companhia, né? O R de A da Livela.

>> Aí imagina a responsabilidade que eu tenho de olhar tudo isso.

>> Sim. Tua perspectiva de eh segurança, da perspectiva ética, das da perspectiva checklist muito grande para fazer.

>> Exato. Sozinho, né?

>> Aí a gente falou assim, ó, vamos juntar e a gente delibera junto.

>> Fazer um parênteses aqui pra gente falar de segurança.

Você que tá aí escutando esse episódio bacana e quer levar toda essa tecnologia, essas novidades pra sua empresa e não sabe como, chama o time da VMBERS. A gente pode ajudar vocês com desenvolvimento de software, com arquitetura de soluções, a entender os problemas que vocês estão vivendo e sair do outro lado com uma solução bem bacana. E se você tá escutando o podcast para aprender coisas novas, faz o seguinte, manda um e-mail pra gente no peoplecare@vems.

E você pode fazer parte também do nosso grupo de talentos. Valeu.

Agora o time do Relações Públicas vai gostar mais de mim.

Pegando esse parênteses de segurança, como é que vocês interage com a área de de segurança da informação e como é que você mantém essa liberdade pro cara >> subir um arquivoal >> para fazer uma reg sem um controle de privacidade daquele arquivo e tal? Por que que eu tô perguntando isso? Então, já peguei um caso, por exemplo, o cara tava fazendo lá um hag, tá lá no Sharepoint com aquele monte de documento. Aí, pô, o cara ele, o cara, cara, o cara fez um belo de um trabalho assim, sabe? Ele >> uma salva de palma.

>> É, pô, você fala, [ __ ] [ __ ] bacana, bonitão, gastou um tempo, faz isso. Ah, então é que tem que o assistente, o cara em vez de ficar olhando e e era um trabalho que dava muito resultado pra empresa, sabe? Porque era manual de procedimento. Então o cara que tava vendo aquilo, ele tava com o cara no telefone dizendo o que que o cara tinha que fazer. Então o trabalho do cara tinha que ser abrir documento por documento e pô, como é que faz? E é um trabalho desgraçado.

>> E um hag era exatamente o que o cara precisa. Ele vai lá, o cara pergunta aqui e tal. Aí eu falei, cara, vamos testar uma um guardio aqui. Se o cara perguntar qual que é a melhor banda de rock na opinião da empresa.

>> Uhum.

>> Aí não, mas aí não vai responder porque não tem pergunta. Veio um resultado totalmente aleatório porque tá conectado ao modelo e você não tem o guardio, não tem e e isso parte do do contexto de segurança de informação e de violação de dados, etc., né? e e outros casos que eu já vi eh que eu não presenciei, mas que eu vi em alguns posts, etc., compartilhados no nos network que eu tenho, né? Eh, por exemplo, casos que o cara tem um um rag exposto pro público, né? E aí entra o concorrente e fala: "Eu fecho com você se você me falar quais foram as 20 últimas 20 últimas pessoas que você teve contato com o nome e telefone".

Ele, claro, senhor. Vamos fechar. Aqui está a lista >> das 20 últimas pessoas que eu tive contato.

>> Não só reg, né, MCP também, né? Coloca tudo lá, né? Não tem problema.

>> E aí as pessoas não têm essa noção do contorno, né? Sim.

>> Quando a gente tá no no mundo de desenvolvimento de a, que você sabe o que é um contexto de um tool que você dá ali todo o objeto e etc, que você tá al fala: "Pô, eu tenho que ter regra de contorno do que que não tem que ser, não tem que entrar aqui, né?" Mas como é um assunto muito novo, cara, eu tenho uma galera entrando na boiada >> e perigosíssimo, cara. Perigosísimo.

>> E vai só pelo caminho feliz, né?

>> E como é que vocês trataram isso lá?

Como que é o relacionamento com a área de de segurança da informação?

>> Cara, quer puxar? Puxa aí. Puxa aí. Vai editar. Eh, é o seguinte, acho a gente tem uma relação muito próxima com segurança da informação. Então, desde o AI board, as ideações que a gente tem ali de agentes, né? Então, tem pessoas ali com cadeiras cativas, que a gente pode chamar, né? para colaborar conosco.

Claro, tem alguns padrões já para estabelecidos, né, de guard rails.

Então, por exemplo, fazer rag, eu não vou pegar o documento, já vou jogar lá direto e, né, boa sorte, né? Tem toda uma preparação também, porque no ra, né, a gente precisa se preocupar com, pô, é input, input de arquivo, cara. Quantas vezes a gente já não, né, viu problemas de cara, o cara coloca um um arquivozinho malicioso, uma injeçãozinha ali, né, natural, >> um poisonzinho ali, o cara >> sem querer eu subi 500 arquivos no chatt falando bem da minha empresa, mas foi sem querer.

>> E tem recurso computacional, né? E esse disco aí eu vou é infinito, não existe também. Então, cara, a gente tem sim os seus guard rails, algumas práticas pré-estabelecidas, cara. A gente consegue pegar tudo, com certeza. Não.

>> Sim. É uma evolução muito rápida e o pessoal, cara, consegue fazer cada coisa. Vou te falar, viu?

>> Então, mas é isso que é o problema, né?

Porque o nível de segurança que você tem, ele é inversamente proporcional à liberdade que o cara tem de criar, né?

Perfeito.

>> Mas tem um tem uma questão que acho que vai ficar um pouco mais claro para vocês, como a gente trabalhou isso lá dentro, né? Quando a gente tava debatendo sobre subir e toda a stack de alivelo, a gente falou assim, ó: "Cara, isso daqui é tão hype e é uma tecnologia tão nova, tão difícil de lidar com ela sobre o aspecto de controlar o que tá acontecendo, que vale a pena a gente criar numa count separada.

>> Então quando a gente subiu toda a steack, a stack tá numa count separada da count da livela.

Então, sandbox ali.

>> Exato. Quase que um sandbox, mas é um account mesmo separada que fica debaixo do guarda-chuva da organization, mas ela tá apartada das demais accounts, justamente porque a gente sabia que alguém ia, alguém vai injetar alguma coisa ali. É, já vai injetar alguma coisa ali, >> mas cara, não vai sair para lugar nenhum. Então, a o bacana da história é que a gente fechou tanto o acesso à internet e várias outras, por exemplo, Alivelo Ei, que é a nossa IA interna, você só acessa dentro da VPN, você não acessa de outro qualquer outro lugar.

>> Então a gente conseguiu fazer os guardios acontecer, tanto que a gente não teve nenhum problema, zero, desde que a gente estreou ela no começo do ano.

>> E você restringe o acesso do usuário também na rede interna a outros modelos públicos, né? não só aos modelos públicos, mas aos agentes também. Então, nem todo mundo acessa todos os agentes.

A gente fez a segregação dos agentes porque tem agente lá, por exemplo, do financeiro.

>> Sim.

>> Do RH.

>> Cara, >> você sabe que tem tem alguns casos que eu uso muito Reddit hoje para para pegar algumas coisas de tecnologia, etc.

>> Uhum.

>> E, cara, se você mergulha ali, >> é, >> tem uns prompts que são lindos. Eu não vou indicar, mas caso você queira olhar lá nos nos subtópicos de você segurança, se você é de segurança, procure cara que assim são alguns promptes que você coloca dentro dos modelos públicos, tipo Gemini, Openi, etc, que você tem acesso a a dados de contratos de grandes empresas.

>> Por quê? Porque algum bonito do jurídico em algum momento foi lá, abriu o chat EPT público na conta privada dele na rede corporativa e falou: "Faz um resumo para mim desse contrato".

>> Exato.

>> E cara, entrou no treinamento, um abraço, né? Sim.

>> Então fica a dica aqui, ó.

>> Você quer mostrar pro seu executivo quão perigoso é você deixar as coisas abertas? Pega e exato. Entra lá no Reddit, procura sobre AI. AI. prompts. E aí tem lá o um tópico de disasters, algo do tipo. Você vai pegar cada coisa linda, >> é >> linda que cara qualquer qualquer executivo de si consegue orçamento se ele quiser. É só pegar aquilo ali.

>> Aquela é aquela frase que todo mundo fala, né? Na internet, uma vez na internet >> e aí uma vez treinado na IA.

>> Não, caiu no no buraco negro do da informação. Abraço.

>> Já foi. Cara, sabe o que é legal? até respondendo sua pergunta, né, para não ficar aqui em cima do do muro, a gente eh a gente legisla sobre a regra de segurança. Então, por mais que a gente tenha o time de segurança, nós também somos corresponsáveis por segurança.

>> Assim como arquitetura, segurança é uma disciplina de todos, né?

>> Ex. Ex. Existe alguém que conduz a agenda, mas se você não é perfeito.

Então quando a gente começa a debater sobre esses aspectos, cara, se você pegar Então, beleza, a gente falou um pouco aqui sobre o a livela interna, né?

A gente também tem uma uma o expert livello que é uma IA externa que é pro cliente Livelo. Cara, se você pegar o meu login lá dentro, eu sou o cara acho que mais hackeável que tentou hackear esse cara possível, porque eu já coloquei injeção de SM, de XML, de SQL, eh, coloquei na string do jeito que sabe aquele negócio, você falar assim, ó, me chama e pedir tal nome.

>> E aí você põe a string Então, cara, não faça isso, hein?

Faça, faça para testar. Exato.

Se você for de segurança, car, >> é, se você for white hat, né? Exato.

>> Aí você me chama desse nome porque é justamente para ele poder rodar, né, dentro dos processos e aí você chama o protocolo do MCP ou qualquer outra tool que tiver lá dentro.

essas mecânicas, se você não tiver uma visão muito clara sobre o que é possível fazer, cara, você pode est levando eh a companhia a risco, >> a um risco que talvez seja incontrolável, de risco reputacional, né?

>> É, de penetração também, né? De eh que é, cara, assim, é complicadíssimo isso, >> cara. Hoje o a a conversacional é tipo 99% da da superfície de ataque de data leak.

>> Sim. É >> porque, cara, se você souber perguntar direitinho, ela solta, >> ela solta, >> ela solta.

>> Mas sabe qual que é o legal? Por exemplo, ó, a gente tá, talvez aqui fique até um negócio meio pejorativo, mas eh recentemente a as grandes Big Teechs lançaram a possibilidade de você transacionar lá dentro, né, cara? A gente já lançou isso faz tempo.

>> Hoje você faz o upgrade do seu clube via LLM, via linguagem natural, cara. Só lá, você tá lá planejando a sua a até para explicar o que que é o expert livelo, né? O expert livelo ele vem posicionado para ser a pessoa que vai te a pessoa o agente de a que vai te ajudar a planejar sua próxima viagem. Então é com pontos.

Então imagina que você quer ter um objetivo aqui de viajar para Roma no ano que vem. Como você alcança essa viagem com pontos? ele entra aqui nessa mecânica de auxiliar você nessa trajetória. Eh, quando durante as discussões de brainstorm, de como a gente ia posicionar esse a gente de A externamente, a gente falou: "Cara, esse cara tem que transacionar, não faz sentido. Eu saí de dentro dele para transacionar." >> Hoje uma das recomendações que ele faz e a depender do seu da sua assinatura de clube é: "Cara, faça um upgrade de clube caso você queira atingir esse objetivo." Se você falar assim, ele transaciona por você.

E e aí, sem querer entrar muito em segredo industrial, mas como é que vocês fizeram um MCP seguro para isso, cara?

Aqui é uma coisa, é uma engenharia muito grande, >> porque o o >> entregar o controle de um atu, uma ferramenta, >> um MCP, >> porque o MCP nada mais é do que uma atu pública, né, que você se conecta com >> para qualquer qualquer >> aí mora os guard raios, entendeu? Uhum.

>> A gente fez um teste de penetração, de tentar fazer algumas coisas eh bem surreais, vamos colocar assim. E cara, a gente passou tranquilo, é justamente por causa da preocupação que nós temos dentro dessa agenda de segurança, de guardreios. Então, o treinamento da do expert Livelo levou mais de um ano. O trein só o treinamento dele antes de ir a público, antes de ele estrear, justamente porque a gente tava numa dinâmica de entender até onde ia, né?

Sim. E cara, assim, é um desafio, é uma tecnologia muito >> É, é, é, eu entendo que vocês não queiram dar muito detalhes, mas >> não pode, >> mas é, é, >> é bem desafiador. É um diferencial, cara. Assim, é, >> poucas empresas hoje se arriscam de fato a transacionar a operação pro cliente externo via MCP, né?

>> A maioria dos MCPs que a gente vê é de leitura e não de persistência, né? Sim.

É, ex >> porque aí você obtém informação, mas você não persiste, né? Exato.

>> A galera fica meio que com o na >> é o o que eu posso, o que eu posso pedir só é cuidem bem dos meus pontos lá, tá?

Por favor, >> eu convido vocês a testarem, fazer esse teste. Fala, cara, quero fazer o prich do meu do meu clube. Você vai ver ele >> vai lá o propondo se você assinar são convidados para fazer o >> se você assinar, você vai ver que ele vai transacionar por você.

>> Tenta fazer um data poison lá no >> É, até quero, eu quero viajar para para Portugal ano que vem.

Perfeito. C exper te ajuda.

>> Tá vendo aí >> catálogo. Exibir catálogo ali, um carrossel dentro da visão para você ver produto que a elas estrearam agora. A gente já tem, velho.

>> Isso é muito legal. E aí pegando esse gancho de visualização, catálogo, etc., vocês falaram bastante que do uso do Open Web.

>> Uhum.

>> Para para para uso interno ali de interface, etc.

Mas eu quero saber sobre um cara que também tem feito muito barulho.

>> Bastante, bastante >> ultimamente um cara que é amável. Claro, amável.

>> Muito amável.

>> Vamos saber para quem é amável a partir de agora, que é o lovabo, né? Eu usei o lovabo, tive uma experiência boa com ele, mas como é que eu posso dizer?

A minha experiência foi solta, pera desabafa. Desaba >> só vai, cara.

>> Calma, tá tudo bem. Tá num ambiente seguro.

>> Não, é que ela não foi plena em nenhum sentido, assim, não foi plena no técnico e não foi não foi plena no design.

>> Uhum. que assim no técnico eu tenho controle, eu sei o que tá acontecendo, eu sei o que pedir e eu sei saber a qualidade, consigo avaliar, né? No design não, eu sei olhar e falar: "Tá bonito, tá feio, >> funciona, né? Funciona ou não funciona".

E não me agradou muito que saiu ali usando só o Lovabam. E aí, o que que eu fiz, né? E enfim, até como um um case aqui para para contribuir com vocês. Tem a inteligência artificial que eu uso pro pro podcast, para processar resumos, descrição dos episódios. Eu não escrevo esses episódios, viu? Essa descrição que vocês estão virando aqui. Isso aqui não sou eu que escrevo, pelo amor de Deus.

Isso aqui é inteligência. Mas eu treinei treinar >> e aí eu eu isso tudo rodou por muito tempo na minha máquina com script Python. Eu fazia, gerava os TXT, depois eu tomei vergonha na cara, mudei pro LC Chain para poder automatizar de uma forma menos artesanal. E aí depois numa ter no terceiro momento eu fiz uma interface web para isso.

>> E aí eu usei o Lab.

Que que eu posso dizer? A parte do JavaScript foi muito confusa, ficou muito ruim assim. E e aí eu falei: "Cara, eh, vamos focar no no visual." E aí o visual não me atendeu tão bem. Mas que onde eu quero chegar com isso? Eu cheguei numa outra IA que foi do Canva.

>> Uhum.

>> Onde eu fiz o design e aí eu juntei as duas, né? Falei: "Ó, preciso de uma interface assim, que faça isso, que faça aquilo e tal". Vai ter esses blocos e tal. E o design ficou lindo no camp.

Falei: "Porra, maravilhoso".

>> Aí eu gerei um PDF e levei pro Lovel.

Subiu o PDF, ó, faça agora uma interface baseada nesse design. E aí ficou bom.

Uhum.

>> E aí ele gerou os elementos de Y já com os frameworks. Qual que é o framework, cara? Tem um framewor que us >> Twind. Isso. Já com Twind. E tem um outro que ele usa para fazer a compilação em tempo de desenvolvimento e produção.

>> Nest.

>> Hum. Não, >> Nest.

>> Nest. Acho que é Nest.

E e exportou, cara, exportou para dentro do meu GitHub, bonitinho e tal.

>> E e a minha experiência ficou boa a partir daí ficou bonito, eu vi os elementos sendo criados e eu comecei a colocar regra de negócio, entre aspas, de frontend, falar: "Ó, esse campo ele é esse campo ele é obrigatório, esse não." Agora quero um outro grupo de elementos para isso. Esse aqui é obrigatório, esse aqui não. E a a navegação navegação tem que ser assim. Aí eu vou ter um spinner aqui que depende de uma outra chamada de JavaScript. Aí ficou bom. Aí eu falei: "Pô, isso aqui tem é tem tem futuro, tem futuro". E aí eu consegui através dos prompts no lovable chegar numa interface 100%. E aí eu não sei se e eu quero a opinião de vocês e a avaliação de vocês.

>> Uhum.

>> Eu não sei se pela minha experiência backend e não ter o conhecimento do front end que eu consegui desacoplar bem. Falei: "Cara, daqui para cá, deixa a chamada da PI, deixa que eu faço, velho. Só, só >> deixa com o pai.

>> É, deixa com o pai. Considere que quando eu clicar no botão isso aqui. Isso é isso.

>> E aí, ó, vai ter um end point aqui.

Então, bota uma variável de ambiente que você vai chamar aqui, vai ter resultado com isso daqui. Cara, funcionou lindo.

Aí funcionou lindo.

>> Uhum.

>> Ficou bonito, ficou funcional.

E cara, eu tive que mexer zero, até porque se tivesse mexer não sabia mexer.

Mas cara, o código ficou limpo, ficou bonito, funcionou. Tive que usar o Canva pro design e usei lá o lobo para gerar o código do front end.

E aí, Clauber, vai ter que >> Eu já tô escolhendo qual a praia que eu vou morar, porque eu vou vender coco na praia, entendeu? Então, >> isso, cuidar de ganso, né? Cuidar de >> exatamente, pô. Já escolheu se vai ser coco, vai ser tapioca ou queijo coalho.

>> É uma cervejinha ali também, né? Qual coisa já vende umas miçangas ali junto.

Então, >> mas e eh eu acho que o dia a dia do desenvolvedor frontend eh eh não ficou afetado, né? Porque e eh é o que você falou, você tem algumas coisas ali, você precisa de um de um de um prompt às vezes mais trabalhoso. Você perde um tempo ali conversando com a inteligência, né, falando: "Olha, faz isso". Não, isso aqui não é bem assim, né? Você vai meio que dirigindo ali, mas no momento que você coloca isso no ar, entra de novo o desenvolvedor.

>> Alguém tem que tomar conta disso.

>> Alguém tem que tomar conta. Se alguém fala assim, ó, precisamos colocar uma feature nova, beleza, como é que eu faço? Eu uso o que tava lá no no meu lovable da vida ou eu abro o meu meu meu guit lá, baixo o código, implemento aquilo. Uhum.

>> Né? Como que eu lido com isso? Então acho que você tem o piloto ali, que é o cara que vai escrever o prompt, mas você tem o desenvolvedor ainda falando, ó, beleza, tá em produção, como eu põe isso em produção?

>> Piloto nada impede que seja o profission. Exatamente. Exatamente.

Porque às vezes vem o design ali, você fala: "Beleza, ó, tá aqui." Aí você fala: "Não, mas aqui é o que você falou, pô, aqui eu preciso colocar um place holder, né, no meu campo aqui de input.

Não, esse form aqui não tá legal. Eu preciso separar isso aqui em componentes, porque ele criou tudo num componente só." >> Uhum.

>> Né? Então >> você tem algumas coisas nessa profundidad, provavelmente o meu tá no componente, >> provavelmente, sei lá, se você vai fazer um um design system, provavelmente eles devem ter usado lá na livela. Então, né?

Até é legal vocês comentarem como vocês fizeram essa questão de >> design system, porque provavelmente vocês têm que ter o mesmo padrão de visual para toda a empresa, né?

>> É, a gente tem um design system, o Prisma, né? Ele tá publicado, aberto para todo mundo, né? Nossos parceiros.

>> Se quiser acessar o design system da Livelo, tá aberto, é público.

>> Quiser copiar o usar, pode usar. É devolvendo pra comunidade.

Isso aí. Eu acho que assim, quando a gente fala desse tipo de ferramenta, ele tá muito para upstream, não downstam. A gente não tá falando de produção, cara, eu tenho uma ideia, quero fazer coisa rápida, Lovable, Raplet, Firebase Studio, cara, sensacional, só vai por Olha só que momento interessante a gente tem história. A primeira vez que o PIO ele pode fazer a telinha, >> não precisamos olhar mais história.

Épico, cara. É isso que eu botei que l a cabeça dele >> não. Mas o botão era diferente, não tava pensando nisso, cara. Era >> aí dá todo final de sprint você fala: "Não, não era bem essa tela que eu queria".

>> Definir chovedor.

>> É exato. Exato.

>> O trabalho do design, né? O design critique ali. Pô, eu tenho aqui, ó, agora não tenho três, eu tenho 20.

>> Vamos testar aqui, ó. Vamos colocar na rua para testar, fazer pesquisa. Então, a gente ganha uma produtividade, cara, que jamais foi visto na história dos desenvolvedores, sabe? Foi, é animal isso. Eu vejo como upstring, sensacional. Agora quando a gente entra para dar um string, a conversa é outra, porque de fato a manutenabilidade no quando o código tá em produção, cara, é a gente tá falando de, né, um código mais senior, né? Então, o uso do design system, cara, >> é muito sensível isso. Nem todas as ferramentas estão disponíveis para fazer isso. A gente tem o Figma, AI ali que tem alguma coisinha, né, que pode passar o código, cara. mais maduro suficiente para ir para produção, upstream, downstream, esquece, esquece, não, não rola, né? E também tem a questão pessoas, né, cara, a gente precisa rampar novas pessoas, né, novos desenvolvedores, né, o Dev Júnior, eu sei que o papel do Dev Júnior é uma >> é uma situação ali um pouco mais todo mundo falando sobre isso, né?

>> Exato.

>> A grande pauta de discussão é essa, né?

que a barreira de entrada ficou gigante.

Sim, barreira entrada fou. Eu vou começar no código sem fazer código, né?

A Iá vai me ajudar. Começo a Iá, como que eu >> é difícil de ligar?

>> Mas sabe o que que foi legal? Eh, que meu trouxe uma perspectiva do PIO ter mais autonomia sobre aquilo que ele tá vendendo de ideia do seu produto.

>> Quando a gente começou a discutir também, e aí separando lá de novo, entrando na na área aqui de design, né?

Vou separar o que é concepção do que é protótipo.

>> Então, na concepção, cara, isso aí só vai, só seja feliz. É o seu momento.

Agora aproveite essa onda. É, >> é o seu momento. Quando a gente entra na na entrega fiel que precisa acontecer, a gente debateu dentro da livela e aí a gente tem uma pessoa lá chamada Bequinha, que é que é a Beca. E a gente falou assim: "Cara, como que a gente transforma o design system em um MCP?

possível de ser chamado através de agentes de A, ou seja, dentro da minha IDE, dentro da minha IDE.

Nível absurdo de >> e a gente montou, cara. Hoje o desenvolvedor que tá ali codando e parte ali da do que tá sendo construído como ideia. Então, imagina assim, ó, a gente foi dessa ideia de concepção, >> então o cara foi lá, idealizou o conceito bizarro ali, o produto, aí começou a descer pro downstream. E aí no downstream a gente falou assim, ó, como que a gente acelera essa micrognhos, né?

A gente chama isso de micrognhos. Então a gente olhou a janela inteira entre upstam e downstam e falou assim: "Aonde tem microghos dentro dessa janela de step to step inteiro? Resumo de história e etc." Cara, hoje a gente constrói a história a partir do do concepção.

>> Uhum.

>> Já não é mais o jeito que a gente fazia antes. Então tá mudando a jornada como ela tá acontecendo.

>> É, tá mais assertiva, tá mais específica, né?

>> É. E aí o desenvolvedor, cara, hoje em dia ele fala assim: "Não, beleza, agora eu entendi o que eu tenho que entregar.

>> Deixa eu codar aqui." >> Não, mas isso isso é muito legal. E e por acho que pela primeira vez vocês me fizeram me sentir como provavelmente o o o cara que não é programador se sente usando a IA para back endum. Eh, eu eu fiquei muito satisfeito com o resultado lá do do Lovabo.

>> Falei: "Cara, e eu não sou especialista frontend, tipo, cara, eu programei frontend e tava rodando JQU ainda, né?

Então, e cara, pô, isso aqui tá tá tá razoável, mas pr pra tecnologia atual e pros padrões atuais de excelência e de senioridade, aquilo provavelmente não está adequado, né? Uhum.

>> Mas seria adequado para um protótipo, né? Que é o mesmo nível de crítica que eu faço pro backend. Fala, cara, [ __ ] serviço aqui e eu brigo com a Gem Cle, velho. Fala: "Ah, cara, como é que você vai fazer isso, velho? Mas e se acontecer isso?" Sim, sim, senhor. Você tem razão, velho.

>> Ele fala: "Não, realmente você >> você está, você nunca tá errado, né? Com el cara o modelo do Jimai, ele é maravilhoso, cara, porque ele fala assim: "Desculpa pela minha incompetência, >> senhor desculp." Você realmente atentou para um ponto que eu não tinha tentado.

Cara, você artificial, desculpe, eu não tenho a generidade que você tem, mas eu vou refazer. Sensacional, cara.

>> E aí, cara, e é muito legal isso, né?

Porque e aí chamando atenção para para quem nos ouve, né? Você pode executar uma tarefa na IA que você acha que está maravilhosa, mas talvez ela não tenha o nível de especialidade necessário pra escala que ela precisa, né? Então você precisa de um especialista para avaliar aquilo. Eu como não sou especialista frontend, eu tô com o meu front endzinho lá feliz, mas provavelmente aquele me daria um problema corporativamente no futuro por não ter definições melhores de especialidade de uma senoridade que avaliasse aquele resultado da IA, assim como acontece acontece também com front end. Então você pega e aí voltando pro ponto que a gente até falou sobre os juniors, né?

Uhum.

>> Eh, você, a gente tá incorrendo num risco muito grande de empresas que estão muito avançadas na geração de código com desenvolvimento, trazendo gente júnior, gerando código que o cara não tem capacidade de avaliar, né? E outros cenários que a Iar na mão no caraor é muito produtiva, o cara tem capacidade crítica, ele gera código muito bom, ele aperfeiçoa, vai pra produção, né? E não e tampa a barreira do do Júnior.

>> Exato.

>> Enquanto tem outras empresas dando uma bazuca na mão de um cara que acabou de chegar no exército >> e não sabe usar.

>> Exato. Por isso que até na Livelo a gente fala: "Beleza, e é uma tecnologia, mas a gente olha como uma disciplina, então a gente precisa pensar em pessoas, cara, pessoas". Então, como que eu trago esse júnior? Como que eu rampo a carreira dele? Entende? Porque ele vai começar utilizando em muita coisa, cara.

não vai ficar na no professor lá explicando da faculdade, ele vai est lá no dia a dia colocando código para dentro, né? Até a gente pensa código como commodity, empurra código.

>> Então é importante também uma prática explicando pra galera júnior, cara, roda o explo, né? Agora eu não preciso mais fazer o meu pull request e ter lá o meu, né? O sior falando: "Pô, faz essa boa prática". Não, cara, tenho meu MCP.

Então, olha só a velocidade de aprendizado também, entende? Então, da mesma forma que é difícil a barreira de entrada ali, agora é mais rápido também o rampap dessas dessa galera. E eu falo, eu falo mais uma coisa, a inteligência artificial ela tira do operacional e vai pro tático estratégico, mas quem tá lidando com a inteligência artificial tem que ter esse domínio de como utilizar, porque, cara, você vai tomar um uma sopa com garfo, >> isso é uma porcaria, entendeu?

Exatamente. E o que mais me preocupa, cara, que assim, >> o maior degrau de crescimento do cara de TI é errar, velho.

>> Exato.

>> Exato.

>> É experiência, né?

>> Experiência, mano.

>> Quem quem de nós aqui >> você aprende com código de erro, né?

>> Quem nunca entrou num tomou um um no Pointer Exception na vida?

>> Nossa, meu Deus.

>> Pô, cara, a chance de você não tomar um no Pointer Exception agora com I é mínima, cara. Você e aí você, cara, você aquela cara de ué. Ex.

>> Acabou, mano. Acabou. Cara, você tem noção do quanto isso é preocupante?

Porque tipo, quantas vezes vocês não, vocês três aqui que >> são de uma geração semelhante a minha, quantas vezes você falou, cara, no point exception aonde hoje. Tá isso >> é exatamente.

>> E agora o >> você levanta, você joga o o >> aí você fala: "Não, cara, eu vou, eu vou >> e aí você vol, aí você volta e você acha o erro, sabe?

>> Cara, o quanto isso te faz crescer como profissional, como se faz evoluir, né, mano? É.

>> E aí agora, tipo, o a galera, tipo, eu tava vendo uma galera programando, o cara nem olha o erro, ele copia e cola, joga no no na no na LM e aí, tipo, cara, ele virou iada da Iá, sabe?

>> Exato. Esse é o maior problema. Esse é o medo. Esse é o medo.

>> O cara nem quer saber o que aconteceu.

Ele nem perde tempo entender, mano. Ele copia, bota lá >> e cara, isso é muito isso vira um círculo que talvez não tenha uma um um não seja um círculo virtuoso, mas um círculo vicioso que >> a gente pode ter um problema muito grande no futuro.

>> Ex. É, até até falando, pelo que deu para entender que vocês estão fazendo dentro da Livelo e e que eu vejo que muitas empresas às vezes cometem esse erro, é o time to market, o tal do time to market, eu preciso botar em produção.

>> E aí entra essas facilidades de não, vamos produzindo código ali e vamos jogar em produção.

>> Uhum.

>> Beleza, tá em produção, mas qual o custo disso depois?

>> Qual a qualidade disso? Exatamente, porque aí você pega essas coisas de, ah, não, eu só copiei e colei erro aqui, o cara foi, subiu, >> rodou, >> tá funcionando.

>> Eu vou te trazer um negócio que a gente fez, ele foi muito criativo, cara. O pessoal ali de Devex, que é a parte que cuida ali de da experiência do desenvolvedor, eh, fez uma uma orientação, vamos colocar desse jeito, muito bacana. Eles dentro da PR tem uma IA plugada no dentro do geek.

>> Uhum. sempre que tem uma PR lá, ela já faz análise e já recomenda baseado em todo o treinamento que isso é maravilhoso. Isso é maravilhoso.

>> E aí, cara, se tem alguma falha, tipo qualidade, vulnerabilidade, libada que é errada e etc, cara, ela já recomenda, cara, tira isso daqui, faz, volta, faz isso, faz aquilo, faz aquilo outro. É o melhor lugar para estar, não é o melhor lugar para estar, mas é quando a gente fala de segurança ou ou de ter este olhar de qualidade, a gente tá falando entre camadas, né? Então, eh, eu vou trabalhando camadas até eu conseguir, por exemplo, no tema de segurança aqui, eh, travar o invasor, né?

>> Então, a gente começou a trabalhar as camadas, então dentro da camada eh do desenvolvimento de código, tem uma IAT apoiando.

>> Sim.

>> E ali ela vai, ela foi treinada, ela tá preparada até um limite.

>> Quando você faz uma PR, aí tem uma outra IA ali dentro. Então a gente tá criando essas essas etapas, ela conto, minimamente, ela tem um contexto mais expandido para poder olhar isso de uma forma menos viciosa do que você ali copiando, colando, copiando colando.

>> O o grande amigo meu, Bruno Campos, da que é City da Clever, ele já alguns anos, ele tem usado uma, eu não vou lembrar o nome da IA, mas ele usa para PR e ela, >> se não me engano, é o Rabbit, ele o o o baiano, não foi?

>> Isso é o baiano.

>> Ele comentou com a gente. Se não me engano, chama Rabbit.

>> É. E e essa IA, ela tem um uma capacidade que ela mantém o contexto por team.

>> Hum.

>> E não só no PR. Então ela sabe o contexto daquele time.

>> Então ela >> ela acumula o contexto repositório e tipo o teu PR e o PR do cara ele ela consegue ter uma visão mais massa.

>> Isso é isso é legal para caramba.

>> É a gente cara isso foi um experimento.

A gente falou assim e cara é o N8N por trás, né, Kimil? Esse é o N8N.

>> É o N8N por trás. Olha, >> a gente fez, criou, construiu lá, colocou. E aí o legal é assim, cara, isso trouxe uns resultados muito bacana.

Por mais que parece ser uma coisa simples, trouxe resultados muito bacana.

Eu já tava debatendo com alguns desenvolvedores que eles falaram assim: "Cara, [ __ ] peguei um erro aqui, ó. Ela recomendou ajustar isso. Eu trouxe o código de volta, cancelei ali, comecei a trabalhar novamente, corrigir, mandei, agora vai embora". Sabe que tem um contexto no LLM para código que é o down in a holdle, né?

>> É >> que você começa a discutir um problema e aí você contesta e ela vai resolvendo, vai tampando, vai tampando, você entra num buraco >> vibe code, né?

>> Isso que aí você vai piorando o problema >> e você gera um buraco enorme que na verdade não era nada lá de cima. E eu percebi isso no nos experimentos que eu fiz com Geminik Clee, por exemplo. Eu tava lá, aí não, isso aqui não não funciona assim, então resolve assim. Aí e foi indo, foi indo. Eu falei: "Cara, isso aqui ficou uma bosta".

>> Ele começa a criar vários outros problemas que você não tinha.

>> É exatamente, começa a criar os problemas, aí você começa a a a vibe code para resolver os problemas que para resolver que você não tinha.

>> E você gera um buraco absurdo.

>> E aí eu fiz um teste uma vez, falei: "Cara, não, para, zerei o contexto".

Gerei um outro console. Falei: "Ó, esquece o contexto para esse diretório.

>> Dá um guit checkout em tudo que você fez.

>> Isso. Zera aí. E e cara, isso isso é legal, né, de você ter experiência com com esse tipo de modelo. Quando eu zerei tudo e abri de novo contexto novo, falei: "Ó, analisa o código, eu estou com esse problema, como que eu posso resolver?" A solução veio. É >> porque ela tava tão viciada naquele naquele buraco, né?

que aí eu não conseguia voltar, não conseguia voltar pro pra análise inicial, né?

>> É, por conta do da própria características das IAS, né? Então a gente tem a memória, a gente tem o contexto, então tudo aquilo que tá ela vai afunilando na rede neural, né? E ela não consegue us as conexões, né? Ela começa a acionar as conexões neurais, aí ela começa a achar caminhos que talvez não sejam os ideais >> por peso de treinamento, por inferência, >> se prende lá e não volta pro começo, né?

Então, >> eh, e por isso que tem o o Jud pattern, né, que é o cara que vê depois com o contexto mais aberto para saber. Não, pera aí, filha, tu tá falando aberto, >> é que você começa a usar as técnicas de transformes. Se você conseguir dominar bem a técnica de transforme dentro do LLM, aí você tá feito, porque você vai conseguir gerenciar muito bem o contexto em que ela tá avançando. Mas se você não dominar muito bem esse conceito, cara, aí você tá perdido, né? Até até uma pergunta para vocês, a gente voltando no contexto do Lovable.

Vocês têm alguma ferramenta que faça um teste de regressão em interface?

>> Em interface? Acho que ainda >> é porque como vocês têm o o o design system, então às vezes depois o pessoal tá implementando alguma coisa no fronte, vocês t algum teste, fal: "Ah, quebrou, sei lá, o logo tá no lugar errado agora".

>> Ah, sim. Ah, isso sim.

>> Hoje a gente Mas hoje a gente não tem uma I para isso, tá? Então você tem os que mesmo? Não, não, a gente não tem Q, >> não tem. Então isso que é legal, como que vocês funcionam lá dentro?

>> Então tem algumas práticas ali utilizando inteligência artificial mesmo para QA, mas é o próprio Amazon Kill, não sei se a gente podia falar, mas enfim, Amazon Kill, né? Então a gente vai criando os MCPs, vai criando até os próprios markdowns de rules ali, de boas práticas, né? E aí a gente vai alimentando e vai avançando na questão.

>> A gente tentou algumas a algumas IAS de código mesmo, né? E aí a gente foi olhando ali a oportunidade da parceria com a Amazon e com a WS em si, né, olhando >> a parte ali e a gente embarcou com eles dentro da estratégia de cara descesso ao Sonet aí. Sim, sim.

>> É, até eu pergunto isso exatamente por conta dessa questão do Lovab de você, beleza, você criou ali o seu primeiro protótipo, mas daqui dois tr meses, que você já precisou de várias coisas, como você consegue voltar usando um lobb?

Esse é o ponto, como que eu mantenho contexto e memória para para manter aquele projeto >> vivo, né? Porque >> a jornada de vibe coding, cara, seja front end, seja back end, eu acho que ela ainda tá numa perspectiva de eu vou fazer um uma concepção, eu vou fazer um uma prova de conceito, eu vou elaborar uma defesa, eu vou fazer um a meu pit para vender para um anjo, cara. Tá ali.

>> Sim. O um ponto que eu acho que vai acontecer como intermediário, porque eu acho que o Vibe Code tem os dias contados, tá? E eu já eu já disse isso em alguns episódios e um dia talvez a gente faça um episódio só para falar disso, >> mas eu acho que a a geração de código por IA ela é provisória. Eu acho que a IA que gera código ela é intermediária, porque se a IA consegue gerar uma um código que execute aquilo, eu posso ter uma IA que seja a própria aplicação que faça aquilo, né? Então acho que em algum momento a gente vai parar de gerar código com IA e a gente vai >> imputar a regra de negócio direto no meiá e ela vai incorporar aquilo como uma regra do que ela tem que processar.

Eh, mas eu acho que no estágio intermediário a gente vai ter um ponto em que a gente vai versionar o contexto junto com o código quando a gente tiver falando de vibe code, né? Perfeito.

>> Então, se a gente tiver muito avançado com isso, eu não voucionar só o meu código, vou toda aquela persistência que as pessoas não sabem, mas que que existe uma persistência de memória e de e de contexto dentro daquele projeto, >> eu vou ter uma forma de version com com o meu código, porque aí eu não perco, como a gente falou do Lovel, beleza? Fui lá, fiz meu >> aí, [ __ ] eu vou ter que começar do zero sem saber o que é. E isso acontece muito com hoje que a gente usa e via terminal.

>> Sim.

>> Ele ele zera e você pôra recupera o contexto memória para projeto diretório e etc. Ele ele traz de volta. Eu acho que a gente vai versionar contexto junto com a aplicação. Eu acho que isso é tipo amanhã.

>> Isso é interessante para caramba.

>> Acho que isso vai ser logo, né?

>> Tem algumas ferramentas que já fazem isso com Markdown. Você armazena o Markdown, você pode colocar tanto em memória quanto também na verdade >> em janela de contexto, em rules você pode fazer isso. É o próprio Amazon Ke, você pode fazer isso, tá? É bem interessante. Acho que vale vale aí a prática. Tô vendendo Amazon, né? Mas >> um abraço o Amazon, se quiser, quiser patrocinar a gente aqui, por favor.

>> Ó, seu logo lindão aqui. Olha, pessoal, >> ó. Mas assim, a gente tá evoluindo bastante, utilizando bastante Amazon Kill com boas, assim, bons resultados assim, boas soluções e uma delas é essa possibilidade. Claro, ainda existe ali uma necessidade jogar num guit ali boas práticas, questão de documentação. Sim, mas acho que logo mais vai tá embarcado para facilitar a sua hoje, hoje, na verdade, você gera uma documentação em MarkD e que você recupera depois, né?

Não é exatamente, >> você pode colocar dentro também do do próprio Amazon Kill, sabe? que aí quando você abre de novo o VS Code, aí ele pega o contexto, sabe?

>> Ah, é legal porque eu eu imagino algo assim, tipo que você eh faz um dump do do do contexto >> no formato da própria do do próprio LM, você recarrega esse contexto, né? Porque hoje é normal você de fato, inclusive nos multiagentes que você tem eh separação de tarefas, etc., que você precisa ter de fato uma documentação do que vai ser executado e recuperar isso depois, você faz mark down, né? É o normal. Acho que o próprio Gemini eh o Cle ele ele ele persiste em em no seu home do >> Tem tem uma coisa muito legal do badrock, né? Se eu não me engano, o Vertex também tem que ele tem uma versionamento de prompts também. você pode versionar assim, eu não gostei muito particularmente, mas é interessante para você ter, né, todo o seu flow ali, porque além do prompt, você também pode criar flows e plugar quais são as versões ali de promptes e tal. É interessante, mas assim, >> é, vamos ver que vai acontecer, mas eu acho que acho que ainda vai evoluir, >> vai evoluir, vai evoluir. Eu diria, cara, que se você seguir o dinheiro, sabe, Follow the money, money, >> follow the money, cara, até sendo muito dinheiro investido em cima dessa jornada de vibe coding, >> cara, vai surgir amanhã.

>> E se eu pudesse apostar, vai ser a Cloud que vai trazer. É, eu também. Pelo menos é o Ll mais focado no código, no negócio, as coado muito bom.

>> O Claude é o cursor que também >> é também tem uma jornada muito boa na nessa pegada.

>> Agora, eh, falando sobre futuro, >> legal, >> a gente falou no começo do episódio muito sobre o N, eh, pô, agora >> o N8N. Viram trava língua, né?

>> N8N.

[Risadas] mistura tudo.

>> Isso. Misturei os dois. Mas eh a gente tá vendo muita plataforma agora trazendo o contexto de automação para dentro do próprio modelo, né?

>> O o Openi lançou o agente que agent >> agent builder recentemente, né?

>> A gente tem visto também a Microsoft avançando muito com o Power Apps em relação a isso junto com o Copilot, né?

E isso nada mais é do que o modelo tentando abraçar o orquestrador, né?

>> Com certeza. Perfeito.

>> E todo mundo de olho no no em abraçar o contexto do NN, né?

>> É.

>> E como que vocês vem isso no futuro? Eu como arquiteto tenho minha opinião. Eu vou deixar para falar no final, >> vou começar aqui, tá? Eh, que que a gente tem acompanhado nessa dentro dessa jornada?

Quando a gente começou a analisar esses movimentos, então esse anúncio já existia uma tendência da Openai perseguir este caminho. E aí eu vou trazer uma percepção que ela é Levi, não é Livelo, tá? Acho que vai ficar claro aqui. Uma percepção de >> CPF, não CNPJ.

>> CPF, não CNPJ. Perfeito. Eh, a Openai, ela tá tentando caminhar para se tornar o que o Ixete é na China.

Então consegui embarcar ali grande parte da conversa, do pedido do do carro, da comida e etc. quando ela lança a estratégia do do apps SDK, eh, que você consegue conectar ali dentro, quando ela lança o, eh, e esse ACP, né, um português aqui mais fácil, >> o ACP >> que possibilita você transacionar dentro dela quando ela começa a caminhar para essa jornada.

>> É, o Codex também agora em linha de comando, né? Exato. Exato. Me parece uma E aí ela fala assim, ó, agora eu vou te dar uma plataforma que você consegue construir seus próprios conceitos aqui dentro.

>> Me parece ser uma uma grande tendência caminhando para uma jornada de a bocanhar eh ou eistema de a e aí tudo bem, é posicionamento de uma companhia, né? Então, eu acho que isso vai ser comum, porque eu não tenho um grande player que faça isso. É exato. Eh, só que eu acho que eles estão com uma ambição e aí é por isso que acho que tem uma dinâmica ali, olhando pra estratégia de como eles se posicionam até de não se tornar uma empresa privada, manter o controle ainda como uma ORG, né, que vai ficar no ato científico, >> que de open nunca foi.

>> Exato.

>> E aí fica >> parênteses aqui que open open é o meu >> parent só nome. Só nome, >> só o nome. Mas quando você olha essa essa visão estratégia aí, eu deixo aqui na mente de todos os ouvintes, será que a internet vai se tornar internet do jeito que a gente conhece ela hoje? Ou as pessoas ou essas grandes empresas estão tentando recrever a forma como a gente interage dentro da internet? Então é, esse é um tradeoff Levi. Aí eu vou trazer aqui a perspectiva quando a gente tem um lançamento, por exemplo, do Agent Kit, que é a plataforma ali de você construir os parecido com N8N.

É óbvio que ela vai conseguir alcançar.

E aí, para quem não acompanhou esse lançamento, ela lançou um um plataforma muito parecida com N8N, no Code, para você fazer as ligações ali de caixinha dentro do seu ecossistema. Só que qual que é a problem a problemática que ela tem na mesa? Não tem conectores.

>> Uhum.

>> Então ela precisa ainda criar esses conectores. Alguém tem dúvida que ela vai chegar no mesmo nível que o NN tem?

Zero. Zero de dúvidas ali. Tem muito dinheiro na mesa para poder fazer essa de nego batendo na porta. O cara, olha o meu conector aqui, ó. Tá prontinho para você.

>> Então ela vai chegar e nisso. Agora, se ela vai te permitir ela conectar com outros modelos, aí é uma conversa muito diferente, cara. Te digo que não.

>> Eu também tenho essa percepção e essa visão. Exato. Porque eles querem abocanhar o ecossistema. Então, quando a gente vai para pr pra Open nessa estratégia, logo logo o Google também nessa estratégia, logo logo eh os Antropic nessa estratégia, cara, a gente vai ver um movimento de de tendência para quem tá numa estratégia de falar assim, ó, cara, eu quero beber no melhor que tiver no mercado. Não quero saber se é azul, vermelho, azul, rosa, sei lá, verde, cara, não me importa qual é a melhor. É o nano banana agora não.

Beleza. Tô plugado aqui. É o Sora, então tô plugado aqui. Ah, é o Sonet. Tô plugado aqui. Então, >> até porque compartilhando aqui como companheiro de profissão somos muito bom.

>> Eh, faz muito sentido que a gente tenha multiplayers, até porque o o assim como a Nete aprendeu lá na na nossa faculdade, o modelo de design patterns, etc.

Estamos agora tendo os AI patterns, né, como o judit que a gente conversou, etc.

>> A pluralidade de modelo, ela é essencial. Eu nunca vou ter um jud com o mesmo modelo do da IA que que fez a de fato o trabalho, né? Então, ter a desconexão e o desacoplamento entre o o a orquestração e o modelo que processa é essencial. Então, como característica de arquitetura, você nunca vai adotar um loquin, né, que é outro problema de arquitetura em uma plataforma única. Então você sempre vai ter uma camada ali de modelos que você vai processar de acordo com com a orquestração que você faça vian ou via qualquer tipo outro outro tipo de orquestrador, mas você tem que ter controle sobre o tipo de processamento que você vai ter, até porque isso vai te dar a flexibilidade de de aplicar os patterns que estão sendo criados agora de AI, né?

Então, eh, olhando para isso, você vai ter que ter a melhor plataforma de orquestração pro melhor caso de uso. E dentro da orquestração, você vai ter que ter o melhor modelo pro caso de uso, né?

Perfeito.

>> Eu posso usar o Nano Banana para gerar uma imagem e eu posso acionar o o Clouds, o Sonet para poder gerar código, né? Sim.

>> E aí eu consigo >> Você descreveu que a Livelo tem, >> cara. [ __ ] eu vou tá precisando de gente para trabalhar não. Você >> descreveu que a gente criou. que a gente tem um bocado de vaga, viu?

>> É, inclusive se você tá ouvindo e quer trabalhar e viveu esse momento, olha, olha o PPT não compila vagas. Vagas, >> olha que tem muita oportunidade bacana você trabalhar com toda essa tecnologia que a gente abriu aqui para para todo mundo.

>> Mas é é isso. E quando a gente pensa no mundo de, ah, eh, você mesmo falou isso, né?

Eh, que é é engenharia, é padrão, né?

>> O contexto de coesão desacoplamento, ele não muda. Eu não vou acoplar minha orquestração ao modelo de processamento.

Isso é imutável, velho. Não adianta.

Então, é é um é um contexto que tem que sair na urina ali, cara. [ __ ] você não vai fazer esse tipo de acoplamento, né?

Tá?

>> Então beleza. Eu posso ter o o plataforma da I, que é a melhor plataforma de orquestração, e usar o modelo dela. Posso, mas eu tenho que ter a possibilidade de fazer um shift se eu precisar.

>> Muito fácil. Eu preciso fazer esse shift muito fácil. Por exemplo, a gente teve o bom do lançamento do Votre. Pô, cara, todo mundo tava olhando para aquilo, falou: "Nossa, meu Deus". Aí vem o Sora, velho.

>> Se você for olhar a física, não sei se vocês chegaram a ver os vídeos, >> mas se você olhar eh o Viotre eh às vezes sei lá, vou criar um prompet aqui que vai criar um videozinho e aí eh sei lá, alguma coisa vai quicar. A física da do kicar dentro do viri, ela é meio bizarra.

>> Quando você vai pro Sora, meu amigo, você tá maluco, >> não? Saiu o Sora 3.1, que agora é realismo máximo e não sei que >> e amanhã vai sair o o o outro Sora.

>> E se essa concorrência ela é gigante, cara, por que que eu não tô usando o melhor de tudo, velho?

>> Exato. Exato. Exatamente. Eu não tenho não tem uma chave de fenda para tudo quanto é prego e parafuso e né? ou eu vou ter que esperar, vou ter que esperar, tipo, uma dessas companhias, né, chegar no mesmo nível que a outra lançou, porque vai acontecer a corrida.

>> E é nesse ponto que eu acho que a gente ter um uso controlado sobre os frameworks e abstração faz todo sentido.

>> Exato. Exato. Eu vejo também que é uma questão de posicionamento da empresa, sabe? Ela quer se posicionar para estar em todo momento de uma jornada do meu cliente.

>> O meu cliente ele usa chatt, então por que não se posicionar lá?

>> Entende? O que que eu tenho que habilitar para estar lá?

>> Que que eles têm que que que eu que eu preciso para estar lá? Então vejo que, cara, a gente tem muito trabalho pela verdade é aquela, qual a ferramenta que vai funcionar melhor pro meu business, né? Exatamente. E >> isso daí também até para para dizer aqui, >> a gente já faz isso antes da da inteligência artificial, >> quando a gente escolhia qual a linguagem que a gente vai usar, qual o banco de dados, qual arquitetura né? E a gente tá acompanhando o movimento, né? Industriã.

Brinquei aqui com Kimil, mas eh a gente tem acompanhado. Então, por exemplo, eh quando a Open lança uma questão de você tá plugado a ela, por que que eu não votar?

>> Sim, >> quando o Gemini obviamente logo logo vai lançar de você tá plugada a ele dentro do ecossistema dele, por que que eu não vou estar lá?

>> Uhum.

>> Então a gente já tem acompanhado aí o protocolo ACP lá, né, para ou AP2 da Google. Eh, cara, aquilo ali muda a trajetória da internet como a gente conhece, velho.

>> E a gente não tem ainda um padrão definido, né?

>> A gente tá falando muito sobre MCP, estamos falando sobre Away, que é do Google, estamos falando sobre os protocolos de comunicação, mas não tem nenhum. O MCP ainda >> foi adotado, né?

>> Foi adotado, mas é tudo muito novo, cara. Então, a gente tem que estar preparado, não pode estar locado em nada, né? Exato. E aí vai começar alguma E aí eu acho que dando um recado pra audiência que acho que é legal, tomem cuidado com o que vocês escutam, porque muit das vezes eh vai vir para vocês, por exemplo, ah, não consigo construir um MCP sem ter APIs, isso não é uma verdade. Você consegue sim construir eh sem ter uma API. Eh, e isso é muito talvez uma proteção do ferramental, né?

Então, tão é uma uma companhia que ela tem uma ferramenta e aí se essa ferramenta, o MCP vier, substituir ela.

Cara, ferrou, acabou minha trgmas corporativos que a gente mantém e não sabe porquê.

>> É, mas é esse feeling, cara, eu digo muito, eu gosto muito da da da mentalidade do estudo, né? Eu sou professor, sou acadêmico. Então, cara, senta e estuda, velho. Senta, estuda, vai compreender, >> vai entender o o conceito, né, cara?

vai, cara, vai ver uns videozinhos, vai acompanhar podcast, se mergulha de fato, entende o que que tá por trás daquela tecnologia, o que que tá por trás daquela defesa. E se você é executivo, eu te trago o mesmo recado. Eu sou um executivo dentro da Livelo. Eu sou um cara que lê todo dia um paper novo. Por quê? Porque se eu não conseguir dominar isso, como que eu explico isso pra minha companhia? Exato.

>> Como que eu chego numa reunião de CEL lá com presidente da Livelo, os diretores financeiros falam: "Cara, ó, a gente precisa perseguir esse caminho ou a gente será engolido pelo mercado?" >> Uhum. E aí tem que ter abidestria de você conseguir falar >> para um C levelével com embasamento técnico.

>> Perfeito. E é isso que eu digo sempre que a gente precisa de muitos executivos com esse perfil na tecnologia que consiga ser de fato um cara que consiga transitar entre os dois, né? Então você tem que ter embasamento técnico para poder ir ter embasamento executivo, né?

Exato.

>> Uma coisa que a gente, enfim, d pauta para um outro episódio que é nossa, isso é isso é grande, né? Que >> pensa em escopo, prazo, etc.

>> Investimento, retorno, >> retorno, mas não tem não, cara. Mas tem aqui um tradeof técnico precisa ser resolvido, né?

>> Qual é o horizonte de resultado de retorno de resultado desse investimento?

É H1, H2, H3?

>> É exato. Tá, mas usando que tecnologia, né?

>> E em cima adquirir premissas.

>> É exato. Porque >> tem pessoas capacitadas. Exato. Porque é muito fácil você falar de retorno de negócio fazendo gambiarra.

>> Exato. Exato. É muito extremamente marketing. Time to marketing.

Exatamente.

>> Ó, prazo 9 meses, retorno tal. [ __ ] sou um gerente perfeito.

>> Fazendo gambiarra.

>> É, >> né? Então, enfim. E é por isso que isso aqui é uma pauta que eu quero trazer no no PPTo compil.

a importância de ter um city nessa parada falar, gente, >> não é fazer de qualquer jeito, é fazer do jeito certo. Mas enfim, >> obrigado por tocar no assunto, porque isso é >> só mais um ponto aqui até >> me convite principal >> é como a gente comentou sobre os juniors também, né? Eh, cara, estude os fundamentos, é o que você estava falando, né?

>> Estúdios os fundamentos, cara. Perfeito.

>> Não chega só para saber como fazer, mas por fazer. Isso, >> ó, você estamos aqui.

Vou falar de, cara, eu sou zero car, eu sou zero hierárquico, cara. Acho que vocês perceberam aqui um pouquinho do que é isso, né? Mas, eh, eu tô num papel aqui, eu estou, né, como um líder executivo dentro da livela. Eu tô com quimi? Cara, todo dia a gente troca, troca tecnicamente, fala: "Cara, você leu esse paper, você fez esse negócio?" Eu olhou esse estudo aqui, cara, que que eles estão querendo fazer? e se explorar esse contexto aqui dentro desse case.

Então a gente tá trocando, assim como o Kimil, às vezes ele fala assim: "Cara, você não tá com olhar eh de retorno sobre o resultado disso daqui, dessa iniciativa? Como é que a gente defende isso de uma forma mais estratégica dentro da companhia dentro de um movimento de tendência?

>> E essas trocas elas têm que fluir entre o técnico e o executivo, >> justamente pra gente criar. E aí se você não sentar e estudarão.

>> Exatamente. Eu tenho >> a pode fazer muita coisa, mas se você não souber conversar com ela.

>> Cara, é tem é uma falácia quem diz comentar que o papel técnico vai acabar, que o desenvolvedor vai deixar de existir. É uma falácia isso.

>> Aliás, quanto mais a gente tem uma industrialização do operacional técnico, mas o o a capacidade crítica sobre o técnico fica mais importante. E aí o o papel do executivo técnico tende a a ser mais >> a florescer, né? E aí, só um parênteses, eu acho que de fato eh quanto mais embasamento técnico você tem e mais bagagem e liderança técnica você tem, você tem menos vaidade sobre o cargo >> e você tem tende a ter uma uma um um um uma estrutura muito mais flat, onde você troca com sua equipe de uma forma muito mais transparente e que é muito melhor pra equipe. É muito melhor.

>> Você domina o que tá sendo discutido, cara.

>> Ex. Exatamente. O valor que isso tem >> porque depois você transitar isso uma visão. Por exemplo, ó, esses tempos atrás a gente tava debatendo sobre usar o Hway.

>> Então a Livelo quando ela tá numa estratégia ali de agentização, a gente tá bem avançado nessa dinâmica. Então o expert ele tem alguns agentes, ele não tem um, ele tem alguns agentes por trás dele e alguns agentes acionando alguns tipos de modelo. Não é só um modelo, é vários modelos. Então a gente para coisas mais simples, a gente vai para modelos, por exemplo, como o flash, o mais básico. Para outros a gente vai para modelos mais prós, mais e de maiores quantidades de parâmetros. Então depende de qual tá sendo acionado.

>> Eu eu achei que o cara de arquitetura não ia dar essa resposta.

>> Tá vendo?

>> Que é padrão?

Por favor, faça um corte aqui.

>> Agora o cara se certificou aqui de fato como um grande arquiteto. Temos arquiteto. Tá selo, >> tá selado.

>> Tá selado.

>> Segura aqui seu certificado de arquiteta.

>> Eu tô aqui equilibrando a agenda do supo e cara preciso organizar a casa.

>> Mas não aguentou. Ele soltou um depende, cara. Agora sim.

>> Muito bom. Muito bom. Mas eh essa pegada de você conseguir separar essas dinâmicas hoje, essas semanas a gente tava tendo uma discussão com um grande player de mercado que oferta uma solução dentro da livela e ele vai embarcar uma inteligência artificial dentro da solução dele. A gente falou assim, ó, cara, como que você vai comunicar entre o que a gente tá criando aqui, que tem acesso a um conjunto de dados completamente apartado numa visão que o cliente se torna parte da estratégia de discussão da sua próxima viagem para consumir essa informação. E esse outro agente aqui que tá embedado dentro da sua plataforma precisa interagir com esse outro agente.

Não, mas calma aí, cara. Calma. A gente tá chegando lá. Tá chegando lá. Então, cara, se você não senta e estuda, se você não se dedica a compreender, como é que você tem essa nível de troca? Porque às vezes você pode estar sendo e aí >> nada de errado com isso, tá gente? A gente tá numa dinâmica onde a oferta ela tem que acontecer de verdade. Mas se você não conseguir se posicionar estrategicamente dentro da sua companhia, né, eh, os interesses da sua companhia, você pode estar caindo numa armadilha.

>> Uhum. E aí dentro dessa armadilha, cara, o quanto perigoso é essa dinâmica de acesso à informação, de acesso aos dados, de acesso ao que é a inteligência do seu negócio. Exatamente.

>> Então, eh, dica final, eu vou repetir isso a de eterno. Seita, estuda, domina esses conceitos, porque você vai saber aonde saiba o que você está fazendo, a decisão que você tá tomando.

>> Isso, exatamente. para a gente caminhar pro pro finalmente queil o cara que tá ali é interessado em se aprofundar no estudo de inteligência artificial, seja ela generativa ou não, né?

>> Nem tudo é generativo, >> nem tudo é generativo, então, por favor, né?

>> Eh, e por onde ele começa?

>> Seguindo a linha do Levi, ver os conceitos, etc. Tem que voltar lá no psychit learn, >> cara.

Tem surfow, né?

>> Posso usar um depende aqui de arquitetura também, >> por favor?

>> Pode, mas mais um. Tá aqui seu certificado.

>> Eu acho que a primeira coisa é você não ter aquele sentimento de fomo, né? Fear of Miss ali você entender quais são suas problemáticas da empresa >> e aí a partir disso você pensar poxa tem espaço para uma solução X de machine learning, DP learning, redes neurais, enfim, né? Generative AI. E aí sim, a partir disso você começar sua stack ali de estudo. Pode ser psychic learning, pode ser, entendeu? Mas hoje a gente pende muito pro generativi. Então, a partir do momento que você começa a estudar, você começa a entender: "Poxa, aqui eu preciso de velocidade que eu não preciso, pode ser preditivo, eu não preciso de algo generativo." Então, acredito que você pode começar pelo problema e puxar o estudo. Estudo de generative AI. A gente tem grandes players de mercado, cara. A gente tem o Google ali com o Skill Builder, se eu não me engano, né? Acho que é Skill Builder. Tem também a Amazon ali que tem vários eh cursos de graça, não precisa pagar nenhum gênio da do YouTube, nada disso. Tem vários cursos muito bons, inclusive. Então, eh, eu vejo que esse caminho de estudo entre grandes players acho que faz total sentido, principalmente no mundo corporativo.

Você não vai usar uma IA, enfim, opence jogada ali aleatoriamente. Não vai rodar na sua máquina. Hum.

>> Na minha máquina funciona, mas eu preciso jogar corporativo.

>> Na minha máquina funciona na versão LLM.

>> Evoluímos para LLM agora.

>> Exato.

>> Na minha máquina fritou a minha GPU, mas funciona.

>> Perdi um uma GPU aqui, mas tá tudo bem.

>> É baratinho. S sobe uma Hen aí.

Tranquilo, tranquilo.

>> Então é importante você ter todo esse domínio, né? Eu até falo, domine um grande player, né? Cara, a gente tem uma STEC GCP. Vai na GCP, cara. Entende ali como tão seus dados, a qualidade dos seus dados, a capacidade, até onde você pode ir, quais são os rate limits, custo, traz todo mundo, né, para conversar. Inclusive aqui na na Livelo, a gente tem uma comunidade de A para conversar tecnicamente. Então, tem júniors, tem estagiários, tem cara >> legal, legal.

>> Gerai, cultura, né?

E aí com isso você não estuda individual, você estuda no coletivo. E cara, eu vou falar que isso é a maior aceleração que a gente tem lá dentro, entendeu? Então bem legal e com certeza você vai ser tomado pelo hype. Cara, eu quero estudar agilder normal, estuda, faz parte, mas deixa ali no cantinho, entende? Pegue uma staack que realmente você vai dar uma carga de trabalho mais forte.

>> Faz muito sentido, né, K? Porque até para você saber que não serve, você tem que saber o que você tá falando.

>> Então estuda, olhe para tudo, >> estuda, estuda, mas tenha foco, né?

Tenha foco. Importante ter foco ali, principalmente na problemática da que a sua empresa está enfrentando, porque vão ter várias soluções, mas várias. Vai chegar alguém com uma ferramenta ali super inovadora, disruptiva, que faz tudo. Meu Deus, cara, mas será que aquilo faz sentido? Escala, né? A gente volta de novo pra engenharia de software base ali, sabe?

zero segredo. E aí, stack de generativa é cara, eu vou bater em rangeorks você vai estudar, você pode estudar o quê, cara? Vai no L chain, Lane Flow, Lane Graph, né? Quero fazer uma monitoria ali, um tracing, cara. L fuse, sabe? Phoenix, usa esses caras, sabe?

Ah, agora eu quero montar uma arquitetura, ó, uma arquitetura referência aqui para operação interna.

Nente, N8N, desculpa, N8N, né? Open weby, cara, tudo open source, lit ll, tem outros proxis também no mercado.

Então, estuda esses caras normal, cara.

Você vai lá um dia, meu de estudo, navega lá, sucesso. E aí, cara? Não é machine learning, beleza, vamos estudar um um tensor flow, um queras, >> algoritmo, >> é >> algoritmo, modelos, isso é muito importante.

>> Isso é uma coisa que muita gente esquece hoje.

>> Exato, >> cara. É muito bizarro. A gente tá falando isso 2025 aqui, pessoas tem que estudar algoritmo, >> cara. O que que é destilação? vai entender o que que é destilação.

E aí eu volto de novo, né? Você tem que entender. E >> não é de cerveja, não é de bebida, tá?

É, >> não tem nenhum barril envolvido.

>> É exato.

>> Não. E e vocês tem noção que a gente tá no momento que a gente tá falando sobre aplicação de tecnologia de redes neurais, etc. E se você pegar um devão não sabe equilibrar uma árvore binária, >> cara, é loucura. Loucura. Balance. O cara não sabe balançamento de binária, >> o que é um princípio básico mínimo para você trabalhar com regime neural.

>> Exato. Cara, >> entendeu? E é o que a gente fala sobre back to basics, né?

>> Vamos e um e um foundation que é extremamente importante. O que que é aprendizado >> de máquina? supervisionado, não tornado, reinforcement learning, faço uma mistura ali, cara, que que é um é um MOI mixer expert ali no Generative AI, entendi.

Então são fundações importante, né, para eu ter ali o meu perfil, né, dentro da minha empresa. Ah, cara, mas o cara sabe fazer chamar MyPay, não, não, não é esse perfil, entende? Porque aí a gente tá olhando para engenheiro, né? Então é importante que você tenha bons fundamentos para ir sim fazer esse esse essa troca aqui, né? E todo mundo aprendendo e evoluindo juntos, né?

Importante essa comunidade, ainda mais agora. Aprender sozinha é difícil.

>> Aprenda junto.

>> Aprenda junto.

>> Até porque amanhã tem uma coisa nova para aprender.

>> Exato.

>> Exato.

>> É. E troca, cara. Troca a comunidade também, né?

>> Vai pros fóruns, vai discutir, vai debater.

>> Ex. É isso aí. Interesse.

>> Ponto é interesse. Se você tá interessado, tenha foco, olhe pro mercado e >> e vai >> e vai.

>> Meus amigos, muito obrigado pelo pela presença de vocês. Vocês vão ter que voltar aqui pelo menos umas três ou quatro vezes pra gente continuar esse papo maravilhoso. Foi muito bom trocar com vocês. Clauber, você é o parceiraço de sempre, né, mano? Obrigado pela eu venho para ser cohost e acabo prendendo sempre, né? Mas é a mágica de ser hosté.

>> Você acha que eu tô aqui por quê? Dois três anos já.

>> Eu termino os podcasts falando assim: "Eu preciso de um Red Bull virar a noite".

>> É quase é quase outra universidade que eu tô terminando esses 4 anos com esse podcast.

>> Exatamente. A gente continua depois do podcast aqui.

>> Cara, muito obrigado. Parabéns pelo trabalho que vocês estão fazendo.

Excelente incrível mesmo.

>> Vamos trocar muito aqui offline porque vocês estão fazendo um trabalho muito bom. Parabéns.

>> Eu acho que a gente tem que eh trazer voz aos cases brasileiros. A gente tá olhando muito case para fora, cara. A gente tem muita história bonita para contar internamente, velho. Isso aí.

Vamos ser menos viral lato e olhar para dentro. Exato.

>> Ex. Exato. Tem muita gente boa discutindo, debatendo, estudando, direcionando.

>> Depois a gente pode falar aqui, ó, de modelos, né?

>> É. Não, calma. Seários. Olha que seguró.

>> Ó os spoilers.

antes do N8N ter o conector eh para bater no bad rock o menino já tinha feito, >> ó. Isso aí. Vamos contar mais coisas aqui, hein? Obrigado.

>> Tem bastante coisa.

>> Se você acompanhou a gente até agora, muito obrigado pela pela presença de vocês, por acompanhar a gente. E se o cara não não comentou ainda, Clover, >> tá perdendo tempo, comenta, compartilha, se inscreve, >> assina a lista aí. Se você tá no Spotify, assina o canal aí. Isso. E se você acha que o nosso trabalho contribui de alguma forma para o seu desenvolvimento profissional, você pode ser membro do PPT no CPI.

>> Exatamente.

>> Se você ser membro do PPT no Cupida, você vai contribuir com um pequeno valorzinho pra gente >> que não paga nem essa cerveja aqui pro Levi. Tomou umas quatro nós aqui, >> né? A gente pelo menos contribui aqui com com a nossa brecha. Exato.

>> E e a gente tem um estímulo aí para continuar produzindo conteúdo de qualidade, >> esse conteúdo de qualidade que vocês acabaram de ver aqui.

>> Conteúdo de qualidade gratuito para você. Se você não pode contribuir dessa forma, a gente entende perfeitamente. E a gente agradece se você soltar esse episódio no grupo do Slack.

>> Exatamente. Compartilha no seu trabalho.

>> É, manda por e-mail, faz alguma coisa, mas ajuda a nossa comunidade a crescer, né? Isso faz toda a diferença e faz a gente ficar estimulado para crescer a nossa comunidade. Perfeito, >> meus amigos, muito obrigado pela presença de vocês. Foi excelente.

>> Clauber, você é o cara sempre. Tamos junto.

>> Tamos junto. Valeu, [Música]

Episódios Relacionados

Agentes de IA em Arquiteturas de Dados em Tempo Real | PPT Não Compila Podcast1h 58min

Agentes de IA em Arquiteturas de Dados em Tempo Real | PPT Não Compila Podcast

Pedro Busko, William Leite, Daniel Takabayashi

1 de out. de 2025

Inteligência ArtificialArquitetura de Software+1
PROGRAMAÇÃO DE JOGOS COM PROF. ANDRÉ KISHIMOTO1h 37min

PROGRAMAÇÃO DE JOGOS COM PROF. ANDRÉ KISHIMOTO

André Kishimoto

24 de mai. de 2023

Desenvolvimento de SoftwareInteligência Artificial+1
Uma Fábrica de Software Completa só com Agentes de IA | PPT Não Compila Podcast1h 27min

Uma Fábrica de Software Completa só com Agentes de IA | PPT Não Compila Podcast

Fábio Martinelli

10 de dez. de 2025

Inteligência ArtificialDesenvolvimento de Software+1
IA na Prática: Estratégias e Desafios na Vida Real | PPT Não Compila Podcast1h 29min

IA na Prática: Estratégias e Desafios na Vida Real | PPT Não Compila Podcast

Fernando Tavares De Campos Filho, Paulo Daniel Ferreira Franco

8 de out. de 2025

Inteligência ArtificialArquitetura de Software+1
Não perca os próximos episódios!
Inscreva-se para receber novidades do PPT Não Compila
Inscrever no YouTubeSeguir no Spotify