IA na Prática: Estratégias e Desafios na Vida Real | PPT Não Compila Podcast
Convidados
Fernando Tavares De Campos Filho
Head de arquitetura @ CCEE
Paulo Daniel Ferreira Franco
Head de IA @ CCEE
🚀 Prepare-se para uma imersão no mundo real da Adoção de IA com o time de peso do Podcast PPT Não Compila 💡 Neste episódio, Wellington Cruz e o co-host Valdir Scarin da VMBears recebem os experts Fernando Tavares e Paulo Franco da CCEE, mestres em tecnologia e inovação, para uma conversa reveladora sobre as verdadeiras práticas e estratégias por trás do hype da IA. 🤖🌐 Vamos explorar como a Inteligência Artificial pode transformar negócios, desde a análise de dados até a arquitetura de soluções, sempre com um olhar crítico e fundamentado. Como aplicar IA de maneira eficiente e quais são as armadilhas a evitar no caminho? Descubra como se preparar para as mudanças tecnológicas e o papel crucial da governança nesse cenário de constantes inovações! 📊 ➡️ Não perca! Inscreva-se no canal para mais episódios como este e deixe suas ⭐⭐⭐⭐⭐ no Spotify e o Like no Youtube. Compartilhe este episódio com seus colegas pelo WhatsApp e faça parte da nossa comunidade! #Podcast #PPTNãoCompila #Inovação #Tecnologia #IA #ArquiteturaDeSoftware 0:45 Abertura e apresentação 7:26 Implantação e adoção de IA em uma corporação 13:01 Adoção de soluções antes da IA Generativa 25:32 Custo benefício 26:27 Caso de uso de IA Generativa 28:28 Prompt 38:02 MCP 40:34 Governança 42:46 Engenharia de dados 44:09 Documentação 46:48 IA auxiliando profissionais de tecnologia 52:37 IA como ferramenta para resolver problemas de negócio 1:02:33 IA e Arquitetura de TI 1:13:14 Acurácia de IA Generativa 1:20:23 Dicas para profissionais 1:28:35 Agradecimentos e considerações finais Convidados: Fernando Tavares De Campos Filho : linkedin.com/in/ftcampos Paulo Daniel Ferreira Franco: linkedin.com/in/paulo-daniel-ferreira-franco/ Valdir Scarin: linkedin.com/in/valdir-scarin/ Spotify: https://sptfy.in/tw8j Youtube: https://youtu.be/TFQuKiRd-Bw Outras plataformas: https://linktr.ee/pptnaocompila Acompanhe nas redes Instagram e Twitter: @pptnaocompila LinkedIn: https://www.linkedin.com/company/pptnaocompila Produção: Voz e conteúdo | https://www.vozeconteudo.com.br - @estudiosvoz
- Introdução ao Podcast e Temas Iniciais
- Apresentação: IA, Hype e Convidados
- Abordagem Realista da Adoção de IA
- Apoie o Podcast
- Desafios da Implementação de IA Corporativa
- Diferenças entre IA Generativa e Tradicional
- Características e Uso dos Modelos de IA
- Patrocínio Clever
- Arquitetura e Seleção da Melhor Solução IA
- Composição de Dados com IA Generativa
- Engenharia de Prompt e Imprevisibilidade
- Agentes de IA e Novo Paradigma de Código
- MCP: Protocolo de Ferramentas para Agentes
- Patrocínio VMBERS
- Governança de Dados e Documentação para IA
- A Relevância da Documentação no Código
- IA como Assistente e o Futuro do Desenvolvimento
- IA: Da Estratégia ao Software em Si
- Limites e Evolução Computacional da IA
- O Arquiteto Coreografando Modelos de IA
- Avaliação de Risco e Validação de Modelos
- Latência da IA em Sistemas Transacionais
- Escolha Responsável de Tecnologias de IA
- Governança: Base para Inciativas de IA
- IA: Versatilidade e Eficiência Contextual
- Contexto, Acúrcia e Risco de Negócio na IA
- Monetização e Benefícios Reais da IA
- Sustentabilidade em Arquitetura de IA
- Realismo na IA e Conselhos Finais dos Convidados
- Maturidade e Ciclos da Tecnologia da Informação
- Considerações Finais e Contato VMBers
O pessoal tá preocupado em colocar o migrations no código, né, e fazer a implantação da das alterações do banco quando implanta o código e não tá nem aí com o documentar.
>> Então, e ela teve, né, o inverno daí, ah, porque tinha aquela aquelas ideias, aqueles pensamentos daqueles, né, aqueles gênios, só que eu não tinha capacidade computacional para tal. Na minha visão, futurologicamente falando, a gente vai chegar num limite, cara, que gerar código não vai ser desnecessário, sabe?
>> E a importância da arquitetura é você olhar pro negócio, olhar pro problema, olhar pras tecnologias que a gente tem no nosso nossos builds ou que a gente não tem que ter no mercado e tentar aplicar a melhor solução, a solução mais ótima pro problema. Muito bem, muito bem, meus amigos do PPT não compil, estamos aqui para mais uma vez fazer essa parada aqui. Valdir, sabe que eu eu eu quando fico do seu lado aqui no episódio, eu me sinto meio que embaixo de uma sombra.
>> Ah, >> eu não sei porquê.
>> Será? Será que é por conta dos meus 1,95 m?
>> É, não sei. Talvez, talvez tenha que trocar a a posição dos refletores aqui do do Talvez a gente pode trocar de lugar, cara, na próxima vez. Não que eu seja muito alto >> até porque, ó, nós já estamos chegando no episódio 200.
>> É, tá quase. Vai ter surpresa aí no 200, >> então. E no episódio 100 a gente trocou de lugar. Foi você que sentou nessa cadeira aí. É verdade, cara. A gente tem que pensar em alguma coisa pro 200.
>> Vai ser bem legal. Vamos com certeza pensar em algo legal.
>> Vai ter novidade aqui pro pro 200.
>> Boa.
>> E hoje, cara, a gente vai falar sobre um uma pauta que é meio que a origem do PPT, né? O PPT ele nasceu para falar da vida real, para sair do hype.
>> O PPT não compila nasceu para falar na verdade das coisas que a gente vendia, mas não entregava.
>> Não, que talvez. Mas falar do real, como é a vida na prática, né?
>> Ah, muito bom.
>> E agora a gente vai falar qual que é o maior hype que tá tendo hoje aí.
>> Iá, cara.
>> Iá, de tudo que é jeito.
>> Então, a gente vai falar >> e até no McDonald's, cara. É, até no você abre a você abre o microondas, tem um agente lá dentro, >> tem >> um MCP para pegar cerveja na geladeira.
>> MC o pessoal acha que é o pessoal da Microsoft lá, né? Exatamente. Quem que tá aqui com a gente hoje, Valdir?
>> E vou ser franco para você.
>> Vai ser franco.
>> Você franco.
Tem >> Paulo Franco.
>> Paulo Franco, cara, >> que é o Red de A da CCe. Beleza, Paulão.
>> Ô, beleza. Obrigado, Rod. Obrigado, Wellon pelo convite, né? Tô feliz aqui de de poder falar um pouquinho de aí que eh é é o hoje é a minha é a minha maior dedicação, né? E e a gente tá fazendo eh um bom trabalho. Tô parecendo jogador de futebol, né? Começando aqui, né? Fazendo um bom trabalho, professor.
>> Estamos aí, né? Batalhando, >> mas é fico feliz aí, espero que, né, a gente eh consiga contribuir aí com com os ouvintes aí, com os, né, como é que chama? Eu tô, eu sou novo nesse negócio, nunca fiz isso, né? Então tô meio perdido.
>> Os compiladores, >> os compiladores, >> compiladores. Isso.
>> Então, tá bom. Então, espero poder contribuir com com o público aí, né?
Falar um pouquinho aí da da nossa experiência, né?
>> Show de bola. E aqui do nosso lado tá o presidente do sindicato dos arquitetos de TI, né?
>> É. Tá. O >> eu tô nesse nesse bien agora.
>> É, é. Esse bien é seu agora. Seu Fernando Tavares, o R de arquitetura.
da CCe. Obrigado, Fernandão.
>> Tudo bem, gente? Obrigado, pelo convite.
Valdírio. Um prazer sempre voltar aqui.
E vamos falar um pouco sobre IA, né? E como também como a arquitetura pode ajudar na viabilizar IA nas empresas.
Eh, a gente vai ver um pouquinho que no final das contas não muda nada para arquiteto, mas muda muita coisa também, né? E vamos ver como é que vai ser a conversa com a gente aqui.
>> Você vê que o arquiteto típico, né?
Depende, nunca mais um muda.
>> Depende, entendeu? É, é isso aí. Você viu que o cara não ia decepcionar a gente, né, Vir? É isso aí. Então, a gente vai falar muito sobre qual é a curva de adoção, né, de de uma IA na numa companhia, como é que a gente de fato coloca isso para rodar no sistema transacional, como que a gente decide qual modelo, qual tipo de inteligência artificial a gente tem que utilizar, quais são os desafios pra gente fazer isso, né, Vir? Como é que eu trato isso no dia a dia, >> como é que a gente traz pra realidade, né? É, >> então assim, a gente vai falar de uma empresa muito madura, com profissionais extremamente maduros, experientes também em várias eh disciplinas, né, de software, arquitetura, a própria IA, né, o Paulo aqui, ele ele foi humilde na apresentação, mas está estudando isso há mais de 5 anos. Então, assim, é, pr pro hype de hoje, que é de um ano, um cara que já fez eh pós-graduação em em IA, eh ele já pode versar muito sobre esse assunto, né? E o Fernando aqui, além das inúmeras eh capacidades que ele tem, né, no no mundo de de TI, ele tá aqui agora representando um uma entrega gigantesca pro setor elétrico, né? Então ele tá tá vislumbrando toda essa essa organização de de um produto de IA para o setor elétrico. Então a gente a gente vai ver realmente como eh as empresas estão aderindo a IA para fazer para monetizar.
que a gente pega o hype e traz pro dia a dia de uma empresa governada com estrutura, com com de fato um roadmap de adoção e com eh solidez no resultado do produto que tá que tá criando, né?
>> É, eu só eu só não sei eu só não sei se vai dar tempo da gente falar nisso num episódio. Aí a gente já pode até fazer uma trilha aqui, né?
>> Talvez a gente volte aqui para dar uma continuidade para falar exatamente do que eles estão tratando lá, mas eu tenho certeza que a gente vai desdobrar.
bastante assunto aqui.
>> Mostrar pra galera que não é magia, né?
>> É isso aí.
>> Não é magia, é muito trabalho, muita dedicação, muito estudo, muito conhecimento, >> sem romantismo, sem hype e sem mágico do LinkedIn que faz i com N8N.
>> Usa i para escrever o texto para falar que usa i, né?
>> Isso é isso aí. Isso aí. Então vamos lá que o Visor tá muito bom. Mas antes, se você não deixou o seu like ainda, se você não se inscreveu, aproveita agora que o episódio tá muito bom. Já se inscreve, já deixa o seu like. Deixa as suas cinco estrelinhas aqui no Spotify, manda um slack do do da empresa no Teams, no manda aí no WhatsApp da firma.
Quem tiver falando com Iá, recomenda esse episódio que a gente, tenho certeza, que vai ter muito conteúdo aqui para para você eh desmistificar e levar isso para um plano mais corporativo. E se você acha que a gente contribui com a sua vida profissional, se você acha que a gente leva informação para você, você pode ser membro do BPT no Compila, vai lá do lado do botão inscreva-se, seja membro. Você vai contribuir aqui com uma cervejinha por mês pra gente para ajudar a abastecer o Valdir, porque esse homem bebe demais. ajuda a gente, seja nosso membro, que a gente dá aqui para produzir conteúdo de qualidade para vocês e deixar a gente eh sempre antenado nas últimas tendências aqui do mercado. E e é isso, né, gente? Vamos lá.
>> Vamos lá.
>> Vamos lá que o Visor tá muito bom. Bora.
[Música] Eu [Aplausos] [Música] queria fazer esse episódio justamente porque quando a gente fala de de inteligência artificial, hoje ela virou um tema de praticamente todos os episódios, né? Então não importa o que você tá trabalhando no episódio, inevitavelmente em algum ponto a gente vai falar de inteligência artificial, porque ela tá intrínseca na nossa operação de tecnologia de algum modo, eh, basicamente em quase tudo, né? Mas eu acho que a gente ainda não passou por um por um episódio onde de fato a gente trouxesse pra realidade como que é a implantação e a adoção de de sistemas inteligentes, de adoção de de frameworks de inteligência artificial dentro de uma corporação, de fato, né? A gente sabe que a gente tem impactos de pessoal, a gente sabe que tem impactos de skill, de infraestrutura, de capacitação, etc. Eu acho que a gente tem uma oportunidade aqui, né, Vir de de com os nossos amigos do CCE falar um pouquinho sobre como é essa jornada, né, um pouco do uso eh real, né, >> irracional, né, >> irracional da inteligência artificial, porque eu acho que você que está nos ouvindo, assim como os meus amigos aqui de mesa, estão passando por um momento que a gente ouve pessoas em qualquer momento, em qualquer produto, colocando inteligência artificial em qualquer coisa que talvez nem sempre seria necessário, né? Então, eh, está bem no pico da curva do hype lá do Gartner de adoção de inteligência artificial. Então isso pode trazer desperdício, pode trazer overhead, pode trazer custos adicionais ou pode afundar algumas iniciativas que de fato trariam retorno pra empresa, mas por falta de capacitação, por falta de governança, por falta de organização, o projeto acaba naufragando, né? Então, eh, vai ser muito interessante trocar com vocês aqui sobre como vocês estão vivendo essa jornada e como que a gente pode compartilhar aqui com com os com o nosso público essa essa adoção, nem que seja pra gente chorar junto aqui. Quem tá ouvindo a gente provavelmente certamente tá passando por um momento que é incerto, que é também uma curva de de aprendizado para todo mundo, né?
Bom, eu vou compartilhar um pouco da minha experiência. Eh, e na minha experiência, eh, começa com uma tentativa há alguns anos atrás, há muitos anos, talvez, né, uns uns 5, 6 se anos atrás, de implantar, colocar uma IA, colocar a IA em soluções e não tinha o hype. Então, para mim é um momento de alegria agora, sabe? O hype ele eh viabilizou, >> abriu portas, >> abriu portas. Então, a gente hoje eh eh hoje a gente tem o a o inverso, né?
Então é querendo colocar IA em tudo. Mas uma das primeiras coisas que você tem que pensar em IA ou um aprendizado de IA é que eh você tem que eh dosar, né? Nem tudo cabe e a eh nem tudo é eventualmente a generativa, né? Que é o que tá no hype, né? que eh realmente viabilizou isso. Então, eh no no nos estudos de A, uma das coisas que você já percebe logo de cara é que eh tem problemas que eventualmente uma regressão linear resolve.
>> Uhum.
>> né? E resolve às vezes melhor do que eventualmente uma IA, né, generativo uma eh uma um um uma rede neural profunda, né? O deep learning, né? Precisar usar um deep learning, né? usar uma generativa. Eh, então é importante a gente eh conseguir eh entender o o caso de uso e para mim tem uma jornada para isso, né? Então, eh, eu até apresentei há pouco tempo, eh, eh, pro Fernando, acho que pro Molina também, um, uma formato, em formato ali de uma pílula, né, de do que seria a Ia, né, do que como a gente faria uma adoção, uma proposta de adoção na organização. Eh, e ela começa no negócio. Então, e a de negócio, né? eh o sentido dela, ela tem que vir, né, de resolver um problema, assim como a gente faz, né, software para resolver um sempre problemas de negócio. Eh, então começa ali com eh a preparação do do público, né, a preparação do das pessoas que vão utilizar, elas entenderem as capacidades de a e eh e entender depois como ela pode resolver o problema dela. usando aquelas capacidades de A, né? tem uma diferença entre você eh usar o o o chat, né, o chat GPT ou, né, o o mais famoso aí, eh, para você fazer uma pergunta e ter uma resposta lá e eventualmente ela resolver um problema de negócio estruturado, né, que tem uma série de passos, eh, que tá e embarcado eventualmente, né, num num processo de negócio. Então, eh, tem uma diferença e e descobrir essas capacidades, eh, começa ali, então, primeiro capacitando o negócio, né?
>> Esse esse é o ponto interessante, Paulo, porque eu acho que o primeiro ponto que a gente precisa esclarecer aqui pro pro nosso ouvinte é eh a gente pode classificar em dois grandes grupos, claro, existem várias outras classificações de vários tipos, né? Mas a gente tem o que a gente chama lá de machine learning padrão, né? que é o a geração anterior de inteligência artificial, não anterior porque rede neural também sempre existiu antes do boom, né? Mas a gente tem a IA generativa e a outra que eu costumo chamar de a classificatória, que é e eh ela é mais sobre eh predição do que sobre geração de conteúdo, geração de conclusões, né? Eh, e o que eu acho curioso, me me ocorreu essa reflexão enquanto você falava, antes tinha uma demanda operacional para trazer uma solução como essa, que era sensivelmente maior do que a gente tem agora com a generativa. Então, se eu quisesse fazer um, por exemplo, um componente transacional para detectar uma anomalia ou uma fraude, algo do tipo, cara, eu tinha que ter uma esteira de Meliops por trás para treinar uma base, pegar drift daquele modelo. Eu tinha que treinar o meu próprio modelo com base nos meus dados que já tivesse classificados antes. Então, não era tão trivial quanto pegar uma chave de uma PI, eh, como a gente tem hoje com chat EPT, Gemini, etc.
e submeter uma pergunta com uma série de dados e tirar alguma conclusão. Então, acho que agora tá mais acessível, né? E isso, na sua opinião, acho que pode levar as pessoas a a algumas conclusões erradas aqui, né? A gente vê muito hoje eh pessoas querendo adotar uma solução que, como você bem falou no na sua explicação, caberia com uma árvore de decisão, uma regressão linear, alguma coisa do tipo, com uma IA generativa que naturalmente ela pode alucinar e chegar numa conclusão totalmente diferente do que o modelo estatístico chegaria, né?
Justamente por essa facilitação que a gente tem agora com os modelos generativos, né, cara? Com dois cliques, você cria um API key do Gemini e, cara, tu tá usando um link chain aí, botando coisa para para falar e e e vai dizer que tá usando e na suplicação, né?
>> Eu eu posso aproveitar e pegar o gancho da sua pergunta, V, e fazer o papel do do do ouvinte aqui que tá chegando, né?
E e pedir para você, Paulão, ô Fernando, né, dar pra gente um pouquinho dessa dessa diferenciação dos modelos, né? Eu acho que assim para até para o nosso público aqui é extremamente técnico e de elite, né? Então tem CEOs, Citys, tem arquitetos, né? E aí essa galera e e é o propósito desse episódio, né? esse pessoal, ele ele quer saber por onde entrar nesse mundo do jeito certo.
Então, explica um pouquinho pra gente eh todos esse esses pontos que o trouxe aqui na dúvida dele, né, na colocação dele, que eu acho que vai ajudar a gente também a aí e >> nivelar, né, fazer um baseline.
>> Exatamente. Fazer um baseline pro resto do episódio, porque eu tô vendo que vai ser gostoso aqui. O papo vai ser bom.
>> Ah, é muito gostoso falar disso mesmo, né? E agora, eh, vamos começar de trás para frente, então, né? Vamos falar de de generativa, né? Então, generativa são grandes modelos, né? Grandes modelos treinados com eh bilhões de parâmetros.
Eh, e numa rede, né? É uma rede é uma rede neural profunda, né? Tem uma uma arquitetura, né? A arquitetura é RGPT, né? Normal mais comum aí. Eh, e então ele é treinado, foi treinado com dados da internet, né? Eh, e então ele tem um aquele conhecimento geral, né? Então, eh, por isso que se pega caso de uso, como a gente tava comentando um pouco antes, né? Que eh ele é geral. Então, se eu pegar alguma um documento e falar assim: "Olha, me dá o cabeçalho do documento". Tem muitos dados na internet, por exemplo, com esses cabeçalhos do documento. Então, ele já treinou, gerou pesos, né, numa na numa rede neural, eh, que vai conseguir, né, por aproximação falar: "Olha, então isso aqui é um cabeçalho", né? Eh, importante salientar, né? a a IA ela é um um processamento é é é um resultado estocástico, então é uma probabilidade de estar certo, né? Então ele é diferente do que a gente faz na computação tradicional, né? Que é determinístico, né? É, não é, >> você coloca um if lá, se isso, então aquilo e e pronto, né? Então a a na é sempre uma eh probabilidade de aquele ser o resultado até na geração de texto, né? Então, eh, na na arquitetura lá do do GPT, ele sempre vai dar uma probabilidade de ser aquela próxima palavra, né? Então, quando você tá usando, né, uma um uma eh um GNI, eh você parametriza isso, né?
Então, você quer que ela seja mais eh criativa, você quer dar mais possibilidades, ou seja, um vocabulário maior. São vários parâmetros que você pode passar e para ela para que >> famosa temperatura, né? né? Temperatura, top P, top K. Então tem alguns alguns parâmetros que você é delimita, né? É aquilo que um comportamento, né? Além dos prompts e a engenharia de prompt, né? Que é eh você eh tentar eh eh disciplinar o modelo eh com algumas estratégias, né? para que ele te entregue um resultado. Mas você vai notar que eh eh dependendo do do que você submeter, ele vai responder diferente entre uma submissão e outras. Já se depararam com isso, né? Fiz a mesma pergunta e ele respondeu um de uma forma. Às vezes até os dois corretos, mas um de uma forma e outro de outra.
>> Nunca com as mesmas palavras, sempre diferente.
>> Sempre diferente. Eh, então é um grande modelo, né? Um modelo muito muito geral.
Eh, então tende a inclusive pode, né, alucinar, né, a gente fala da alucinação que é foi por um caminho, né, que não era o caminho que >> pegou um raminho da árvore da da da rede neural que fodeu lá no final deu ruim, >> táer.
>> É, é muito grande, né? Então, beleza.
Eh, agora quando você vai para uma, né, para um um modelo mais tradicional, né, que você tem eh uma um um machine learning ali, né, uma rede simples, ou até um deep learning, né, o deep learning é é um machine learning com várias camadas, né, ele tem várias camadas ali de de de pesos de rede, né?
Eh, e quando você eh vai pro por esse por essa abordagem, né, essa abordagem mais tradicional, eh você tem um um outro trabalho que é um trabalho que você tem que treinar, ou seja, você vai ter que submeter os seus exemplos, né?
exemplos de rotulagem, eh exemplos de de dados que você tem, né, de histórico, para que eh você através desse treinamento gere esses pesos de rede.
Então, eh, isso ele ele fica muito mais próximo ao seu contexto. Mas é um trabalho grande, né? Você tem que eh rotular. São muitas e são assim e a trabalha com muitos dados, né?
Principalmente em redes neurais. eh trabalha com muitos dados para conseguir chegar nesses pesos de rede para que ela, né, seja mais assertiva. Eh, e aí você também tem outros os métodos estatísticos, né? Então são métodos que, né, através de eh técnicas, por exemplo, eu citei uma, né, de regressão linear, eh que eh ele também pode predizer resultados, né, eh só que com base num algoritmo, né, então com base de dados já treinados antes, né? Então, eh, é o que a gente fazia até um tempo atrás, >> quando a gente fala de com base em algoritmos, é em com base com em passos pré-definidos.
Então, assim, é diferente da da desse desse método que eu tava falando que os pasos passos eles são baseados na nos treinamentos anteriores.
>> É, mas também é é semelhante. É Paulo pode até me ajudar que conhece muito mais do que eu, mas quando você fala do modelo estatístico, eh, você vai criar um dataset de dados.
Vamos falar por exemplo, fraude. Eu tenho contas, sei lá, notas fiscais que foram fraudadas. Eu pego aquelas notas fiscais e determino quais são as informações são relevantes dela. Então, eu tenho os itens que são comprados, eu tenho o valor do que foi comprado, para quem foi emitido. Todas essas são informações relevantes. Eu sei por capacidade empírica que aquela nota é uma fraude. Então, rotulo ela como fraude. E aí eu vou criar uma pilha, uma um dataset enorme de informações que são fraudadas e outras notas ficais que não foram fraudadas. A partir do momento que eu mostro quais são as informações são relevantes, o modelo ele vai criar uma inferência estatística daquelas informações são relevantes e que foram consideradas fraude, que nós humanamente não conseguiria fazer essas inferências.
Então ele vai cruzar eh produto com um cara que com nome, com o valor, etc. E ele sabe que aquelas aquelas notas fraudadas têm determinadas características estatísticas que ele cruzou por algoritmo matemático e outras que não foram fraudadas tem características que também foram inferidas por algoritmos matemáticos.
Então essa é a regressão linear que você tá falando.
>> É, a regressão linear é um dos algoritmos, né, de treinamento das bases. E aí quando você dá uma nota fiscal que você não sabe se é fraude ou não, ele vai fazer uma inferência estatística ali, de acordo com os pesos, ele vai te dar uma probabilidade de ser fraude ou não, porque ele já tem um treinamento anterior com base na rotulagem, certo?
Quero falar com você agora que ainda não conhece a Clever. Clever é uma empresa que já tem mais de 3 milhões de usuários em 30 países com 30 idiomas diferentes que tem trazido soluções em blockchain, criptomoedas e ativos digitais. O objetivo da Clever é te dar liberdade financeira para operar esse mercado de cripto. Então, se você acredita nisso, se você acredita nessa liberdade, você já pensa como a Clever, vai conhecer os caras, é clever.io, Io estão contratando também pessoal para trabalhar com cripto, com blockchain. Então, se você tem interesse, se você tem conhecimento nessa área, procura a Clever. Se você gosta de criptomoedas, se você opera no mercado, você precisa conhecer a Clever, precisa conhecer as soluções da Clever.
Então, o endereço tá aqui embaixo no vídeo. Para quem não tá no YouTube, é clever. Vai lá, vai conhecer que realmente é um mercado sensacional.
Po, acho que você pode explicar muito melhor do que eu, >> não? Perfeito. E aí, assim, a gente falou de regressão linear, mas e e você tem vários frameworks, né, por exemplo, que você pode utilizar, né, eh, o SVM, Supor Factor Machine, por exemplo, né, tem uma forma de fazer. Eh, então, eh, você tem que escolher, né, eh, o a abordagem de acordo com a sua necessidade. Então, se você tem um caso muito específico e requer uma precisão maior, eh, talvez você, aquela, aquela LLM, né, aquele modelo, aquele grande modelo do GNI, ele não vai ele vai ele vai te dar um resultado inferior, ele ele não vai conseguir se aproximar, ele vai eh eh ele conhece daquilo que é o geral, né? Porque ele foi treinado com grandes modelos, com dados gerais.
Agora, quando você tem um caso muito específico, eventualmente vale a pena você eh utilizar esse esse eh eh utilizar esses modelos mais tradicionais. Então, é muito do caso de uso. Então, qual é a necessidade, qual é o problema que a gente eh vai resolver?
Então, tudo começa por aí, né? A gente, né, parece aquela a gente fica sempre batendo nesse negócio, né?
>> Mas acaba voltando na engenharia de software, tem uma questão de custob benefício aqui, né? Porque se você, por exemplo, vai resolver um problema, você falou do documento público, então eu vou gastar dinheiro, vale a pena gastar dinheiro para treinar uma IA para ler, por exemplo, o cartão CNPJ, que é uma informação pública.
>> Uhum.
>> Provavelmente você já tem um modelo pronto para isso, né? Então, não vou gastar dinheiro com software, com fornecedor, com desenvolvimento para isso. Agora, se eu vou treinar o CNPJ para um caso de uso específico da minha empresa, que por exemplo, eu preciso de algo mais específico, aí eu preciso investir tempo, empenho >> de quem conhece daquele documento, daquele assunto. E aí cabe, aí entra a arquitetura para você definir qual que vai ser a melhor abordagem ali, >> o o quanto você vai gastar de tempo para você treinar o modelo, para fazer o que você falou, né? trazer o conhecimento empírico pro modelo primeiro, depois escolher qual que é o melhor modelo estatístico, né? Então tem tem um pouco de você avaliar o custo benefício do que que você precisa resolver ali, né?
>> Sim. Eh, é que tem tem um um caso de uso que é importante, que eu sempre uso para explicar eh corporativamente do do uso da GNI, eh quando ela não é de fato classificatória. Então, por exemplo, se você tem uma IA, um modelo para te dizer se aquilo é de fato um cartão do CNPJ ou não, você ainda pode usar ali a generativa, porque como o Paulo explicou, ela foi treinada com vários outros modelos, então ela vai usar a capacidade de rede neural dela para te falar que é ou não, mas você poderia resolver com o modelo do machine learning padrão. Queria por semelhança te falar uma probabilidade de ser ou não, >> um regx. É, exatamente. Então ele você conseguiria distinguir aí aonde entra a capacidade que é disruptiva de fato da EA generativa. Eu posso anexar três documentos, um RG, um cartão CNPJ e um contrato da minha empresa e perguntar as informações desses três documentos estão coerentes entre elas?
E aí o machine learning não faria porque ele tá produzindo um outro resultado que é por isso que é generativo. Ela tá ela tá usando de de fontes distintas para produzir uma inferência diferente do que só classificar com base em inferências anteriores. Então você consegue fazer composições do tipo, é quem é quem é quem é a pessoa que tá presente nesses três documentos. E aí ela consegue gerar um resultado que que seria um caso de uso, né, Paulo, típico de de usar uma generativa. E essas composições, né, Wellington, que assim, eh, você nada impede que na sua solução, né, a importância da arquitetura tava falando, né, nada pede que você use numa parte você vai usar uma GNI, numa outra parte eu vou utilizar numa outra tarefa eu vou utilizar, né, eventualmente um modelo de eh um modelo mais simples, né, um modelo de de machine learning ou uma alguma outra técnica de a também. Eh, e agora tem um um ponto, né, que você abordou agora, que eu queria relembrar, que é a questão da engenharia de software. Eh, então, eh, você comentou, né, sobre, ah, a gente, né, antigamente a gente tinha que fazer os utilizar EA, então você tinha que fazer uma esteira de MLOPS e tal. E agora, eh, vamos pensar em prompt, né, que é engenharia de prompt que e hoje em dia a gente quer resolver tudo com a generativa e utilizar engenharia de prompt. Eh, ele vira o nosso novo código. Eu vou ter que versionar, >> eu vou ter que manter esse prompt e e esse prompt eventualmente não vai ser compatível com um outro modelo. Então, eu tenho, eu tô usando um modelo, por exemplo, da Opna, aí vamos usar um modelo lá do do Google, um modelo da WS ou um modelo da da eh da Antropic e são modelos diferentes, treinados de forma diferente. o mesmo, o mesmo prompt pode não funcionar >> e pode trazer resultados completamente diferentes, >> completamente diferentes. Então assim, o version, então assim, a gente não foge, né, das nossas raízes de manter, né, e manter a estrutura arquitetural, né, eh concisa eh e e manter de fato eh sabe aquelas técnicas que mantém o software vivo, né, ele realmente eh atendendo as necessidades, né? Então, eh, essa composição é importante e é uma nova forma de fazer, né, >> cara? Esse é um ponto interessante que eu recentemente comecei a a homologar alguns frameworks para criar uma arquitetura de referência para desenvolvimento de agentes utilizando IA. E aí fiz alguns testes com link chain, Crew Ai, etc., para colocar isso embarcado em sistemas transacionais.
E tem uma grande barreira aqui de que que a gente discute muito pouco eh da do operacional dessa implementação, que é a natureza estocástica e imprevisível do modelo.
Eu tava fazendo uma poque que eu eu tinha que fazer um algum processamento ali e aí eu pedia pro modelo através do prompt para ele me retornar um JSON com alguns dados com eu colocava um range, falou: "Cara, ó, para isso aqui você vai analisar, vai me dar um range que vai de zero a tanto, vai colocar nessa chave Jon >> para te retornar um Jon.
>> Para me retornar um Jon. Beleza? Pega o retorno, parceio o Jon.
Vida que segue. Maravilha.
Roda uma vez, funcionou. Roda outra vez.
Não funcionou. Pera aí. Por que que não funcionou?
Vai lá debugar. Olha o retorno. Ele retornou eh características semelhantes, né, na análise que ele fez.
Ele retornou valores semelhantes no que eu pedi para ele avaliar com alguma variação. Claro. Então não dá para dizer que eram resultados errados, mas no segundo ele me bota uma frase: "Aqui está o seu Jon". E boto o Jon embaixo.
Na outra vez ele mandou só o Jon. Ou seja, se eu pego o resultado no sistema transacional, vou parciar, o cara me mandou uma string antes. E aí aí você fala: "Não, eu quero só o Jon sem comentários. Você vai lá e arruma o seu prompt. Aí roda uma vez, funciona, roda duas, terceira vez não funciona. [ __ ] que que ele mandou agora? Aí você vai ver, ele botou o Jon dentro do Markdown.
Ele mandou só o Jon, só que formatado dentro do Markdown.
>> [ __ ] Então, e aí entra os frameworks, né, que tem, por exemplo, Crei, você coloca os controles de output com Pentic, etc., Só que ele fica retentando até encaixar naquele formato e você ter a garantia que o output vai tá estável pra sua aplicação não quebrar. Só que o que você poderia resolver com request, às vezes ele faz três, quatro até conseguir e aí você fica com uma imprevisibilidade de custo [ __ ] nisso. Mas aí deixa, deixa eu aproveitar aqui meu papel de aprendiz aprendiz, né? E quando vocês estão falando de prompt, eu tô eu tô aqui pensando e e eu usando o chat GPT e falando com ele, olha, eu sou objetivo, eu quero que você me responda rápido, eu quero que você não quer rápido ou certo, né? Tem aquela >> é na maioria das vezes, >> aí ele responde: "Você quer rápido, você quer certo, né? 5 48 >> e eu quero que você seja pragmático e você pode discordar de mim. né? Isso eu falo com CHPT, fala com Jemini, né?
>> E e aí a gente tá falando, né? Pegando o gancho do aqui, né? Que quando eu tô pensando numa ferramenta transacional usando IA generativa, eu tô usando e aí lincando com a tua tua fala lá, né? Ô, Paulão, eh, poxa, quando eu tô usando IA generativa e tô tendo que versionar meus prompits, eu tenho que pensar nesse tipo de coisa. Eu eu tô eu tô escrevendo igual eu aqui, ser humano, né, falando com a IA e eu escrevo assim também lá quando eu tô programando e fazendo comunicação via PI. Como é que é isso, cara? Me explica aí. É, é justamente é o prompt que você passa. Eu vou até te falar, não sei se você tentou com L chain também, né? Não, eu eu eu O próximo passo é tentar com L chain.
>> Então, já vou te dar uma dica lá no Lang Chain. É, quando você instanciar LLM, eh, você tem lá uma função que é é um structor. Estructur, eu esqueci o do o nome do método, mas tem estructor no nome. Então, você dá um ponto lá e dá um auto completate lá, vai vir, né, logo depois você instanciar. Eh, e aí você passa um um modelo que você quer para ele. Aí você define o seu modelo, você se define sua interface. E aí esse que é a magia, inclusive no no agent, né? É que cada campo você vai usar a descrição do campo.
>> Isso.
>> Então, quando você fala assim, ó, é maravilhoso, né? Porque eh agora sabe aquele lance de documentar código?
Agora você usa a Aia para ela interpretar os comentários do seu código para ela escolher qual é o método que ela vai executar e quais são os parâmetros, inclusive com o formato.
Qual o parâmetro é a data? Qual é o formato da data? Você ela ela interpreta a sua, a sua classe, né? O se o seu método, os seus os comentários para escolher e falar: "Ah, eu tenho que executar isso aqui". extrai os parâmetros de dentro do do texto, né, do do prompt de entrada e passa como parâmetro para variável e aí aí executa sua o seu método e daí dá um retorno para você. Então, eh o os prompts agora eles são o prompt system prompt, né?
Então, quando a gente tá usando o GNI, por exemplo, eh, você tem o system prompt, que é como é que você quer que ela ela se comporte, sabe? Como é que no geral, como é que ela deve deve deve, qual é o tom, né, o tom de voz, né? Não, qual é o tom de voz, né? Ou eh como que aquele retorno tem que ser, né, entregue. Então é é como se você tivesse e contratando um funcionário falando como ele deve se portar, né, ao executar a tarefa, né? Então, ó, seja delicado, seja isso. Então, esse é o system prompt. Aí tem o human prompt, né? E aí, o human prompt que que é? É o que o usuário quer, né? é o pedido, né? Qual é o pedido que você faz? Agora tem uma série de promptes, né, que são os tools prompts ali, que são todas essas documentações de de código quando você vai lá e monta a sua classe, sabe?
Classe mesmo. Pensar o ML, o modelinho mesmo, né? Sabe?
Eh, e aí você coloca lá o seu comentário, comentário do do dos campos e aí ela vai substituir. Então, ela vai interpretar tudo aquilo ali e ela vai substituindo os campos, os valores que ela vai retirando, né, através do processo de classificação.
>> Isso, isso é uma disrupção no paradigma de desenvolvimento software, cara. Eu, eu passei por exatamente esse ahá que você passa, sabe? primeira vez que eu criei uma atu porque beleza, eu declarei o agente, aí eu tenho que tenho que declarar lá no no agente qual que é o objetivo dele, qual a persona, como ele tem que se comportar, etc. E você declara isso no lá, tá lá o comportamento do seu agente. Aí eu falo, beleza, esse agente ele vai usar a ferramenta ABC, beleza? Aí você vai criar a ferramenta ABC que você faz a implementação dela como uma função normal, né, para, sei lá, vai ver, vai ler um web service, vai rodar uma query num banco, etc. Você cria o seu código, só que aí você declara geralmente com uma classe que você coloca quais são os inputs, etc. Como Paulo falou, tal variável de entrada dessa minha função, ah, isso aqui é o ID do usuário que é declarado, blá blá, você coloca num prompt descrevendo o que é aquele campo, você coloca no outro campo e aí você coloca a descrição do que faz aquela tool, tudo documentadinho. E aí, cara, eu ficava, beleza, eu descrevi, coloquei tudo assim, mas quando qu aonde eu vou relacionar o momento em que esse agente vai chamar essa tu, cara?
Não escrevi, não tem isso em código, em lugar nenhum. Eu só declarei, cara, que bruxaria é essa? Aí você vai vendo o stack dele rodando, cara. Aí ele tem os os o thinking, né? Fala, ó, o usuário pediu tal coisa, tem um atu que faz isso, então eu preciso pegar o parâmetro. E ele entende e chama a a função.
>> Isso aí, isso aí tem alguma coisa a ver com o MCP, que é aquele model protocol?
O MCP ele é basicamente você exportar uma tool para outro agente utilizar, né?
>> É um protocolo, né? Então prefirar um padrão, né? Isso foi criado aí no em agosto de 2024, né? Nonotropic, né?
Nessa nessa ideia de cara, eu preciso acessar dados.
>> Eh, e aí não só dados, porque, por exemplo, no próprio MCP você pode, né, colocar sua API lá e aí tem uma operação, né, do tipo, faça alguma coisa, ele vai chamar, passar os parâmetros e vai fazer, né? Então o MCP, vamos pensar que é um é o protocolo, né?
E aí você cria um MCP, conecta, né, suas IP, os seus dados lá, né, e aí ele vai ser a, vamos dizer assim, ó, a centralização da Tu, né, a central de serviços, vamos, >> um gato, né, um gate de de modelos, é como se fosse um barramento de tool, o cara ele se conecta, sabe o que faz cada parâmetro, cada método e ele consegue de acordo com o contexto externo se conectar com o contexto daquela ferramenta. Então, eh, assim como eu faço um swager de uma API, posso ir lá ter um conjunto de descrições da minha API nesse formato de comunicação, né? E aí eu vou estar disponibilizando as APIs para também um agente chamar. É isso.
>> É quase consum linguagem natural, né?
>> É >> que que o que que o agente consegue entender, interpretar como utilizar aquela atol. Outro dia, outro dia eu tava usando essa argumentação para um cliente meu, pra gente modernizar uma aplicação gigantesca que ele tem, né?
Depois eu vou vou mandar esse episódio para ele.
>> Boa.
>> Você que tá aí escutando esse episódio bacana e quer levar toda essa tecnologia, essas novidades pra sua empresa e não sabe como, chama o time da VMBERS. A gente pode ajudar vocês com desenvolvimento de software, com arquitetura de soluções, a entender os problemas que vocês estão vivendo e sair do outro lado com uma solução bem bacana. E se você tá escutando o podcast para aprender coisas novas, faz o seguinte, manda um e-mail pra gente no peoplecare@vems.
E você pode fazer parte também do nosso grupo de talentos. Valeu.
Agora o time do Relações Públicas vai gostar mais de mim.
O Valdir, eu tava falando de o primeiro, né, aquela aquela a semente lá no negócio, né, começa ali no negócio. Aí a segunda, né, pegando todo esse gancho é governança.
Por quê? documentação em código é governança, é governança de dados, é metadado. E aí você conhece bem, né, o motor, por exemplo, o nosso motor, né, que tem lá um um belo trabalho ali de de realmente de metadados, né?
>> Então, eh e eh >> governança, acho que é o segundo elemento, assim, ó, se você quer adotar uma IA, IA sem dados, esquece, né?
Então, e a dados e então é governança de dados. Então, e é governança de dados, governança de modelo e aí a própria governança do código, que são metadados, né? Então, se você conseguir traduzir numa linguagem natural, é conectado a um negócio, a o seu código, seus campos, você vai ter uma IA respondendo muito bem, né? ela o agente é um agente muito eficiente. Então, é grande chave, né? O segundo elemento é isso, governança, governança é chave. E aí quando a gente, né, começou a nossa jornada lá e e eh vamos ter um vamos criar um datalake, né? Colocar um datalake pra gente ter esse volume de dados e e aí normalmente o datalake, qual que é o o pensamento normal? É, pô, empurra dado lá dentro, >> soca lá.
>> Aí isso depois a gente vê. data pântano.
>> É, e aí justamente que vira lá, né, o o datapântano, né? E e aí o que que a gente, né, no no nossa abordagem, né, o que que a gente eh eh começou a estruturar é governança antes. Então, antes de colocar o dado lá para dentro, porque o dado que vai lá para dentro não é o dado que a qualquer um vai lá e coloca, porque se o cara tem diretório de rede, o cara tem a máquina dele, o cara tem, né, Sharepoint, tem Google Drive, sei lá, cara, dado ele pode ter e a gente tem disponibilidade de tudo que é lugar. Uma vez que vai para um para um datalake, é porque tem um pipeline de dados e aí vem pra terceira linha, que é realmente eh na terceira linha engenharia de dados. Engenharia de dados eficiente, engenharia de dados é é forte, né? Eh, uma engenharia de dados que eh a gente, né, consiga ter, né, aqueles os os os Vs, né, aqueles os grandes Vs lá, cinco Vs, né, aqueles, né, não é V de Valdir, >> tem um V grande aqui do meu lado.
>> Um Vzão, dois. Valdir verdadeiro.
E então nosso ponto, primeiro ponto é eh vamos classificar. Então o dado tem que ser tem que tá classificado, né? Eh o o dado tem que ter, né, o significado dele, né? tem que ter o um glossário adequado. E aí, uma vez que eu tenho isso, eu passo na esteirinha, ó, agora engenheiro de dados faz o pipeline.
Porque até então, se você tá trabalhando com com IA, eh, você já tem um cientista de dados trabalhando lá, torturando o dado, né, para tentar encontrar lá, né, as features, né, que que possam eh eh indicar, né, o o problema, resolver o problema, né? Eh, então, eh, isso ele faz na máquina dele. Agora, quando você vai começar a entrar numa ideia produtiva, então, eh, eh, né, os três pontos que eu coloquei na linha aqui, né? Então, negócio e governança.
>> Tem tem um ponto primeiro, você falou de governança na no comentário, né? Você imagina você votar pro passado, falar para você, pro seu eu do passado, Valdir, falar assim: "Comenta legal o seu código no futuro vão criticar." Imagina, >> você vai criar essa tabela, coloca a descrição direitinho, uma por uma >> cada campo, >> porque por cada campo, porque vai ser importante que vai estourar volta 10 anos atrás.
>> Imagina, cara. Hoje, hoje o pessoal, o pessoal tá nem aí com isso. O pessoal tá preocupado em colocar o migrations no código, né, e fazer a implantação da e das alterações do banco quando implanta o código. E não tá nem aí com documentar. Ainda assim, no passado era bom, né? Porque a gente tinha os administradores de dados e eles cuidavam de tudo isso, né? Eh, >> mas assim, né, Vir? O você tava até no outro episódio falando ali sobre ágil, scr, né?
>> É, é engraçado que quando você vem pro ágil, você fala assim: "Eu não preciso fazer documentação de casa de uso, não preciso passar pelo ML, eu vou >> O código é documento, né?" >> Sim.
>> Só que se o cara não comenta o código também, o código também não é documento.
>> Não seenta o código.
>> Rodar uma IA para documentar o código.
>> Exato. É. para poder usar por aí entra no look.
>> Não, mas é ainda dá para fazer, né?
>> O método com cinco linhas era um padrão, né? Que a gente a gente usava para dizer que um código tinha uma boa organização, uma boa leitura. Um método tem que ter cinco linhas e você tem que saber o que aquele método faz pelo nome do método.
>> É por isso que o Java tem 64 caracteres de de de nomeação de de caracter. Aí agora entendi. Isso é veio do mundo Java. Método faz o post realiza o persistência no banco de dados da classe X Y Z. Abre e fecha parênteses.
>> Tudo em cam.
E >> esse método aí quem escreveu foi o Wellington, bicho.
>> Agora >> mas o que a gente tá falando é poxa, >> a documentação do Java é o nome do próprio método.
>> Mas o o >> nas cinco linhas conta o nome do método também?
>> Não, não conta. Então você deu cinco linhas é o nome do método.
>> Pois cinco linhas ainda em Java tem que ser umas linhas bonitonasgona, né bicho?
Não pode ser para aquele monitor de 80.
Esse é só o nome. Tem que pegar todos os predicados. Antes public, static, void, motherfucker, man. By name com cinco linhas. Chama o método.
>> Mas e aí você fala aqui que poxa, eu preciso documentar bastante, né? que escrever comentário. Imagina isso. Não é, isso não é uma prática.
>> E muda um pouquinho também. Tem um ponto para destacar aqui que é meu eh negócio, porque não basta documentar eh sabe porque para falar assim: "Ah, esse aqui faz 2 mais dois". Cara, isso aí não não resolve nada, né? Tá, tá tá clara. A operação tá aí. Eu tô vendo, né? Eu sei, né? Eu sei, sei ler os sinais. Eh, agora eh é é documentado ponto de vista de negócio. Então, eh a gente a gente fala muito, né, melhor, hoje em dia a gente ouve muito, né, o vibe code, né, vai substituir o programador, não vai ter mais. Eh, e mas tem uma característica que vai vir junto, né, o Vibe Code vai acontecer ajuda, né? Vocês não usam, eu uso, >> uso, eu uso, >> né? É, te ajuda, né? Eh, você vai fechar os olhos e vai deixar uma entregar. Na minha opinião, tem gente que entende que, né, isso vai acontecer e tudo que que é bom. Na minha opinião, acho que não, né? Eu acho que é um assistente, né? Vai te ajudar a fazer, >> cara. A a os agentes que rodam em terminal, que nem o o próprio Cloue e o Gemini Clee que roda direto no terminal, cara, é coisa linda de Deus, ó.
>> Não são ótimos. Eu tenho lá minha minha IDE ligada com o >> o GitHub, né? E cara, impressionante. Eu escrevo a a descrição do que eu quero e ele faz. Mas eu tenho que fazer a curadoria. Fazer curadoria. Então, >> eu fui num eu fui no evento, fui no Hecktown o mês passado lá em Santa Rita do Sapucaí e eu fui numa palestra do Google sobre o V 3 >> Hum. Eição de vídeo, né? Eu fui lá, né?
eram é 10 dicas de como você criar vídeos com VO3. Você falou: "Vó, vamos lá, vou aprender, né?" Sentei lá, achei que ia ser uma palestra técnica. Foi por 2 minutos ali, usei puse ali. Ela começou entrando nas dicas, era eh escolha melhor o ângulo da câmera, escolha qual que é o efeito ótico que você quer simular no vídeo, eh como é que vai ser o comportamento do personagem e se é de dia, se é de noite a música. Eu falei: "Cara, isso aqui que ele tá ensinando é o que um diretor de vídeo, um diretor de novela faria.
Então, se eu vou fazer muito bem, >> óbvio que um cara que conhece o riscado é fazer muito melhor. Então, assim, tem que ter um um >> um tutor, né, um profissional experiente do lado da IA para saber extrair o melhor dela, né? Se você trouxer pro nosso mundo, é um programador experiente usando, >> é um sior pelo menos aí, sabendo usar aquela ferramenta, senão ele vai, vai entrar no modo vibode. Se pegar um eu há 20 anos atrás fazendo vibe hoje, cara, ia fazer um monte de porcaria.
>> Exatamente. Pede, você pede porcaria, sai porcaria, né? Eu acho que isso vai ajudar muito a gente, né, no mercado de trabalho, porque existe a ausência de profissionais, é a falta de profissionais, né? Então assim, o que vai vai ajudar a gente é os profissionais que nós temos, eles serão mais produtivos e aí isso vai ajudar a gente entregar mais eh mais produtos, os produtos com mais qualidade, né? Eu eu vejo um problema que a gente vai ter que criar novos profissionais. A vida do júnior vai ser mais difícil.
>> É, é um termo que até no no Soft by Soft Fest eles trouxeram lá, que é o tal do skill flux, né? Porque você vai cada vez mais as >> competências ficando obsoletas mais rápido.
>> Isso. E você vai potencializar o cara com muita experiência e o e esse cara não vai precisar do cara com menos experiência e por consequência ele nunca vai ser um cara experiente, >> porque o nosso aprendizado foi empírico, né, no trabalho, na faculdade, na academia, né, como é que você cria o senor daqui 10 anos, né? Talvez a academia vai ter que repensar como é que você ensina engenheiro de software, né?
Agora a linha de de de ar, né, ela veio para, na minha na minha visão, ela é uma estratégia, né, de de negócio, inclusive, né? Então, IA é uma estratégia de RH. Então, eh, a assim, a empresa ela tem que entender, assumir a IA e todo mundo vai usar a IA, só que vai ter vai ter o uso de IA como assistente, vai ter o uso de A como ferramental. Então, uma próxima linha que eu diria, né, a gente tá falando lá o negócio, entender, trazer o entender as capacidades de A para resolver problema de negócio, a governança que vem nessa parte de documentação, eh, a engenharia de dado, né, pra gente trazer o dado bem. E eu tenho uma questão de ferramental, que é o que a gente tá falando, né? Eh, pô, eu uso IA para codificar, eh, eu uso o IA para atender o meu cliente, para utilizar, resolver um problema dentro do produto.
>> Ia focado em produtividade, né? e produtividade. E aí dicas, né? Eh, programadores entendam de negócio. Se você vai eh trabalhar, você vai documentar, você precisa documentar para aquela necessidade, né? E aí a gente traz um paradigma que não é novo, né? Um paradigma de programação que não é novo, mas é um paradigma que agora vai cada vez mais, né? Entrar em evidência, que é o funcional, né? Porque basicamente e eu fico, né? é restrito a um uma função, né, que tem lá um, né, um um domínio, contradomínio e ele ela vai executar, entra parâmetro e sai um resultado. E e esses metadados são metadados de negócio, né? Então, a IA vai resolver, vai eh eh vai começar a atender cada vez mais os problemas de negócio. O vibe coding, por exemplo, ele ele é assim, eu uso a IA para codificar da maneira como a gente codificava antes.
E será que no futuro a gente vai utilizar essa maneira como a gente vê onde a telinha que a gente usa ali ou a gente vai usar agora e mais e o conversacional, mais o sinal para >> Eu quero pegar esse ponto para te fazer uma pergunta que ninguém entende quando eu falo isso e eu acho que você vai conseguir me responder. Acho que você vai me entender, Paulão. Vou te fazer essa pergunta, quero que você faça uma reflexão sobre a forma como eu vejo o momento que a gente tá com IA hoje. Eu acho que essa discussão de vibe coding, vou usar IA para código ou não, eu acho que ela é meio inócula, porque ela é passageira.
E eu vou pegar exatamente o ponto que você colocou. A gente tá usando a IA para gerar código como a gente faria antes. A gente tá automatizando algo que a gente faria de uma forma artesanal e a gente sempre produzir o código de forma extremamente artesanal. Se a gente pegar a essência do que você falou desde o começo do episódio, que é usar IA para resolver um problema de negócio, a gente tende a evoluir os modelos, porque hoje a gente tem limitação de janela de contexto, etc. que eu tenho que resolvendo esses pequenos pedacinhos, gerando código para gerar uma aplicação de fato que resolva um problema de negócio completo. Mas eu acho que conforme a gente for evoluindo, a IA vai ser a aplicação. Eu não vou precisar usar a IA para gerar uma aplicação. A própria IA vai ser a aplicação, porque aí eu vou setar ela com as regras de negócio através de prompts. Vou ter o input, output daquela daquela IA e e ali vai ser meu software.
Ela vai resolver o problema. Eu não vou ter que criar software com ela. Ela vai ser a ferramenta que vai resolver o problema de negócio e não a ferramenta que eu uso para criar um software que que resolve o problema de negócio. Porque talvez hoje ela não tenha contexto suficiente para resolver um problema tão grande como uma operação de uma empresa.
Mas eu acho que a gente tende a chegar lá. Qual que é a tua visão?
A gente tá passando por uma fase que, bom, vocês já programaram em Notepad, né?
>> Quem nunca, né?
>> Né? Então, eh, não tem um auto complit, ela não te ajudava em nada, né?
>> Talvez botar uma cor no colchete, >> isso já é um notchpad mais é mais evoluído, né?
>> Eh, então, eh, essa eu concordo contigo, né? É algo que, né? tá em voga ali, mas é passageira porque é como uma IDE, né?
Então é é uma é uma é uma experiência de mudar a IDE, mas eh eh realmente a gente vai mudar a forma como a gente vai eh gerar código, eh gerar eh estruturar arquitetura. Eh eu acho que isso realmente é uma uma a IA ela veio para revolucionar, né? Veio para revolucionar, né? Todas as áreas. Eh, eh, tem um tem um tem um limite, né? Eh, por enquanto, né, pelo menos, né, eh, como, né, a Iá sempre sofreu com isso, que a IA não é um negócio novo, né? Foi um termo cunhado em 1950, 45, sei lá.
Eh, então, eh, ela teve, né, o inverno daí, ah, por tinha aquela aquelas ideias, aqueles pensamentos daqueles, né, aqueles gênios, só que eu não tinha capacidade computacional para tal, né?
Eh, hoje a gente experimenta alguns limites também, né? A gente conseguiu avançar, então, muitos eh eh muitas ideias do passado, né? Muitos algoritmos que era, né, só teóricos, hoje a gente tem capacidade computacional para resolver isso aí.
Então, eh, então hoje a gente consegue eh, de fato executar com sucesso aquilo que vinha. Eh, então hoje a gente vai e já experimenta, né, uns limites, né?
Então você fala muito do limite da LLM, já não tem mais como treinar, né? Já não tem mais dado. Aí você gera LLM para gerar dado. Então tem tem tem isso. Eh, então sempre a gente vai chegar nos limites e vai ter aqueles avanços, né?
Eh, então eu acho que até chegar nesse ponto em de que, vamos dizer assim, a a IA ela vira AGI, né? Autônoma, ela faz tudo, né? Ela consegue fazer tudo, consegue aprender sozinha, né? E fazer tudo, a gente ainda não tá nesse momento, né? Então, a gente ainda vai passar por eh algumas algumas técnicas na na minha visão que já são propostas, né? Do tipo eh hoje a gente tem as LLMs muito grandes, a ideia é que você pegue e e treine modelos menores, mas mais contextualizados, né? Mais dentro do do do da necessidade de negócio, dentro do conhecimento limitado ao conhecimento de negócio que que você quer aplicar, né?
Então, eh, e, e, e vai mudar realmente, né? É, muda a forma de fazer, a forma de programar, os paradigmas de programação, né, que que tem, eles eles vão mudar, né, eh, o, é, muito mais mudar no sentido de de ter modelos, né, modelos que fazem isso, né, modelos que eh você treina para uma determinada função e ele executa aquela função eh eh muito bem.
Uhum.
>> Né? Então, e, ou seja, eu vou gerar esses modelos e aí vão ser, né, um papel de de arquitetura que eu vejo muito forte, né, que é é você coreografar esses modelos, né? Então, eu tenho, por exemplo, um eh um speed to text que a gente tava falando, a gente tava xingando alguns produtos aí, né, Vir agora a pouco e xingando o produto porque não não tem a não, mas espera aí, esse produto ele já te ele reconhece a sua voz, a sua fala, então ele faz um um speed to text. Então, se você falar alguma coisa para ele, ele consegue te retornar eh eh escrito, né? Porque eh pensa nessa jornada, né? Sempre vai nos remeter a alguma linguagem, né? Então, eh é uma linguagem natural que vai ser traduzida, em outras camadas, para uma linguagem de máquina que é, na verdade 01, né? Eh, então essa composição de, olha, eu eu recebi um estímulo, né? eh auditivo, né? Então, audição cognitiva e eu eu recebi um estímulo visual, né? A visão computacional e aí eu fazer essas conversões. Então, eh, a arquitetura ela vai ser muito importante para compor, né, na minha visão, compor esses eh, essas especialidades, né? A gente tem a visão, o tato, olfato, então a gente percebe o mundo, né, e dá estímulos pro nosso cérebro. Eh, eh, a gente como, né, como arquitetura tem esse papel de fazer essa composição, de fazer essa, eh, eh, esse arranjo para resolver os problemas.
E aí eu concordo contigo, vai mudar significativamente, mas ainda tem um passo hoje.
>> Eh, eu eu acho que de fato a gente vai evoluir, mas eh para te para passar para você fechar o seu raciocínio, algumas aplicações menores a gente já consegue resolver com alguns assistentes. Por exemplo, eu vou vou citar um um caso, né? Tanto no no Gemini quanto no no no GPT, você consegue criar alguns prompts master ali que você seta o comportamento da SUIA. Então você fala: "Ó, você é um especialista disso". E aí quando você eh receber um arquivo, se esse arquivo txt um arquivo contendo esse tipo de informação, você tem que fazer isso, isso, isso com o arquivo. Quando você receber uma foto, você tem que receber isso, isso, isso, tratar essa foto dessa forma. Se você receber um arquivo de texto que é Words, tem que fazer isso.
Isso. Cara, isso para mim nada mais é do que você tá declarando métodos de uma aplicação.
>> Uma task, né? Uma tarefa.
>> Exato. Tá criando os métodos ali, né? E e ela absorve isso e ela vai agir como uma aplicação, né? Só que você vai interagir com ela de uma outra forma de interagir com a máquina através de linguagem natural, mas você não deixou de programar e ela vai atuar como uma aplicação. É que como a gente falou, o contexto é menor, ela consegue resolver um problema de negócio menor, mas se eu tivesse uma capacidade limitada de de processamento, cara, poderia fazer isso com RP, com o modelo, sem escrever uma linha de código. Vou setar a regra de negócio como prompt, gerar um modelo que sabe as regras da minha empresa e vai receber estímulos. Então, na minha visão, futurologicamente falando, >> a gente vai chegar num limite, cara, que gerar código não vai ser desnecessário, sabe?
>> É, mas aí eu vou eu vou puxar um ponto ponto do que o Paulão falou, né? A gente vai estar velho já aposentado, não precisa se preocupar >> não. Não. Eh, mas o que eu tô querendo dizer é talvez até corrobor com isso que você falou, mas o ponto é, né? Eh, pô, aí a demora, bicho, porque do mesmo jeito que eu fiz a pergunta lá atrás, né? Falei: "Pô, mas o prompt da aplicação é transacional é igual o prompt que eu faço no liminar JGPT?" Então o que vocês estão falando para mim é: "Poxa, a IA para responder pro meu sistema transacional vai demorar ao mesmo tempo que ela demora para responder lá pro pro Giminai, né? Enfim.
E poxa, todo mundo reclama: "Ah, mas eu dei um clique aqui e demorou para mostrar a tela para mim, demorou para fazer para mostrar, sei lá, um e-commerce para mim, uma pesquisa que eu fiz, né?" Então, o que a gente tá falando aqui é que, por mais que a gente esteja experienciando um um avanço na computação, no hardware, né, que propicie a a utilização desse tipo de software, a gente ainda precisa de um de um hardware muito mais muito maior para que a gente consiga ter eh experiências transacionais eh tão tão performáticas como as que a gente vive hoje. Porque poxa, hoje nos sistemas que eu que eu faço, né, poxa, eu trabalho na casa de milissegundos, é 10 msegundos para eu dar uma resposta complexa, né?
>> Posso pegar esse gancho para passar a bola pro Fernandão falar da importância da arquitetura.
>> Boa, >> porque talvez se você precise de uma latência de resultado tão rápida com resultados previsíveis, talvez você não precise usar uma EA, entendeu? Você pode usar o meiá para processos que seriam tipicamente transacionais assíncronos. Precisão de mais raciocínio, mais elaboração. Se você precisa de fato de alguma coisa, uma latência muito baixa, talvez não seja o caso da aplicação de uma inteligência artificial para aquele caso de uso. E como é que a gente resolve isso do ponto de vista de arquitetura, Fernandão? Porque os caras querem botar Iá no botão de pag do portal, >> no botão de pag da intranet, >> ele vai gerar o cartão de crédito, >> para dar cota de A, né?
>> É >> o tem um um antigo gestor nosso em comum, né, que ele falava que eh tecnologia ser um problema de negócio é brincadeira de nerd, né? Então assim, a gente colocar e porque sim, sim, resolver um problema de negócio. Acho que o Paulo falou bem disso, né, cara?
conheçam do negócio, né? Se você, por exemplo, só transformar o back enda, se mudar experiência na ponta, você não tem valor, né? Agora, tem uma tendência até pegando um engancho na sua pergunta, W como vai mudar desenvolvimento de software, já tem alguns bancos vendendo experiência digital por WhatsApp.
>> Uhum. Então, não tem mais um formulário, não tem mais aplicativo, é uma mudança de paradigma da solução como um todo.
Eh, por trás da solução, você pode colocar, por exemplo, os agentes sendo invocados como se fossem os os backends, né, do que a gente pensa queé. Então, se você pensar na solução como um todo disruptiva e não apenas a e a como um backend aqui, sim, eu vejo uma mudança no futuro de mudar essa essa essa essa maneira como a gente faz software, não é só desenvolvimento de software em si, n?
Aí eu concordo contigo, né? você muda um pouco a experiência.
Ah, a importância da arquitetura, né? A gente teve um trabalho, o Paulo participou bastante disso também nos últimos anos, né? Da gente primeiro estudar as tecnologias, saber o que que tem de importante no no radar de tecnologias. A gente tá falando aqui de de poques que a gente faz no dia a dia, em casa, brincando, porque a gente tem essa vontade de brincar, né, com tecnologias novas, né, mas para colocar numa empresa, você tem que ter um pouco de responsabilidade, né, uma tecnologia que para de pé, que tem suporte, que tem licença, quanto custa, etc. Então, a gente vem trabalhando ao longo dos do anos em estudar ferramentas para poder na hora que vem um problema de negócio, você aplica a melhor tecnologia na hora certa, né? Eh, e a importância da arquitetura é você olhar pro negócio, olhar pro problema, olhar para as tecnologias que a gente tem no nosso no nossos build blocks ou que a gente não tem que ter no mercado e tentar aplicar a a melhor solução, a solução mais ótima pro problema, né? No caso da IA é a mesma coisa no final das contas, né? É escolher o melhor modelo, se é o melhor tipo de aprendizado, se eu vou usar machine learning, vai ser generativa, ou vai ser um RPA ou vai ser um get by ID, né?
Não tem bala de prata. E aí também não é bala de prata.
>> Perfeito.
>> Você trouxe um ponto legal, né, eh, Fernandão, que é o assim, eu tenho que olhar para tudo isso e e colocar a bola no chão, né? Então, assim, até o time, até o time você também tem que eh organizar para ter os perfis que que vão atender esse nova essa nova capacidade da empresa, né? E não é do dia para noite você faz isso, né? Não, né?
>> Então é, é, >> é, e o Paulo falou um pouco de governança, né, e governança do dado, né? Parte da nossa estratégia, né, Paulo, de chegar nesse ponto que a gente tá hoje de aplicar IA em processos internos, passou, por exemplo, quando a gente definiu o nosso portal de dados abertos.
>> Uhum.
>> Então, a gente olhou para para dentro, falou: "Cara, tem um conjunto de informações aqui que são dados públicos, que a gente pode colocar como um portal de dados abertos público na internet, né? Mas para você colocar um dado aberto na internet, você tem que ter um processo de governança do dado muito bem estruturado, garantir que aquele dado é realmente um dado público. Quem que o responsável pelo dado? Se eu tiver um vazamento de dados que não era para ser público, quem que quem que foi responsável por aquilo? Então esse processo de aculturamento da empresa em torno do dado que a gente tem ali dentro foi muito importante, né? E a gente agora tá com as iniciativas de a que o Paulo tá liderando, a gente tá eh eh colhendo frutos desse trabalho que foi feito lá atrás, né, que não tinha nada a ver comá, mas era um rodmap que a gente tinha a longo prazo, né?
E e aí, Fernando, eh, importante, né?
Governança, fala de governança, já vai pensando de colocar um brucutu lá, não passa aqui não, não vai subir ninguém, não vai subir ninguém, né? Eh, e a e a ideia não é a governança do não vai subir ninguém, é realmente empoderar. É assim, se eu vou, né, inclusive no no próprio portal, quando a gente lançou, a ideia era era eu quero que ele seja capaz de consumir o dado que eu tô fornecendo. Então, para isso, eu preciso explicar que dado que eu tô fornecendo, né? Então, explicar quando que eu vou lançar, quando quando que esse dado vai ser entregue, é o que que significa cada uma dando, sabe, o glossário mesmo, né?
Forte. Então é uma é é governança no sentido de empoderar. E aí mirando inclusive, né, na ideia de que uma IA vai conseguir ler isso e aí eh poder usufruir, né, e e executar as funções e as táticas que ele que ela tem que executar. Eu queria pegar um gancho, algo que o Valdir falou que é sobre a minha aplicação, né? Então eu tenho a minha aplicação, faço a tes que é muito mais é muito mais lenta e tal.
E aí essa é uma visão que a gente tem que mudar quando a gente tá falando de uma estratégia de a de que eu não vou fazer a mesma coisa utilizando só a Ia para para substituir. Por quê? Porque vai ser ineficiente.
Então a IA você tem que pensar ela como se fosse eh eh energia elétrica, né? Ela é é extremamente é versátil. Então tudo você faz com energia elétrica. Então você pode eh eh aquecer a água, né, acender uma luz, colocar equipamentos eletrônicos, tal. Então aí a eh fazer um motor, né, eh eh girar e tudo, mas eh ela na energia elétrica, ela não é uma mais eficiente para tudo. Então, por exemplo, para você aquecer, eh, é melhor você aquecer com gás, >> né? é mais eficiente. Você tem na transformação da energia, você tem eh mais perda no caso de você tentar usar uma resistência para aquecer a água e tal. Então são escolhas realmente para fazer. Então se eu tenho uma missão crítica, né, que né, concordando com o falou, se eu tenho uma missão crítica, tá não, não vou usar IA aqui, mas nos problemas, né, nessa revolução do do uso de a, eu tenho que pensar nele diferente. Então, não vou mais pensar na telinha. Então, o Fernando falou da, né, da da interface conversacional.
Por que que ele precisa ver aquilo na tela? Eu, em tese, eu, ele não quer aquilo, não quer ver na tela. Ele quer, o cara que quer ganhar dinheiro, ele quer que, né, vá pra conta dele o dinheiro. E se eh e se for justo a uma i falar isso tem tanto na sua conta e isso eh for eh eh como é que eu posso dizer, comprovado, né? Se isso tiver lastro jurídico, você não precisa nem de uma tela. Sim, é, é, é outro paradigma, até porque a Ia é, você tem que sempre que olhar o problema todo com IA e não só aquele pedaço, aquele componente, até porque a IA funciona melhor com mais contexto, né? Então, a jornada toda precisa ser modelada com IA e quanto mais informação você fornecer para ela, mais assertiva ela vai ser. Então, por mais que do ponto de vista de arquitetura a gente sempre pense em componentizar e isolar os componentes, cara, isso a gente tem que rever um pouco com com IA, porque o contexto geral paraa tomada de decisão, principalmente da generativa, quanto mais coletivo, melhor, sabe? Então você, pô, vou fazer um componente aqui que faz isso, foi aquele, cara. Mas será que o resultado do todo contexto para essa inteligência artificial, para esses componentes tão isolados e tão desacoplados é de fato mais eficiente? É uma é uma outra maneira de arquitetar, cara. Isso é muito louco >> e é muito difícil e a gente tem que se adaptar para para esse novo contexto, sabe?
>> E importante, né? a gente, você vai colocar uma generativa, pensa numa generativa do jeito que a gente já conhece hoje, que quando você tem o primeiro contato, você fica maravilhado.
Mas quando ela começa a a versar sobre assuntos que você tem muito domínio, né, que você já estudou bastante, você começa, hum, >> ah, que você não me pega, >> né? Então, e a gente e percebe isso quando a gente tá validando, né? Então, questões, né? Outras questões aí fica como, né? A dica métrica, cara, tem que buscar as métricas, todo modelo, tudo que você faz, você tem que buscar uma métrica para ver o quanto ela é assertiva ali, o quanto que você pode confiar em que missão você vai colocar uma e generativa numa num equipamento de UTI.
>> Cuidado, >> cuidado, né? De repente ela pode falar: "Não, na hora de desligar, desligou, né?" Então, assim, ela vai ter uma métrica, ou seja, você vai ter um modelo que garante lá um, sabe, 99.9999% de de de funcionamento, né, que não vai haver falha. E ok, ainda tendo havendo havendo falha, né, porque isso não vai chegar, né, ou seja, a gente falou que é, né, é estocástico, né, uma questão probabilística. Eh, no seu processo, quando você vai adotar e ah, no do seu produto, eh, você precisa ter, né, os guard rails, você precisa ter as alternativas. Então, se errar aqui, vai matar o paciente, não, né? Ah, vai matar o paciente. Ou então pera aí, eu tenho que ter um backup, eu tenho que ter uma outra forma de lidar com isso.
>> Tem surgido até alguns patterns, né, Paulo de modelos que validam modelos, né? Então, o Lludic é o Lludit.
E geralmente eles usam modelos diferentes. Então eu tenho GPT gerando conteúdo que é validado para Antropic.
Pô, aqui eu tenho uma e uma uma pluralidade razoável, porque o modelo da da chatt ele pode tá viciado naquele e e ter uma tendência a achar que aquele é correto. Aí você usa um outro modelo para validar aquele tipo de informação.
>> Até modelo tá fazendo peer review agora.
É, é, mas é uma a prática é tão boa, né, >> que que até os modelos estão fazendo, né?
Mas um ponto que o Paulo falou, né? Ué, você a gente tá falando até no passeidor aqui com Paulo mais cedo, se você tem um problema onde para você 99% da curácia é bom e aquele 1% que pode dar uma desviada, o risco, o custo daquilo para você, você compra o risco, cara, para mim é um problema que se eu tiver um probleminha aqui, é um, tá beleza, vai ter uma reclamação do cliente operacional, de repente eu vou ter que lidar com uma reclamação ali aqui, ele não reclame aqui. Tudo bem. Se paga, se paga. Beleza. Agora, se aquele 1% de erro vai me gerar um problema jurídico ou de imagem que a empresa pode falir, é algo que eu tenho que avaliar. E aí o arquiteto olhando pro negócio, cara, olha pro negócio, entende o negócio, entende tudo que tá acontecendo em volta >> e que isso independe de seiar ou não >> é trazendo pro mundo de saúde, né, que o o Paulo até fez uma brincadeira, poxa, eh, se eu vou desligar o equipamento ou não, eu eu não posso usar IA porque não tem a curaça de 100%, né? É, mas poxa, para avaliar um reembolso que eu vou ter depois uma pessoa verificando, né? Poxa, ó, o cara o cara reclamou errado. Ah, então vou fazer o seguinte, eu vou abrir um chamado de segundo nível. Pronto, chamado de segundo nível é avaliado por uma pessoa. Aí aí vale a pena. Sim.
>> Então, do E aí acho que conecta com um pouco do do final da nossa jornada aqui, né, que é falar de produtos, né? Poxa, são produtos que a gente tem que começar a pensar no dia a dia, né? o que o que vale a pena a gente trazer para paraas empresas, né, para para monetizar mesmo, né? Porque eh até agora a gente foi falando muito de a é legal fazer, né?
Mas é legal fazer aonde? Como é que as empresas estão tão trazendo dinheiro eh para pro pros bolsos, né? E e isso é é um ponto interessante onde quando a gente olha pro produto e pro retorno de negócio e a assertividade que se espera daquela operação, eh tem uma análise que a arquitetura é muito importante aqui, que é saber a viabilidade daquela implantação com do ponto de vista de prazo, custo e etc. É, >> é tratar seu arquiteto com carinho, né?
>> Exatamente. Porque seu arquiteto com carinho, por exemplo, >> tem comida para ele, alimentem, né? Faça carinho também.
>> Isso. Pague bem, principalmente.
>> É porque porque a gente não quer ser a gente não quer ser restritivo, a gente quer ser habilitador.
>> Isso. Mas mas o ponto é assim, ó. Por exemplo, que nem o Valdir falou, eu vou ter um N1 de análise de reembolso, aí eu vou ter um N2, que é a o meu comportamento humano. Eu poderia inclusive ter um N2 também de uma IA que que usando o padrão de uma IA validadora da outra. Se eu quero 100% de acurácia, eu posso colocar vários stacks aqui. É exato. E e eu posso ter vários revisores, inclusive de inteligência artificial, que, cara, vai chegar na ponta um caso muito raro, porque foi revisado várias vezes por vários modelos e que vai me chegar naquele 99.999.
Mas isso é viável financeiramente?
Quantas chamadas de de API eu vou ter que fazer aqui? Quantas, qual vai ser o custo disso? É viável.
>> Você tá falando o seguinte, Tabel, se eu tenho naquele meu exemplo, eu tenho uma um problema que com a eu tenho 99% da curácia, aquele 1% para me gerar um problema operacional, por exemplo. Que que eu faço com isso? Assumo risco ou eu faço um processo de contingência que vai, >> eu posso colocar uma outra camada com outro agente revisando porque vai trazer o 99, o esse vai vai me revisar e bloquear 99 do 1%. Ou seja, eu vou chegar no 100%, ele 1% vai ter um degrauzinho a mais que vai custar X ali.
E eu posso colocar outra camada e outra camada que vai fazendo o custo ficar exponencial. Vale a pena.
>> Você você fez uma lembrar de de um caso, né, que agora a gente, né, para tudo, né? Iá para tudo. Ah, eu quero um café, põe aí. Eh, e aí o veio a veio a proposta, né? Falou: "Ô, ô, Paulo, olha só, eu tenho esse processo aqui, ó, que ele tem a etapa A, B, C, D.
Ah, legal. Vamos colocar uma IA aqui.
Falei, tá? Para quê? Aí ele, então é que nessa etapa de eh quero uma etapa para validação de um usuário tal, de uma área tal. Aí eu falei: "Tá, OK. E que que você quer? Você quer melhorar ali, né?
Eh, ajudar ele a fazer a tarefa? Não, não, eu quero tirar a tarefa dele. Aí eu falei: "Tá, mas assim, quer tirar a tarefa dele?" Então ele ele faz hoje?
Não, é porque ele não faz, >> ele nunca fez. Aí eu falei, >> você quer tirar quem então, se o cara não existe?
>> Isso é. Aí eu falei: "Tá, mas então se ele nunca fez isso não dá problema, que tal você tirar essa etapa dele?
Não substituir por uma IA, >> porque você vai substituir o quê? Uma coisa que não existe.
>> Então essa aí tá fácil de fazer, ela tá pronta. Já >> tá pronta. É, tá plantada.
>> É, qual que é o objetivo disso? Eh, vai trazer algum benefício? Aí ele parou, ficou olhando para mim, ele falou: "É verdade, né?
É verdade. É. Não, não, não. Deixa para lá. Deixa para lá. OK. Depois aí ele voltou com outra depois e e tudo bem.
>> Mas é o que a gente tá comentando, né? A galera quer colocar e não importa onde.
Qual é a utilidade, né? Não tem utilidade nenhuma, né? Então não vai.
Agora tem uma utilidade, vai trazer benefício. Eh, então quando você fizer lá, né, o custo benefício, ó, vai trazer um benefício. Então beleza, vamos fazer.
E e é o que a gente sempre fala, né, Fernando, e que o o chato da arquitetura, né, o custo do projeto, o custo de uma implantação, não é só aquele capex que você tem naquela naquele momento, naquele operação, naquele desenvolvimento.
>> Você tem um curso de manutenção, você tem um custo de de atividade intelectual que você pode perder. Como é que você perpetua isso dentro da própria da própria companhia com skills, com profissionais, com sustentação e etc, né? Então a gente tem que ter esse manejo, essa estratégia de pensar na continuidade no negócio. Então não é o cara simplesmente chegar aqui, pô, vamos botar uma I aqui porque é legal e tá no R, cara, beleza, mas tem que ter manutenção, tem que ter curadoria, tem que ter governança. A gente tem estrutura para isso, você tem, sua área tem responsabilidade para manter isso rodando, etc. Porque senão, cara, o hype lá se meses o cara tá reclamando que que não tá tendo manutenção, não tá tendo o resultado que precisaria ter com o modelo, né? Fico imaginando se eu pegasse esse caso aí que, ou seja, nunca houve uma recusa no no D >> e aí colocou a EA, passou até a recusa.
>> Aí o cara fala: "Porra, a não tá funcionando >> porra". Recusou até hoje >> nunca recusa. Agora a Ia tá recusando.
Ô, tá com defeito essa IA.
Eh, a gente tem que ser na arquitetura, a gente tem que ser ESG também, né? É sustentabilidade.
>> Exatamente.
>> Cara, essa solução, ela se sustenta daqui um ano, daqui dois, daqui três, ela vai continuar funcionando, né?
>> No futuro a gente vai ter que modernizar a aplicação, vai, né? Mas vai ser modernizado com com tranquilidade. Vai tá vai tá bem comentado, vai tá bonitinho.
>> É isso aí. Arquitetura é estratégia sempre, >> né?
Meus amigos, acho que conseguimos cobrir muitos pontos aqui de de fato que é trabalhar com inteligência artificial na prática, né? Sem romantismo, sem eh fanatismo, sem eh como é o nome quando você é além de falar sem ativismo, né?
>> Fomos realistas, né?
>> Fomos realistas. E >> eu vou te falar o que nós fomos. Nós fomos francos.
Francos.
Você tirou essa.
>> É porque o Paulo é o cara franco. Tá. É Paulo Franco.
>> Paulo Franco. Francos. Verdade. Se tivesse me avisado, eu tinha feito a piada antes. Gostei. Eu queria ter feito essa piada.
>> Falando francamente, >> de frente com o Paulo falando francamente. Muito bem. Paulão, suas últimas palavras para quem tá embarcando nesse mundo e tá tá tá assustado.
>> Boa sorte.
>> Boa sorte.
Eh, então tem vários perfis, né, embarcando nesse mundo, né? Eh, e pessoal de negócio, né, né? Eh, não tenha medo, né?
Eh, hoje tá no hype, mas eh se você pega o pessoal mais novo, é até mais fácil de eh eles aceitarem, né? Mas aquele que já tá há mais tempo e tá vendo a IA eh entrar, é assim, aproveita, sabe? Eh é é uma jornada de conhecimento, é uma jornada de produtividade, >> abraça a tecnologia, >> abraça, né? Abraça a tecnologia. Eh, porque assim, lutar contra é assim, tá tá vencido já, né, pro negócio, né? Eh, pro negócio, então é abrace, né, pro pro desenvolvedor.
Eh, e assim, entenda do negócio, né, já tinha falado isso, né, ao longo do do podcast aqui.
>> Para ser honesto, a gente sempre falou isso para você, viu, seu cabeçudo.
>> Você tem que saber do negócio desde antes da IA. Agora você precisa saber mais ainda. Se tivesse ouvido a gente lá no começo, você não tava precisando se preocupar com isso agora.
>> É, embarque mesmo, né? E aí aprenda realmente a, né, as tecnologias, né?
Então, background de estatística é importante. Eh, eh, métricas, né?
Aprenda muito sobre métricas. A, estão falando de você é analista, eh eh pessoal de qualidade, né? é é muito sobre métricas, então tem muitas métricas aí para diversos tipos de modelo, para cada eh para cada tipo de a tem métrica diferente. Então, né, se aprofunde nisso, né, eh sobre as sobre métricas, né? Eh, agora se eu tiver falando, por exemplo, para, né, o executivo, eh, eh, equipes, eh, de a realmente eh para poder fazer ela ela embarcar corporativa, né, com tudo isso que a gente vem falando, né, governança, eh, eficiência no processo, porque aí a gente vai ter os benefícios que a gente discutiu aqui, né, sabe, usar aí a certa, o modelo certo, no lugar certo.
É, então a minha recomendação é essa, em vista, né, em em especialização, né, equipe especializada disso para dar suporte, né, pra organização, para para isso, né, coi de a para tratar o assunto corporativo.
>> Exatamente. Corporativo, né, com, né, respeitando, né, a eh compli da empresa, né? Então aí a corporativa realmente para que, né, a a coisa eh avanç, né, fazer direito, né, >> fazer direito. Fernandão, pro pra galera do nosso sindicato aí, que que você pode dizer?
>> Eh, acho que no final das contas a a G de software ela continua com os mesmos requisitos não funcionais, né, com IA ou sem, com usabilidade, com governança, com segurança, com performance. Então, eh, conheça o negócio. Acho que primeiro, como Paulo tá falando aqui, é importantíssimo. Cada vez mais o arquiteto tá próximo do negócio, dos problemas do negócio e das oportunidades.
Eh, pra galera do negócio, pros stakeholders, tomadores de decisão, a IA é uma oportunidade gigantesca de você aumentar a eficiência de equipe, melhorar suas entregas, novos produtos.
É importantíssimo você olhar para como você entrega suas experiências digitais de uma maneira nova. Acho que esse é um recado importante, né? E pra gente aqui do sindicato é: habilitem, ajudem aí a ser mais uma ferramenta na organização, não sejam limitadores, né? E para quem tem arquitetura nas empresas, confia nessa galerinha, que essa galerinha é boa. A gente tá ali para ajudar. Confia no arquiteto que a gente a gente vai te ajudar sair do outro lado.
>> Nós é bom arquitetura, mano.
>> O sindicato eu achei fenomenal.
>> Valdir, obrigado por trazer esses caras aqui, meu. Foi muito legal, >> cara. É, eu eu nesse episódio foi muito e elucidativo, né? E e assim, mais uma vez a gente vê que a TI ela é extremamente cíclica, né? Então, sempre vem uma ideia nova, ela vem sempre cheia de muitas eh esperanças, muitos desafios e aí a gente precisa de maturidade para passar por ela, né? Então, a gente já viu isso muitas vezes. Ah, seja eh, eu vou falar de um passado recente, tá?
seja do Mundo Cloud. Mundo Cloud foi a mesma coisa lá em 2016.
Eh, a gente veio também com um afã gigantesco. Vamos e aderir a Cláud.
>> Muita gente foi pra nuvem de qualquer jeito e tá voltando agora, né?
>> Exatamente. Então, ah, como eu vou fazer isso? Eu tenho que pensar, né? Então, foi um pouquinho do que o Paulo falou, um pouquinho do que Fernando falou.
Vamos ser eh maduro, né? Porque os profissionais de integueires devem ser maduros, olharem para paraas suas empresas, pro tamanho dos seus desafios e fazerem as melhores escolhas, né?
Então, eh, a gente também viveu isso.
Ah, um mundo de microsserviços, mesma coisa. Eh, poxa, vamos, todo mundo vai adherir microsserviços, como a gente vai aderir? Qual que é a tecnologia que a gente vai usar? Eh, antes disso ainda a gente teve um mundo de soa. Poxa, todo mundo vai ter soa, vai ter soa até agora e não sei o que lá, vai ter os brokers.
Então assim, é sempre um dilema. E um dilema é o quê? É você escolhe algo em detrimento de outro e aí você casa com os benefícios, mas você também casa com os malefícios. Eh, então colocar tudo isso na mesa, eh, de forma clara, objetiva, num roadmap, eh, de longo prazo, onde você vai garantir, né, o retorno pra tua empresa. Eh, é sobre isso, é nossa conversa foi sobre isso, né? Então, assim, maturidade e aí você sempre vai precisar de profissionais muito capacitados, engajados, que que tenham empatia com de fato o negócio da tua empresa, né?
E aí, se você precisar de ajuda, você tem a VMB.
>> É isso aí. Queria finalizar com essa. Se você não sabe para onde seguir, se você quiser uma ajuda de uma empresa que pode te dar os primeiros passos, te dar o caminho aqui, né, Valdir, como é que faz o contato?
>> Ah, o contato é muito fácil, cara. O contato é contato@vemers.io.
Manda um oi pra gente ou entra no nosso site vemers.
E a gente vai responder vocês, a gente vai marcar, eh, geralmente a gente marca uma conversa, a gente entende o desafio do cliente, a gente adora fazer poque, adora. Esse é teu problema, então pera aí, vamos fazer um vamos reduzir esse problema a um desafio é menor e vamos mostrar para vocês como é possível, né, resolver esse problema. Então assim, eh, a gente tá mais preocupado em resolver o problema do nosso cliente, né, do que qualquer outro outro, eh, ponto, né?
Então, assim, entra em contato com a gente, vamos bater um papo.
>> Se você não anotou, vai tá aqui na descrição, tanto o perfil dos meus amigos quanto o contato da VM Bears, entre contato que o gigante aqui pode ajudar, beleza? Você que acompanhou a gente até agora, muito obrigado pela audiência de vocês. Se você ainda não deixou seu like, se você ainda não se inscreveu no canal, você tem a última chance agora, porque o episódio vai acabar daí só no próximo, né? Então aproveita agora, se inscreve e se você acha que a gente contribui de alguma forma pro seu desenvolvimento profissional ou pro seu entretenimento ou para qualquer forma que a gente agrade aqui o seu dia a dia, você pode ser membro do canal. Se você for membro do canal, você vai lá, seja membro, você vai contribuir aqui com uma cerveja pra gente por mês aqui para manter a nossa operação e pagar cerveja para essa galera aqui que bebe demais, velho.
Nossa, ajuda nós aí, ajuda nós aí.
Obrigado pela audiência de vocês. Valeu, [Música]
Episódios Relacionados
1h 56minN8N e Lovable são o Fim do Dev Júnior? | PPT Não Compila Podcast
Felipe Kimio Nishikaku, Levi Bertolino
22 de out. de 2025
1h 58minAgentes de IA em Arquiteturas de Dados em Tempo Real | PPT Não Compila Podcast
Pedro Busko, William Leite, Daniel Takabayashi
1 de out. de 2025
1h 28minPor que o Pix e a tecnologia bancária do Brasil são tão avançadas? | PPT Não Compila Podcast
Luiz Mussa
13 de ago. de 2025
1h 37minO Impacto da Inteligência Artificial nos Investimentos Financeiros | PPT Não Compila Podcast
Marcos Brigante
6 de ago. de 2025