Olá Desenvolvedores,
Aproveite o novo vídeo no canal InterSystems Developers do YouTube
⏯ Por Dentro do Vector Search - Inovações Técnicas no InterSystems IRIS @ READY 2025
Um modelo de linguagem grande (LLM) é um modelo de inteligência artificial criado para entender e gerar texto semelhante à escrita humana com base em grandes quantidades de dados de treinamento.
Olá Desenvolvedores,
Aproveite o novo vídeo no canal InterSystems Developers do YouTube
⏯ Por Dentro do Vector Search - Inovações Técnicas no InterSystems IRIS @ READY 2025

Na Parte 1, estabelecemos a base técnica do MAIS (Multi-Agent Interoperability Systems). Conectamos com sucesso o "Cérebro", construímos um Adapter robusto usando LiteLLM, protegemos nossas chaves de API com o IRIS Credentials e, finalmente, deciframos o código do quebra-cabeça da interoperabilidade com Python.
No entanto, neste momento, nosso sistema é apenas um cano bruto para um LLM. Ele processa texto, mas carece de identidade.
Hoje, na Parte 2, definiremos a Anatomia de um Agente. Passaremos de simples chamadas de API para Personas estruturadas.
Primeiramente, precisamos entender o que são palavras de prompt e quais são suas funções.
A engenharia de palavras de prompt é um método especificamente projetado para otimizar modelos de linguagem.
Seu objetivo é orientar esses modelos a gerar textos de saída mais precisos e direcionados por meio do design e ajuste das palavras de prompt de entrada.
# IRIS-Intelligent Butler
IRIS Intelligent Butler é um sistema de mordomo inteligente com IA construído sobre a plataforma de dados InterSystems IRIS, com o objetivo de fornecer aos usuários assistência abrangente para a vida e o trabalho por meio de inteligência de dados, tomada de decisão automatizada e interação natural.
## Cenário de aplicação
Adição de serviços, inicialização de configurações etc. estão atualmente sendo aprimorados.
## Mordomo inteligente
O IRIS Smart Manager utiliza os poderosos recursos de gerenciamento de dados e IA do InterSystems IRIS para criar um assistente inteligente
Tags: #LangGraph #LangChain #AI #Agents #Python #LLM #StateManagement #Workflows
Olá pessoal, quero trazer para vocês aqui um pouco sobre o LangGraph, uma ferramenta que estou estudando e desenvolvendo.
Basicamente aplicações tradicionais de IA frequentemente enfrentam desafios ao lidar com fluxos de trabalho complexos e estados dinâmicos. O LangGraph oferece uma solução robusta, permitindo criar agentes com estado que podem gerenciar conversas complexas, tomar decisões baseadas em contexto e executar workflows sofisticados.
Este
Se você quiser saber se já existe uma classe sobre um determinado tópico fazendo uma simples pergunta em linguagem natural, isso agora é possível. Baixe e execute a aplicação https://openexchange.intersystems.com/package/langchain-iris-tool para conhecer tudo sobre as classes do seu projeto em um chat.
Agradeço à comunidade por traduzir um artigo anterior para o português!
Estou retribuindo o favor com um novo lançamento do aplicativo de demonstração Pattern Match Workbench.
Suporte Adicionado para Português.
Agora, as legendas, botões, mensagens de feedback e textos de ajuda da interface do usuário estão atualizados para o português.
Além disso, descrições de padrões podem ser solicitadas no novo idioma.

O único Modelo de IA responsável por transformar o comando do usuário em código de correspondência de padrões foi completamente retreinado.
.png)
Olá Comunidade!
Estamos felizes em compartilhar o próximo vídeo da série "Code to Care" no nosso YouTube para desenvolvedores da InterSystems:
⏯ IA Agentic em Ação: Construindo um Ciclo de Tomada de Decisão com LLM
Bem-vindo à terceira e última publicação de nossos artigos dedicados ao desenvolvimento de aplicações RAG baseadas em modelos LLM. Neste último artigo, veremos, com base em nosso pequeno projeto de exemplo, como podemos encontrar o contexto mais adequado para a pergunta que queremos enviar ao nosso modelo LLM e para isso utilizaremos a funcionalidade de busca vetorial incluída no IRIS.

Um elemento-chave de qualquer aplicação RAG é o mecanismo de busca vetorial, que permite pesquisar dentro de uma tabela com registros desse tipo aqueles mais semelhantes ao vetor de referência.
Olá Comunidade
Nesse artigo, vou introduzir minha aplicação irisChatGPT construída no LangChain Framework.
Primeiramente, vamos ter uma breve visão geral desse framework.
O mundo inteiro está falando sobre o ChatGPT e como as Large Language Models (LLMs - Grandes modelos de linguagem) se tornaram tão poderosas e tem performado além das expectativas, oferecendo conversas quase humanas. Isso é só o começo de como isso pode ser aplicado em qualquer empresa e qualquer domínio!

No artigo anterior, vimos diferentes módulos do Studio IRIS AI e como ele poderia ajudar a explorar as capacidades da GenAI além do IRIS DB perfeitamente, mesmo para alguém não técnico. Nesse artigo, vamos mergulhar a fundo pelo módulo "Connectors", o que permite que os usuários carreguem dados desde uma fonte local ou cloud (AWS S3, Airtable, Azure Blob) no IRSI DB como vetores incorporados, ao configurar também definições de incorporação como modelo e dimensões.
Você se identifica com isso: a capacidade e impacto da tecnologia que é realmente descoberta quando empacotada da maneira correta para seu público alvo? O melhor exemplo seria como a Generative AI deslanchou quando o ChatGPT veio ao público para fácil acesso e não como as capacidades Transformers/RAG's (Retrieval-Augmented Generation - Geração Aumentada de Recuperação) foram identificadas. Pelo menos uma usabilidade muito maior surgiu, quando a audiência foi incentivada para explorar as possibilidades.
Recentemente tive a oportunidade de participar no MIT (Massachusetts