Pesquisar

Anúncio
· Nov. 19

¿Qué te parece la interfaz de la IA de la Comunidad? La herramienta sigue mejorando cada mes

¡Hola a todos!

La IA de la Comunidad de desarrolladores sigue mejorando cada mes. Como sabéis, se nutre con datos oficiales de la compañía, lo que permite garantizar información rigurosa sobre los productos de InterSystems. Cada vez se le incorporan más manuales, actualizaciones y documentación para mejorar su precisión en las consultas.

Hemos recibido muchos comentarios positivos, también constructivos, sobre la plataforma. Su interfaz ha ido cambiando con el tiempo ¿qué os parece? Para los que andáis más despistados, su estructura en forma de chat permite entablar una conversación, repreguntar, y valorar la calidad de las respuestas.

  

Probad la IA de la Comunidad: https://es.community.intersystems.com/ask-dc-ai

Si aún no la habéis utilizado... estáis tardando. Os podría ayudar mucho tiempo a la hora de resolveros dudas de código, métodos o posibilidades de la tecnología.

Además, en la franja izquierda encontraréis chats por defecto. Os pueden ayudar a encontrar nuevas ideas, explorar posibilidades y conocer más sobre InterSystems.

¿Qué me decís? ¿Tenéis ya la IA de la Comunidad jugando en vuestro equipo? 

Discussão (0)1
Entre ou crie uma conta para continuar
Artigo
· Nov. 19 5min de leitura

¿Cómo ejecutar un proceso en intervalos o según una programación?

Cuando comencé mi trayectoria con InterSystems IRIS, especialmente en el área de Interoperabilidad, una de las preguntas iniciales y más comunes que tuve fue: ¿cómo puedo ejecutar algo en intervalos o según una programación? En este artículo quiero compartir dos clases sencillas que abordan este problema. Me sorprende que no haya clases similares ubicadas en algún lugar de EnsLib. ¿O quizá no busqué bien? En cualquier caso, este artículo no pretende ser un excesivamente complejo, sino una muestra de un par de fragmentos para principiantes.

Así que supongamos que tenemos una tarea: “Tomar algunos datos de una API y colocarlos en una base de datos externa”. Para resolver esta tarea, necesitamos:

  1. Ens.BusinessProcess, que contiene el algoritmo de nuestro flujo de datos: cómo preparar una solicitud para obtener los datos, cómo transformar la respuesta de la API en una solicitud para la base de datos, cómo manejar los errores y otros eventos a lo largo del ciclo de vida del flujo de datos. 
  2. EnsLib.REST.Operation para realizar solicitudes HTTP a la API utilizando EnsLib.HTTP.OutboundAdapter
  3. Ens.BusinessOperation con EnsLib.SQL.OutboundAdapter para insertar los datos en la base de datos externa a través de una conexión JDBC.

Los detalles de la implementación de estos hosts de negocio quedan fuera del alcance de este artículo, así que supongamos que ya tenemos un proceso y dos operaciones. Pero, ¿cómo ejecutarlo todo? El proceso solo puede ejecutarse mediante una solicitud entrante… ¡Necesitamos un iniciador! Uno que se ejecute a intervalos y envíe una solicitud ficticia a nuestro proceso.

Aquí tenemos una clase de iniciador de ese tipo. Le añadí un poco de funcionalidad adicional: se podrán usar llamadas síncronas o asíncronas, y decidir si detener o no el proceso en caso de error si tenemos varios hosts como destino. Pero lo principal aquí es la lista de destinos. A cada elemento (host de negocio) de esta lista se le enviará una solicitud. Prestad atención al evento OnGetConnections: es necesario para construir correctamente los enlaces en la interfaz de producción.

/// Call targets by interval
Class Util.Service.IntervalCall Extends Ens.BusinessService
{

/// List of targets to call
Property TargetConfigNames As Ens.DataType.ConfigName;
/// If true, calls are made asynchronously (SendRequestAsync)
Property AsyncCall As %Boolean;
/// If true, and the target list contains more than one target, the process will stop after the first error
Property BreakOnError As %Boolean [ InitialExpression = 1 ];
Property Adapter As Ens.InboundAdapter;
Parameter ADAPTER = "Ens.InboundAdapter";
Parameter SETTINGS = "TargetConfigNames:Basic:selector?multiSelect=1&context={Ens.ContextSearch/ProductionItems?targets=1&productionName=@productionId},AsyncCall,BreakOnError";
Method OnProcessInput(pInput As %RegisteredObject, Output pOutput As %RegisteredObject, ByRef pHint As %String) As %Status
{
    Set tSC = $$$OK
    Set targets = $LISTFROMSTRING(..TargetConfigNames)

    Quit:$LISTLENGTH(targets)=0 $$$ERROR($$$GeneralError, "TargetConfigNames are not defined")

    For i=1:1:$LISTLENGTH(targets) {
        Set target = $LISTGET(targets, i)
        Set pRequest = ##class(Ens.Request).%New()

        If ..AsyncCall {
            Set tSC = ..SendRequestAsync(target, pRequest)
        } Else  {
            Set tSC = ..SendRequestSync(target, pRequest, .pResponse)
        }
        Quit:($$$ISERR(tSC)&&..BreakOnError)
    }

    Quit tSC
}

ClassMethod OnGetConnections(Output pArray As %String, pItem As Ens.Config.Item)
{
    If pItem.GetModifiedSetting("TargetConfigNames", .tValue) {
        Set targets = $LISTFROMSTRING(tValue)
        For i=1:1:$LISTLENGTH(targets) Set pArray($LISTGET(targets, i)) = ""
    }
}

}

Después de eso, solo necesitáis añadir esta clase a la Producción y marcar nuestro proceso de negocio en la configuración TargetConfigNames.

Pero, ¿qué pasa si los requisitos cambian? Y ahora necesitamos ejecutar nuestro recolector de datos todos los lunes a las 08:00 a. m. La mejor manera de hacerlo es utilizando el Administrador de Tareas. Para ello, debemos crear una tarea personalizada que ejecute nuestro Iniciador de forma programada. Aquí tenéis un código sencillo para esa tarea:

/// Launch selected business service on schedule
Class Util.Task.ScheduleCall Extends %SYS.Task.Definition
{

Parameter TaskName = "Launch On Schedule";
/// Business Service to launch
Property ServiceName As Ens.DataType.ConfigName;
Method OnTask() As %Status
{
    #dim tService As Ens.BusinessService
    Set tSC = ##class(Ens.Director).CreateBusinessService(..ServiceName, .tService)
    Quit:$$$ISERR(tSC) tSC
    
    Set pRequest = ##class(Ens.Request).%New()
    Quit tService.ProcessInput(pRequest, .pResponse)
}

}

Dos cosas importantes aquí:

  • Debéis establecer el tamaño del grupo (Pool Size) del Servicio de Negocio Iniciador en 0 para evitar que se ejecute por Call Interval (la opción Call Interval se puede borrar o dejar tal cual, ya que no se usa cuando el Pool Size es 0).

             

  • Necesitáis crear una tarea en el Task Manager, elegir “Launch On Schedule” como tipo de tarea (no olvidéis comprobar el Namespace), establecer el nombre de nuestro ServiceName Iniciador en el parámetro ServiceName y configurar la programación deseada. Consultad: Operaciones del sistema > Administrador de tareas > Nueva tarea.

Y un bonus

A menudo me he encontrado con casos en los que necesitamos ejecutar algo en Producción solo bajo demanda. Por supuesto, podríamos crear una interfaz personalizada en CSP para ello, pero reinventar la rueda no es nuestro camino. Creo que es mejor utilizar la interfaz típica del Portal de Administración. Así que la misma tarea que creamos anteriormente se puede ejecutar manualmente. Solo hay que cambiar el tipo de ejecución de la tarea a “On Demand”. La lista de tareas On Demandestá disponible en System > Task Manager > On-demand Tasks, donde veréis el botón Run. Además, el botón Run(ejecución manual) está disponible para cualquier tipo de tarea.

Eso es todo. Ahora tenemos una arquitectura de interoperabilidad bastante sólida para nuestros hosts de negocio, y tres formas de ejecutar nuestro recolector de datos: por intervalo, según un horario o manualmente.

Discussão (0)0
Entre ou crie uma conta para continuar
Artigo
· Nov. 18 7min de leitura

Pythonモジュール入門

img

モジュールは重要なテーマです! ObjectScriptにはこの概念はありませんが、Pythonでは基本的な考え方です。 一緒に見ていきましょう。

モジュールとは?

モジュールは、クラスとパッケージの間にある中間層だと私は考えています。 例を見てみましょう。

悪い例:

# MyClass.py
class MyClass:
    def my_method(self):
        print("Hello from MyClass!")

別のスクリプトでこのクラスを使用する場合、次のようになります。

Discussão (0)1
Entre ou crie uma conta para continuar
InterSystems Oficial
· Nov. 18

发布说明:InterSystems 云服务——版本 25.22.2

概述

该版本引入了FHIR Server 2025.10.0,该版本遵循最新标准并实现了性能提升。它还增强了Health Connect Cloud(HCC)升级流程,提高了其可靠性,并通过在 VPN 配置中支持前缀列表为Network Connect增加了新的灵活性。


新功能和增强功能

类别

功能/改进

详细信息

FHIR Server

发布 FHIR 服务器 2025.10.0

推出 InterSystems FHIR Server 的最新版本,具有更高的可扩展性、更强的 FHIR R5 一致性以及对批量数据交换的优化。

Health Connect Cloud

升级流程改进

简化和强化了 HCC 部署的升级工作流程,缩短了维护窗口持续时间,提高了回滚安全性和自动化准确性。

Network Connect

静态 VPN 导入支持前缀列表

静态 VPN 导入任务现在支持 AWS 前缀列表,简化了路由管理,使客户环境中的网络配置更加动态和一致。


推荐操作

此版本无建议操作。


支持

如需帮助或了解有关这些更新的更多信息,请通过 iService 或 InterSystems 云服务门户(InterSystems Cloud Service Portal)提交支持请求。

©2025 InterSystems Corporation。保留所有权利。

Discussão (0)1
Entre ou crie uma conta para continuar
Artigo
· Nov. 18 12min de leitura

Data Streaming com interoperabilidade do InterSystems IRIS

As arquiteturas de dados modernas utilizam soluções de captura, transformação, movimentação e carregamento de dados em tempo real para construir data lakes, data warehouses analíticos e repositórios de big data. Isso permite a análise de dados de diversas fontes sem impactar as operações que os utilizam. Para alcançar esse objetivo, é essencial estabelecer um fluxo de dados contínuo, escalável, elástico e robusto. O método mais comum para isso é a técnica de CDC (Change Data Capture). O CDC monitora a produção de pequenos conjuntos de dados, captura esses dados automaticamente e os entrega a um ou mais destinatários, incluindo repositórios de dados analíticos. O principal benefício é a eliminação do atraso D+1 na análise, já que os dados são detectados na origem assim que são produzidos e, posteriormente, replicados para o destino.

Este artigo demonstrará as duas fontes de dados mais comuns para cenários de CDC, tanto como origem quanto como destino. Para a origem dos dados, exploraremos o CDC em bancos de dados SQL e arquivos CSV. Para o destino dos dados, utilizaremos um banco de dados colunar (um cenário típico de banco de dados analítico de alto desempenho) e um tópico do Kafka (uma abordagem padrão para transmitir dados para a nuvem e/ou para vários consumidores de dados em tempo real).

Visão Breve

Este artigo fornecerá um exemplo para o seguinte cenário de interoperabilidade:

 

  1. O SQLCDCAdapter utilizará o SQLInboundAdapter para detectar novos registros no banco de dados SQL e extraí-los com a ajuda de uma conexão JDBC e da linguagem SQL.
  2. O SQLCDCAdapter encapsulará os dados capturados em uma mensagem e a enviará para o CDCProcess (um Processo de Negócio usando a notação BPL).
  3. O CDCProcess recebe os dados SQL como uma mensagem e utiliza a Operação SQL para persistir os dados no IRIS e a Operação Kafka para transmitir os dados capturados para um tópico do Kafka.
  4. A Operação SQL persistirá os dados da mensagem em uma Classe Persistente do InterSystems IRIS modelada como armazenamento colunar.
  5. O armazenamento colunar é uma opção que oferece desempenho superior em consultas para dados analíticos.
  6. A Operação Kafka transformará a mensagem em JSON e a enviará para um tópico do Kafka, onde um data lake na nuvem ou qualquer outro assinante poderá consumi-la.
  7. Esses fluxos de dados são executados em tempo real, estabelecendo um fluxo de dados contínuo.
  8. O Serviço BAM calculará as métricas de negócios a partir da tabela colunar em tempo real. Um painel de BI exibirá as métricas de negócios resultantes para o usuário instantaneamente.

Instalando o exemplo

O pacote iris-cdc-sample (https://openexchange.intersystems.com/package/iris-cdc-sample) é um aplicativo de exemplo que implementa o cenário descrito acima. Para instalá-lo, siga estas etapas:

1. Clone/git pull o repositório em qualquer diretório local:

$ git clone https://github.com/yurimarx/iris-cdc-sample.git

2. Abra o terminal neste diretório e execute o comando abaixo:

$ docker-compose build

3. Execute o contêiner IRIS com seu projeto:

$ docker-compose up -d


Componentes do exemplo

Este exemplo utiliza os seguintes contêineres:

  • iris: Plataforma InterSystems IRIS, incluindo:
    • Banco de Dados Colunar IRIS (para armazenar os dados capturados).
    • Interoperabilidade IRIS com um ambiente de produção para executar o processo de CDC (captura de dados de alteração). A produção captura dados de um banco de dados externo (PostgreSQL), os persiste no IRIS e os transmite para um tópico do Kafka.
    • IRIS BAM (Monitoramento de Atividade Comercial) para calcular métricas de vendas em tempo real por produto e exibi-las em um painel.
  • salesdb: Um banco de dados PostgreSQL contendo dados de vendas a serem capturados em tempo real.
  • zookeeper: Um serviço usado para gerenciar o broker Kafka.
  • kafka: O broker Kafka com o tópico de vendas, utilizado para receber e distribuir dados de vendas como eventos em tempo real.
  • kafka-ui: Uma interface web do Kafka para administração e operação de tópicos e eventos.
services:
  iris:
    build:
      context: .
      dockerfile: Dockerfile
    restart: always
    command: --check-caps false --ISCAgent false
    ports:
      - 1972
      - 52795:52773
      - 53773
    volumes:
      - ./:/home/irisowner/dev/
    networks:
      - cdc-network
  salesdb:
    image: postgres:14-alpine
    container_name: sales_db
    restart: always
    environment:
      POSTGRES_USER: sales_user
      POSTGRES_PASSWORD: welcome1
      POSTGRES_DB: sales_db
    volumes:
      - ./init.sql:/docker-entrypoint-initdb.d/init.sql
      - postgres_data:/var/lib/postgresql/data/
    ports:
      - "5433:5432"
    networks:
      - cdc-network


  zookeeper:
      image: confluentinc/cp-zookeeper:7.5.0
      container_name: zookeeper
      hostname: zookeeper
      networks:
        - cdc-network
      ports:
        - "2181:2181"
      environment:
        ZOOKEEPER_CLIENT_PORT: 2181
        ZOOKEEPER_TICK_TIME: 2000
  kafka:
    image: confluentinc/cp-kafka:7.5.0
    container_name: kafka
    hostname: kafka
    networks:
      - cdc-network
    ports:
      - "9092:9092"
    depends_on:
      - zookeeper
    environment:
      KAFKA_BROKER_ID: 1
      KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181
      KAFKA_LISTENER_SECURITY_PROTOCOL_MAP: PLAINTEXT:PLAINTEXT,PLAINTEXT_HOST:PLAINTEXT
      KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://kafka:29092,PLAINTEXT_HOST://kafka:9092
      KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR: 1
      KAFKA_GROUP_INITIAL_REBALANCE_DELAY_MS: 0
  kafka-ui:
      image: provectuslabs/kafka-ui:latest
      container_name: kafka-ui
      hostname: kafka-ui
      networks:
        - cdc-network
      ports:
        - "8080:8080"
      depends_on:
        - kafka
      environment:
        KAFKA_CLUSTERS_0_NAME: local_kafka_cluster
        KAFKA_CLUSTERS_0_BOOTSTRAPSERVERS: kafka:29092
volumes:
  postgres_data:
    driver: local


networks:
  cdc-network:
    driver: bridge

Criando uma tabela colunar

Tabelas colunares são utilizadas para armazenar dados não normalizados, como os seguintes:

Nome do produto

Nome Loja

Valor venda (Price)

Orange

Store 1

120

Orange 

Store 1

200

Banana

Store 2

100

Banana

Store 1

120

Orange

Store 2

110

Como os valores de Nome do Produto e Nome da Loja se repetem com frequência, armazenar os dados em formato colunar (como colunas em vez de linhas) conserva espaço de armazenamento e proporciona um desempenho superior na recuperação de dados. Historicamente, esse tipo de processamento exigia a criação de cubos de BI. No entanto, o armazenamento colunar resolve esse problema, eliminando a necessidade de replicar dados operacionais em cubos.
Agora, siga estas etapas para criar a tabela colunar de Vendas para o nosso exemplo:

1. Crie uma nova classe ObjectScript chamada Sales dentro do pacote dc.cdc.

2. Escreva o seguinte código-fonte:

Class dc.cdc.Sales Extends %Persistent [ DdlAllowed, Final ]
{

Parameter STORAGEDEFAULT = "columnar";
Parameter USEEXTENTSET = 1;
Property ProductName As %String;
Property StoreName As %String;
Property SalesValue As %Double;
}

3. O parâmetro STORAGEDEFAULT = "columnar" configura a tabela dc_cdc.Sales para usar columnar storage, ao invés de usar linha.

Criando a operação comercial para salvar os dados capturados

Após capturar os dados de vendas em um StreamContainer usando o SalesSqlService (nenhuma implementação é necessária; a configuração é feita no ambiente de produção na seção "Executando CDC"), precisamos de uma Operação de Negócios para processar o StreamContainer, extrair os dados de vendas do PostgreSQL e salvá-los na tabela Sales. Execute os passos abaixo:
1. Crie a classe SalesOperation dentro do pacote dc.cdc.
2. Escreva o código-fonte abaixo:

Class dc.cdc.SalesOperation Extends Ens.BusinessOperation
{

Method ProcessSalesData(pRequest As Ens.StreamContainer, Output pResponse As Ens.StringResponse) As %Status
{
    Set tSC = $$$OK
    Set pResponse = ##class(Ens.StringResponse).%New()

    Try {
        
        Set tStream = pRequest.Stream
        
        Do tStream.Rewind()

        Set content = ""
        While 'tStream.AtEnd {
            Set content = content _ tStream.Read(4096) 
        }

        Set tDynamicObject = {}.%FromJSON(content)
        
        Set sales = ##class(dc.cdc.Sales).%New()
        Set sales.ProductName = tDynamicObject."product_name"
        Set sales.StoreName = tDynamicObject."store_name"
        Set sales.SalesValue = tDynamicObject."sales_value"
        Set tSC = sales.%Save()

        Set pResponse.StringValue = tDynamicObject.%ToJSON()
        
    } Catch (ex) {
        Set tSC = ex.AsStatus()
        Set pResponse.StringValue = "Error while saving sales data!"
        $$$LOGERROR("Error while saving sales data: " _ ex.DisplayString())
    }

    Quit tSC
}

XData MessageMap
{
<MapItems>
  <MapItem MessageType="Ens.StreamContainer">
    <Method>ProcessSalesData</Method>
  </MapItem>
</MapItems>
}

}

3. O método ProcessSalesData receberá mensagens do tipo StreamContainer (devido à definição de MessageMap).

4. O método lerá os dados de vendas capturados em uma string JSON, carregará o JSON em um DynamicObject, criará um objeto Sales, definirá os valores de suas propriedades e o salvará na tabela Sales.

5. Finalmente, o método retornará a string JSON representando os dados de vendas na resposta.

 

Criando o serviço do BAM para monitorar vendas (Sales)

O InterSystems IRIS para Interoperabilidade inclui a funcionalidade BAM, permitindo monitorar dados de negócios em tempo real processados ​​em produção usando um Painel de Análise. Para criar o serviço BAM, siga os passos abaixo:
1. Crie uma nova classe chamada SalesMetric que estenda Ens.BusinessMetric no pacote dc.cdc.
2. Escreva o seguinte código-fonte:

Class dc.cdc.SalesMetric Extends Ens.BusinessMetric
{

Property TotalSales As Ens.DataType.Metric(UNITS = "$US") [ MultiDimensional ];
Query MetricInstances() As %SQLQuery
{
  SELECT distinct(ProductName) FROM dc_cdc.Sales
}

/// Calculate and update the set of metrics for this class
Method OnCalculateMetrics() As %Status
{
    Set product = ..%Instance
    Set SalesSum = 0.0
    &sql(
        select sum(SalesValue) into :SalesSum from dc_cdc.Sales where ProductName = :product 
    )

    Set ..TotalSales = SalesSum

    Quit $$$OK
}

}

3. A propriedade TotalSales permite o monitoramento em tempo real da soma das vendas por produto.
4. A propriedade Query MetricInstances define quais produtos devem ser monitorados.
5. O método OnCalculateMetrics calcula a soma das vendas para cada produto.
6. Esta classe será utilizada em um painel para gerar o total de vendas por produto em tempo real.

Executando o Processo e Produção do CDC - Change Data Capture


Nosso diagrama de produção final, com todos os processos ETL (Extração, Transformação e Carga) necessários, é mostrado abaixo:

 

Siga os próximos passos:

1. Acesse o ambiente de produção do CDC: http://localhost:52795/csp/user/EnsPortal.ProductionConfig.zen?PRODUCTIO...
2. Crie um novo EnsLib.JavaGateway.Service chamado Java (necessário para o SalesSqlService).

3. Gere um serviço de negócios chamado SalesSqlService (SQLCDCService) e configure os seguintes parâmetros:

a. DSN (string de conexão para PostgreSQL): jdbc:postgresql://sales_db:5432/sales_db.

b. Credenciais: Crie um pg_cred com o nome de usuário (sales_user) e a senha (welcome1) para acessar o PostgreSQL.

c. Nomes de configuração de destino: SalesProcess (o processo do CDC).

d. Consulta (para selecionar os dados a serem consumidos): select * from sales.

e. Nome do Campo Chave (a coluna que o IRIS usa para rastrear linhas já capturadas): id.
f. Serviço Java Gateway (obrigatório porque o adaptador CDC usa JDBC): Java (Java Gateway para esta produção).

g. Driver JDBC: org.postgresql.Driver.

h. Classpath JDBC (um driver para conectar com o PostgreSQL, copiado via script Dockerfile): /home/irisowner/dev/postgresql-42.7.8.jar.

4. Crie uma nova instância de dc.cdc.SalesMetric chamada SalesMetric.

5. Gere uma nova instância de EnsLib.Kafka.Operation e nomeie-a como SalesKafkaOperation (Operação Kafka) com os seguintes parâmetros:

a. ClientID: iris
b. Servers: kafka:9092

6. Crie uma nova instância de dc.cdc.SalesOperation chamada SalesOperation.

7. Desenvolva um Processo de Negócio chamado SalesProcess. A lógica de implementação do BPL deve ser a seguinte:

a. Diagrama final:

 

b. Crie 2 propriedades no Context:

i. `Sales` com o tipo `Ens.StringResponse` para armazenar os dados de vendas como uma string JSON.
ii. `KafkaMessage` com o tipo `EnsLib.Kafka.Message` (para ser usado para enviar os dados capturados para o tópico `sales-topic` do Kafka).

c. Gere uma chamada, salve na tabela `Sales` e defina o seguinte:

i. Destino: `SalesOperation`
ii. Classe da mensagem de solicitação: `Ens.StreamContainer` (dados capturados como fluxo)
iii. Ações da solicitação:

 

iv. Classe da mensagem de resposta: Ens.StringResponse (o fluxo será convertido em uma representação em string JSON dos dados capturados)

v. Ações de resposta:

 

d. Crie um bloco de código e escreva um código ObjectScript que preencha a mensagem do Kafka com as propriedades necessárias para que os dados de vendas (como uma string JSON) sejam publicados como um evento no tópico de vendas do broker do Kafka:

Set context.KafkaMessage.topic = "sales-topic"
Set context.KafkaMessage.value = context.Sales.StringValue 
Set context.KafkaMessage.key = "iris"

e. Crie uma chamada para o tópico de vendas do Kafka e defina o seguinte design:

i. Destino: SalesKafkaOperation
ii. Classe da mensagem de solicitação: %Library.Persistent (KafkaMessage é persistente)
iii. Ações da solicitação:

 

f. Crie uma atribuição chamada "Enviar Resposta" com o seguinte conteúdo:

i. Propriedade: response.StringValue
ii. Valor: "Processo finalizado!"

 

Vendo os resultados do CDC

Após habilitar o CDCProduction, insira alguns registros na tabela de vendas do PostgreSQL usando sua ferramenta de administração de banco de dados (DBeaver ou PgAdmin) e observe os resultados das mensagens de produção.

 

Consulte o diagrama de sequência para entender o processo do CDC (clique em qualquer link do cabeçalho da mensagem):

 

Visualizando o monitoramento do BAM em um painel de análise

Ao capturar dados em tempo real, você naturalmente deseja visualizar os resultados instantaneamente em um painel. Siga os passos abaixo para conseguir isso:
1. Acesse Analytics > Portal do Usuário (User Portal):

 

2. Clique Add Dashboard:

 

3. Defina as propriedades abaixo e clique em OK:

a. Pasta: Ens/Analytics
b. Nome do painel: Sales BAM

4. Clique em Widgets:

 

5. Clique o botão mais:

 

6. Configure the Widget as shown below:
 

7. Ajuste o novo widget para cobrir toda a área do painel.

8. Agora, selecione WidgetSales:

9. Escolha Controls:
  

10. Clique no botão mais:
  

11. Configure o controle conforme ilustrado abaixo (para visualizar o total de vendas em tempo real, com atualização automática):

12. Agora, quando novos valores forem capturados, o painel exibirá imediatamente os valores atualizados para TotalSales.

Para aprender mais:

A documentação da InterSystems pode ajudá-lo a aprofundar seus conhecimentos em CDC, BAM, Kafka e interoperabilidade. Visite as páginas abaixo para saber mais:

  1. BAM: https://docs.intersystems.com/iris20252/csp/docbook/Doc.View.cls?KEY=EGIN_options#EGIN_options_bam  
  2. Kafka: https://docs.intersystems.com/iris20252/csp/docbook/Doc.View.cls?KEY=ITECHREF_kafka 
  3. Adaptadores SQL (CDC para tabelas SQL): https://docs.intersystems.com/iris20252/csp/docbook/Doc.View.cls?KEY=ESQL_intro
  4. Criando produções de ETL/CDC: https://docs.intersystems.com/iris20252/csp/docbook/Doc.View.cls?KEY=PAGE_interop_languages
  5. BPL (low code para processos de negócio): https://docs.intersystems.com/iris20252/csp/docbook/Doc.View.cls?KEY=EBPL_use

 

Discussão (0)1
Entre ou crie uma conta para continuar