#Analytics

0 Seguidores · 51 Postagens

Esta tag está relacionada às discussões sobre o desenvolvimento de soluções de análise e inteligência de negócios, visualização, KPI e gerenciamento de outras métricas de negócios.

Artigo Rodolfo Pscheidt Jr · Abr. 27 5m read

Introdução
O InterSystems IRIS Adaptive Analytics é uma extensão opcional que fornece uma camada de modelo de dados virtual orientada a negócios entre o InterSystems IRIS e as ferramentas de Business Intelligence (BI) e Inteligência Artificial (IA). O Adaptive Analytics é desenvolvido pela AtScale. A documentação da AtScale pode ser encontrada neste link: https://documentation.intersystems.atscale.com

Este artigo irá mostrar algumas funcionalidades do AtScane que podem facilitar a análise de dados::

  1. Criação do cubo
  2. Visualização no Excel
  3. Parallel Period
  4. Queries
  5. Snowflake
  6. Segurança
  7. Aggregates (agregados)

0
0 13
Artigo Evandro Wendt · Abr. 13 3m read

A partir do InterSystems IRIS 2025.1, a forma como os cubos dependentes são tratados em construções (builds) e sincronizações de cubos foi alterada.

Essa mudança pode exigir a modificação de métodos personalizados de construção/sincronização. Se você estiver usando o Gerenciador de Cubos (Cube Manager), essas alterações já foram consideradas e tratadas, o que significa que nenhuma ação é necessária.

Antes dessa mudança, era necessário que os cubos fossem construídos e sincronizados na ordem correta, levando em conta quaisquer relacionamentos ou dependências entre eles. Com essa alteração, os cubos dependentes são atualizados automaticamente conforme necessário ao utilizar as APIs %BuildCube ou %SynchronizeCube.

0
0 10
Artigo Yuri Marx · Nov. 18, 2025 12m read

As arquiteturas de dados modernas utilizam soluções de captura, transformação, movimentação e carregamento de dados em tempo real para construir data lakes, data warehouses analíticos e repositórios de big data. Isso permite a análise de dados de diversas fontes sem impactar as operações que os utilizam. Para alcançar esse objetivo, é essencial estabelecer um fluxo de dados contínuo, escalável, elástico e robusto. O método mais comum para isso é a técnica de CDC (Change Data Capture). O CDC monitora a produção de pequenos conjuntos de dados, captura esses dados automaticamente e os entrega a um ou mais destinatários, incluindo repositórios de dados analíticos. O principal benefício é a eliminação do atraso D+1 na análise, já que os dados são detectados na origem assim que são produzidos e, posteriormente, replicados para o destino.

Este artigo demonstrará as duas fontes de dados mais comuns para cenários de CDC, tanto como origem quanto como destino. Para a origem dos dados, exploraremos o CDC em bancos de dados SQL e arquivos CSV. Para o destino dos dados, utilizaremos um banco de dados colunar (um cenário típico de banco de dados analítico de alto desempenho) e um tópico do Kafka (uma abordagem padrão para transmitir dados para a nuvem e/ou para vários consumidores de dados em tempo real).

Visão Breve

Este artigo fornecerá um exemplo para o seguinte cenário de interoperabilidade:

0
0 73
Artigo Larissa Prussak · Jun. 29, 2025 3m read

Talvez isso já seja bem conhecido, mas quis compartilhar para ajudar.

Considere que você tem as seguintes definições de classes persistentes:

Uma classe Invoice (Fatura) com uma propriedade de referência para Provider (Prestador de serviço):

ClassExtends%PersistentAs

E a classe Provider

Se você chamar o método Build da , poderá consultar isso via SQL:

As

E verá algo como:

O ponto que este artigo discute é: como criar uma dimensão no Provider.

O que eu descobri que funciona bem é seguir esse padrão:

O que isso faz:

0
0 63