#Big Data

0 Seguidores · 13 Postagens

Big data é um campo que trata as formas de analisar e extrair informações sistematicamente. Os desafios do Big Data incluem captura de dados, armazenamento de dados, análise de dados, pesquisa, compartilhamento, transferência, visualização, consulta, atualização, privacidade de informações e fonte de dados. 

Saber mais.

Novo
Artigo Heloisa Paiva · Abr. 27 3m read

O que há de novo no InterSystems IRIS e IRIS for Health 2026.1

O InterSystems IRIS 2026.1 já está disponível e repleto de projetados para ajudar as organizações a escalar seu gerenciamento de dados como nunca antes. Quer você esteja lidando com os aspectos operacionais do gerenciamento de conjuntos de dados massivos ou buscando otimizar os custos de armazenamento, esta versão traz uma série de recursos para simplificar a vida com seus dados e enfrentar os crescentes desafios de conjuntos de dados muito grandes.

0
0 14
Artigo Yuri Marx · Nov. 18, 2025 12m read

As arquiteturas de dados modernas utilizam soluções de captura, transformação, movimentação e carregamento de dados em tempo real para construir data lakes, data warehouses analíticos e repositórios de big data. Isso permite a análise de dados de diversas fontes sem impactar as operações que os utilizam. Para alcançar esse objetivo, é essencial estabelecer um fluxo de dados contínuo, escalável, elástico e robusto. O método mais comum para isso é a técnica de CDC (Change Data Capture). O CDC monitora a produção de pequenos conjuntos de dados, captura esses dados automaticamente e os entrega a um ou mais destinatários, incluindo repositórios de dados analíticos. O principal benefício é a eliminação do atraso D+1 na análise, já que os dados são detectados na origem assim que são produzidos e, posteriormente, replicados para o destino.

Este artigo demonstrará as duas fontes de dados mais comuns para cenários de CDC, tanto como origem quanto como destino. Para a origem dos dados, exploraremos o CDC em bancos de dados SQL e arquivos CSV. Para o destino dos dados, utilizaremos um banco de dados colunar (um cenário típico de banco de dados analítico de alto desempenho) e um tópico do Kafka (uma abordagem padrão para transmitir dados para a nuvem e/ou para vários consumidores de dados em tempo real).

Visão Breve

Este artigo fornecerá um exemplo para o seguinte cenário de interoperabilidade:

0
0 70