通用数据可用性
在所有主要数据库、数据仓库和 Hadoop、本地和云中复制、同步、分发、整合和摄取数据。Qlik Replicate 已启用:
- 一家全球保险公司将其每晚批量加载时间从 6-8 小时缩短到 10 分钟以下。
- 一家大型信用服务机构,可在 30 秒内对目标应用 1400 万次源更改。
为分析加速数据集成
使用直观的 GUI 快速轻松地设置数据复制,无需手动编码。
- 简化从数千个来源向大数据平台的大量摄取。
- 根据源元数据自动生成目标模式。
- 通过并行线程有效地处理大数据负载。
- 使用变更数据捕获流程 (CDC) 以更少的开销维护真正的实时分析。
跨所有主要平台集成数据
我们的通用软件支持最广泛的源和目标之一,使您能够在本地以及跨云或混合环境加载、摄取、迁移、分发、整合和同步数据。这些包括:
- 关系型数据库: Oracle、SQL、DB2、MySQL、Sybase、PostgreSQL
- 数据仓库: Azure Synapse、Snowflake、Exadata、Teradata、IBM Netezza、Vertica、Pivotal
- 云平台: AWS、Azure、谷歌云
- 云服务平台: Databricks、Snowflake、Confluent
- 流媒体平台: Apache Kafka、Confluent、Azure Event hubs、AWS Kinesis
- 企业应用程序: SAP、Salesforce
- 大型机: IMS/DB、DB2 z/OS、RMS、VSAM
- 有关连接选项的完整列表,请参阅支持矩阵。
用于变更数据捕获的多功能平台
借助适用于许多数据库系统的低影响实时 CDC,Qlik Replicate 提供了灵活的选项来处理捕获的数据更改:
- 事务性:按照提交到源的顺序应用事务,以确保严格的参照完整性和最低延迟。
- 批量优化:将事务分组以优化摄取和合并到数据仓库以及本地或云中的许多目标。
- 数据仓库优化:使用适用于 Snowflake、Azure Synapse 和其他使用大规模并行处理 (MPP) 的 EDW 的本机性能优化 API 加载。
- 面向消息的数据流:捕获数据更改记录并将其流式传输到 Apache Kafka 等消息代理系统中。
性能和规模
我们的通用软件支持最广泛的源和目标之一,使您能够在本地以及跨云或混合环境加载、摄取、迁移、分发、整合和同步数据。这些包括:
- 高吞吐量和低延迟:在企业或混合环境中高速移动数据以满足实时业务需求。
- 大规模:跨数百个来源和目标复制您的数据。
- 低影响:基于日志的零占用技术最大限度地减少了数据源和目标的性能开销。
- 集中监控:利用单一界面创建数据端点、设计和执行复制任务。通过具有用户定义的警报和 KPI 的单个控制台监控数千个任务。
启用 SAP 分析
Qlik Replicate 经过优化,可实时交付 SAP 应用程序数据以进行大数据分析。使用 Qlik Replicate for SAP,您可以获得:
- 灵活性:将正确的 SAP 应用程序数据移动到任何主要数据库、数据仓库或 Hadoop、本地或云端。
- 轻松访问数据:捕获和转换复杂的 SAP 格式,然后使用专为 SAP 环境构建的直观自动化界面导出数据。
- 实时集成:利用 Qlik Replicate CDC 摄取实时 SAP 数据以在数据湖或其他目标中进行实时分析,并创建实时 Kafka 消息以进行流式分析。
优化云原生环境的数据移动
- 实现完全混合的移动性:在所有主要云平台和云服务提供商之间移动、移入和移出数据。
- 实现高性能:在广域网 (WAN) 上的多条路径中高效地压缩和传输数据。
- 安全数据传输:利用 NSA 批准的高级 (AES-256) 加密。
Qlik 云数据服务 – 混合数据交付
近乎实时地将本地数据移动到 Qlik Cloud ®以获取洞察和分析。
- 无需编写脚本即可自动创建和管理 QVD
- 从 Qlik Cloud 提取命令和控制数据
- 支持所有主要的关系数据源、大型机、SAP 等
探索我们的现代数据集成解决方案。
实时数据流 (CDC)
将企业数据扩展到实时流中,通过简单、实时和通用的解决方案实现现代分析和微服务。
敏捷数据仓库自动化
无需手动编码,即可快速设计、构建、部署和管理专门构建的云数据仓库。
托管数据湖创建
自动化复杂的摄取和转换过程,以提供持续更新和分析就绪的数据湖。
企业数据目录
使用单一的自助服务数据目录在整个企业中启用分析。