产品导览
本产品导览提供了有关 Cognite Data Fusion (CDF) 架构的高级概述,以及快速跟踪实施的主要步骤。
Cognite Data Fusion (CDF) 是一个支持上下文化和数据运维的平台:
-
上下文化结合了机器学习、人工智能和域知识,以在你的工业知识图谱中相互映射不同来源系统中的资源。
-
数据运维是通过协作和自动化管理数据生命周期的一组工具和实践。
架构
Cognite Data Fusion (CDF) 在云端运行,采用模块化设计。
你可以通过 CDF网络应用程序中的专用工作区,或者通过我们的 API 和 SDK,与你的数据交互。
下面的部分介绍实施 CDF 的主要步骤以及它们如何关联不同的 CDF 模块。
步骤 1:设置数据管理
在做出决策时,知道数据可靠并且你可以信任数据非常重要。
在 CDF 中集成和上下文化数据之前,你必须定义并实施数据治理政策。我们建议指定一位 CDF 管理员与 IT 部门协作,确保 CDF 遵守贵组织的安全实践。将 CDF 连接到你的身份提供者 (IdP),并使用现有用户身份管理对 CDF 工具和数据的访问。
要依托 CDF 中的数据构建应用程序,你需要依赖明确定义的数据模型作出关于数据结构的假设。CDF 拥有开箱即用的数据模型,以构建结构化、灵活和上下文化的知识图谱。
步骤 2:集成数据
已制定的数据治理政策允许你从 IT、OT 和 ET 来源向 CDF 添加数据。这些数据来源包括供应传感器数据的工业控制系统、ERP 系统和工程系统中的大型 3D CAD 模型。
提取数据
如果拥有数据源的读取权限,你可以设置系统集成以将数据流式传输到 CDF 数据准备区,从中可以对数据进行归一化和扩充。我们支持诸如 PostgreSQL 和 OPC-UA 等标准协议和接口,以便于数据与现有 ETL 工具和数据仓库解决方案集成。
我们有专为特定系统开发的提取器和适用于大多数数据库的标准 ETL 工具。通过这种方法,我们可以最大限度地减少提取器中的逻辑,并在云端运行和重新运行数据转换。
转换数据
在 CDF数据准备区中,使用原始格式存储数据。你可以在云端运行和重新运行数据转换,并重新调整数据以适应 CDF 数据模型。
通过单独执行提取步骤和转换步骤,能够更轻松地维护数据管道,并降低来源系统上的负荷。我们建议使用你现有的 ETL 工具来转换数据。我们也提供了 CDF 转换工具作为轻量级转换任务的备选方案。
增强数据
CDF 中的自动交互式上下文化工具让你能够结合人工智能、机器学习、强大的规则引擎和域专业知识,在 CDF 数据模型中相互映射不同来源系统中的资源。首先利用人工智能、机器学习和规则引擎上下文化你的数据,然后让域专家验证和微调结果。
步骤 3:使用数据并构建解决方案
借助你的工业知识图谱中完整且上下文化的数据,你可以使用内置的工业工具,构建强大的应用程序和 AI 代理以满足业务需求。
CDF 中存储的所有信息可通过我们基于 REST 的 API 获得。Cognite 还提供了连接器和 SDK,用于多种常见编程语言和分析工具,例如 Python、JavaScript、Spark、OData(Excel、Power BI)和 Grafana。我们还提供了用于 Java、Scala、Rust 和 .Net 的社区 SDK。
Functions 服务提供了一种可扩展、安全且自动化的方式来托管和运行 Python 代码。