Hoppa till huvudinnehållet

Produktrundtur

Produktrundturen ger dig en översikt på hög nivå av Cognite Data Fusion (CDF)-arkitekturen och de viktigaste stegen för att snabba upp din implementering.

Cognite Data Fusion (CDF) är en plattform för kontextualisering och DataOps:

  • Kontextualisering kombinerar maskininlärning, artificiell intelligens och domänkunskap för att mappa resurser från olika källsystem till varandra i din branschkunskapsgraf.

  • DataOps är en uppsättning verktyg och metoder för att hantera din datalivscykel genom samarbete och automatisering.

Arkitektur

Cognite Data Fusion (CDF) körs i molnet och har en modulär design.

CDF-arkitekturen

Du kan interagera med dina data via dedikerade arbetsområden i CDFwebbapplikationen eller med våra API:er och SDK:er.

Följande avsnitt introducerar de huvudsakliga stegen för att implementera CDF och hur de relaterar till de olika CDF-modulerna.

Steg 1: Ställ in datahantering

När du fattar beslut är det viktigt att veta att data är tillförlitliga.

Innan du börjar integrera och kontextualisera data i CDF måste du definiera och implementera dina policyer för datastyrning. Vi rekommenderar att du utser en CDF-administratör som ska arbeta med IT-avdelningen för att säkerställa att CDF följer din organisations säkerhetspraxis. Koppla CDF till din identitetsleverantör (IdP) och använd befintliga användaridentiteter för att hantera åtkomst till CDF-verktyg och data.

För att bygga applikationer ovanpå data i CDF är du beroende av en väldefinierad datamodell för att göra antaganden om strukturen på data. CDF har färdiga datamodeller för att bygga en strukturerad, flexibel och kontextuell kunskapsgraf.

Steg 2: Integrera data

Med redan fastställda praxis för datastyrning kan du lägga till data från dina IT-, OT- och **ET-**källor till CDF. Dessa datakällor inkluderar branschkontrollsystem som tillhandahåller sensordata, ERP-system och massiva 3D CAD-modeller i tekniska system.

Extrahera data

Med läsåtkomst till datakällorna kan du ställa in systemintegreringen att strömma data till CDF-mellanlagringsområdet, där de kan normaliseras och berikas. Vi stöder standardprotokoll och gränssnitt som PostgreSQL och OPC-UA för att underlätta dataintegration med dina befintliga ETL-verktyg och datalagerlösningar.

Vi har extraktorer för specifika system och standard-ETL-verktyg som fungerar med det flesta databaser. Med detta tillvägagångssätt kan vi minimera logiken i extraktorerna och köra och köra om transformationen på data i molnet.

Transformera data

Data lagras i sitt ursprungliga format i CDF-mellanlagringsområdet**.** Du kan köra och köra om transformeringar på data i molnet och omforma dem så att de passar CDF-datamodellen.

Genom att frikoppla extraktions- och transformeringsstegen blir det enklare att underhålla datapipelines och minska belastningen på källsystemen. Vi rekommenderar att du transformerar data med hjälp av befintliga ETL-verktyg. Vi erbjuder även CDF-transformeringsverktyget som alternativ för lättare transformeringsjobb.

Förbättra data

Med de automatiska och interaktiva kontextualiseringsverktygen i CDF kan du kombinera artificiell intelligens, maskininlärning, en kraftfull regelmotor och domänexpertis för att mappa resurser från olika källsystem till varandra i CDF-datamodellen. Börja med att kontextualisera data med artificiell intelligens, maskininlärning och regelmotorer och låt sedan domänexperter validera och finjustera resultaten.

Steg 3: Konsumera data och bygga lösningar

Med fullständiga och kontextualiserade data i din branschkunskapsgraf kan du använda de inbyggda branschverktygen och bygga kraftfulla appar och AI-agenter för att uppfylla dina affärsbehov.

All information lagrad i CDF finns tillgänglig genom en modern REST-baserad API. Cognite tillhandahåller även kontakter och SDK:er för vanliga programmeringsspråk och analysverktyg, som Python, JavaScript, Spark, OData (Excel, Power BI) och Grafana. Vi erbjuder även community-SDK:er för Java, Scala, Rust och .Net.

Tjänsten Functions tillhandahåller ett skalbart, säkert och automatiserat sätt att förvara och köra Python-kod.