Produktrundtur
Produktrundturen ger dig en översikt på hög nivå av Cognite Data Fusion (CDF)-arkitekturen och de viktigaste stegen för att snabba upp din implementering.
Cognite Data Fusion (CDF) är en plattform för kontextualisering och DataOps:
-
Kontextualisering kombinerar maskininlärning, artificiell intelligens och domänkunskap för att mappa resurser från olika källsystem till varandra i din branschkunskapsgraf.
-
DataOps är en uppsättning verktyg och metoder för att hantera din datalivscykel genom samarbete och automatisering.
Arkitektur
Cognite Data Fusion (CDF) körs i molnet och har en modulär design.
Du kan interagera med dina data via dedikerade arbetsområden i CDF webbapplikationen eller med våra API:er och SDK:er.
Följande avsnitt introducerar de huvudsakliga stegen för att implementera CDF och hur de relaterar till de olika CDF-modulerna.
Steg 1: Ställ in datahantering
När du fattar beslut är det viktigt att veta att data är tillförlitliga.
Innan du börjar integrera och kontextualisera data i CDF måste du definiera och implementera dina policyer för datastyrning. Vi rekommenderar att du utser en CDF-administratör som ska arbeta med IT-avdelningen för att säkerställa att CDF följer din organisations säkerhetspraxis. Koppla CDF till din identitetsleverantör (IdP) och använd befintliga användaridentiteter för att hantera åtkomst till CDF-verktyg och data.
För att bygga applikationer ovanpå data i CDF är du beroende av en väldefinierad datamodell för att göra antaganden om strukturen på data. CDF tillhandahåller fördefinierade datamodeller så att du kan bygga en strukturerad, flexibel och kontextualiserad kunskapsgraf.
Steg 2: Integrera data
Med redan fastställda praxis för datastyrning kan du lägga till data från dina IT-, OT- och ET-källor till CDF. Dessa datakällor inkluderar branschkontrollsystem som tillhandahåller sensordata, ERP-system och massiva 3D CAD-modeller i tekniska system.
Extrahera data
Med läsåtkomst till datakällorna kan du ställa in systemintegreringen att strömma data till CDF-mellanlagringsområdet, där de kan normaliserad och berikas. Vi stöder standardprotokoll och gränssnitt som PostgreSQL och OPC-UA för att underlätta dataintegration med dina befintliga ETL-verktyg och datalagerlösningar.
Vi har extraktorer för specifika system och standard-ETL-verktyg som fungerar med det flesta databaser. Med detta tillvägagångssätt kan vi minimera logiken i extraktorerna och köra och köra om transformationen på data i molnet.
Transformera data
Data lagras i sitt ursprungliga format i CDF-mellanlagringsområdet. Du kan köra och köra om transformeringar på data i molnet och omforma dem så att de passar CDF-datamodellen.
Genom att frikoppla extraktions- och transformeringsstegen blir det enklare att underhålla datapipelines och minska belastningen på källsystemen. Vi rekommenderar att du transformerar data med hjälp av befintliga ETL-verktyg. Vi erbjuder även CDFtransformeringsverktyg som alternativ för lättare transformeringsjobb.
Förbättra data
Med de automatiska och interaktiva kontextualiseringsverktygen i CDF kan du kombinera artificiell intelligens, maskininlärning, en kraftfull regelmotor och domänexpertis för att mappa resurser från olika källsystem till varandra i CDF-datamodellen. Börja med att kontextualisera data med artificiell intelligens, maskininlärning och regelmotorer och låt sedan domänexperter validera och finjustera resultaten.
Steg 3: Konsumera data och bygga lösningar
Med fullständiga och kontextualiserade data i din branschkunskapsgraf kan du använda de inbyggda branschverktygen och bygga kraftfulla appar och AI-agenter för att uppfylla dina affärsbehov.
All information som lagras i CDF är tillgänglig via vår REST-baserade API. Cognite tillhandahåller även kontakter och SDK:er för vanliga programmeringsspråk och analysverktyg som Python, JavaScript, Spark, OData (Excel, Power BI) och Grafana. Vi erbjuder även community-SDK:er för Java, Scala, Rust och .Net.
Functions-tjänsten tillhandahåller ett skalbart, säkert och automatiserat sätt att förvara och köra Python-kod.