Produktrundtur
Produktrundturen ger dig en översikt på hög nivå av Cognite Data Fusion (CDF)-arkitekturen och de viktigaste stegen för att snabba upp din implementering.
Cognite Data Fusion (CDF) är en plattform för kontextualisering och DataOps:
-
Kontextualisering kombinerar maskininlärning, artificiell intelligens och domänkunskap för att mappa resurser från olika källsystem till varandra i din branschkunskapsgraf.
-
DataOps är en uppsättning verktyg och metoder för att hantera din datalivscykel genom samarbete och automatisering.
Arkitektur
Cognite Data Fusion (CDF) körs i molnet och har en modulär design.
Du kan interagera med dina data via dedikerade arbetsområden i CDFwebbapplikationen eller med våra API:er och SDK:er.
Följande avsnitt introducerar de huvudsakliga stegen för att implementera CDF och hur de relaterar till de olika CDF-modulerna.
Steg 1: Ställ in datahantering
När du fattar beslut är det viktigt att veta att data är tillförlitliga.
Innan du börjar integrera och kontextualisera data i CDF måste du definiera och implementera dina policyer för datastyrning. Vi rekommenderar att du utser en CDF-administratör som ska arbeta med IT-avdelningen för att säkerställa att CDF följer din organisations säkerhetspraxis. Koppla CDF till din identitetsleverantör (IdP) och använd befintliga användaridentiteter för att hantera åtkomst till CDF-verktyg och data.
För att bygga applikationer ovanpå data i CDF är du beroende av en väldefinierad datamodell för att göra antaganden om strukturen på data. CDF har färdiga datamodeller för att bygga en strukturerad, flexibel och kontextuell kunskapsgraf.
Steg 2: Integrera data
Med redan fastställda praxis för datastyrning kan du lägga till data från dina IT-, OT- och **ET-**källor till CDF. Dessa datakällor inkluderar branschkontrollsystem som tillhandahåller sensordata, ERP-system och massiva 3D CAD-modeller i tekniska system.
Extrahera data
Med läsåtkomst till datakällorna kan du ställa in systemintegreringen att strömma data till CDF-mellanlagringsområdet, där de kan normaliseras och berikas. Vi stöder standardprotokoll och gränssnitt som PostgreSQL och OPC-UA för att underlätta dataintegration med dina befintliga ETL-verktyg och datalagerlösningar.
Vi har extraktorer för specifika system och standard-ETL-verktyg som fungerar med det flesta databaser. Med detta tillvägagångssätt kan vi minimera logiken i extraktorerna och köra och köra om transformationen på data i molnet.
Transformera data
Data lagras i sitt ursprungliga format i CDF-mellanlagringsområdet**.** Du kan köra och köra om transformeringar på data i molnet och omforma dem så att de passar CDF-datamodellen.
Genom att frikoppla extraktions- och transformeringsstegen blir det enklare att underhålla datapipelines och minska belastningen på källsystemen. Vi rekommenderar att du transformerar data med hjälp av befintliga ETL-verktyg. Vi erbjuder även CDF-transformeringsverktyget som alternativ för lättare transformeringsjobb.
Förbättra data
Med de automatiska och interaktiva kontextualiseringsverktygen i CDF kan du kombinera artificiell intelligens, maskininlärning, en kraftfull regelmotor och domänexpertis för att mappa resurser från olika källsystem till varandra i CDF-datamodellen. Börja med att kontextualisera data med artificiell intelligens, maskininlärning och regelmotorer och låt sedan domänexperter validera och finjustera resultaten.
Steg 3: Konsumera data och bygga lösningar
Med fullständiga och kontextualiserade data i din branschkunskapsgraf kan du använda de inbyggda branschverktygen och bygga kraftfulla appar och AI-agenter för att uppfylla dina affärsbehov.
All information lagrad i CDF finns tillgänglig genom en modern REST-baserad API. Cognite tillhandahåller även kontakter och SDK:er för vanliga programmeringsspråk och analysverktyg, som Python, JavaScript, Spark, OData (Excel, Power BI) och Grafana. Vi erbjuder även community-SDK:er för Java, Scala, Rust och .Net.
Tjänsten Functions tillhandahåller ett skalbart, säkert och automatiserat sätt att förvara och köra Python-kod.