Pāriet uz galveno saturu

Produkta ceļvedis

Šis produkta ceļvedis sniedz vispusīgu pārskatu par Cognite Data Fusion (CDF) arhitektūru un galvenajām darbībām ātrākai ieviešanai.

Cognite Data Fusion (CDF) ir platforma, kas paredzēta kontekstualizēšanai un datu operācijām.

  • Kontekstualizēšana apvieno mašīnmācīšanos, mākslīgo intelektu un specializētas zināšanas, lai industriālo zināšanu diagrammā savstarpēji kartētu resursus no dažādām avota sistēmām.

  • Datu operācijas ir rīku un procedūru kopa datu dzīvescikla pārvaldībai, izmantojot sadarbību un automatizāciju.

Arhitektūra

Cognite Data Fusion (CDF) darbojas mākonī, un tai ir modulāra uzbūve.

CDF arhitektūra

Varat mijiedarboties ar saviem datiem, izmantojot atvēlētās darbvietas CDF tīmekļa lietojumprogrammā, vai izmantojot mūsu API un SDK.

Turpmākajās sadaļās ir aprakstīti galvenie CDF ieviešanas posmi un to saistība ar dažādajiem CDF moduļiem.

1. posms. Datu pārvaldības iestatīšana

Pieņemot lēmumus, ir svarīgi zināt, ka dati ir ticami un ka varat tiem uzticēties.

Pirms datu integrēšanas un kontekstualizēšanas platformā CDF ir jādefinē un jāievieš datu pārvaldības politikas. Ieteicams iecelt CDF administratoru, kas sadarbosies ar IT nodaļu, lai nodrošinātu CDF atbilstību jūsu organizācijas drošības pasākumiem. Izveidojiet CDF savienojumu ar jūsu identitātes nodrošinātāju (IdP) un izmantojiet esošās lietotāju identitātes, lai pārvaldītu piekļuvi CDF rīkiem un datiem.

Lai veidotu lietojumprogrammas, izmantojot CDF ietvertos datus, jūs paļaujaties uz labi definētu datu modeli, izdarot pieņēmumus par datu struktūru. CDF ir aprīkota ar datu modeļiem, kas izmantojami strukturētu, elastīgu un kontekstualizētu zināšanu diagrammu izveidei.

2. posms. Datu integrēšana

Ieviesta datu pārvaldības politika ļauj CDF pievienot datus no jūsu IT, OTun ET avotiem. Šādos datu avotos ietilpst rūpnieciskās vadības sistēmas, kas nodrošina sensoru datus, ERP sistēmas un liela mēroga 3D datorizētās projektēšanas modeļi inženiertehniskajās sistēmās.

Datu izvilkšana

Ar lasīšanas piekļuvi datu avotiem var iestatīt sistēmas integrēšanu, lai straumētu datus CDF izstādīšanas apgabalā, kur tos var normalizēt un uzlabot. Mēs atbalstām standarta protokolus un saskarnes, piemēram, PostgreSQL un OPC-UA, lai sekmētu datu integrēšanu jūsu esošajos ETL rīkos un datu noliktavu risinājumos.

Mums ir izvilcēji, kas izgatavoti konkrētām sistēmām, un standarta ETL rīki, kas darbojas ar vairumu datu bāzu. Šī pieeja ļauj mums vienkāršot izvilcēju loģiku, kā arī izpildīt un atkārtoti izpildīt datu transformēšanu mākonī.

Datu transformēšana

CDF izstādīšanas apgabalā dati tiek glabāti to oriģinālajā formātā. Varat izpildīt un atkārtoti izpildīt datu transformēšanu mākonī un pārveidot datus, lai pielāgotu tos CDF datu modelim.

Izvilkšanas posma atdalīšana no transformēšanas posma atvieglo datu kanālu uzturēšanu un samazina avota sistēmu noslodzi. Iesakām datu transformēšanai izmantot visus jūsu rīcībā esošos ETL rīkus. Mēs piedāvājam arī rīku CDF Transformation kā alternatīvu risinājumu efektīvai transformēšanas uzdevumu izpildei.

Datu uzlabošana

Automātiskie un interaktīvie kontekstualizēšanas rīki platformā CDF ļauj izmantot mākslīgā intelekta, mašīnmācīšanās, efektīvas kārtulu programmas un specializēto zināšanu kombināciju, lai savstarpēji kartētu resursus no dažādām avota sistēmām CDF datu modelī. Sāciet ar datu kontekstualizēšanu, izmantojot mākslīgo intelektu, mašīnmācīšanos un kārtulu programmas, un pēc tam ļaujiet nozares ekspertiem validēt un precīzi pielāgot rezultātus.

3. posms. Datu izmantošana un risinājumu izveide

Izmantojot pilnīgus un kontekstualizētus datus savā industriālo zināšanu grafikā, varat izmantot iebūvētos industriālos rīkus un izveidot jaudīgas lietojumprogrammas un mākslīgā intelekta aģentus, lai apmierinātu savas uzņēmējdarbības vajadzības.

Visa platformā CDF glabātā informācija ir pieejama, izmantojot mūsu programmsaskarni (API) uz REST bāzes. Cognite arī nodrošina savienotājus un SDK biežāk lietotajām programmēšanas valodām un analītikas rīkiem, piemēram, Python, JavaScript, Spark, OData (Excel, Power BI) un Grafana. Mēs piedāvājam arī kopienas veidotas izstrādātāja rīkkopas (SDK) programmēšanas valodām Java, Scala, Rust un .Net.

Functions pakalpojums nodrošina mērogojamu, drošu un automatizētu Python koda viesošanas un izpildes veidu.