Post

Mesh Twin Learning: Jak sprawić, by modele ML konkurowały dla ciebie

Koncepcja ta odnosi się do większości powszechnych wyzwań, przed jakimi stoją organizacje w transformacji Industry 4.0, takich jak złożoność, luki w standaryzacji czy też niemożność wyboru korzyści z szerszego zakresu rozwiązania.

Tym razem chcielibyśmy pójść o krok dalej i zanurzyć się w koncepcji MTL z perspektywy wdrożenia - w przeciwieństwie do czysto technicznej - z dwóch powodów. Pierwszym z nich jest zbudowanie lepszego zrozumienia ogólnej koncepcji i przewagi konkurencyjnej, jaką niesie ze sobą takie wdrożenie, ale chcemy również omówić możliwe przypadki zastosowania, które są znacznie bardziej zaawansowane i rozszerzalne poza początkowy pion przemysłu wytwórczego.

Długa historia w skrócie

Rozwiązanie MTL zostało wymyślone przeze mnie i mojego przyjaciela Macieja Mazura - oboje jesteśmy Architektami Rozwiązań, każdy z nich ma swoje własne, różnorodne doświadczenia.

Maciej - nasz główny Data Scientist - ma duże doświadczenie w telekomunikacji, przemyśle i Data Science (niespodzianka!). Zawsze pracował również nad projektami na dużą skalę, w tym nad wieloma nowatorskimi rozwiązaniami napędzanymi przez ogromną ilość danych.

Urodziłem się jednak na nieco innym gruncie, gdzie nowoczesne technologie - zwłaszcza te związane z Cloudem, sieciami i rozwiązaniami o wysokiej wydajności - są wykorzystywane do budowy najnowocześniejszych systemów w przestrzeniach FinTech i eCommerce.

Mamy kilka rzeczy wspólnych, ale dwie są najbardziej istotne dla tej historii:

Oboje lubimy rozwiązywać rzeczywiste problemy przy użyciu najlepszych możliwych technologii - nawet jeśli oznacza to, że musimy przekroczyć obecne granice. Zawsze zastanawiamy się, jak połączyć naszą wiedzę i doświadczenie, aby zaprojektować rozwiązania, które będą w stanie popchnąć świat do przodu.

Mając to na uwadze, jakiś czas temu, podczas porannej kawy, po raz pierwszy zaczęliśmy analizować jeden z najświeższych przypadków, jakie do nas dotarły. Firma produkcyjna chciała prześledzić wszystkie swoje aktywa, procesy i logistykę na liniach magazynowych i produkcyjnych. Na rynku dostępnych było kilka rozwiązań, ale żadne z nich nie było w stanie spełnić wszystkich tych wymagań. Musieliśmy więc zaprojektować coś, co połączy te inne produkty, których brakuje.

Nie trzeba dodawać, że wszystko poszło dobrze (nie byłoby nas tutaj, gdyby nie to!), klient był zadowolony, a rozwiązanie było stabilne. Jednak, o ile służyło to pierwotnemu celowi, to dla nas nie wystarczyło...

Technologie, które mają na celu służyć

Naszą pierwszą myślą było to, że przy dostępnych na rynku nowoczesnych technologiach, które wykorzystujemy w codziennych projektach, musi być sposób, aby wydobyć z nich więcej - nie tylko pod względem skali, nawet jeśli nie myślimy o największych globalnych graczach. W ten sposób stworzyliśmy koncepcję Mesh Twin Learning - którą chcemy opisać krok po kroku.

Zanim jednak przejdziemy do szczegółowego opisu architektury technicznej MTL, ważne jest, aby zacząć od zera - innymi słowy, od fundamentalnej wiedzy na temat technologii, które wykorzystaliśmy, aby uczynić tę koncepcję tak skuteczną, unikalną i wyjątkową.

Tak więc, po pierwsze, przyjrzyjmy się szybko definicjom technologii i pojęciom, których będziemy używać później:

  • Chmura - duża sieć połączonych ze sobą centrów danych, które działają jako jeden ekosystem, zapewniając niezbędne zasoby, moc obliczeniową i usługi do uruchamiania aplikacji lub dostarczania treści użytkownikom końcowym.
  • Edge Computing - Rodzaj architektury systemu, w którym przechowywanie danych i możliwości obliczeniowe są przenoszone do lokalizacji brzegowych. Jest to wspierane przez wyspecjalizowane urządzenia podłączone do globalnej sieci, pozwalające na rozproszone przetwarzanie danych z natychmiastowym dostępem do wyników i bezproblemową komunikację z zasobami chmury.
  • Digital Twins - Zwirtualizowana kopia fizycznego urządzenia, komponentu lub żywej jednostki, która przedstawia swój stan jako szereg parametrów stale monitorowanych i aktualizowanych w czasie. Pozwala to na cyfryzację wszystkiego, od procesów, systemów, miejsc po ludzi. Digital Twins umożliwia zaawansowane symulacje, lepsze monitorowanie i skuteczniejsze podejmowanie decyzji dotyczących stanu systemu rozproszonego.
  • Machine Learning - Koncepcja, która buduje zdolność do automatycznego uczenia się i doskonalenia z doświadczeń do aplikacji. Wykorzystuje dostępne dane, nie będąc wyraźnie zaimplementowanym jako zbiór statycznych zachowań.
  • Data Science - zestaw metod i technik naukowych, mający na celu wydobycie wiedzy z otoczenia, jak również wykorzystanie ustrukturyzowanych i nieustrukturyzowanych danych ze wszystkich dostępnych źródeł, w celu wsparcia wszystkich procesów skoncentrowanych na decyzjach, prognozach lub zarządzaniu przedsiębiorstwem.
  • Mesh - Podejście do budowania, skalowania i działania rozproszonych ekosystemów. Główny nacisk kładzie się na bezpieczeństwo, łączność i niezawodność projektowanej architektury, aby ograniczyć potrzebę pełnego współdzielenia zasobów, zamiast wprowadzać wielofunkcyjne możliwości różnych części systemu.

Teraz, gdy mamy już ustalone te podstawowe definicje, prawdopodobnie myślisz: "co do diabła? Wiedziałem już o tym, więc gdzie ukrywa się Mesh Twin Learning? Oni nie mają nic!"

Cóż, jak zawsze, najlepsze jeszcze przed nami!

Każda z tych technologii przynosi całkiem sporo korzyści sama w sobie i są one zazwyczaj połączone tylko jako oddzielne systemy, które przekazują między sobą meta-dane.

Spróbuj wyobrazić sobie następujący scenariusz: chcesz wprowadzić system zdolny do zbierania wszystkich dostępnych informacji z każdego czujnika wbudowanego w linię produkcyjną opon. Dane te powinny być wykorzystywane i wykorzystywane do monitorowania procesu, np. do ustalania prędkości, alarmowania o problemach itp. Na początku wydaje się to proste, ponieważ możemy pobierać dane z czujników i, poprzez bramki IoT, przenosić je do chmury, gdzie technologia Big Data będzie pracować dla nas, aby wizualizować wszystko, czego potrzebujemy. Na koniec tego wszystkiego, kierownik zostanie poinformowany o postępach w produkcji.

Choć brzmi to świetnie, zazwyczaj mamy do czynienia z dwoma głównymi wyzwaniami:

  • Zazwyczaj fabryka nie posiada stabilnych, wysokowydajnych połączeń sieciowych, które mogłyby obsłużyć ilość danych, które muszą zostać przesłane. Pojedyncza maszyna w fabryce może mieć kilka czujników, z których każdy jest w stanie wytworzyć kilka strumieni danych. Gdybyśmy jednak połączyli wszystkie z nich, moglibyśmy uzyskać od 100 do 200 parametrów na jedno gniazdo produkcyjne. I podczas gdy krótkie linie mogą mieć około 20 gniazd, coś jak linia do montażu samochodów może mieć ponad 80 - to dużo do zrobienia!
  • Elastyczna Automatyzacja. Każdy czujnik, z którego chcemy odczytać, ma swoje własne standardy komunikacji, formatowania danych i wiele innych. Liczba urządzeń IoT wymagana do ich obsługi jest ogromna - i każdy z nich musi być skonfigurowany. Z drugiej strony, mamy również operatorów obserwujących linie produkcyjne i podejmujących działania w oparciu o pojedyncze parametry. Nawet z najlepszymi deskami rozdzielczymi i raportami, zawsze będzie on ograniczony w podejmowaniu decyzji w oparciu o ogromne ilości informacji przekazywanych przez te wszystkie odczyty. W związku z tym jest dość oczywiste, że takie reakcje mogą być wywołane tylko w przypadku najbardziej oczywistych i wyraźnie znanych alarmów, przy czym potencjał prawdziwych usprawnień i eksperymentów przechodzi niezauważony.

Problemy te mają zastosowanie nie tylko do przestrzeni przemysłowych. W rzeczywistości mamy do czynienia z nimi w codziennym życiu - na przykład łączność w samochodach, inteligentny monitoring miejski, logistyka i wiele innych. Przy całej sile systemów Cloud i ogromnych udoskonaleniach w Data Science, musieliśmy odpowiedzieć sobie tylko na jedno pytanie: jak możemy zmusić technologię, aby służyła naszemu celowi bez poświęcania korzyści?

Inteligentna łączność dla lepszej przyszłości

Mesh Twin Learning, jako koncepcja, koncentruje się na dwóch krytycznych wyzwaniach, które wymieniliśmy w poprzednim akapicie: łączności i elastycznej automatyzacji. Przejdźmy od góry do dołu i zobaczmy, jak to rozwiązanie jest zbudowane, a także jak odpowiada na potrzeby współczesnego świata.

Z perspektywy architektury wysokiego poziomu (przedstawionej na rysunku 1 poniżej) możemy wyraźnie wyróżnić trzy główne części rozwiązania, w których realizowane i przetwarzane są ważne wzorce: urządzenia Edge'a, infrastruktura Cloud oraz modele ML. O ile poniższa architektura została przygotowana w oparciu o usługi AWS, o tyle sama koncepcja może być wdrażana w ramach dowolnego z publicznych dostawców chmury, takich jak GCP czy Azure.

Rysunek 1. MTL: architektura wysokiego poziomu

Powyższy schemat przedstawia uproszczone rozwiązanie podłączone do fabrycznych linii produkcyjnych (pomocne w rozwiązaniu wyzwania wizualizacji, o którym mówiliśmy już wcześniej). W celu wyjaśnienia kilku dodatkowych szczegółów:

  • Gniazda produkcyjne w każdej fabryce są zintegrowane z dedykowanymi urządzeniami brzegowymi - są one zgodne ze standardami Industrial Internet of Things (IIoT) Każde urządzenie pracuje z kilkoma danymi i usługami związanymi z ML, wszystkie pod nadzorem systemu operacyjnego czasu rzeczywistego
  • Dane zebrane z tych maszyn są przekazywane do chmury za pomocą usług zarządzanych i bezpiecznych protokołów (certyfikaty, połączenia VPN itp.): Wirtualizacja stanu maszyn (wszystkich parametrów) poprzez farmę Digital Twins (Device Shadows Farm)
  • Karmienie silnika analitycznego, który jest właściwie jeziorem danych dla silnika uczenia się maszyn. Wszystko jest połączone w taki sposób, że informacje są przekazywane tam i z powrotem w czasie zbliżonym do rzeczywistego, łącznie z usługami aktualizacji i modelami wdrożonymi na urządzeniach peryferyjnych - wszystko za pośrednictwem aktualizacji w powietrzu. Do infrastruktury Cloud możemy podłączyć dowolną liczbę urządzeń peryferyjnych i digitalizować nieograniczoną liczbę procesów i urządzeń fizycznych.

Na pierwszy rzut oka wydaje się, że nie różni się zbytnio od rozwiązań dostępnych na rynku. Przekopmy się trochę więcej i spróbujmy zrozumieć korzyści płynące z projektu Mesh Twin Learning, a także to, gdzie ukryte są wszystkie kluczowe atuty (jak również różnice w stosunku do innych).

Siatki, siatki Wszędzie

Jak już Państwo wiedzą z poprzedniej definicji, możemy nazywać coś siatką, gdy mamy do czynienia z rzeczami, które dobrze ze sobą współpracują. Jeśli rozszerzymy tę koncepcję na kierunek siatek usługowych, gdzie zbudujemy dedykowaną warstwę, która umożliwi bezpieczną, szybką i niezawodną komunikację pomiędzy różnymi usługami lub urządzeniami, będziemy w stanie sprostać większości wyzwań wynikających z urządzeń automatycznych i skrajnej przestrzeni obliczeniowej.

Rysunek 2. MTL - architektura urządzeń brzegowych

Zazwyczaj maszyny, z którymi mamy do czynienia w trakcie procesu automatyzacji mają różny wiek i standardy, co natychmiast podnosi złożoność ostatecznego rozwiązania. Jednocześnie, w ramach dużego zakładu produkcyjnego, mówimy o setkach różnych interfejsów, z których musimy pobierać dane, wszystkie w bezpieczny i niezawodny sposób. Jest to obszar, w którym wspólne rozwiązania zaczynają ujawniać swoje pierwsze ograniczenia, nawet podczas projektów pilotażowych, ponieważ albo tracą one dane podczas transmisji, albo dokonują transferów w sposób nieoptymalny (powolny), albo - co najgorsze - naruszają standardy bezpieczeństwa.

Po drugie, musimy pamiętać, że cała odpowiedzialność za przetwarzanie danych (które dostarczane są w różnych formatach) jest zrzucana na infrastrukturę Cloud, co podnosi koszty operacyjne (czas, wydajność, rozliczenia itp.).

Są to główne powody, dla których zdecydowaliśmy się zaprojektować specjalistyczne mini-PC (z ważną certyfikacją branżową), które pozwolą na to:

  • Tworzenie podłączonych urządzeń - Dzięki temu jesteśmy gotowi na każdy rodzaj integracji. Te urządzenia brzegowe są zgodne z IIoT, pracują w wyspecjalizowanym środowisku, pozwalają na wprowadzenie warstwy abstrakcyjnej i są odporne na działanie odpowiednich norm maszynowych. Są one przygotowane do korzystania z wszelkiego rodzaju źródeł danych i radzenia sobie z nimi lokalnie i na skalę. Zebrane tu dane wykorzystywane są na trzy sposoby:
  • W procesie wsadowym - stany zagregowane (informacje surowe) są kompresowane i szyfrowane, w celu przeniesienia ich do infrastruktury chmury poprzez skonfigurowaną bramkę urządzenia. Partie są wysyłane raz na 2-5 sekund, co ogranicza wykorzystanie sieci.
  • Poprzez wirtualizację urządzeń - każde urządzenie brzegowe tworzy lokalny cyfrowy bliźniak monitorowanej maszyny, dzięki czemu może szybko przedstawić aktualny stan i podjąć pożądane działania lub symulacje, bez konieczności wywoływania usług w chmurze. Do chmury wysyłane są tylko metadane dotyczące zdigitalizowanych zasobów, co w rezultacie ogranicza wielkość wysyłanych danych.
  • Poprzez modele świetlne ML - każda zmiana stanu lub zdarzenie zauważone na monitorowanym urządzeniu fizycznym jest interpretowane przez lekki, przeszkolony model uczenia się maszyn i może powodować bezpośrednią reakcję, np. dostosowanie parametrów produkcji. Modele lokalne to lekkie reprezentacje, które są pod stałym nadzorem głównego modelu, który jest wdrażany w infrastrukturze Cloud.
  • Wykorzystanie środowiska czasu rzeczywistego - jest ono dostosowane do specyficznej konfiguracji maszyny, na której pracuje, co pozwala na natychmiastową reakcję na zmiany parametrów, zdarzenia i wszelkie problemy, które mogą się pojawić. Dodatkowo, systemy operacyjne czasu rzeczywistego (RTOS) pozwalają na wdrożenie natywnych usług w chmurze w środowisku lokalnym, z dodatkowymi poziomami zarządzania i bezpieczeństwa, co sprawia, że całe rozwiązanie jest solidniejsze i łatwiejsze w utrzymaniu w dłuższej perspektywie.
  • Bezpieczna komunikacja - Konfiguracja ta, oparta na usługach natywnych i zbudowana w oparciu o RTOS, z dodatkowymi usługami zarządzania, pozwala na ustawienie wielu poziomów bezpieczeństwa, począwszy od szyfrowania danych na urządzeniach lokalnych, bezpiecznej transmisji przez wirtualne sieci prywatne (VPN), a skończywszy na sieciach zabezpieczonych, z rotacją kluczy i certyfikatów. W rozwiązaniu MTL nie wysyłamy surowych danych, lecz stany zagregowane lub metainformację, która ma znaczenie tylko na urządzeniu końcowym lub w chmurze. Dodatkowo, samo urządzenie brzegowe może być traktowane jako zabezpieczenie programowe podłączonych maszyn, ponieważ nie wystawia fizycznych interfejsów urządzeń bezpośrednio na działanie Internetu.
  • Wymiana konfiguracji - Każde pojedyncze urządzenie "edge device" o konfiguracji zoptymalizowanej dla danego typu urządzenia fizycznego może być łatwo przeniesione do chmury i propagowane do innych podobnych urządzeń lub nowo podłączonych obiektów, co zaczyna wprowadzać pojęcie ekonomii skali.

Po połączeniu wszystkich powyższych rozwiązań w jedno rozwiązanie, szybko staje się oczywiste, że Mesh Twin Learning oferuje kilka opcji, które do tej pory nie były rozważane na rynku.

Dzięki temu rozwiązaniu zaczynamy być odporni na standardy i konfiguracje urządzeń końcowych, ponieważ mamy pełną kontrolę nad integracją, w tym nad sposobem odbioru danych. Lokalnie wdrażane środowiska, z własnymi możliwościami obliczeniowymi (krawędzie), oferują samowystarczalne systemy, które nie tylko radzą sobie z przychodzącymi danymi, ale również goszczą rozwiązania Machine Learning i cyfrowe widoki na monitorowane komponenty. Daje nam to dwie główne korzyści: model ML jest stale zasilany informacjami, co pozwala na podejmowanie natychmiastowych działań w zmieniających się warunkach, a my nie przesyłamy ogromnych ilości danych przez sieć.

Najważniejszą częścią tego podejścia jest jednak ekonomia skali. Krawędzie są podobne pod względem architektury i mogą przejąć konfigurację z innych krawędzi, co oznacza, że za każdym razem, gdy podłączamy do systemu nową maszynę, staje się ona niemalże natychmiastowo skonfigurowana do aktualnego optymalnego stanu całej sieci.

Możemy łączyć nie tylko maszyny znajdujące się na tej samej linii produkcyjnej lub w tym samym budynku, ponieważ możemy również rozpocząć podłączanie urządzeń znajdujących się w różnych obiektach. Na każdym poziomie tworzymy siatkę urządzeń brzegowych, które są w stałej współpracy i wymianie informacji, co prowadzi do najbardziej unikalnej części MTL - konkurencji i optymalizacji.

Niekończąca się rywalizacja

Jak wspomniano w poprzednim rozdziale, każde urządzenie krawędziowe robi w zasadzie dwie rzeczy. Udostępniają one lekkie modele nauczania maszynowego i przekazują istotne dane do chmury za pomocą bezpiecznych protokołów. Spójrzmy więc na architekturę Cloud:

Rysunek 3. MTL - Architektura chmury

Mamy tu kilka obszarów, o których warto wspomnieć. Po pierwsze jest to obszar Device Management, który jest bezpośrednio połączony z Device Shadows Farm. Głównym celem tego systemu backendowego jest monitorowanie zmian stanu zwirtualizowanych krawędzi i reagowanie na zdarzenia. Zdarzenia powodujące zmiany mogą pochodzić z dwóch różnych źródeł:

  • IoT Rules Engine - w zależności od aktualnego stanu maszyny, możemy skonfigurować alerty i różne zachowania, które mogą być natychmiast przekazywane do urządzenia krawędziowego, a następnie bezpośrednio do fizycznej maszyny. Daje to scentralizowany punkt kontroli dla kierowników produkcji i operatorów z inteligentnym i adaptacyjnym silnikiem regulacji. Operator może na przykład zdalnie przekazać polecenie podwyższenia temperatury w gnieździe, ponieważ temperatura w fabryce spadła i ma to negatywny wpływ na jakość produkowanych komponentów. C
  • entral Machine Learning engine - podstawowa część Mesh Twin Learning. Jest to centralne miejsce, w którym główne modele ML są stale zasilane danymi w czasie zbliżonym do rzeczywistego i tworzą prognozy dotyczące procesów optymalizacji. Nowe modele produkowane dla części procesu są budowane i przekazywane do urządzeń brzegowych jako lekkie, gotowe do wykonywania działań na miejscu.

Teraz mogą się Państwo zastanawiać, skąd bierze się przewaga konkurencyjna i skalowalność MTL? Cóż, wyobraźcie sobie, że każdy lokalny model, jak i cyfrowe bliźniaki, stale aktualizują rdzeń ML o swoje ustalenia, parametry i działania. Wyniki tych działań (mówimy tu o wielu krawędziach i modelach, żeby było jasne) są porównywane ze sobą i replikowane w obszarze Digital Twin Simulator. Zwycięzca takiego konkursu - model, który zawiera najbardziej optymalne parametry dla podprocesów lub etapów produkcji - jest owijany i rozprowadzany na wszystkich urządzeniach krawędziowych. Jest to proces ciągły, więc w gruncie rzeczy oznacza, że otrzymujemy ciągłe aktualizacje, a najbardziej efektywne ustawienia są dystrybuowane na całym świecie.

Ale co to oznacza, gdy wprowadzamy to w życie? Oznacza to, że możemy wykonywać mikrooptymalizacje na skalę, w sposób w pełni zautomatyzowany. Na poziomie fabrycznym, aby lepiej to zrozumieć, wróćmy do przykładu zakładu produkcji opon.

Dla uproszczenia, zróbmy krótki cykl produkcyjny, w którym musimy podgrzać i wulkanizować gumę, uformować ją w oponę i schłodzić do kontroli na bramce jakości. Nasz dostawca dostarcza nowy rodzaj gumy do produkcji, a nasze urządzenia krawędziowe szybko wyłapują na bramce kontroli jakości, że po pełnym cyklu produkcyjnym nowa opona nie jest wystarczająco elastyczna, więc prawdopodobnie na początku musimy zastosować wyższą temperaturę. Informacja ta jest przekazywana do centralnego silnika ML, gdzie przeprowadzane są symulacje, a ostatecznie urządzenie krawędziowe odpowiedzialne za piec podnosi temperaturę o kilka stopni.

W tym samym czasie i na innej linii produkcyjnej - lub nawet w innym zakładzie - mamy już informację, że dzięki tej nowej gumie możemy spodziewać się mniej elastycznej opony, więc model ML dodatkowo zwiększa parametr ciśnienia.

Po następnym cyklu oba modele są porównywane pod względem wyników i odkrywamy, że oba te czynniki mają pozytywny wpływ na produkt końcowy. Wszystkie krawędzie są natychmiast aktualizowane o najnowszą konfigurację, a także o nowe lekkie modele ML, które od początku rozpoczynają cały proces optymalizacji.

W gruncie rzeczy łączymy doświadczenia z wielu źródeł, na całym świecie i w sposób zautomatyzowany. Dzięki temu jesteśmy w stanie podejmować decyzje w mikroskali, z wynikami, które zwiększają jakość, prędkość lub bezpieczeństwo w skali makro, a wszystko to bez długiego procesu pełnego czasochłonnych iteracji.

Podsumowanie

Miejmy nadzieję, że teraz powinieneś zrozumieć Mesh Twin Learning i to, jak pochodzi z połączenia wielu technologii, najbardziej godnych uwagi Digital Twins, Cloud with a Service Mesh, oraz Machine Learning. Jest on zaprojektowany w sposób, który pozwala na naukę siatki, co w gruncie rzeczy oznacza, że wszystkie fizyczne urządzenia i krawędzie są z nimi połączone, umożliwiając im wymianę doświadczeń (konfiguracji) i wpływanie na optymalne parametry, zwiększając ogólną jakość operacyjną wszystkich nadzorowanych procesów.

Ta ciągła rywalizacja pomiędzy modelami ML zapewnia, że zawsze otrzymujemy najlepsze możliwe ustawienia, a zmiany i aktualizacje są rozprowadzane globalnie - w krótkim czasie - do każdego skonfigurowanego urządzenia. Po wprowadzeniu MTL każdy nowy obiekt, który zostanie podłączony do sieci, natychmiast otrzyma najbardziej efektywne i sprawdzone ustawienia z szerszej sieci, co skraca czas rozpoczęcia działalności.

Co więcej, warto pamiętać, że cała koncepcja została przygotowana w taki sposób, aby sprostać najbardziej wymagającym aspektom IoT, Cloud i Machine Learning, którymi są wielkość danych, łączność, bezpieczeństwo i efektywność operacji. Połączone razem w odpowiedni sposób, udało nam się harmonijnie uzyskać to, co najlepsze z nich wszystkich, uwalniając po drodze kilka nowych zalet!

Perspektywa biznesowa

Mesh Twin Learning (MTL) to wysoce efektywny sposób na tworzenie obiektów do ciągłego doskonalenia. Niezależnie od tego, czy chcesz usprawnić kilka linii produkcyjnych, czy też całą globalną sieć zakładów, MTL umożliwia każdej linii konkurowanie z resztą, a wewnętrzne wyniki są dzielone w ciągłym cyklu doskonalenia, który wykonuje każdą czynność manualną.

Komentarze (0)

Zostaw komentarz