AI w przemyśle – na co zwrócić uwagę przed wdrożeniem sztucznej inteligencji?

Ostatnia aktualizacja:

Arkadiusz W.

Transkrypcja odcinka podcastu LUQAM. Odsłuchaj treść odcinka tutaj:

AI w produkcji – rewolucja, która dzieje się tu i teraz

Zaczynamy z grubej rury – od tematu, który dziś jest absolutnie wszędzie, czyli AI, sztucznej inteligencji. Mam momentami wrażenie, że ten obszar rozwija się tak szybko, że istnieje ryzyko, iż to, co powiemy dzisiaj, za tydzień będzie już nieaktualne, bo jakaś firma zaprezentuje rozwiązanie, które znowu „zrewolucjonizuje rynek”. Dlatego chcemy się skupić na bardzo konkretnym obszarze – wdrażaniu AI w firmach produkcyjnych.

To bardzo trafna obserwacja. Często mówi się dziś, że rozwój technologii jest znacznie szybszy niż ewolucja człowieka. My, jako ludzie i jako organizacje, zwyczajnie nie nadążamy z myśleniem, jak efektywnie wykorzystywać technologie, które pojawiają się na rynku.

Z drugiej strony możemy podejść do tego tematu spokojnie i świadomie – obserwować rzeczywistość i wdrażać rozwiązania w sposób mądry, etapowy, bez paniki.

Jedno jest jednak pewne – skala tej rewolucji jest tak duża, że jeśli chcemy „wsiąść do tego pociągu”, to nie możemy nie podejmować żadnych ruchów.

Dokładnie. Nie unikniemy tej rzeczywistości. Jeśli będziemy ją wypierać zamiast wykorzystywać do automatyzacji procesów produkcyjnych, analizy danych czy pracy z dokumentami – na każdym poziomie organizacji – po prostu zostaniemy w tyle.

Czy każda firma produkcyjna powinna inwestować w AI?

Czy Twoim zdaniem każda firma powinna już dziś inwestować w AI? A może mniejsze organizacje powinny poczekać, aż duże przedsiębiorstwa „przetestują rynek” i powstaną standardowe rozwiązania?

Moim zdaniem każda firma może zacząć inwestować w AI, niezależnie od wielkości. Kluczowy jest jednak sposób myślenia. Jednym z najczęstszych błędów jest przekonanie, że pierwszy projekt musi być ambitny, przełomowy i kompleksowy.

Tymczasem bardzo często wystarczy skorzystać z dostępnych rozwiązań typu open source lub narzędzi „z półki” i poeksperymentować.

Najważniejsze nie jest samo narzędzie, tylko kompetencje zespołu – umiejętność jasnego zdefiniowania problemu biznesowego, który chcemy usprawnić za pomocą AI. I to może być zarówno drobny proces, jak i większy obszar organizacji.

Zawsze sprowadza się to do pytania: czy wdrożenie inteligentnego rozwiązania (np. agenta wspierającego operatora lub analityka) przyniesie realną oszczędność czasu, poprawę jakości pracy albo redukcję kosztów?

Nie każda firma potrzebuje od razu własnego, dedykowanego systemu – czasem wystarczy rozwiązanie abonamentowe, a czasem konieczne są kompetencje programistyczne wewnątrz organizacji.

Czy takie gotowe rozwiązania są już dostępne, czy to dopiero przyszłość?

Są dostępne już dziś. Wystarczy spojrzeć na pakiet Microsoft 365, który oferuje szerokie możliwości automatyzacji procesów – od przetwarzania dokumentów, przez systemy notyfikacji, po logiczne podejmowanie decyzji w oparciu o dane.

Jeśli firma korzysta z rozwiązań chmurowych, ma te narzędzia praktycznie „pod ręką”.

Oczywiście pojawia się tu temat udostępniania danych, bo mówimy o rozwiązaniach działających poza własną infrastrukturą. To zawsze wymaga świadomej decyzji.

Wspomniałeś o definiowaniu celu. Czy firmy potrafią to robić samodzielnie, czy raczej potrzebują wsparcia z zewnątrz?

Bardzo często spotykam się z tzw. „magicznym myśleniem o AI” – kupimy rozwiązanie i ono zrobi wszystko za nas. To tak nie działa.

Dla mnie wdrażanie AI to projekt R&D: zaczynamy od małego problemu, budujemy proof of concept, testujemy i dopiero wtedy myślimy o skalowaniu.

Kluczowe jest zaangażowanie wewnętrznego zespołu produkcyjnego. To pracownicy najlepiej wiedzą, gdzie są realne problemy i gdzie AI może pomóc. Bez ich udziału nawet najlepsze wdrożenie technologiczne może się nie udać.

Czyli budowanie świadomości zespołu jest niezbędne.

Tak. I to pomaga też przełamać barierę psychologiczną – AI nie ma zastąpić człowieka, tylko zwiększyć efektywność jego pracy.

Jakie obszary w produkcji są dziś najlepszym polem do testowania AI?

Trudno odpowiedzieć na to pytanie. Jak kiedykolwiek podnosi się ten wątek, to przywoływane są czasy rewolucji przemysłowej, no nie? Kiedy pojawiła się para, kiedy pojawiła się elektryczność. Jakby jedne zawody zniknęły, inne się pojawiły. To jest kwestia jakby naszej wyobraźni, w co my chcemy się i jak zaangażować.

AI w produkcji – od czego zacząć i gdzie szukać realnej wartości?

Skoro już weszliśmy w temat przemysłu, to chciałbym, żebyśmy skupili się na rozwiązaniach AI, które mają dziś największe zastosowanie w produkcji. Jak myślisz – co dla firmy produkcyjnej jest najciekawszym obszarem do eksploracji albo przetestowania?

Moim zdaniem najciekawszym, a jednocześnie najbezpieczniejszym obszarem do rozpoczęcia pracy z AI, jest diagnostyka oraz analiza przyczyn zdarzeń zachodzących na stanowiskach pracy. Mówimy tu o identyfikacji przyczyn awarii, analizie degradacji maszyn w czasie czy wykrywaniu anomalii w pracy urządzeń.

To obszar, który stosunkowo łatwo opomiarować i w którym możemy systematycznie zbierać dane. A dane – co warto jasno powiedzieć – są absolutnym fundamentem rozwiązań opartych o sztuczną inteligencję. Jeśli wiemy, jakie dane posiadamy, jaka jest ich jakość, kompletność i historia, możemy w sposób bezpieczny przewidywać, że wdrożone rozwiązanie AI faktycznie zadziała.

W tym przypadku operujemy danymi, które sami wytwarzamy w organizacji. To odróżnia ten obszar od np. predykcji sprzedaży czy skalowania biznesu, gdzie jesteśmy silnie uzależnieni od czynników zewnętrznych. W produkcji mamy znacznie większą kontrolę nad danymi, co czyni ten obszar idealnym do pierwszych eksperymentów z AI.

Czyli jeśli mamy dane ze sterowników nowoczesnych maszyn, które już są wyposażone w systemy zbierania informacji, możemy je wykorzystać. A jeśli nie – musimy sięgnąć po inne rozwiązania, na przykład zewnętrzne sensory?

Dokładnie tak. Na rynku dostępnych jest dziś wiele gotowych rozwiązań i systemów akwizycji danych. Możemy podpiąć się bezpośrednio do maszyn albo zastosować niezależne sensory, które będą zbierały dane w czasie rzeczywistym.

To znowu jest bezpieczne pole do eksperymentowania, bo korzystamy z gotowych produktów „z półki”. Monitorujemy park maszynowy, analizujemy zachowanie stanowisk pracy i – co kluczowe – mamy pewność co do źródła i jakości danych. Dzięki temu, korelując różne typy pomiarów, możemy przejść od prostego monitorowania do predykcji zdarzeń, takich jak awarie czy spadki wydajności.

Czyli mówimy o wykorzystaniu AI zarówno do monitorowania statusów maszyn, jak i do przewidywania awarii? To są te najbardziej oczywiste scenariusze zastosowania?

Tak, to zdecydowanie jedne z pierwszych obszarów, które przychodzą do głowy. Ale warto spojrzeć szerzej. Przykładem mogą być również systemy klasy MES, w których sztuczna inteligencja wspiera takie procesy jak zliczanie produktów. Dzięki wykorzystaniu kamer i algorytmów AI możliwe jest automatyczne rozpoznawanie obiektów, identyfikacja defektów, a w przypadku odpowiednich produktów – także wizualna kontrola jakości.

Bo same systemy wizyjne w produkcji funkcjonują przecież od lat. Kamery nie są niczym nowym i od dawna wspierają procesy kontroli.

Dokładnie. Nowością nie są kamery, tylko sposób ich wykorzystania. To, co realnie się zmieniło, to zastosowanie modeli sztucznej inteligencji, które potrafią znacznie więcej niż klasyczne algorytmy wizyjne. Dziś modele AI są w stanie analizować jeden obraz i jednocześnie kategoryzować różne typy obiektów.

To otwiera bardzo praktyczne zastosowania, chociażby w kontekście klasteryzacji danych czy zliczania poszczególnych typów produktów. Jeśli na jednej taśmie produkcyjnej równolegle powstają różne warianty wyrobów, system może je automatycznie rozróżniać. W efekcie mówimy już nie tylko o samej kontroli, ale o realnym wsparciu wyliczania wskaźników produktywności i efektywności procesu.

Natomiast jeśli chodzi stricte o kontrolę jakości, trudno podać jedną uniwersalną odpowiedź. Wszystko zależy od konkretnego przypadku – od tego, jaką cechę jakości chcemy wykrywać, czy jest ona możliwa do uchwycenia wizualnie oraz czy pozwala na to rozdzielczość kamery i możliwości zastosowanego modelu AI.

Myśląc o wdrażaniu AI w produkcji – postrzegasz to bardziej jako projekt czasowy, testowy, czy jako nieodłączny element przyszłego parku maszynowego?

Zdecydowanie jako bezpieczne pole do eksperymentowania. Nie musimy od razu podejmować decyzji o skalowaniu rozwiązania na całą organizację. Możemy zbudować proof of concept na jednym, dwóch czy trzech stanowiskach tego samego typu.

Nie ma czegoś takiego jak rozwiązanie AI działające w 100% przypadków w każdym kontekście. Wszystko zależy od konkretnego use case’u i oczekiwań biznesowych. W jednym przypadku wystarczająca będzie skuteczność na poziomie 90%, w innym będziemy oczekiwać 99%. Dlatego testowanie i weryfikacja mają tu kluczowe znaczenie.

Czyli kluczowe jest podejście typu proof of concept – po to, żeby na bieżąco sprawdzić, co realnie nam to daje i czy w ogóle jest to rozwiązanie dopasowane do naszej organizacji. Bardziej chodzi o test niż o budowę od razu kompletnego systemu, który integruje się ze wszystkimi innymi narzędziami i spełnia wysokie wymagania już na starcie.

Dokładnie tak, bo musimy mieć świadomość kosztów, jakie generuje zarówno proof of concept, jak i pełne wdrożenie. Największym kosztem w tego typu projektach jest czas programistów. Jeśli zgadzamy się na to, że proof of concept ma nam przede wszystkim koncepcyjnie i analitycznie zweryfikować dane rozwiązanie – na przykład sprawdzić, czy jesteśmy w stanie sensownie odpytywać nasze wewnętrzne bazy danych – to tych kosztów nie unikniemy.

Do tego dochodzi infrastruktura, na której będziemy wykonywać inferencję modelu. Czy korzystamy z gotowego modelu, jak w przypadku modeli językowych, czy musimy trenować własny – to już zależy od konkretnego use case’u i od tego, jaką architekturę wybierzemy. To jest osobny, szeroki temat.

Warto też pamiętać, że proof of concept wcale nie musi być rozwiązaniem online’owym. Jeśli od razu chcielibyśmy dostarczać produkt w formie aplikacji webowej – nawet wewnętrznej – to automatycznie generujemy dodatkowe koszty, które na początku nie zawsze są potrzebne. Interfejs użytkownika to tylko warstwa prezentacyjna. Jeżeli zaakceptujemy, że na etapie eksperymentowania pracujemy na niższym poziomie oprogramowania, bez dopracowanej warstwy wizualnej, to jest to znacznie bezpieczniejsze i tańsze pole do testów.

Czyli na samym początku absolutnie kluczowe jest to, żeby cel był jasno określony.

Zawsze musi być jasno określony cel. Nie da się podejść do tego na zasadzie: „chodź, poeksperymentujemy z AI”. Trzeba wiedzieć, jaki problem chcemy rozwiązać. Oczywiście ważna jest otwartość na testowanie, ale to powinno się zacząć nawet wcześniej – od rozmowy wewnątrz organizacji, z własnym zespołem.

Warto porozmawiać o realnych problemach i wyzwaniach, które dziś występują w pracy operacyjnej, i zastanowić się, co faktycznie mogłoby zostać usprawnione dzięki sztucznej inteligencji. Świadomość AI jest dziś znacznie większa niż jeszcze kilka lat temu. Zespoły nie są „zielone” – wiele osób korzysta na co dzień z ogólnodostępnych narzędzi, takich jak ChatGPT, na poziomie co najmniej średniozaawansowanym.

Ta świadomość możliwości usprawnienia pracy dzięki AI już funkcjonuje w organizacjach. I właśnie dlatego bardzo często wartościowe pomysły można wyciągnąć bezpośrednio od własnego zespołu – zderzając różne perspektywy i zbierając pomysły z różnych obszarów firmy.

Wspomnieliśmy wcześniej o wykrywaniu awarii z pomocą AI. Na początku możemy mierzyć dokładny czas wystąpienia awarii – od momentu jej pojawienia się do zakończenia. Później można iść w stronę predykcji, by zapobiegać awariom. Pojawia się pytanie, czy system może działać całkowicie autonomicznie, czy potrzebujemy operatora, który wskaże moment awarii i będzie wsparciem dla AI w początkowej fazie.

To duży temat. Jeśli myślimy o pełnej autonomii, musimy być absolutnie pewni rozwiązania – i to już nie są tanie projekty. Jednocześnie w analizie danych musimy opierać się na danych historycznych. To one pozwalają nam odtworzyć historię zdarzeń, skorelować różne informacje i zrozumieć, dlaczego awaria nastąpiła. Nowoczesne maszyny publikują kody błędów, a analizując cechy eksploatacyjne, możemy np. zoptymalizować okresy serwisowe, zmniejszając przestoje produkcji. Tego typu wnioski wymagają jednak odpowiednio długiej historii danych z produkcji.

Nie jesteśmy w stanie od razu określić, ile to „odpowiednio długo” – każda produkcja jest inna i zdarzeń może być wiele.

Dokładnie, a maszyna może nie zachowywać się w ten sam sposób w każdym okresie, szczególnie jeśli ulega degradacji.

Wspomniałeś też o predykcji sprzedaży. Każda firma ma dane sprzedażowe, ale czy potrafi zmierzyć wszystkie czynniki wpływające na sprzedaż? To atrakcyjna możliwość – przewidywanie sprzedaży.

Tak, ale w tym zakresie AI byłoby wsparciem dla analityka. Chodzi o rozszerzenie kompetencji osoby modelującej biznes – porządkowanie danych, podstawowe skrypty, budowanie modeli prognostycznych z użyciem uczenia maszynowego, a nie jedynie statystyki. Trzeba pamiętać, że wpływ na sprzedaż mają także czynniki zewnętrzne. Samo posiadanie danych o własnym produkcie nie wystarczy, bo produkty konkurencji też wpływają na rynek. Tutaj warto eksperymentować także z danymi zewnętrznymi – bankami danych czy innymi źródłami.

Tak, więc podejście musi być indywidualne – zależy od przewidywalności rynku, doświadczenia firmy i dostępnych danych o produkcie.

Dokładnie.

Najczęstsze błędy i zagrożenia we wdrażaniu AI w przemyśle

Kolejny temat to optymalizacja produkcji. Mając już duże zbiory danych, możemy efektywnie monitorować maszyny, wózki autonomiczne, zajętość stanowisk. To otwiera nowe możliwości organizacyjne i procesowe.

Tak. Myślenie o AI wymusza myślenie o danych. Nawet jeśli nie implementujemy AI wszędzie, uporządkowanie i zbieranie danych samo w sobie jest wartością – pozwala analizować procesy i wyciągać wnioski, bez „strzelania z armaty do mrówki”, czyli bez używania uczenia maszynowego tam, gdzie niepotrzebne.

I ryzyko przepalenia budżetu.

Absolutnie.

Warto też wspomnieć o zagrożeniach wdrażania AI. Brak zdefiniowanego celu może prowadzić do marnowania zasobów finansowych.

Dokładnie. Najczęstsze błędy to brak jasnego celu biznesowego, zbyt ambitny pierwszy projekt („AI rozwiąże wszystko”), brak zaangażowania zespołu produkcyjnego, niewystarczające lub złe dane. W projektach AI 80% czasu to często przygotowanie i eksploracja danych.

Może się okazać, że dane, które posiadamy z maszyn, wcale nie będą bezużyteczne, ale nie będziemy mogli ich wykorzystać w projekcie z powodu konstrukcji bazy danych lub innych ograniczeń technicznych.

Trzeba rozróżnić wyzwania technologiczne od samej wartości informacji w danych. Nie ma takiej bazy, do której nie moglibyśmy uzyskać dostępu, jeśli należy do nas i mamy odpowiednią technologię. Natomiast, aby ocenić przydatność danych w projekcie, konieczna jest eksploracja. Trzeba przeanalizować charakterystyki i informacje zawarte w danych, aby sprawdzić ich korelację z naszym problemem. Intuicja człowieka pomaga na początku – nie chodzi o zbieranie wszystkiego, ale o powiązanie konkretnych cech problemu z odpowiednimi danymi. Czasem z wielu zgromadzonych atrybutów cenne okażą się tylko wybrane.

Dodatkowe ryzyko to brak kompetencji w zespole. Możemy zatrudnić specjalistę z zewnątrz lub rozwinąć umiejętności analityka danych, ale jeśli nie poszerzymy kompetencji szerszego zespołu, projekt może napotkać opór, a ekspert zewnętrzny nie uzyska zaangażowania.

Bezpieczeństwo danych i przyszłość pracy z AI

A co z bezpieczeństwem danych? Jak firmy powinny do tego podchodzić? Czy stosować rozwiązania wewnętrzne?

Przykład, który podałem wcześniej, czyli zbieranie danych ze stanowisk produkcyjnych, jest stosunkowo bezpieczny – nie są to dane wrażliwe. Oczywiście szczegóły zależą od konkretnego przypadku, ale monitorowanie zachowania maszyn nie stanowi ryzyka.

W pierwszych eksperymentach chmurowych bezpieczeństwo jest relatywnie niskie, ale należy pamiętać, że każda analiza wymaga infrastruktury – od laptopa po GPU w chmurze. Możemy też wykorzystać asystenta AI, np. ChatGPT, do analizy danych – pod warunkiem, że przekażemy mu informacje o problemie biznesowym. Wybór infrastruktury determinuje też bezpieczeństwo danych: własna infrastruktura minimalizuje konieczność udostępniania danych na zewnątrz, natomiast rozwiązania abonamentowe mogą wymagać dzielenia się danymi.

A teraz pytanie, które pojawiło się na początku i na które wszyscy czekają – czy AI zabierze nam pracę?

Nie zabierze, ale będziemy musieli dostosować się do zmian. Ktoś kiedyś powiedział, że nie żyjemy w zmieniającej się epoce, tylko w zmianie epok. To wymusza na nas naukę i adaptację, mimo że naturalnie wolimy przyzwyczajać się do stanu rzeczy.

Czyli w praktyce – zabierze, ale trzeba się przebranżowić?

Nie koniecznie przebranżowić, lecz zmienić sposób wykonywania pracy w obecnej branży. Jak mówi inny cytat: „Analfabetami XXI wieku nie będą ci, którzy nie umieją czytać, lecz ci, którzy nie uczą się zmian i zamykają się na nie”.

Podobne artykuły

Podcast - transkrypcje

IoT w fabryce – od sensorów do realnej wartości

Poznaj możliwości czujników IoT! Przeczytaj transkrypcję naszego odcinka podcastu.

Podcast - transkrypcje

Cyfrowa rewolucja w strukturze organizacyjnej vs. wersja tradycyjna - co wybrać? - cz.1

Dowiedz się, dlaczego struktura organizacyjna jest fundamentem efektywnego zarządzania firmą.

Podcast - transkrypcje

Cyfrowa rewolucja w strukturze organizacyjnej vs. wersja tradycyjna - co wybrać? - cz.2

Odkryj, jak cyfrowa struktura organizacyjna wspiera firmy w dobie Przemysłu 4.0.

Podcast - transkrypcje

Jak wykorzystać AI w procesie kontroli jakości?

Dowiedz się, jak sztuczna inteligencja rewolucjonizuje kontrolę jakości. Odkryj korzyści AI w procesach produkcyjnych!

Podcast - transkrypcje

KPI, OKR, a może intuicja i subiektywna ocena? - cz. 1

KPI i OKR - czy warto na nich polegać? A może intuicja i subiektywna ocena też mają swoje miejsce w zarządzaniu? Poznaj odpowiedź w artykule!

Podcast - transkrypcje

KPI, OKR, a może intuicja i subiektywna ocena? - cz. 2

Dowiedz się, jak skutecznie wdrażać KPI i OKR oraz kiedy warto zaufać swojej intuicji!

Podcast - transkrypcje

Kartka i ołówek, tablet, a może Cyfrowy Bliźniak – dlaczego warto i jak modelować procesy? - cz. 1

Dowiedz się, jak skutecznie modelować procesy w firmach i dlaczego warto to robić!

Podcast - transkrypcje

Kartka i ołówek, tablet, a może Cyfrowy Bliźniak – dlaczego warto i jak modelować procesy? - cz. 2

Cyfrowy Bliźniak w praktyce - przeczytaj jak symulacje 3D zmieniają produkcję w dzisiejszych przedsiębiorstwach!

Podcast - transkrypcje

Standaryzacja – ograniczenie czy fundament optymalizacji?

Dowiedz się czy standaryzacja jest ograniczeniem czy fundamentem optymalizacji!

Dołącz do naszego newslettera

Uzyskaj dostęp do zniżek, ofert, nowości i profesjonalnych porad od naszych Ekspertów!