Wdrożenie lokalnego modelu LLM (On-prem AI) jako bezpiecznego asystenta wiedzy w przemyśle metalowym i produkcyjnym
Autor
Jakub SmedaPrzedsiębiorstwa z sektora przemysłu metalowego i produkcji ciężkiej coraz częściej realizują złożone kontrakty infrastrukturalne, energetyczne oraz eksportowe, które wymagają pracy na tysiącach stron dokumentacji technicznej, norm jakościowych, specyfikacji materiałowych, procedur technologicznych oraz zapisów kontraktowych. Jednocześnie rosną wymagania dotyczące ochrony know-how, dokumentacji technologicznej i danych kontraktowych, które stanowią kluczowy zasób konkurencyjny organizacji. W takim otoczeniu wykorzystanie publicznych narzędzi sztucznej inteligencji staje się obarczone ryzykiem trudnym do zaakceptowania z perspektywy zarządczej.
Z jednej strony potencjał dużych modeli językowych (LLM) w analizie dokumentacji technicznej, zapytań ofertowych i archiwalnych projektów jest znaczący. Z drugiej – korzystanie z rozwiązań chmurowych oznacza utratę pełnej kontroli nad danymi, ryzyko wycieku własności intelektualnej oraz brak zgodności z wymaganiami kontraktowymi i wewnętrznymi politykami bezpieczeństwa. Całkowita blokada narzędzi AI prowadzi jednak do spadku efektywności zespołów inżynieryjnych i ofertowych, wydłużenia czasu przygotowania ofert oraz obniżenia konkurencyjności firmy na rynkach międzynarodowych.
W praktyce przemysłowej brak bezpiecznych narzędzi wspierających analizę wiedzy skutkuje ręcznym przetwarzaniem dokumentacji przez inżynierów, technologów i działy ofertowe. W porównaniu z firmami operującymi w mniej restrykcyjnych branżach, procesy te są wolniejsze, bardziej podatne na błędy i trudniejsze do skalowania. Rozwiązaniem tego impasu staje się budowa własnego, izolowanego środowiska AI, które umożliwia wykorzystanie nowoczesnych technologii przy zachowaniu pełnej suwerenności nad danymi.
O kliencie
Nasz klient to producent konstrukcji metalowych i komponentów przemysłowych, realizujący projekty dla sektora budowlanego, energetycznego oraz przemysłu ciężkiego. Organizacja zarządzała rozbudowanym repozytorium dokumentacji obejmującym projekty wykonawcze, instrukcje technologiczne, certyfikaty materiałowe, zapisy umów oraz archiwalne oferty. Dostęp do tych danych musiał być ściśle kontrolowany, a ich przetwarzanie podlegało wewnętrznym procedurom bezpieczeństwa oraz zapisom kontraktowym z kluczowymi klientami.
Dotychczasowe próby wykorzystania narzędzi AI ograniczały się do fazy koncepcyjnej ze względu na brak gwarancji poufności danych w rozwiązaniach chmurowych. Firma poszukiwała sposobu na wsparcie zespołów technicznych i ofertowych w pracy z dokumentacją, bez naruszania rygorystycznych zasad bezpieczeństwa informacji.

Wyzwanie
Głównym wyzwaniem była bariera bezpieczeństwa uniemożliwiająca korzystanie z publicznych narzędzi AI. Inżynierowie i zespoły ofertowe spędzali znaczną część czasu na ręcznym wyszukiwaniu zapisów w dokumentacji projektowej, normach i archiwalnych umowach. W przypadku dużych przetargów i kontraktów infrastrukturalnych proces ten stawał się wąskim gardłem, wydłużając czas reakcji na zapytania ofertowe.
Dodatkowym problemem był brak centralnego, inteligentnego systemu wyszukiwania wiedzy, który pozwalałby na szybkie odnalezienie konkretnych zapisów technicznych i formalnych. Organizacja obawiała się również ryzyka generowania nieprecyzyjnych lub niezweryfikowanych odpowiedzi przez modele AI, co w kontekście dokumentacji technicznej mogłoby prowadzić do poważnych konsekwencji kontraktowych.
Nasze podejście
Zaprojektowaliśmy i wdrożyliśmy Proof of Concept lokalnego asystenta AI opartego na architekturze on-premises. Pierwszym etapem było uruchomienie dedykowanej infrastruktury serwerowej wyposażonej w akceleratory GPU, umożliwiającej hostowanie modelu językowego bez połączenia z siecią zewnętrzną. Następnie wdrożyliśmy mechanizm wyszukiwania wektorowego (RAG), który zasilał model wyłącznie dokumentami pochodzącymi z wewnętrznego, zabezpieczonego repozytorium klienta.
W ramach pilotażu stworzyliśmy interfejs umożliwiający zadawanie pytań w języku naturalnym dotyczących konkretnej bazy dokumentów. System został skonfigurowany w taki sposób, aby każda odpowiedź była poparta cytatem ze źródła – z precyzyjnym wskazaniem pliku i sekcji dokumentu. Pozwoliło to na weryfikację poprawności odpowiedzi oraz eliminację ryzyka halucynacji modelu. Projekt zakończył się opracowaniem zasad AI Governance, definiujących reguły dostępu do danych oraz monitoringu zapytań.
Kluczowe funkcje platformy
- Lokalna instancja LLM działająca w pełni w infrastrukturze zakładu produkcyjnego.
- Wyszukiwanie semantyczne dokumentacji technicznej, ofertowej i kontraktowej.
- Precyzyjne cytowanie źródeł z dokładnym wskazaniem plików i sekcji.
- Integracja z systemami uprawnień i kontrola dostępu do danych.
- Pełna logowalność zapytań i odpowiedzi na potrzeby audytu.
Rezultaty
Pilotaż wdrożenia lokalnego asystenta AI wykazał, że czas potrzebny na analizę dokumentacji ofertowej i technicznej skrócił się o około 45%. Zespoły inżynieryjne uzyskały możliwość błyskawicznego przeszukiwania tysięcy stron dokumentów, co pozwoliło na wcześniejszą identyfikację ryzyk projektowych. Trafność odpowiedzi w testach użytkowników przekroczyła 85%, przy zachowaniu pełnej kontroli nad danymi.
W horyzoncie trzech lat ROI dla pełnego wdrożenia rozwiązania oszacowano na poziomie około 200%. Oszczędności wynikały głównie z redukcji roboczogodzin poświęcanych na ręczną analizę dokumentacji oraz ograniczenia ryzyka błędów kontraktowych.
Znaczenie strategiczne
Wdrożenie lokalnego modelu LLM stało się fundamentem nowej kultury zarządzania wiedzą w organizacji produkcyjnej. Firma zabezpieczyła swoje know-how technologiczne i stworzyła solidną bazę pod dalszą automatyzację procesów inżynieryjnych i ofertowych, bez kompromisów w zakresie bezpieczeństwa danych.