AI Termékek

Az LLM túl van a ChatGPT-n: hét valódi felhasználása a gyártósoron

2026. 04. 30.AI Ház
AI Termékek

Amikor a magyar gyártóvállalatok először találkoztak a nagy nyelvi modellekkel, a legtöbben a marketingosztályon próbálták ki őket — termékleírást írattak, e-maileket fogalmaztattak, és a tapasztalat valahol a „hasznos, de nem forradalmi" kategóriában landolt. Pedig az LLM-ek igazi értéke nem itt rejlik. A gyár szívében dolgoznak a legjobban: a karbantartási naplókban, a műszakjelentésekben, a vevői panaszok között, a beszállítói e-mailekben és — talán a legfontosabb — a tapasztalt művezetők fejében felhalmozott tudásban, ami nyugdíjazáskor jelenleg egyszerűen elvész.

A Deloitte 2025-ös felmérése szerint a hazai gyártóvállalatok 85 százaléka már aktívan használ valamilyen AI-megoldást, a maradék 15 százalék pedig egy éven belül tervezi bevezetni. Eközben az Association for Advancing Automation friss adatai szerint az LLM-ek iránti érdeklődés 16-ról 35 százalékra ugrott egyetlen év alatt, és ezzel ez lett a leggyorsabban növekvő szegmens a smart factory technológiák között. A kérdés tehát ma már nem az, hogy érdemes-e LLM-et bevezetni, hanem hogy hol és hogyan hozza a legtöbb értéket a saját üzemében.

30 perces ingyenes konzultáció →


Miért most? Az LLM mint kognitív réteg

A gyártás látszólag nem nyelvalapú iparág — gépekről, tűréshatárokról és OEE-mutatókról szól. Ha azonban közelebbről megnézzük a mindennapokat, kiderül, hogy a gyár egy jelentős része nyelvbe van temetve. A műszaknapló, a hibajegyek, a SOP-ok, a beszállítói levelezés, a vevői panaszok és az audit-jelentések mind szöveges formában keletkeznek, és a legértékesebb operatív tudás gyakran sehol nincs leírva, csak az emberek fejében él.

Az LLM ezek fölött egy új réteget hoz létre: összeköti a szétszórt dokumentumokat, rendszereket és tapasztalatot egyetlen, természetes nyelven kérdezhető felülettel. Nem helyettesíti az embereket a gyártósoron, hanem felgyorsítja és megalapozottabbá teszi a döntéseiket — különösen ott, ahol eddig egy keresés tíz percig tartott, vagy ahol a válaszért meg kellett várni, hogy a tapasztalt kolléga visszaérjen ebédről.


Hét terület, ahol az LLM valódi értéket teremt

A leggyakoribb és legjobban megtérülő alkalmazás a tribális tudás megőrzése. Amikor egy 30 éves tapasztalattal rendelkező művezető nyugdíjba megy, vele együtt évtizedek alatt felhalmozott operatív tudás tűnik el — olyan tudás, amit soha senki nem írt le, mert mindenki tudta, hogy „a Pista bácsi úgyis ismeri ezt a gépet". Az LLM segítségével ez a tudás strukturált eljárássá, kereshető tudásbázissá alakítható, és a szervezet emlékezete többé nem függ egy-egy ember jelenlététől.

A második tipikus felhasználás az automatikus munkalap-generálás. A korábbi gyakorlat szerint ha egy operátor problémát észlelt, akkor azt vagy szóban jelentette a műszakvezetőnek, vagy egy formanyomtatványt kellett kitöltenie a műszak végén. Egy LLM-alapú rendszerrel az operátor egyszerűen elmondja vagy beírja, mit tapasztal — például hogy „a hármas csomagolósor szállítószalagja rángat és kattog a hajtómű környékén" —, és a rendszer másodpercek alatt beazonosítja az érintett eszközt, kategorizálja a hibát, javasol lehetséges okokat, és kész munkalapot ír a CMMS-be.

A harmadik terület az üzemi dokumentumkeresés, amit a szakzsargon RAG-architektúrának nevez. A legtöbb gyárban a karbantartási és minőségi dokumentáció több száz, sőt több ezer oldalnyi PDF-ben, kézikönyvben és audit-jelentésben szétszórva található. Egy karbantartó, aki most találkozik először egy adott hibakóddal, könnyen elveszít 20-30 percet a kereséssel. Egy jól felépített LLM-megoldás ezt másodpercekre rövidíti, és pontos forrásmegjelöléssel adja vissza a választ — magyar nyelven, a konkrét dokumentumra hivatkozva.

Negyedik a minőségi adatok strukturálása. A hibaleírások, vevői reklamációk és CAPA-dokumentumok ezreiben olyan mintázatok rejlenek, amiket egy klasszikus dashboard sosem fog megmutatni — egyszerűen azért, mert ezek szöveges adatok, nem mérőszámok. Az LLM viszont képes átolvasni ezeket, csoportosítani őket téma szerint, és felhívni a figyelmet az ismétlődő problémákra még azelőtt, hogy azok rendszerszintű hibává válnának.

Az ötödik klasszikus alkalmazás a beszállítói kommunikáció és ellátási lánc monitorozása. A 2022 óta tartó ellátási zavarok megtanították a magyar gyártóknak, mennyit ér a korai jelzés, ha egy kritikus alapanyag elérhetősége vagy ára változik. Az LLM folyamatosan átszűri a beszállítói e-maileket, piaci híreket és hivatalos közleményeket, és időben jelez, ha egy kockázat formálódik.

A hatodik — és a magyar piacon különösen aktuális — terület a tréning és onboarding. A munkaerőhiány ma a hazai gyártóipar egyik legnagyobb fájdalompontja, és a betanítási idő közvetlenül érinti a termelékenységet. Egy LLM-alapú interaktív tréningrendszerben az új belépő természetes nyelven kérdezhet, hibakeresési forgatókönyveken vezethető végig, és nem kell várnia, hogy a tapasztalt kolléga ráérjen — ami különösen fontos a több műszakos üzemekben.

A hetedik felhasználás pedig a természetes nyelvi interfész a meglévő MES- és SCADA-rendszerekhez. Ahelyett, hogy egy műszakvezető megkérné az IT-csapatot, hogy állítson össze egy lekérdezést, egyszerűen beírja vagy bemondja, hogy „mutasd a hármas sor OEE-jét az elmúlt műszakra" — és megkapja a választ. Ez nemcsak a vezetői munkát gyorsítja, hanem érdemben tehermentesíti az IT-csapatot is.


A magyar nyelv kihívása

A nemzetközi LLM-megoldások többsége kiválóan teljesít angolul, magyarul azonban érzékelhetően gyengébb a teljesítmény, különösen szakmai kontextusban — ott, ahol a ragozás, a céges rövidítések és a saját szakszókincs is számít. Ez a gyakorlatban két irányba viszi a megoldásokat. A vezető nemzetközi modellek (GPT-5, Claude Sonnet 4.5, Gemini Pro 2.5) megfelelő architektúrával és kontextus-tervezéssel ma már produkciós minőségben használhatók magyar gyári környezetben is, és a legtöbb tipikus felhasználáshoz ez bőven elegendő. Komolyabb finomhangolásra akkor van szükség, ha a céges szakzsargon vagy az iparág-specifikus szabványok kritikusak — ekkor érdemes domain-specifikus modellben gondolkodni. Csapatunk mindkét megközelítésben otthon van, és az adott use case alapján javasolja a megfelelő architektúrát.


Amit a középvezetőnek tudnia kell a szabályozásról

  1. december 1-jén lépett hatályba a 2025. évi LXXV. törvény, amely az EU AI Act hazai végrehajtását biztosítja. Ez közvetlenül érinti a gyártóipari LLM-bevezetéseket, különösen ha azok biztonságkritikus folyamatokba épülnek be — például minőségi döntésekbe vagy gépleállítások vezérlésébe —, ha HR-célokra is használják őket, vagy ha emberi felülvizsgálat nélkül hoznak automatizált döntéseket. A jó hír, hogy a tipikus első bevezetések — dokumentumkeresés, munkalap-generálás, belső tudásbázis — alacsony kockázatú kategóriába esnek, így gyorsan és jogi kockázat nélkül elindíthatók.

Hogyan kezdjen bele? A 90 napos pilot

A sikertelen AI-projektek többsége azon bukik el, hogy az első projekt túl nagy volt, és mire látható eredmény született volna, mindenki elveszítette a türelmét. Mi ezért egy ennél jóval szerényebb, de gyakorlatban bevált utat javaslunk.

Az első lépés mindig a megfelelő use case kiválasztása. Olyan területet érdemes választani, ahol a kockázat alacsony, az érték viszont gyorsan mérhető — a klasszikus első projekt a karbantartási dokumentumok intelligens keresése, mert csak olvas, semmit nem módosít, és a technikusok időmegtakarítása az első héten kimutatható. Ezt követi az adat-audit: meg kell érteni, hol és milyen állapotban van a karbantartási, minőségi és gyártási dokumentáció, mert az LLM válaszainak minősége végső soron az adatok minőségén múlik. Ha PDF-ek és beszkennelt papírok keverékéből kell dolgozni, az más architektúrát igényel, mint ha minden egy modern CMMS-ben van.

Ezután jön az architektúra-döntés — felhő vagy on-premise, kell-e magyar nyelvi finomhangolás, mely meglévő rendszerekkel kell integrálódni (SAP, MES, CMMS) —, majd egy 6–8 hetes pilot egy konkrét üzemen, egy konkrét csapattal, előre rögzített KPI-okkal: keresési idő, munkalapok minősége, hibafelderítési átfutás. A pilot eredményei alapján dől el, hogy más use case-ekre vagy más üzemekre érdemesebb-e skálázni.


Tipikus buktatók

A leggyakoribb hiba az a hozzáállás, hogy „majd megoldjuk ChatGPT-vel". A generikus modellek nem ismerik az Ön gyári kontextusát, és bár felszínesen meggyőző válaszokat adnak, a valós üzemi kérdésekre megbízhatatlanok lesznek — ezért szükséges a RAG-architektúra, ami a saját dokumentumait kapcsolja a modellhez. A második tipikus probléma az adatminőség: ha a CMMS-be évek óta kapkodva, rosszul kitöltött munkalapok kerültek, az LLM is csak ezt fogja visszaadni. A harmadik buktató a hallucináció, vagyis amikor a modell magabiztosan ad meg egy nem létező választ — ez a kockázat különösen kritikus biztonsági vagy minőségi döntéseknél, ezért emberi kontrollpont mindig szükséges.


Készen áll megnézni, hol hozhat értéket az LLM az Ön gyárában?

A fenti hét terület közül általában egy-kettő van, ami egy adott üzemben gyorsan és látványosan megtérül — de hogy melyik az, az nagyban függ a meglévő rendszerektől, az adatérettségtől és attól, hogy hol vannak ma a legnagyobb fájdalompontok. Az AIhaz csapata segít ennek a felmérésében: az ingyenes 30 perces konzultáción átnézzük a folyamatait, beazonosítjuk a legnagyobb potenciálú use case-eket, és konkrét javaslatot teszünk arra, hogyan nézhet ki az Ön 90 napos pilotja.

30 perces ingyenes konzultáció →