AI Alapfogalmak Vezetőknek: 8 Fogalom, Amit Tudnod Kell
AI Alapfogalmak Vezetőknek: 8 Fogalom, Amit Tudnod Kell
A Meeting, Ami Mindent Megváltoztatott
Ültem a meetingen, és figyeltem. Valaki azt mondta: "Kellene nekünk egy AI megoldás!" Más valaki bólogatott: "Igen, milyen LLM-et használjunk?" Harmadik: "De a tokenek drágák, nem?" Negyedik személy: "Vagy kellene RAG? Vagy inkább egy agent?"
Láttam az arcokat. Mindenki bólogatott. Mindenki intelligensen nézett ki. De a szemek... a szemek mást mondtak.
Néztem jobbra: bizonytalan pillantás. Néztem balra: halk bólogatás, de nincs megértés mögötte. És akkor rájöttem valamire. Senki sem tudja igazán, miről beszélünk. Csak én? Nem. Mi mindannyian ott ültünk, használtuk a szavakat, de a jelentésük... elmosódott volt.
Ez a pillanat változtatott meg mindent.
Miért Írom Ezt a Posztot?
Azóta számtalanszor voltam hasonló helyzetekben. És rájöttem néhány dologra:
- Mindenki használja ezeket a szavakat - meetingeken, prezentációkon, LinkedIn-en
- Kevesen értik igazán - de senki sem akarja bevallani
- A tudatlanság szégyene - visszatart minket attól, hogy rákérdezzünk
- A döntéshozatal szenved - ha nem értjük a fogalmakat, hogyan döntsünk helyesen?
Szóval leültem, és elkészítettem egy térképet. Nem bonyolult, tech-zsargonnal teli dokumentumot. Hanem egy egyszerű útmutatót azoknak, akik - mint én is voltam - hallották már ezeket a kifejezéseket, de szeretnék végre tisztán látni.
Készen állsz? Induljunk.
(Gyors megjegyzés: Ez nem egy teljes AI enciklopédia - hanem egy térképvázlat. A legfontosabb fogalmak, amikkel nap mint nap találkozol. Dióhéjban, de átfogóan. Elég ahhoz, hogy magabiztosan navigálj.)
AI ≠ LLM: Az Erdő és a Fa
Mit gondolnak róla: "AI = ChatGPT, Gemini, Claude és társaik, nem?"
Valójában mi ez: Az Artificial Intelligence (Mesterséges Intelligencia) egy hatalmas erdő, tele különböző fafajtákkal. Az LLM (Large Language Model) csak EGY fafajta ebben az erdőben.
Az AI család tagjai:
- Gépi látás - képfelismerés, arcazonosítás
- Prediktív rendszerek - előrejelzések, minták felismerése
- Robotika - autonóm rendszerek, fizikai AI
- Beszédfelismerés - hangalapú AI
- És igen, az LLM-ek - nyelvi modellek
Miért fontos neked mint vezetőnek: Amikor AI stratégiát építesz, nem csak chatbotokról beszélsz. Lehet, hogy a termelésben gépi látásra van szükséged, a pénzügyekben prediktív modellre, az ügyfélszolgálaton pedig LLM-re. Különböző eszközök, különböző problémákra.
Szóval amikor AI-ról beszélünk, érdemes pontosítani: milyen TÍPUSÚ AI-ra gondolunk?
Most, hogy látod az erdőt, beszéljünk arról a fáról, ami most a legnagyobb figyelmet kapja: az LLM-ekről. De először meg kell értenünk, hogyan "gondolkodnak" ezek a rendszerek. És itt jön a képbe...
Token: A Láthatatlan Valuta
Mit gondolnak róla: "Token = szó" vagy "valami kripto dolog, nem?"
Valójában mi ez: A token az LLM gondolkodásának építőkockája. NEM szó. Hanem szódarab, karakter, vagy koncepció - ahogy az AI "látja" a nyelvet.
Nézd meg:
- "Budapest" = 2-3 token (Buda + pest + esetleg nyelvi jel)
- " " (szóköz) = 1 token
- "AI" = 1-2 token
- "Szeretem a kávét" = 5-6 token
Az LLM nem "olvas" úgy, ahogy mi. Darabolja a szöveget tokenekre, és ezekkel dolgozik.
Miért fontos neked mint vezetőnek: Amikor AI költséget számolsz, nem szavakat, hanem tokeneket számláznak. Amikor kapacitást tervezel (context window = hány tokent tud egyszerre kezelni), tokenekben gondolkozz. Egy 100,000 tokenes context window NEM 100,000 szó - kb. 75,000 szó körül van.
Ezért fontos tisztázni: mennyibe kerül TOKENENKÉNT a szolgáltatás, nem szavanként vagy karakterenként!
Most értjük, hogy az AI tokenekben gondolkodik. De mi is pontosan az az LLM?
LLM: A Nyelv Virtuóza
Mit gondolnak róla: "Egy okos keresőmotor" vagy "tudja a válaszokat"
Valójában mi ez: A Large Language Model egy hatalmas mintafelismerő rendszer, ami nyelvi struktúrákat, mintákat tanult meg óriási mennyiségű szövegből. Nem "tudja" az igazságot - hanem "érti" a nyelvi mintákat.
Képzeld el: olvasott milliárd oldalnyi szöveget, és megtanulta, hogy
- Mi után mi következik általában
- Milyen szavak járnak együtt
- Milyen struktúrák működnek különböző kontextusokban
De: nincs valóságfogalma, nincs memóriája, nem "érti" a világot - csak a nyelvi mintákat.
Miért fontos neked mint vezetőnek: Ez megmagyarázza, miért kell óvatosan bánni az LLM válaszaival. Nem "tud" dolgokat - hanem mintákat követ. Ezért hallucsinál néha (kitalál dolgokat, mert az "jól hangzik" a minta alapján). És ezért elengedhetetlen a human oversight.
Ezért kell prompt engineering - nem parancsolunk neki, hanem kontextust adunk, ami segíti a helyes minták felismerését!
És itt lépünk át egy kulcsfontosságú területre: hogyan kommunikálunk ezzel a mintafelismerővel?
Prompt & Prompt Engineering: A Beszélgetés Művészete
Mit gondolnak róla: "Csak be kell írni, mit akarok"
Valójában mi ez: A prompt nem csak egy kérdés vagy parancs. Ez a teljes kontextus, amit adsz:
- Szerep (pl. "Te egy tapasztalt szoftverfejlesztő vagy")
- Feladat (mit kell csinálni)
- Kontextus (mi a háttér, mi a cél)
- Példák (ilyen formátumban várom a választ)
- Korlátok (mire figyelj, mit NE csinálj)
A prompt engineering = úgy kommunikálni, ahogy az LLM "gondolkodik". Olyan mintát és kontextust adni, ami a helyes irányba tereli.
Példa - gyenge prompt: "Írj emailt"
Példa - jó prompt: "Te egy customer success manager vagy. Írj egy rövid (max 3 bekezdés) emailt egy ügyfélnek, aki 2 hete nem használta a szolgáltatásunkat. Célod: megérteni, mi az akadály, és felajánlani segítséget. Hangnem: segítőkész, nem értékesítési nyomás."
Miért fontos neked mint vezetőnek: Mint egy vezetői briefing - minél jobb a kontextus, minél világosabb a feladat, annál jobb az eredmény. A prompt engineering nem tech varázslat, hanem kommunikációs készség.
Ez olyan, mint amikor briefeled a csapatomat - világos kontextus, világos elvárások = jobb eredmény!
De a prompt nem önmagában létezik. Az LLM-nek "memóriára" van szüksége - és ez vezet minket a következő fogalomhoz...
Context Engineering: A Memória Építészete
Mit gondolnak róla: "Majd ő emlékszik az előző beszélgetésekre"
Valójában mi ez: Az LLM-nek nincs memóriája. Csak azt "látja", amit BELEadsz a kontextusba. Minden egyes válasznál újraküldöd az eddigi beszélgetés egészét (vagy legalábbis a releváns részét).
Context engineering = tudatosan építed a kontextust:
- Előző beszélgetés releváns részei
- Kapcsolódó dokumentumok
- Tudásbázis részletek
- Felhasználói preferenciák
Ez mind "elfér" a context window-ban - az a maximális token mennyiség, amit az LLM egyszerre kezel.
Példa: Claude Sonnet context window: ~200,000 token = kb. 150,000 szó = kb. egy nagyobb könyv.
Miért fontos neked mint vezetőnek: Minden új chat/session = üres lap. Ha szeretnéd, hogy "emlékezzen" valakire/valamire, azt BE kell építened a kontextusba. Ez a context engineering lényege.
Ezért van az, hogy új chat-ben újra el kell magyaráznom mindent - nincs memória, csak amit belerakunk!
És most jön egy varázslat, ami összeköti a context engineering-et a saját adataiddal...
RAG: Retrieval Augmented Generation - A Könyvtáros
Mit gondolnak róla: "Majd megtanítjuk neki a saját adatainkat" (fine-tuning)
Valójában mi ez: RAG = nem tanítás, hanem lekérés valós időben. Mint egy okos könyvtáros:
- Kérdezed: "Mi a cégünk szabadságpolitikája?"
- RAG rendszer lekéri a releváns dokumentumokat (HR kézikönyv)
- LLM megkapja ezeket a dokumentumokat a kontextusban
- LLM válaszol az általad adott dokumentumok alapján
Nem tanult róluk előre - most, valós időben kapta meg.
RAG vs. Fine-tuning:
- RAG: Lekéred a tudást valós időben (gyors, rugalmas, mindig friss)
- Fine-tuning: Újratanítod a modellt (lassú, drága, mire kész, már elavult az adat)
Miért fontos neked mint vezetőnek: Ha saját céges tudást akarsz beépíteni, valószínűleg RAG kell, nem fine-tuning. Gyorsabb, olcsóbb, és mindig naprakész.
Mint egy asszisztens, aki előre kikeres mindent, mielőtt válaszolna - nem kell megjegyeznie, csak tudnia kell, hol találja meg!
Most ugorjunk egy szintet: mi van, ha nem csak válaszokat akarunk, hanem cselekvést?
Agentic AI: A Cselekvő Intelligencia
Mit gondolnak róla: "Egy chatbot, ami válaszol a kérdésekre"
Valójában mi ez: Az agent nem csak válaszol - cselekszik. Önállóan gondolkodik, eszközöket használ, több lépésben dolgozik.
Különbség:
- Chatbot/LLM: Kérdezel → válaszol
- Agent: Célt adsz → ő megtervezi → eszközöket használ → végrehajtja → ellenőrzi
Példa:
- ❌ Chatbot: "Mi a hőmérséklet a szobában?"
- ✅ Agent: "Optimalizáld a klímát!" → Agent megnézi a hőmérsékletet → összehasonlítja a preferenciákkal → beállítja a klímát → ellenőrzi az eredményt
Miért fontos neked mint vezetőnek: Az agentic AI nem csak információt ad - munkafolyamatokat automatizál. Nem kérdezed őt, hanem feladatot adsz neki, és ő végrehajtja.
Nem "kérdezz-válaszolj" módban vagyunk, hanem "cél-végrehajtás" módban!
És végül, az agent varázserejének titka: hogyan kap eszközöket?
MCP Server: Model Context Protocol - A Híd
Mit gondolnak róla: "Valami bonyolult tech dolog a háttérben"
Valójában mi ez: Az MCP (Model Context Protocol) egy egységes protokoll, ami meghatározza, hogyan adhatsz eszközöket az AI agent-eknek.
Analógia: az USB port Emlékszel, amikor minden eszköznek más csatlakozója volt? Aztán jött az USB, és minden ugyanúgy csatlakozik. Az MCP ugyanez - egységes módja annak, hogy eszközöket adj az agent-eknek.
Mit csinál az MCP:
- Egységes interfész adatbázisokhoz, API-khoz, fájlrendszerekhez
- Biztonsági réteg - szabályozza, mit érhet el az agent
- Egyszerű integráció - nem kell minden eszközhöz új protokollt írni
Példa: Agent + MCP server → hozzáfér:
- Google Drive fájlokhoz
- Céges adatbázishoz
- Email rendszerhez
- Naptárhoz ...mind ugyanazon protokollon keresztül.
Miért fontos neked mint vezetőnek: Az MCP teszi lehetővé, hogy az agent-ek "használhassák" a céges rendszereket. Nélküle minden agent integráció külön fejlesztés lenne.
Mint az USB - egy port, minden eszköz!
Most Már Tudod
Képzeld el: ülsz a következő meetingen. Valaki azt mondja: "Használjunk AI-t!"
És te nyugodtan kérdezel vissza:
- "Milyen jellegű AI-ra gondolsz? LLM-alapú ügyfélszolgálat? Prediktív adatelemzés? Agentic workflow automation?"
- "Ha LLM, mennyi a context window? Hány tokent kezel?"
- "Kellene RAG a céges tudáshoz, vagy elég a jó prompt engineering?"
- "Agent-et akarunk, vagy chatbot elég?"
- "Van MCP infrastruktúránk, hogy eszközöket adhassunk neki?"
És látod az arcokat. Ezúttal TE vagy az, aki tudja, miről beszél.
Nem azért, mert tech guru lettél. Hanem azért, mert megértetted a térképet. Tudod, hol vagy az AI erdejében, és tudod, hogy milyen kérdéseket kell feltenned.
Ez a magabiztosság segít döntéseket hozni. Segít kommunikálni a tech csapattal. Segít megérteni, mikor milyen megoldást keress.
Mostantól nem leszel kiszolgáltatva a buzzwordöknek.
Mostantól világosan látsz.
Melyik fogalomnál jött nálad az "aha!" pillanat? Oszd meg velem!