AI Alapfogalmak Vezetőknek: 8 Fogalom, Amit Tudnod Kell

A Meeting, Ami Mindent Megváltoztatott

Ültem a meetingen, és figyeltem. Valaki azt mondta: "Kellene nekünk egy AI megoldás!" Más valaki bólogatott: "Igen, milyen LLM-et használjunk?" Harmadik: "De a tokenek drágák, nem?" Negyedik személy: "Vagy kellene RAG? Vagy inkább egy agent?"

Láttam az arcokat. Mindenki bólogatott. Mindenki intelligensen nézett ki. De a szemek... a szemek mást mondtak.

Néztem jobbra: bizonytalan pillantás. Néztem balra: halk bólogatás, de nincs megértés mögötte. És akkor rájöttem valamire. Senki sem tudja igazán, miről beszélünk. Csak én? Nem. Mi mindannyian ott ültünk, használtuk a szavakat, de a jelentésük... elmosódott volt.

Ez a pillanat változtatott meg mindent.

Miért Írom Ezt a Posztot?

Azóta számtalanszor voltam hasonló helyzetekben. És rájöttem néhány dologra:

  • Mindenki használja ezeket a szavakat - meetingeken, prezentációkon, LinkedIn-en
  • Kevesen értik igazán - de senki sem akarja bevallani
  • A tudatlanság szégyene - visszatart minket attól, hogy rákérdezzünk
  • A döntéshozatal szenved - ha nem értjük a fogalmakat, hogyan döntsünk helyesen?

Szóval leültem, és elkészítettem egy térképet. Nem bonyolult, tech-zsargonnal teli dokumentumot. Hanem egy egyszerű útmutatót azoknak, akik - mint én is voltam - hallották már ezeket a kifejezéseket, de szeretnék végre tisztán látni.

Készen állsz? Induljunk.

(Gyors megjegyzés: Ez nem egy teljes AI enciklopédia - hanem egy térképvázlat. A legfontosabb fogalmak, amikkel nap mint nap találkozol. Dióhéjban, de átfogóan. Elég ahhoz, hogy magabiztosan navigálj.)

AI ≠ LLM: Az Erdő és a Fa

Mit gondolnak róla: "AI = ChatGPT, Gemini, Claude és társaik, nem?"

Valójában mi ez: Az Artificial Intelligence (Mesterséges Intelligencia) egy hatalmas erdő, tele különböző fafajtákkal. Az LLM (Large Language Model) csak EGY fafajta ebben az erdőben.

Az AI család tagjai:

  • Gépi látás - képfelismerés, arcazonosítás
  • Prediktív rendszerek - előrejelzések, minták felismerése
  • Robotika - autonóm rendszerek, fizikai AI
  • Beszédfelismerés - hangalapú AI
  • És igen, az LLM-ek - nyelvi modellek

Miért fontos neked mint vezetőnek: Amikor AI stratégiát építesz, nem csak chatbotokról beszélsz. Lehet, hogy a termelésben gépi látásra van szükséged, a pénzügyekben prediktív modellre, az ügyfélszolgálaton pedig LLM-re. Különböző eszközök, különböző problémákra.

Szóval amikor AI-ról beszélünk, érdemes pontosítani: milyen TÍPUSÚ AI-ra gondolunk?


Most, hogy látod az erdőt, beszéljünk arról a fáról, ami most a legnagyobb figyelmet kapja: az LLM-ekről. De először meg kell értenünk, hogyan "gondolkodnak" ezek a rendszerek. És itt jön a képbe...

Token: A Láthatatlan Valuta

Mit gondolnak róla: "Token = szó" vagy "valami kripto dolog, nem?"

Valójában mi ez: A token az LLM gondolkodásának építőkockája. NEM szó. Hanem szódarab, karakter, vagy koncepció - ahogy az AI "látja" a nyelvet.

Nézd meg:

  • "Budapest" = 2-3 token (Buda + pest + esetleg nyelvi jel)
  • " " (szóköz) = 1 token
  • "AI" = 1-2 token
  • "Szeretem a kávét" = 5-6 token

Az LLM nem "olvas" úgy, ahogy mi. Darabolja a szöveget tokenekre, és ezekkel dolgozik.

Miért fontos neked mint vezetőnek: Amikor AI költséget számolsz, nem szavakat, hanem tokeneket számláznak. Amikor kapacitást tervezel (context window = hány tokent tud egyszerre kezelni), tokenekben gondolkozz. Egy 100,000 tokenes context window NEM 100,000 szó - kb. 75,000 szó körül van.

Ezért fontos tisztázni: mennyibe kerül TOKENENKÉNT a szolgáltatás, nem szavanként vagy karakterenként!


Most értjük, hogy az AI tokenekben gondolkodik. De mi is pontosan az az LLM?

LLM: A Nyelv Virtuóza

Mit gondolnak róla: "Egy okos keresőmotor" vagy "tudja a válaszokat"

Valójában mi ez: A Large Language Model egy hatalmas mintafelismerő rendszer, ami nyelvi struktúrákat, mintákat tanult meg óriási mennyiségű szövegből. Nem "tudja" az igazságot - hanem "érti" a nyelvi mintákat.

Képzeld el: olvasott milliárd oldalnyi szöveget, és megtanulta, hogy

  • Mi után mi következik általában
  • Milyen szavak járnak együtt
  • Milyen struktúrák működnek különböző kontextusokban

De: nincs valóságfogalma, nincs memóriája, nem "érti" a világot - csak a nyelvi mintákat.

Miért fontos neked mint vezetőnek: Ez megmagyarázza, miért kell óvatosan bánni az LLM válaszaival. Nem "tud" dolgokat - hanem mintákat követ. Ezért hallucsinál néha (kitalál dolgokat, mert az "jól hangzik" a minta alapján). És ezért elengedhetetlen a human oversight.

Ezért kell prompt engineering - nem parancsolunk neki, hanem kontextust adunk, ami segíti a helyes minták felismerését!


És itt lépünk át egy kulcsfontosságú területre: hogyan kommunikálunk ezzel a mintafelismerővel?

Prompt & Prompt Engineering: A Beszélgetés Művészete

Mit gondolnak róla: "Csak be kell írni, mit akarok"

Valójában mi ez: A prompt nem csak egy kérdés vagy parancs. Ez a teljes kontextus, amit adsz:

  • Szerep (pl. "Te egy tapasztalt szoftverfejlesztő vagy")
  • Feladat (mit kell csinálni)
  • Kontextus (mi a háttér, mi a cél)
  • Példák (ilyen formátumban várom a választ)
  • Korlátok (mire figyelj, mit NE csinálj)

A prompt engineering = úgy kommunikálni, ahogy az LLM "gondolkodik". Olyan mintát és kontextust adni, ami a helyes irányba tereli.

Példa - gyenge prompt: "Írj emailt"

Példa - jó prompt: "Te egy customer success manager vagy. Írj egy rövid (max 3 bekezdés) emailt egy ügyfélnek, aki 2 hete nem használta a szolgáltatásunkat. Célod: megérteni, mi az akadály, és felajánlani segítséget. Hangnem: segítőkész, nem értékesítési nyomás."

Miért fontos neked mint vezetőnek: Mint egy vezetői briefing - minél jobb a kontextus, minél világosabb a feladat, annál jobb az eredmény. A prompt engineering nem tech varázslat, hanem kommunikációs készség.

Ez olyan, mint amikor briefeled a csapatomat - világos kontextus, világos elvárások = jobb eredmény!


De a prompt nem önmagában létezik. Az LLM-nek "memóriára" van szüksége - és ez vezet minket a következő fogalomhoz...

Context Engineering: A Memória Építészete

Mit gondolnak róla: "Majd ő emlékszik az előző beszélgetésekre"

Valójában mi ez: Az LLM-nek nincs memóriája. Csak azt "látja", amit BELEadsz a kontextusba. Minden egyes válasznál újraküldöd az eddigi beszélgetés egészét (vagy legalábbis a releváns részét).

Context engineering = tudatosan építed a kontextust:

  • Előző beszélgetés releváns részei
  • Kapcsolódó dokumentumok
  • Tudásbázis részletek
  • Felhasználói preferenciák

Ez mind "elfér" a context window-ban - az a maximális token mennyiség, amit az LLM egyszerre kezel.

Példa: Claude Sonnet context window: ~200,000 token = kb. 150,000 szó = kb. egy nagyobb könyv.

Miért fontos neked mint vezetőnek: Minden új chat/session = üres lap. Ha szeretnéd, hogy "emlékezzen" valakire/valamire, azt BE kell építened a kontextusba. Ez a context engineering lényege.

Ezért van az, hogy új chat-ben újra el kell magyaráznom mindent - nincs memória, csak amit belerakunk!


És most jön egy varázslat, ami összeköti a context engineering-et a saját adataiddal...

RAG: Retrieval Augmented Generation - A Könyvtáros

Mit gondolnak róla: "Majd megtanítjuk neki a saját adatainkat" (fine-tuning)

Valójában mi ez: RAG = nem tanítás, hanem lekérés valós időben. Mint egy okos könyvtáros:

  1. Kérdezed: "Mi a cégünk szabadságpolitikája?"
  2. RAG rendszer lekéri a releváns dokumentumokat (HR kézikönyv)
  3. LLM megkapja ezeket a dokumentumokat a kontextusban
  4. LLM válaszol az általad adott dokumentumok alapján

Nem tanult róluk előre - most, valós időben kapta meg.

RAG vs. Fine-tuning:

  • RAG: Lekéred a tudást valós időben (gyors, rugalmas, mindig friss)
  • Fine-tuning: Újratanítod a modellt (lassú, drága, mire kész, már elavult az adat)

Miért fontos neked mint vezetőnek: Ha saját céges tudást akarsz beépíteni, valószínűleg RAG kell, nem fine-tuning. Gyorsabb, olcsóbb, és mindig naprakész.

Mint egy asszisztens, aki előre kikeres mindent, mielőtt válaszolna - nem kell megjegyeznie, csak tudnia kell, hol találja meg!


Most ugorjunk egy szintet: mi van, ha nem csak válaszokat akarunk, hanem cselekvést?

Agentic AI: A Cselekvő Intelligencia

Mit gondolnak róla: "Egy chatbot, ami válaszol a kérdésekre"

Valójában mi ez: Az agent nem csak válaszol - cselekszik. Önállóan gondolkodik, eszközöket használ, több lépésben dolgozik.

Különbség:

  • Chatbot/LLM: Kérdezel → válaszol
  • Agent: Célt adsz → ő megtervezi → eszközöket használ → végrehajtja → ellenőrzi

Példa:

  • ❌ Chatbot: "Mi a hőmérséklet a szobában?"
  • ✅ Agent: "Optimalizáld a klímát!" → Agent megnézi a hőmérsékletet → összehasonlítja a preferenciákkal → beállítja a klímát → ellenőrzi az eredményt

Miért fontos neked mint vezetőnek: Az agentic AI nem csak információt ad - munkafolyamatokat automatizál. Nem kérdezed őt, hanem feladatot adsz neki, és ő végrehajtja.

Nem "kérdezz-válaszolj" módban vagyunk, hanem "cél-végrehajtás" módban!


És végül, az agent varázserejének titka: hogyan kap eszközöket?

MCP Server: Model Context Protocol - A Híd

Mit gondolnak róla: "Valami bonyolult tech dolog a háttérben"

Valójában mi ez: Az MCP (Model Context Protocol) egy egységes protokoll, ami meghatározza, hogyan adhatsz eszközöket az AI agent-eknek.

Analógia: az USB port Emlékszel, amikor minden eszköznek más csatlakozója volt? Aztán jött az USB, és minden ugyanúgy csatlakozik. Az MCP ugyanez - egységes módja annak, hogy eszközöket adj az agent-eknek.

Mit csinál az MCP:

  • Egységes interfész adatbázisokhoz, API-khoz, fájlrendszerekhez
  • Biztonsági réteg - szabályozza, mit érhet el az agent
  • Egyszerű integráció - nem kell minden eszközhöz új protokollt írni

Példa: Agent + MCP server → hozzáfér:

  • Google Drive fájlokhoz
  • Céges adatbázishoz
  • Email rendszerhez
  • Naptárhoz ...mind ugyanazon protokollon keresztül.

Miért fontos neked mint vezetőnek: Az MCP teszi lehetővé, hogy az agent-ek "használhassák" a céges rendszereket. Nélküle minden agent integráció külön fejlesztés lenne.

Mint az USB - egy port, minden eszköz!


Most Már Tudod

Képzeld el: ülsz a következő meetingen. Valaki azt mondja: "Használjunk AI-t!"

És te nyugodtan kérdezel vissza:

  • "Milyen jellegű AI-ra gondolsz? LLM-alapú ügyfélszolgálat? Prediktív adatelemzés? Agentic workflow automation?"
  • "Ha LLM, mennyi a context window? Hány tokent kezel?"
  • "Kellene RAG a céges tudáshoz, vagy elég a jó prompt engineering?"
  • "Agent-et akarunk, vagy chatbot elég?"
  • "Van MCP infrastruktúránk, hogy eszközöket adhassunk neki?"

És látod az arcokat. Ezúttal TE vagy az, aki tudja, miről beszél.

Nem azért, mert tech guru lettél. Hanem azért, mert megértetted a térképet. Tudod, hol vagy az AI erdejében, és tudod, hogy milyen kérdéseket kell feltenned.

Ez a magabiztosság segít döntéseket hozni. Segít kommunikálni a tech csapattal. Segít megérteni, mikor milyen megoldást keress.

Mostantól nem leszel kiszolgáltatva a buzzwordöknek.

Mostantól világosan látsz.


Melyik fogalomnál jött nálad az "aha!" pillanat? Oszd meg velem!