Re: Általában a hifiről
Elküldve: 2026.01.21., szer. 19:16
Azt azért elég érdekes megfigyelni, hogy miközben a szakértő urak bőszen kikelnek a fotelokoskodások ellen, micsoda fotelokoskodásokat produkálnak ők maguk AI témában, olyan kijelentéseket téve, amiből egyértelműen kiderül, hogy fingjuk sincs, hogyan működik az a fejlett algoritmus, amit ma AI-nak hívnak (és legtöbbször az LLM-et értik alatta).
A gond az elnevezéssel van, meg a hype-pal körülötte,amit utálok, mert igazából nem intelligencia, de nagyon sokan annak tekintik, és azt várják el tőle, amit egy intelligens "lénytől", plusz a mindtent is tudást természetesen
- ezt legalább eltalálta mindenki. De nem is egy fejlett kereső, mert egyszerűen nem úgy működik, mint egy kereső, teljesen téves az az elképzelés, hogy keresőnek lehet használni, pontosabban inkább ne úgy tekintsetek rá, mint egy internetes kereső, mert nem végez internetes keresést a kérdés megválaszolásakor. Ne tévesszen meg pl. a chromium alapú böngészőkbe beépülő ChatGPT-extension, az valójában promptként használja a keresőszavakat, és a betanított információk alapján fog válaszolni, nem végez keresést.
@R.G.: amit írsz, az is sajnos a félreértelmezése az LLM-ek működésének. Egy LLM-et nem fórumtartalommal vagy közöségi médiával tanítanak be. A MetaAI pl. a felhasználók hozzászólásait nem a saját tudásának bővítésére használja, hanem a felhasználói kontextus felépítéséhez. Lényegében egy kivonatot készít minden egyes felhasználo számára a felhasználó hozzászólásaiból, posztjaiból, ami a felhasználó által a MetaAI felé feltett összes kérdés elé be fog kerülni látatlanban, ezzel egészül ki a prompt. Rólad is. Ez a válaszadáshoz a személyed, szokásaid, hiedelmeid kontextusába helyezi az LLM-et, ami segít abban, hogy "megértse" a kérdésedet (valójában szó sincs semmiféle megértésről, de muszáj egyszerűsíteni a magyarázatot, mert különben soha nem érek a végére) és számodra is a lehető legrelevánsabb választ adja (pl. ne árasszon el olyan információkkal, amit a saját betanítása alapján már jól tudsz, de finoman rámutasson a kérdés kapcsán azokra a dolgokra, amikről rossz információid/elképzelésed van).
Az amit írsz, csak abban az esetben állna elő, ha egy RAG (Retrieval Augmented Generation, ha érdekel, mi az, katt ide) tudásbázisába másolja be valaki a fórum tartalmát, ami az adott RAG tudásbázisa készítőjének hozzá nem értését jelentené, semmiképp nem az LLM/AI problémáját). Lehetne pl. egy olyan RAG-alapú chatbotot készíteni, amibe az AVX tljes adatbázisát bedobálnánk tudásbázisként, de az a chatbot akkor tényleg elég sok hülyeséget "mondana". Mindenesetre érdekes és vicces kísérlet lenne, de komoly célokra ilyent csak az csinál, aki nem érti, mit is csinál valójában).
Az adatbázishoza való hasonlítás mint megközelítés már sokkal jobb, bár az, hogy "semmi több" itt sem állja meg a helyét, de ezt most nagyon mélyre vezetne elmagyarázni, miért. Én azt javasolnám, hogy aki AI témában ex-cathedra kijelentéseket tesz, az előbb mélyedjen el a neurális hálózatok, a deep learning és az LLM (nagy nyelvi modellek) alapvető működésének megértésében, mittomén courserán vagy Blilliant-on, vannak rá oktató/magyarázó oldalak, csak keresni kell. Vagy kérdezze meg magát a ChatGPT-t
A mai AI alapvető algoritmusának, nagyon alapvető működési módjának velejárója az ún. hallucináció, amikor az AI látszólag "kitalál" hülyeségeket. Ettől teljesen nem lehet megszabadulni, és az ok - mg egyszer mondom - nagyon mélyen, az alapoknál van. De az AI válaszának minősége, tényszerűsége (angolul factuality) óriási mértékben függ a kérdés feltevésének módjától, megfogalmazásától, és a kontextusba helyező információk mennyiségétől, sorrendjétől, legtöbbször még nyelvétől is. Bármilyen furcsának tűnik, ezen összefüggéseket még ezerrel kutatják a már meglévőgeneratív AI modellek esetében is, tudományos publikációk sora születik folyamatosan a témában, amik mentén egy új szaktudás/szakma/tudományág, az ún. prompt engineering nő fel. A mai ismereteket prompt engineeringben már oktatják is, és elképesztő, de igen egy "erős" promptolással minimálissá tehető vagy éppen lenullázható a hallucinációk száma. Egy promptban meg lehet tanítani az LLM-nek, hogy hogyan "gondolkodjon", de elég sok rávezető formula is van, egyesek egészen triviálisak, pl. próbáljátok ki ezt odaírni a kérdésetek _elejére_ "let's do it step by step.", ez az egyetlen frázis már nagyon sok lehetséges hallucinációt kiszór a majdani válaszból. A prognózisom az, hogy nagyon rövidesen a programozást a prompt engineering veszi át, aki ismeri ezt a most felnövő tudományágat, az lesz a jövő programozója. Ha jól promptolsz, már ma neincs szükség programozói tudásra ahhoz, hogy akár nagyon komplex programokat is elkészíts egy specializált AI/LLM (pl GitHub Copilot) segítségével.
Elnézést kérek a hosszó offért, remélem nem megy a levesbe, és remélem, lesz aki elolvassa. Akár érdemes lenhetne nyitni egy topikot az AI témakörnek is...
A gond az elnevezéssel van, meg a hype-pal körülötte,amit utálok, mert igazából nem intelligencia, de nagyon sokan annak tekintik, és azt várják el tőle, amit egy intelligens "lénytől", plusz a mindtent is tudást természetesen
@R.G.: amit írsz, az is sajnos a félreértelmezése az LLM-ek működésének. Egy LLM-et nem fórumtartalommal vagy közöségi médiával tanítanak be. A MetaAI pl. a felhasználók hozzászólásait nem a saját tudásának bővítésére használja, hanem a felhasználói kontextus felépítéséhez. Lényegében egy kivonatot készít minden egyes felhasználo számára a felhasználó hozzászólásaiból, posztjaiból, ami a felhasználó által a MetaAI felé feltett összes kérdés elé be fog kerülni látatlanban, ezzel egészül ki a prompt. Rólad is. Ez a válaszadáshoz a személyed, szokásaid, hiedelmeid kontextusába helyezi az LLM-et, ami segít abban, hogy "megértse" a kérdésedet (valójában szó sincs semmiféle megértésről, de muszáj egyszerűsíteni a magyarázatot, mert különben soha nem érek a végére) és számodra is a lehető legrelevánsabb választ adja (pl. ne árasszon el olyan információkkal, amit a saját betanítása alapján már jól tudsz, de finoman rámutasson a kérdés kapcsán azokra a dolgokra, amikről rossz információid/elképzelésed van).
Az amit írsz, csak abban az esetben állna elő, ha egy RAG (Retrieval Augmented Generation, ha érdekel, mi az, katt ide) tudásbázisába másolja be valaki a fórum tartalmát, ami az adott RAG tudásbázisa készítőjének hozzá nem értését jelentené, semmiképp nem az LLM/AI problémáját). Lehetne pl. egy olyan RAG-alapú chatbotot készíteni, amibe az AVX tljes adatbázisát bedobálnánk tudásbázisként, de az a chatbot akkor tényleg elég sok hülyeséget "mondana". Mindenesetre érdekes és vicces kísérlet lenne, de komoly célokra ilyent csak az csinál, aki nem érti, mit is csinál valójában).
Az adatbázishoza való hasonlítás mint megközelítés már sokkal jobb, bár az, hogy "semmi több" itt sem állja meg a helyét, de ezt most nagyon mélyre vezetne elmagyarázni, miért. Én azt javasolnám, hogy aki AI témában ex-cathedra kijelentéseket tesz, az előbb mélyedjen el a neurális hálózatok, a deep learning és az LLM (nagy nyelvi modellek) alapvető működésének megértésében, mittomén courserán vagy Blilliant-on, vannak rá oktató/magyarázó oldalak, csak keresni kell. Vagy kérdezze meg magát a ChatGPT-t
A mai AI alapvető algoritmusának, nagyon alapvető működési módjának velejárója az ún. hallucináció, amikor az AI látszólag "kitalál" hülyeségeket. Ettől teljesen nem lehet megszabadulni, és az ok - mg egyszer mondom - nagyon mélyen, az alapoknál van. De az AI válaszának minősége, tényszerűsége (angolul factuality) óriási mértékben függ a kérdés feltevésének módjától, megfogalmazásától, és a kontextusba helyező információk mennyiségétől, sorrendjétől, legtöbbször még nyelvétől is. Bármilyen furcsának tűnik, ezen összefüggéseket még ezerrel kutatják a már meglévőgeneratív AI modellek esetében is, tudományos publikációk sora születik folyamatosan a témában, amik mentén egy új szaktudás/szakma/tudományág, az ún. prompt engineering nő fel. A mai ismereteket prompt engineeringben már oktatják is, és elképesztő, de igen egy "erős" promptolással minimálissá tehető vagy éppen lenullázható a hallucinációk száma. Egy promptban meg lehet tanítani az LLM-nek, hogy hogyan "gondolkodjon", de elég sok rávezető formula is van, egyesek egészen triviálisak, pl. próbáljátok ki ezt odaírni a kérdésetek _elejére_ "let's do it step by step.", ez az egyetlen frázis már nagyon sok lehetséges hallucinációt kiszór a majdani válaszból. A prognózisom az, hogy nagyon rövidesen a programozást a prompt engineering veszi át, aki ismeri ezt a most felnövő tudományágat, az lesz a jövő programozója. Ha jól promptolsz, már ma neincs szükség programozói tudásra ahhoz, hogy akár nagyon komplex programokat is elkészíts egy specializált AI/LLM (pl GitHub Copilot) segítségével.
Elnézést kérek a hosszó offért, remélem nem megy a levesbe, és remélem, lesz aki elolvassa. Akár érdemes lenhetne nyitni egy topikot az AI témakörnek is...