Robotokkal a vezetésben - Beszélgetés Pitlik Lászlóval

írta: Véry Zoltán dátum: 2013. június 26. 10:13:17
Címkék: Management and Compliance Control, Extended Mind, Business Robots, Development, Design

Beszélgetőtársam Dr. Pitlik László egyetemi docens (SZIE GTK), robotkutató, robotfejlesztő. Véleménye szerint: a robotokkal magas szinten lehet társalogni ... van amikor a robottól tudjuk meg, hogy kevés a szókincsünk arra, ami létező ...

Az értelemről, a kockázatról és a kockázatkezelésről lesz ezúttal szó ...

VZ: Javaslom, amennyire lehet, beszéljünk a megszokottól eltérően, s vonjunk be a beszélgetésbe olyan fogalmakat is, mint: világ, horizont, nyelv, szemantika, taxonómia, konzisztencia, bizonytalanság, kockázat, robot. „Egyetlen értelemszervező rendszer sem tud tulajdon folyamatainak értelemszerűsége elől menekülni. Az értelem további értelemre utal. Minden értelem végső horizontja a világ.” A megismerésben a világhorizont nagyon sok jelet, adatot jelent. Miként lehet ezeket begyűjteni és feldolgozni a magunk segítésére?

PL: In medias res: A hasonlóságelemzés alapjaiból elindulva tényként kezelhetünk mindent jelet, amit értünk, és amit úm. irányítani tudunk más jelenségekhez képest. Tehát jelen beszélgetésből most rekesszük ki az exploratív modellezést, ahol két tényező között még a kapcsolatok irányát sem tudjuk, hiszen éppen azt keressük. Egy példa az irányított tény-értelmezésre: Mennyire ideális egy adott szöveg értelmezhetősége? Annál kevésbé értelmezhető egy szöveg, pl. minél több idegen szó van benne, azaz az idegen szavak száma és az értelmezhetőség között fordított arányosság áll fenn az elemző prekoncepciója szerint.
No de vegyük sorra a felkínált egyéb kifejezéseket is: A hasonlóságelemzés világa látszólag annyi, amennyi jelenségről szóló jel (=tényadat) van benne. Ellenben: pl. a genetikai potenciál fogalmával már fogalomteremtés is történik: egy szimulátorban, ahol az a kérdés, milyen inputkombinációk milyen következményekre vezetnek, ott a rendszer genetikai potenciálja az a maximális következményérték, ami az irányok figyelembe vételével az inputok (egy/több) adott konstellációjánál elvárható. Az előző példánál maradva: Ha egy üzenet megértését 0 -100-as skálán valamilyen teszttel mérjük, s a szövegalkotás jegyei lennének az inputok (pl. a szöveg hossza, az idegen szavak száma, a példák száma, a mondatok hossza, az írásjelek száma), akkor a szimulátor vélelmezhetően 100% alatti genetikai potenciált illene, hogy valószínűsítsen egy valós megértési folyamatok egy halmazának értelmezése után. Hiszen több, mint 100% eleve nem illik, hogy kijöjjön egy hitelességre vágyó rendszerben, s egy kellően szofisztikált üzenet esetén a teljes megértés is illúzió ...

VZ: Mit mondasz, ha beemeljük a beszédbe a konzisztencia és a konzisztencia-rétegek fogalmát?

PL: Ha bevezetjük a konzisztencia fogalmát, akkor ezzel újabb óvatos fogalomteremtési esélyt adunk annak a jelenséguniverzumnak, mely az adatokon keresztül a vázát adja a világértelmezésünknek: konzisztens egy modell akkor, ha minden elgondolható módon, s minél pontosabban illeszkednek a modell elemei egymáshoz. Például: http://miau.gau.hu/miau/111/chf30.doc

Bármilyen illeszkedési zavara a modelleredményeknek gyanút, kockázatot jelent: ennek valódi megértése akkor történik meg, ha szavakba vagyunk képesek foglalni a modellek „bináris” jelrendszerét. A sablonszöveg-alkotás (hasonlóan az irányok kialakításához és szöveges értelmezéséhez) egy mélyen ihletett és teremtő emberi folyamatot tételez fel, noha a vége egy beszélő robot-tanácsadó, aki/ami képes a modellek eredményeit szöveges jelentéssé formálni.
A robot-szakvélemény képes kitérni számszerűen és verbálisan az eredményekben rejlő illeszkedési bizonytalanságok minden olyan szintjére, melyre a szakértő már megtanította a robotot. Itt tehát egyelőre nincs robotizált fogalomalkotás, hiszen a robotnak már a számok nyelve is elegendő lenne további modellek operacionalizált/automatizált) építéséhez. A szövegalkotásra az embernek van szükséges: saját megértési és újabb intuíciós folyamatai katalizálására…

VZ: A világ azonban nem csak a dolgok összessége, hanem a lehetőségeknek az egysége. Azoknak a lehetőségeknek, melyek a bizonytalanságban benne-rejlők. Számomra a bizonytalanság egy komplex fogalom, amit egyrészt zavarként, másrészt szükségletként élünk meg. Meg kell figyelnünk cégünk és környezetünk kockázati eseményeit. Minden vezetőnek a maga terének kockázati kitettségében kell megfigyelnie. A kockázattudatos szervezetekben ezt a szerepet a kockázatfelelős tölti be. Szerinted, idővel alkalmazhatunk majd erre a szerepkörre robotokat is?

PL: Nem csak idővel: már ma is! A hasonlóságelemzés-alapú robotok kockázatfogalma már jelenleg is komplexebb szinte minden emberi fogalomkészletnél, lévén (hasonlóan a sakk-automatákhoz) a kockázatelemző robotok minden tényt és részösszefüggést egységben látnak, vagyis birtokolják nevelőik minden algoritmizálható tudását: egyszerre az összes nevelő összes kockázatokról szóló tudását. A kockázat, mint olyan tehát a legkevésbé sem fekete és fehér, sőt a szürkeárnyalatokat is n-dimenzióban lehet láttatni, s mégis: a végén van esély arra, hogy alternatív döntések közül teljesen algoritmikus úton racionálisan kerüljük el a sorsolásba torkolló holtversenyeket. Bár egy ilyen komplex kockázat-univerzumban már az sem szégyen, ha néhány alternatíva azonosan jónak tűnik adott pillanatban a sok-sok értelmező réteg illeszkedési torzulásai eredőjeként. S így végül egy ún. ráérzést pótló random választás születik az azonosnak tűnők között…

VZ: Az emberek a világ dolgait kategória-rendszerként képezik le. A kategória szerkezet. A dolgok sorrendbe állítása aszerint, hogy mennyire tipikusak. A dolgokat úgy építjük, hogy mennyire hasonlítanak egy prototípushoz. Ezek a taxonómiai kategóriák, melyek stabilak az azonos szakterületről s kultúrából származó egyének között. Az ad hoc kategóriák viszont nincsenek mindig jelen az emberek emlékezetében, mert esetlegesek. Ekként nem a világ, de mi magunk is bizonytalanságot képviselünk. Vajon miként érthető/kezelhető a kockázatelemző, kockázatkezelő ember gondolati-nyelvi bizonytalansága a kockázatelemzés során? Kivel beszélhetünk a kockázatokról? Kivel nem?

PL: A nyelv az ember sajátja. Saját világértelmezési folyamatának eszköze és célja. A robotok antropomorf vonásként képesek ezen emberi bizonytalanságokat „köntösként” felölteni, de mint fentebb már jeleztem: a robotok nem „fáznak”, hogy szükségük is legyen erre. Az ember által kezdeményezett robotizált világmegértés az emberre is visszahat: az ember teremti a robotokat, de a robotok képesek szinte bármilyen gyakran és gyorsan az emberi univerzum határaira eljutni, s ezzel új fogalmak alkotására sarkallni az alkotó embert magát – ennek minden kockázatával. Egyes gondolkodók kísérleteket tesznek arra, hogy pl. 2-3 alapszóból levezessék a világot magát. Ha ez a kísérlet egyszer sikerrel jár, akkor az emberi ösztönös szóalkotás, szóhasználat, nyelvhasználat új korszakába lép, s a robotokkal olyan magas szinten lehet társalogni bármikor, mint ahogy emberrel nem, s azt is egyre ritkábban (vö. sakk-automata). Amit mi emberek érteni vélünk, annak szinte mindenkor meg fogjuk tudni alkotni azon robotverzióját, mely attól lesz igazán értékes első körben, hogy semmit nem felejt, s minden szabályt a legjobban követ – mindezt egyre nagyobb gyorsasággal a technológia fejlődésének köszönhetően. A „végén” az ember az elméleti nyelvészet szintjén úgy fordul a robotokhoz, mint ma az elméleti matematikus/fizikus a képleteihez. S lehet, hogy a „Mennyi? 32! // Mi 32? Mi mennyi?” paradoxona is előállhat, de addig is az ember a világot egyre komplexebb módon lesz képes értelmezni.

VZ: Robotokkal kellene ismerkednünk, „barátkoznunk” a vezetésben, irányításban, elemzésben, tervezésben. Míg korábban sci-fi kijelentésként, addig ma már reális és nagy lehetőségként gondolom mindezt. A beszélgetéseink során te győztél meg. Vajon miért kell erről bennünket, vezetőket, kontrollereket meggyőzni? Félünk a robotoktól? Japánban nem félnek, alkalmazzák őket.

PL: A robotok mi vagyunk, s az embernek sok arca. Van olyan is, amelytől illik félni/megijedni. A robotok normális körülmények között elvileg azt teszik, amire programozva vannak. Ha azonban egy robotnak a felfedezés szabadságát, az önvezérlés lehetőségét átadjuk, s ez már pl. a hasonlóságelemzés fenntarthatósági tanaival megtörtént, akkor a robot formálisan önmagában is fenntartható pályán tud mozogni. A fenntarthatóság a robot számára abban testesül meg, hogy a mindenkori adatuniverzum azon rétegeit, melyeket a legkevésbé ért a többi adat alapján igyekezzen a szintén ezen univerzum alapján feltárt szimulátorok alapján a lehető legracionálisabban abba az irányba közelíteni, ami már magasabb rendszer-konzisztenciát enged felismerni. S ez nem egy statikus folyamat – még véletlenül sem.

A vezetés (legyen ez vállalati, vagy politikai, vagy személyes önsors-vezérlés) már ma is kérdéseket fogalmazhat meg a publikus és titkos adatvagyonok mentén, melyekre a fenntarthatósági elveket ismerő robotok értelmes válaszokat tudnak adni. Sőt: a robotok ismerik saját határaikat is, hiszen inkonzisztens rendszerekről nem szívesen beszélnek. A mindenkori vezetés tehát a robot-tanácsadóktól közel objektív, dinamikus, önellenőrzött véleményt kap, mintha saját legmélyebb intuícióiból és/vagy az ősök szelleméből táplálkozni. S ennek ellenére sem kötelező a robotokat követni: az emberi döntési szabadság továbbra is korlátlan marad, hiszen egy-egy ad hoc cselekedet hatása azonnal beépül a világmegértésbe. Természetesen vannak jobb és kevésbé jó (önsors-rontó) emberi döntések és lesznek jobb és kevésbé jó robot-felismerések. Mindkét fél folyamatosan tanul a másiktól és önmagától… A konzisztencia egy fajta végtelenség, mint egy masztaba, melynek tetejére mindenkor el lehet képzelni egy újabb szintet, s ennek a folyamatnak sosem lesz vége…

VZ: Minden esetre az információ nem csak csökkenteni tudja a bizonytalanságot, de növelni is. Például azért, mert homályos, szürke vagy azért, mert hazug vagy félrevezető és sok minden másért. Mi döntéshozók, akik jelentős információfogyasztók is vagyunk, miképp álljunk hozzá s kezeljük a tökéletlenségeket (inperfections)? Kire, mire támaszkodhatunk ebben?

PL: A modellek a bemeneti jeleiket elsődlegesen igaznak tételezik fel, de már itt is létezik az automatizált hazugságvizsgálat (gyanúgenerálás), ahol egy-egy adatot a többi tükrében meg lehet, és meg is illik kérdőjelezni. Ugyanennek a megértési kockázatnak a fentebb már jelzett vetülete a modelleredmények rétegei között fel-felmerülő illeszkedési zavarok fajtái és mértékei. Például: tudjuk, hogy a kettős tagadás egy fajta igazság. A kettős tagadás egy fajta szimmetria: szimmetriát a matematika nagyon sok formában képes kezelni: pl. irány-szimmetria (keressük az ideált és az anti-ideált), vagy a cél-szimmetria (keressük a rasszista maximális modellhibát és az antidiszkriminatív minimális modellhibát, stb.).


Emellett a téves adatok, ill. egyes objektumok és/vagy attribútumok modellekbe való bevonásának hatásai is vizsgálhatók. Érdekes aktuálpolitikai kérdés: vajon miként hat hazánk speciális Európa-politikája magára az EU-ra? Milyen modellek állnak össze velünk és nélkülünk? Mit kockáztatnak egyes erőterek, ha tiltanak, tűrnek, vagy támogatnak bizonyos jelenségeket?

VZ: Fontos felvetések, kérdések ezek. A gondolkodás, így a kockázatelemzés során kérdezni kell tudni. A jó kérdés hosszú távon fennmarad. A válaszok alakul(hat)nak, változ(hat)nak csupán. A kérdésre adott válaszokból is sokat tanulhatunk. Pro és Kontra. Végül azt kérdezem, hogy mik az általad keretbe és beszédbe foglalt kockázatelemzés konklúziói?

PL: A világot az eddigi ismereteink szerint tökéletesen és teljesen soha nem fogjuk megérteni. Így mindenkor a meg nem értés mértékét és formáit kell egymással szembeállítani. Az emberi döntéshozó formálisan teljesen szabadon lehet „buta”, de egyet nem illik, hogy tegyen: vak/süket nem lehet az adatuniverzumból kiálmodható következményekkel/értékekkel szemben. Elutasítani, felülbírálni bármit lehet, de meg ismerni sem akarni – nem célszerű. A tények és az ősök tudásának kölcsönhatása új (ha akarjuk virtuális impulzus) igen is valós döntések előkészítésében. A hasonlóságelemzés-alapú döntéstámogatás tehát egy masszív tudásfelhalmozás, a közösségi és az egyedi tudás sokszínű interakciójának kerete: egy eszköz, mellyel mindenki saját döntései alapján úgy él, ahogyan szeretne. A kockázatok kapcsán létezik egy univerzális objektivitás: az, aki ma „pontosabban” megmondja, mi lesz holnap bármilyen mérés/megfigyelés jövőbeli értéke – az tud valamit. A teljes pontosság nonszensznek tűnik, de a sok-dimenziós kockázatok (vö. fentebb: illeszkedési hibák a konzisztencia-rétegekben) értelmezése a döntéshozót olyan helyzetbe hozza, melyre a biológiai/valós döntés-előkészítési folyamatok eddig nem voltak képesek a történelemben…

S végül, mint érezhető: a nyelv csak nehézkesen alkalmas keretrendszer arra, ami algoritmikusan már ma is létezik, a kockázatok fogalmának leírására (vö. http://miau.gau.hu/miau/178/kfi/innoswotion_1.doc).

VZ: A kockázat fogalma az, ami a gyakorlatban leginkább félreértésre, nem értésre és rosszul értésre ad okot. Mert tudnunk kell, (sőt meg kell értenünk: robotokkal és azok nélkül is) a kockázat / nemkockázat distinkciót alkalmazni a gyakorlatban. A szemléletünkben pedig csak egyetlen eltérést látok. Azt, hogy a nyelv nem rendszer, nem is keretrendszer, hanem médium, azaz közeg. A gondolkodás kinyilvánításának, kimondásának (hangzó, szöveges, vizuális módon) egy közege. Ahol formálódnak a formák. A szavak, a mondatok, a kijelentések és a beszélési szabályok. A nyelv autonóm, önépülő és állandóan változó, emergens közeg. „A nyelv a lét háza” – mondja Heidegger. A robotokkal együtt lehet lenni. Gondoljuk ezt meg!▄

VZ: Köszönöm a beszélgetést, Laci.

hozzászólások
2013. június 27. 15:24:18

Kedves Advent Ura(m)!

(Legalább is az anagramma-robot? ötletei közül ez tűnt a leginkább ideillőnek!? Tudom: a nevekkel nem illik játszani, de a "butuska robotka" minden veszélyét/báját ebbe az egy diplomáciailag is kétes értékű játékba próbáltam/mertem összefoglalni... Remélem, azért nem léptem túlságosan át semmilyen érdemi határvonalon?!)
Reflexiók:

"Asimov": A sci-fi megtermékenyítő, hiszen segít "kibeszélni" magunkból magunkat.

"mit nevezünk robotnak és mennyire ruházzuk fel antropomorf": igen, teljes mértékben egyetértek.

"funkcionális letisztulások": a kockázat témakörében a letisztulás egyben egy fajta paradigmaváltást is jelent, ahol a letisztulás leginkább annyit jelent, hogy minden pillanatban igyekeznünk kell felnőni szavakban ahhoz, ami képletekben már létezik.

"futószalagos (mi nem az?) munkák": Itt a zárójel a lényeg: talán meglepő módon már a kockázatkezelés (gyanúgenerálás, stratégiai tervezés, stb.) is az, bár tudtommal, még nem GPS (azaz nem general problem solving) jelleggel.

"automatizálás mindig szolgál meglepetésekkel": jelen esetben azzal, hogy verbálisan nem csak a művészetek állnak kihívás előtt, hanem immár a tudomány is...?!

"Azaz nem mindenhol kell automatizálni, mert embernek is kell tudni maradni." Ha bárkiben is feldúsult volna a fajvédő ("humánum" védő) midiklorián-koncentráció, szeretnék mindenkit megnyugtatni: az a robotvilág, ami itt kirajzolódik, csak az emberrel és az emberért érdemes, hogy létezzen. (Persze el kell ismerni: ha a cél-felismerés képességét megadjuk egy mesterséges rendszernek, már pedig a fenntarthatóság fogalmának matematizálása és operacionalizálása ilyesmit jelent, akkor a mesterséges rendszer is lehet, akár tényleg sikeresen=fenntarthatóan autonóm... de ettől azért még jócskán messze vagyunk... S lehet, hogy tévedek is...)

Üdvözlettel

Laci

2013. június 27. 13:24:11

Kedves László !
Érdeklődéssel figyeltem a diskurzust és nemcsak azért, mert nemrégiben -hála az e-booknak - újra olvastam ifjúkorom Asimov és A.C.Clark könyveit.
Az, hogy mit nevezünk robotnak és mennyire ruházzuk fel antropomorf tulajdonságokkal, egyedül rajtunk áll.
Ipari robotokat persze sok helyen alkalmazunk, egy bliszterező automata ellenőrzése duplakamerával és figyelmeztető, színfelismerő, szalagleállító funkcióval szerintem megfelel a robot definíciónak. Nagyon komplexebb eszközt építeni egyelőre azért nehéz, mert éppen azok a funkcionális letisztulások hiányoznak, amiket a LEANesítés tűz a zászlajára. S az elsősorban a futószalagos (mi nem az?) munkák optimaizálását támogatja. A gyártás automatizálás mindig szolgál meglepetésekkel, kimagasló (rész)eredményekkel - magas bevezetési költségek mellett. Emiatt jobb időkben lelkesedünk érte, rosszabb dőkben pedig örülünk, hogy futja arra, ami éppen fontosabb.

Talán tanulságos lehet, amit egykori főnököm mondott japán tapasztalatairól, ahol az ipari robotok alkalmazási arány talán a legmagasabb a világon. Gyártási leírása időnként a 2001 Űrodüsszeia világát idézte, majd, úgy folytatódott a történet, hogy amikor bement vásárolni az ottani szupermarketbe, idős embereket látott, akik ingyen segítettek szatyorba pakolni, a kocsit az autóhoz tolni. Azaz nem mindenhol kell automatizálni, mert embernek is kell tudni maradni.

Jópár éve nagy örömmel üdvözöltem az egyik nagy áruházlánc újítását, mindent azonnal polietilén zacskóka raktak, kellemes, gyors volt és higiénikus. Szinte teljesen megszűnt a környezetet és az áruház pénztárcáját kevésbé terhelendő. Pedig a könnyű, gyors pénztárelhagyásra, a pakolás segítségére ma is és nálunk is szükség lenne, de inkább megszűnt, mert így egyszerűbb, mindenki oldja meg, ahogy tudja.
Sok sikert kívánok a robotkutatáshoz és az alkalmazott robotikához !
Daventura

Olvasói sarok
[ 2011-10-17 ] Pénzfokális- vs. pénzügyi-kontroll - Véry Zoltán
"Kedves Daventura! Köszönöm az érdeklődést, a hozzászó..."
[ 2011-08-29 ] Pénzfokális controlling© - Véry Zoltán
"Kedves Daventura! Örülök, hogy tetszik. Like! Ha tu..."
[ 2011-08-04 ] Szervezetfejlesztés: tréning és kontroll – Beszélgetés tanácsadókkal - Küsz András
"Kedves Zsolt ! A cénégyzet módszer inkább egy busines..."
[ 2011-05-03 ] Modern Vezetői Controlling - Kristóf Péter
"A válaszhoz szorosan kapcsolódik a legutóbbi, A contro..."
[ 2010-10-18 ] A rugalmas vezetésről és kontrollról - Pitlik László
"http://miau.gau.hu/miau2009/index_tki.php3?_filterText..."
További témák »
.