Digitális mérnökhiány a vegyiparban – Mi lesz a megoldás?
2024. december 02.
Mesterséges intelligencia és jogi felelősség | Publikus
Feltöltés dátuma : 2022. június 15.
A jog és technológia keresztmetszetében kiemelt helyen szerepel a mesterséges intelligencia témaköre. Jelenleg is számos felhasználási területe van az AI alapú megoldásoknak, miközben számtalan kérdés merül fel a biztonsággal, átláthatósággal, elszámoltathatósággal, az alapvető jogok tiszteletben tartásával kapcsolatban, de ugyanúgy fontos aspektus, hogy hogyan lehet elkerülni a diszkriminációt? Mindeközben az egyes megoldások rohamtempóban fejlődnek, és amíg jelenleg csak az ANI (artificial narrow intelligence) technológiai megoldásokról lehet felelősségteljesen beszélni, nem szabad elfelejteni a következő lépcsőket, az AGI-t (artificial general intelligence) és ASI-t (artificial superintelligence), amik jelenleg jogi szempontból még a sci-fi kategóriába esnek.
Újra Zorkóczy Miklóssal beszélgetünk a LegalTech aktuális kérdéseiről, jelen esetben, hogy mi a jelenlegi technológia mögötti jogi felelősség alapja, elegendő-e a jogi szabályozás, mikor kell és kell-e innovatív jogi szabályozás?
Laczkó Gábor: – Üdvözlök mindenkit, a mai videónk kapcsán. Ma az AI és a jogi felelősség lesz a témakörünk, szeretettel köszöntöm dr. Zorkóczy Miklós ügyvéd urat, AI konzultánst. Arra kérlek Miklós, hogy mielőtt belecsapunk, egy pár gondolatot, egy pár infót ossz meg magadról, hogy te mit is csinálsz a hétköznapokban!
Dr. Zorkóczy Miklós: – Köszönöm szépen, üdvözlök én is mindenkit! Praktizáló ügyvédként találkoztam az AI témakörrel, körülbelül 2-2,5 évvel ezelőtt, ahol észrvettem, hogy ez a terület nagyban függ a technológiától, így elkezdtem ilyen irányba tanulmányokat folytatni, illetve a kutatás is ehhez hozzátartozik. Megérteni azt, hogy a jog és a technológia keresztmetszete miben is segíti az életet és a munkánkat. Egészségügyi szakjogász is vagyok, ezen a területen indultam el először, hogy az egészségügyben az AI az miként jelenik meg, milyen eszközök vannak. Volt lehetőségem tanulni némi programozást, nem azt mondom, hogy tudok Pythonban írni, de legalábbis az algoritmusoknak megértem a funkcióját, hogy melyik mire is jó. Illetve egy angol dubai illetőségű iskolában is sikerült kifejezetten LegalTech oktatásban részesülnöm, ahol konkrét platformokkal, szoftverekkel, megoldásokkal találkozhattunk. Abszolút a praktikumát látom, magam is használok egyébként LegalTech eszközöket, illetve tartok is erről másoknak előadásokat, ügyvédi irodáknak, vállalati jogi osztályoknak. Kutatója maradtam a témának, külsős kutatóként veszek részt munkában, illetve egyetemi oktatásban is most már. Így az elmélet találkozik a gyakorlattal az én esetemben. Használom is, tudásként meg is tudom osztani, illetve az elméleti részével is igyekszem minél jobban tisztában lenni és elmélyülni. Talán ennyit lehet magamról összefoglalóan elmondani.
Laczkó Gábor: – Szuper, köszönöm. Én pedig Laczkó Gábor vagyok a Stylersnek mint szoftverfejlesztő cégnek, a Braining Hubnak mint IT oktatócégnek, és a Protechtornak mint online IT eseménysorozatnak az egyik alapítója. Azt gondolom, vágjunk is bele a mai témánkba. Nagyon sokat beszélgettünk ezt megelőzően Miklóssal nekünk volt egy közös korábbi videónk is, amit meg lehet találni itt a Protechtor videótárában. Arra jutottunk akkor, hogy mindenképpen érdemes lenne szentelni egy következő alkalmat is, amikor is a mesterséges intelligencia, és az ehhez kapcsolódó jogi szabályzásról, jogi felelősségről fogunk beszélgetni. Többféle mesterséges intelligenciáról beszélünk. Arról, ami most van, és ebben élünk, ez vesz minket körül. Van olyan mesterséges intelligencia, amit még nem tudunk, hogy mi, és hogyan fog alakulni. Sejtésünk arról van, hogy mik az irányvonalak. A jövőkutatásnak egyik alapja az, hogy meghatározzuk, hogy merre megyünk. Legfőképpen minket az érdekelne, hogy most, ami körülvesz minket, mint mesterséges intelligencia, az hogy van szabályozva, milyen korlátai vannak, mit érdemes erről tudni. Miklós egy picit ha erről bevezetőként mesélsz nekünk, hogy a Big Picture-t hogy látod ezen a területen, akkor azt megköszönöm.
Dr. Zorkóczy Miklós: – El is kezdted egyébként meghámozni a fogalmat. Itt a technológia a lényeg, ami szerintem először meg kéne értenünk. Van különböző csoportosítása a mesterséges intelligenciának, angol szóval AI. Ennek van egy szűkebb alkalmazási területe, tulajdonképpen ez a mostani technológia. ANI-nak hívják, Artificial Narrow Intelligence, ez létező. Kár is intelligenciának hívni, mert félrevezető. Az emberek, akik nem ismerik a technológiának ezt az alkalmazását, félnek tőle. Orvosokkal, jogászokkal, üzletemberekkel hogyha beszélgetek, van egyfajta idegenkedés, sajtóból, irodalmi példákból, filmiparból terminátor-elképzelés. Itt egyáltalán nem erről van szó. Emberi tulajdonságokat képes utánozni gépi tanulás útján, szimplán Data science alapon a jelenlegi technológia. Amiről tudunk jogilag is értelmesen beszélni, az az ANI technológia. Ettől élesen el lehet választani azt a jövőbeli technológiát, amiről nem tudjuk még, hogy hogyan fog működni, nem tudjuk még, hogy hogyan lehet programozni, ezért nem tudjuk jogilag sem, hogy hogyan fogjuk tudni szabályozni, melyik részét fogjuk szabályozni. A piacot fogjuk szabályozni? A fejlesztést fogjuk szabályozni? A fogyasztói jogokat fogjuk szabályozni? Ilyen jogfilozófiai szinten kell jogképességet létrehoznunk, ahogy annak idején a vállalatok, cégek esetében az elkülönült vagyonösszesség. Egy mesterséges jogi konstrukciót kell majd a jövőben létrehoznunk azért, hogy cselekvőképes, vagy részlegesen cselekvőképes, vétő és vétőképessé tegyünk egy olyan gépi technológiát, aminek egyelőre nem tudjuk elképzelni, hogy hogy mitől lesz vagy hogyan lesz az autonómiája. De olyan autonómiája, ami önreflexív, tehát ami felismeri a környezetét, adaptálja, általánosít, azokból következtetést von le, öntudata van, önképe van, tehát ily módon körbejártuk a szabad akarat kérdéskörét. Az emberi felelősségre vonhatóságnál ez a szabad akarat, ami nem előre meghatározott. Mert ha előre meghatározott lenne a szabad akarat, akkor nem lehetne büntethető az elkövető, merthogy előre őbenne is bele lett programozva. De szabad akarat van, és így a mostani technológiát figyelembe véve nem tudsz nekem olyat mondani, ahol ne legyen emberi input. A jelenlegi technológia adatokon alapszik, ugye ismerjük, hogy ezek az algoritmusok 50-60 éve léteznek, de ekkora mennyiségű adat, amit tényleg ésszerűen és nagyon hatékonyan lehet felhasználni az adatkezelésnél, ez most van. Most abban a korban vagyunk, amikor bizonyos emberi képességeket, de azoknak csak egy szeletét úgy tudja a gép utánozni, olyan mintázatokat tudunk neki adni, akár inputtal, akár pedig ha azt vesszük, hogy léteznek nem felügyelt tanulórendszerek is. Megint talán egy kicsit félrevezető ez a megfogalmazás, hogy nem felügyelt, hát felügyelt, ugyanúgy az ember adja meg az inputot, csak maximum azt adja meg egy szövegfeldolgozás kapcsán, hogy hány olyan ismérvet találjon a rendszert, hány olyan dimenzióban vizsgálódjon a rendszer, amire az embernek szüksége van. De ugyanúgy emberi input és ember output kapcsán történik a validálás. Pont itt van egyébként egy könyv, ez a Szövegbányászat és mesterséges intelligencia R-ben. Ez egy 174 oldalas könyv, az egész arról szól, hogy hol van az emberi input. Ha veszünk egy szöveget, de vehetünk egy képalkotó diagnosztikát, tehát a pixel, az is egy adat, a szövegben egy karakter az egy adat. Ezt matematikai módszerekkel, algebra és geometria segítségével az adatokat tudjuk osztályozni, bizonyos előre megadott tulajdonságok mentén. Hogyan is történik ez? Itt van a felelősségnek a kérdése. Adott egy adatbázis, abból korpuszt kell építeni. A korpusz az micsoda? Egy strukturált adatbázis, tehát már beavatkoztam. Ha beavatkoztam, akkor mi alapján avatkoztam be? Tehát az adatokat, valami alapján gyűjtöttem, kiválasztottam. Az az én döntésem volt. Ha én szakértő vagyok, akkor az én területem határozza meg azt a szakértői specialitást, aminek kapcsán az az adatbázis rendelkezésre áll. Gyakran beszélnek a torzításról, már itt az adatképzés során, az adatbázis képzés során a torzítás felmerül. Lehet ez egyébként ez kulturális hátterű, vagy lehet pont egyébként emberi tényezőkből fakad. Lehet, hogy az adatbázis működtetése, feldolgozása során a visszajelzések azok, amik torzítanak. Úgy tanítjuk meg a gépet gondolkozni, ami a mi legjobb tudomásunk. Nemcsak az összetételében kell vigyázni arra, hogy bizonyos kisebbségek ne szorulhassanak ki, bőrszínre, társadalmi osztályokra gondolok, vagy pedig nemi identitásból fakadó eltérésekre. Hibás lehet az adatgyűjtési folyamat, hogyha az nem elég reprezentatív. Vagy ugyanúgy magának az adattisztításnak a folyamata is emberi beavatkozás. Ott is hibázhatunk, ott is előítéletesek lehetünk. Tehát adott egy adatfeldolgozási folyamat, ezt a jog jól kezeli, adatokat lehet gyűjteni, de hát itt vannak személyes adatok, amelyekhez megfelelő jogcímeket kell találnunk. Vannak különleges adatok, amelyekhez szintén újabb jogcímek párosíthatóak. Ezeket dokumentálnunk kell. Mondjuk, ha azt vesszük, hogy egy fejlesztőnek, aki egy ANI-típusú alkalmazást szeretne fejleszteni, már erre figyelnie kell, hogy az az adatbázis, amin ő tanít, amit ő strukturál, az már jogilag helyesen legyen felvéve. Gyakorlatilag megérkeztünk oda, hogy fejlesztés. A fejlesztés az micsoda? A fejlesztés megint csak egy aktív emberi folyamat. Adott az adatbázis, annak egy bizonyos részén tanítunk. Mi alapján tanítunk? Azt megint az emberi közrehatás, az emberi célzat tudja megadni. Mitől lesz ez átlátható? Mitől lesz ez Explainable AI, ahogy szokták mondani. Mitől lesz ez magyarázható? Hát abból, hogy a szöveg is adat. Adott hozzá a matematikai képlet, valamilyen út, aminek kapcsán osztályozunk, klasztereket képzünk, vektorokat állítunk föl különböző dimenziókban, és próbáljuk vagy a múltbeli adatokat elemezve a végeredményt nagy hatékonysággal létrehozni, vagy jövőbeli prediktív módon előrejelző módon próbálunk ezekből az adatokból valamilyen trendet, valamilyen folyamatot, valamilyen valószínűséget felállítani. Ez a jövőbeli valószínűség minél távolabb van az időben, annál pontatlanabb. Ezt a pontatlanságot sok tekintetben lehet még finomítani, de az idő pénz, és a hatékonyság rovására megy. Ha ilyen pontatlan rendszereket használunk, akkor az nem az Explainable AI-hoz, vagy legalábbis kevésbé ebbe a kategóriába sorolható, ugyanakkor szükségünk van ezekre a rendszerekre is, mert hatékony. Többezer oldalt átfutni nagyon gyorsan, kis mértékben pontosság. Ha kevésbé van igényünk arra, hogy pontos legyen a végeredmény, de valamiféle képet tudjunk adni a szövegnek a tartalmáról, és utána hogyha ezt az eredményt egy előzetes osztályozás után ember validálja, akkor az nekünk hasznos. De úgy kell hozzáállnunk ahhoz a rendszerhez, hogy az pontatlan. Adott mondjuk egy algoritmus, ami teljesen átlátható, például egy lineáris regresszió, koordináta-rendszerben adott egy vonal, két változó van, az egyik változót, ahogy változtattam, a kettőnek a relációja mérhető. Teljesen átlátható, nyugodtan lehet használni, kockázatos rendszerekben is. Mik a kockázatos rendszerek? Egészségügy, hadügy, minden olyan rendszer, ott, ahol emberi élet és emberi értékek kockázatban állhatnak. Szövegelemzésnél, mondjuk adott egy perirat, egy többezer oldalas perirat vagy peranyag, vagy valamilyen bizonyíték, amit át kell fussak nagyon gyorsan, és nem tudom, hogy mi van benne. Az nekem információ, hogy körülbelül mi a tartalma, hogyha nekem a metaadatait is megvizsgálja egy bizonyos átvilágító rendszer azoknak a fájloknak, kapok egy klasztert, elnevezés alapján már az ügyvédi irodámban szét tudom osztani a munkacsoportban azokat a dokumentumokat, hogy ez a 100 dokumentum a tied, mert te társasági jogász vagy, ez a 10 db a tied, mert te munkajoggal foglalkozol, és így tovább. Nem feltétlenül mindig az a jó rendszer nekünk, ami 100 %-ig pontos. Tulajdonképpen ilyenek nincsenek is, főleg ami prediktív. Még hogyha egy óra múlva történő eseményről is beszélünk, jövőbeli esemény számos bizonytalansági tényezővel, tehát nincsenek ilyen 100 %-os rendszerek. De az ember sem 100 %-os, nyilván az embernek úgy kell tudni használni ezeket a rendszereket, hogy tudatában van annak, hogy ez nem megmagyarázható. Black box hatásnak is szokták egyébként ezt hívni. Ha mondjuk a Python programozást vesszük alapul, van egy Python könyvtár, ezek kész algoritmusok, és vannak modellek, amelyek a modelljeinket ellenőrzik. Van a SAP modell, ami szintén egy régen kitalált valami, de skálázható az, hogy az az eredmény, amit az algoritmusom, amit fejlesztettem kiadott, az mennyire pontos egy 0-1-ig tartó skálán. Tudom, hogyha 1-hez közel van, akkor elég pontos. Ha 0-hoz van közel, akkor az teljesen megbízhatatlan. Vannak ilyen mérőszámai ennek az egésznek. Tehát a kérdés, tulajdonképpen úgy értelmezhető ez, hogy AI felelősség nincs. Emberi felelősség van.
Laczkó Gábor: – Jelenleg nincsen. Ugye? Tehát a mostani világunkban, ami körülöttünk van. De nyilván a jövőben ez változhat, ha megnézzük – ugye ezt pont te említetted – az Én, a robot című filmet, ott picit más a helyzet, ott a robot is például maga dönt. De az egy teljesen más helyzet tud lenni, ott már nincs emberi beavatkozás feltétlenül mögötte.
Dr. Zorkóczy Miklós: – Autonóm. Öntudata van. Ezért ugyanannyira átláthatatlan, mint mondjuk egy emberi tudat. De tulajdonképpen mi az hogy tudat? A technológia annyira messze van még ettől, hogy nagyon szívesen elbeszélgetek holnap estig erről a témáról, de ez jogelmélet és inkább Science fiction. Tehát, mutass nekem technológiát, és én megmondom a jogszabályt vagy azt a jogi innovációt, ami szükséges ahhoz, hogy felelőst találjunk. Szoktak ilyen bonyolult példákat hozni, ne is menjünk az etika területére, de hogy valamilyen eszközbe, egy robotba bele van építve a szoftver. Szoftvernek más a fejlesztője, mint a hardvernek. Csinál valamit mondjuk ez az önjáró robot, egy kórházi takarító robot, kiborítja a lúgos fertőtlenítőszert, és az arra járó betegnek vagy alkalmazottnak megég a lába a savtól vagy valami ilyesmi. Ki a felelős? Hát biztos, hogy nem a robot. Hiszen az előbb megmondtuk, hogy nincs még ez a technológia. A szoftver fejlesztőjének, illetve a hardver előállítójának szerződéses kapcsolata van, ahol a felelősség jó esetben tisztázott. Ha nem tisztázott, akkor ott a Ptk. kontraktuális felelősség szabályai az emberé vagy a céges, tehát az üzleti felelősség az abszolút így visszavezethető. Vannak bonyolult esetek, említettem az etikát, megint csak vannak a nagyvállalati etikai szabályok, azok inkább alapelvek, és önmagukat szabályozzák a nagyvállalatok is, nem akarok neveket mondani. Ez nagyon jó, nagyon szép, de ezek nem hatóság által kiadott etikai alapelvek, és nem hatóság által kikényszeríthető módon meghatározott és főleg globális alapelvek. Tehát az, hogy most a világ mely tájain éppen milyen önkorlátozó szabályozásnak próbálnak ezek a nagy tech cégek megfelelni, ez tényleg nagyon szép és jó kezdeményezés, de mégsem egy államilag kikényszeríthető felsőbb akarat. Úgyhogy ez jogfilozófia, hogy mi lesz majd, mi legyen majd, mi a jog? Eljuthatunk egészen idáig. A jog, amit leírnak, és a parlamentben a törvényhozó jóváhagyja, kiadja azt a jogi aktust, vagy bármilyen szabályozó kiadja azt a jogi aktust. Az a jog? Vagy pedig létezik egy embertől független természetjog, régi fogalmak ezek, amelyek erkölcsileg is, morálisan is szabályoznak. Ne ölj, ne lopj és az egyéb bárhol a világon létező érvényes szabály. Az embernek csak feladata megtalálni a jogot. Az ki lett nyilatkoztatva, és az a feladata, hogy leírja, de maga a jog így önmagától létezik. Ez nagyon messzire visz. Így nem fogunk előrejutni egyről a kettőre. Bíróság előtt ez nem egy hivatkozási alap. Mondom még egyszer, hogy mutasd meg a technológiát, most például a kvantumszámítógépektől várják azt, hogy a számítási kapacitás meg fog hatványozódni nagyon jelentős mértékben. A bináris gondolkodás, hogy 0-1, igen-nem, fekete-fehér, ez átcsaphat ilyen fuzzy logika szerűségbe, hogy értékeket tudunk hozzá csatolni, tehát nemcsak 2 értéket tudunk hozzácsatolni egy adott jelhez vagy problémához, hanem rögtön 1-ből 4-et. Kb. ennyit tudok, és az sem biztos, hogy jól meg tudtam fogalmazni, de 1-ből 1 jelnek 4 értéke lehet. Az nagyon jó a jognak, mert a jogi logika az nem bináris. Gyula. Az most egy személynév, egy város? Gyulai. Az most egy városi jelzőt takar vagy a kolbászt? És még ragozhatnánk. Az említett Szövegbányászat R-ben könyvben az első három fejezet csak arról szól, hogy adott szöveget hogyan strukturáljuk. Először is, levágunk róla mindent. A nagybetűtől kezdve a szóköz, a toldalékok, minden. Na most, az onnantól kezdve nem pontos. De valószínűséget takar. Ezeket a valószínűségeket tudjuk kontrollálni. Egyrészt emberi validálásra, másrészt vannak algoritmusok. A Python könyvtárból leakasztunk mindenféle ellenőrző modelleket, és az megint emberi felelősség, hogy mielőtt azt ráeresztjük a kereskedelmi forgalomra, vagy mielőtt a tesztelés, validálás befejeződik, mindent megtettünk-e? Ezzel kell szembenéznünk. Adatosokkal beszélve, hogy pontosabb, meg gyorsabb, jobb, mint az ember, tehát ezt nem is tudjuk átlátni. De meg kell tudni teremteni azokat a kontrollokat, ha kell, akkor hatósági oldalról, szabályozó és hatósági oldalról, hogy felelőssé legyen tehető az a fejlesztő már azért is, hogy hogyan és mint tanította be azt az adott adatbázist.
Laczkó Gábor: – Itt most nagyon sok olyan példa jutott már az eszembe, amiről érdemes beszélnünk, és engem is foglalkoztat. Egyéként most a szabályzás, a jelenleg meglévő rendszereknek, a jelenlegi mesterséges intelligenciának hol áll? EU szinten van ez meg? Tudjuk ugye, hogy EU, Amerika, Ázsia különböző gyorsasággal szokott szabályozni vagy nemszabályozni. Ez most hol áll? Mekkora a lefedettsége a területnek?
Dr. Zorkóczy Miklós: – Igen. Ilyen MI szabályzás nincs jelenleg. Tehát az, hogy MI-re vonatkozó. Tervezetek vannak. Európa jó szokás szerint próbálja szabályozás oldalról megoldani a technológiai, az innovatív részét a fejlesztéseknek. Volt itt egy GDPR-unk, amit tárgyaltak 10 évig, és mire kijött, addigra a technológia réges-régen meghaladta. Most van egy 20 éves technológián alapuló GDPR-unk. Van egy MI-kódex tervezet, sokan elégedetlenek vele, mert nem elég szigorú, vagy túl szigorú. Hát most akkor kinek van igaza? Nyilván a tech-cégek azt mondják túl szigorú, a fogyasztóvédelem meg azt mondja, hogy ez semmi, így nem lehet kontrollálni. Megint ilyen alapelvekkel jön, hogy megmagyarázhatóság. Matematikailag igen, az adatfeldolgozás magyarázható. De kinek a számára? Azért egy szubjektív kategória, hogy értelmezhető, magyarázható. Valóban van egy ilyen MI-kódex tervezet, de ez kockázatalapú. Bizonyos tevékenységeket kockázat szerint különböztet meg. Van tiltott, tehát ahol olyan magas a kockázat, hogy nem engedi azokat a tevékenységeket. Van magas kockázatú, ahol különböző megfelelőségeket ír elő. Onnantól kezdve, hogy belső megfelelés, megfelelő szakértelem, meg megfelelő belső szabályok mellett külső kontroll is. Hatósági kontroll, bejelentéskötelezettség, tanúsítvány, értékelő szervezetek. Komplett iparágat épít föl, vagy az iparágnak egy komplett mását képezi le a szabályozói oldalon. Lesz európai hatóság, és lesz tagállami hatóság is. Ami nem azt jelenti, hogy egy új hatóságot hoznak létre, hanem kineveznek valamit. Innentől kezdve az MI-vel is mint hatóság foglalkozunk, ez jó. Ugyanakkor bizonyos területeken nem jó, mert gondold el azt a startuppert, akinek már az adathoz jutása is iszonyú nehéz. Vagy az egészségügyet. Honnan szerzel egészségügyi adatot? Benne van az EESZT-ben, esetleg magánegészségügyi szolgáltatóval vagy magánellátóval szerződsz, de akkor ott is macerás, minden betegtől hozzájárulás kell. Ki kell dolgozni, és az már költség, és még el sem indultál a fejlesztéssel. Akkor utána a teszt, a validálás, klinikai kutatási engedélyt kell beszerezned. Az egy hosszabb és ezért drágább procedúra. Akinek ilyen ötlete van, az majd elmegy oda fejleszteni, ahol nincs ilyen, ahol nem kell ezt csinálni, ahol nincsen ilyen kötöttség. Ez egy piacra lépési korlát. Lehet ezen segíteni, a jogalkotónak lehetne olyan intézményi alapokat létrehozni, mentorhálózatot építeni ki. Kormányzat építsen ki egy szakértői mentorhálózatot, ahol megkapják ezt a szakértelmet azok, akik ezen a bizonyos területen szeretnének fejleszteni.
Laczkó Gábor: – Ez az innovációnak egy jelentős korlát ilyen szempontból.
Dr. Zorkóczy Miklós: – Igen, mert ott vagy egyetemistaként, jó ötleted van, van egy csapatod, elmegy a kedved ettől. Nem ezen a területen fogsz fejleszteni. És akkor még nem is beszéltünk arról, hogy már kiszenvedted magadból, de hogyan lépsz piacra. Ezen a területen, mivel ez tudásintenzív, abszolút tech giants világa. Két esélyed van, vagy felvásárolnak, mert megtetszel nekik, vagy pici maradsz örökre. Ez egy megszorító körülmény. Ilyen az élet, lehet azt mondani, de Amerikában, Ausztráliában iszonyú fejlett a LegalTech, HealthTech, de még mondhatnám a Közel-Keletet is. Hatalmas a fejlődés. Európa sehol nincs ehhez képest. Nem azt mondom, hogy a szabályozás miatt, itt nyilván van egy széttagoltság is. Magyarország milyen szerencsés helyzetben van, mert van egy EESZT-je. Egységes adattér. Gondold el azokat az országokat, ahol szolgáltatónként meg finanszírozónként ez elkülönül. Akkor hogyan tudsz úgy adatbázishoz jutni, hogy az lefed egy népességet. Mert az a te felelősséged, hogy az az algó úgy működjön kint a való életben, amiket mondtam, tehát torzításmentesen. Ha 1 %-os az eltérés, mondjuk egy emberi döntéshozatalhoz képest, az már ugye 1.000.000-nál számos eset. És hogyha az az egészségügy, az egy gyógyulási esélynek a romlása vagy elvesztése. Nem vesznek észre egy szövetelváltozást, ugye mi az a tumor. A képalkotó diagnosztikában a pixel az egy adat. Szürke, szürkébb, legszürkébb. Ezt kell megtalálni, az eltéréseket. A különböző klaszterezésen, különböző osztályozáson keresztül továbbra is bináris gondolkodással igen-nem, elváltozás-nem elváltozás, odavaló-nem odavaló. Egy szövetnél mennyi minden jöhet még szóba. A felvétel hogyan készült, nemcsak technológiailag, hanem maga a testhelyzet. Úgy kell beállítani azt az adott személyt az asszisztenciának, hogy az a felvétel úgy készüljön. Akkor egy szövetnél mennyi folyadékot tartalmaz, mennyire átlátható, mennyire átvilágítható. Vannak kifejezetten bonyolult szervek. Ilyen például az emlődiagnosztika, ott rengeteg olyan mirigy van, ami normális, nehezen felismerhető még embernek is. Azt hogyan tanítod meg egy gépnek? Rettentő sok adat kell hozzá. Honnan lesz rettentő sok adat? És akkor visszajutottunk ehhez a kérdéshez.
Laczkó Gábor: – Említetted Ausztráliát, Amerikát, hogy sokkal előrébb járnak. Miért egyébként? Miben tudnak jobban haladni? Európában nem feltétlenül a szabályzás a hátráltató tényező. Miért tudnak ők egy picit jobbak lenni?
Dr. Zorkóczy Miklós: – Ausztráliát láttam közelebbről az egészségügy területén. 2018-ban, még a Covid előtt rettentő sok pénzt fordítottak fejlesztésre, tehát a startup világnak a megsegítése különböző forrásokon keresztül, amik mostanra értek be. Kettő angol nyelvterület, NLP, az, hogy egységes a nyelv. Kifejlesztesz valamit a Szilikon-völgybe, a fél világ tudja használni. Gondold el ezt a magyar szókészletre. Tanítják a pécsi egyetemen az OTP-vel ezt a nagyteljesítményű szuperszámítógépet magyarra. 70 napja tanítják, azt hiszem már lezárult. 70 napig tanul magyarul, és akkor utána lehet eljutni ahhoz, hogy iparág, meg egyebek. Milyen backlog van, tehát, hogy hol vagyunk ehhez képest. Az Amazonon, vagy a Microsofton, vagy bármelyik Cloudon előfizetsz AI-ra, megnyomsz egy gombot, és nagyon olcsón kapsz szókészletet, strukturált adatbázist, bármit. Mikorra tudjuk ezt elérni? Szerencsére vannak azért kezdeményezések, de ezekre a kis nyelvekre nehéz fejleszteni a megtérülés miatt is. Erre a 10.000.000-s országra magyar nyelvkészlettel milyen esélyeink vannak így a nagyvilágban? Előbb-utóbb begyűrűzik, azt kéne megelőzni, hogy ne a tech giantsek csinálják meg. Mert akkor megint csak ki leszünk szolgáltatva. Az adatoknál is, hol van a te adatod? Tehát, hogy kötelező tájékoztatni az érintettet arról, hogy hol van az adat. Sokszor nem tudod, hogy hol van. Ha Amazonra előfizetsz, és mondjuk Brazíliában van a szerver, az már harmadik ország, hiába itt működsz Európában. Jelen pillanatban az USA sem biztonságos országnak minősül adatvédelmi szempontból. A Privacy Shieldet megtámadta Andreas Schrems osztrák vagy német jogvédő szervezet tagjaként, jelen pillanatban Amerika sem biztonságos az adatok szempontjából. Egyébként ott csak arról van szó, hogy a hatóságok szabadon kutathatják az adatbázisokat, nyilván ez Európának nem tetszik. Van itt egy széttagoltság, annak nyilván vannak sajátosságai, ezért is lehet a lemaradás, de nyugodtan rá lehet fogni a startup világra. Sokkal előrébb vannak VC-ben, Venture Capitalistben. Évtizedes múltja van. Míg Európában elkezdtük ezeket a programokat JEREMIE program például, és nagyságrendileg gyakorlatilag most tartunk ott, hogy elfogadottá vált, hogy az embereknek egyáltalán eszébe jut, hogy startup, VC, hogy kockázati tőke befektetőket lehet keresni.
Laczkó Gábor: – Meg hát most érnek el egyébként olyan érettségi fokra, akik a legelső szereplői voltak akár itt Magyarországon, most lesznek 6-7-8 éves vállalatok, vagy innovatív cégek, és nyilván most kezdenek beérni is akár.
Dr. Zorkóczy Miklós: – A digitalizációról annyit, hogy jelentős a magyar kkv réteg, és nagyjából az új mobiltelefon beszerzése a legnépszerűbb a ranglistán. Voltam 3 héttel ezelőtt az IVSZ konferencián, ahol erről volt szó, hogy a többségnek tényleg ez a digitalizáció, az innováció, hogy okostelefon. Ettől azért messze vagyunk, például az iparban mennyi adatot lehetne rögzíteni, nincs szenzortechnológia egyébként. Azt olvastam, hogy 30 %-a a magyar iparnak az, ahol rögzítik az adatokat és hálózatba kötik. Az adat megvan, de nincs hálózatba kötve. Akkor mit fejlesztenél? Először meg kéne teremteni az adatot. És az iparban rendkívül jól előre lehet jelezni, aminek nagyon sok pénzügyi haszna van. Ha előre tudnád jelezni a selejtgyártást, megállítod a gépsort. A gépsort leállítani a legdrágább az égvilágon, tehát annál nincs drágább. De ha előtte legyártott 50 db selejtet, az mégdrágább. Ha ezeket előre lehet jelezni, márpedig előre lehet jelezni, mert ahogy kopik a kés, lazulnak a rugók, csökken az olajnyomás, ezek mind-mind szenzortechnikával mérhetőek. Vagy ott van a mezőgazdaság. Kimegy a drón, feltérképezi, megnézi, hogy a talajtól függően és az időjárás-előrejelzéstől függően hogy hol kell, mikor kell permetezni. Kimegy a traktor, lepermetezi, jön az eső, utána mindent lemos, semmit nem ér. Vagy kimegy a traktor és elvégzi mindenhol a feladatot, ahol felesleges. Gyomirtózik ott, ahol nincsen gyom. Számos ilyen terület van, holnap reggelig lehetne ezeket a példákat mondani. Versenyképessé tehető a gazdaság ezzel, mert a technológia készen áll. És ez egyszerű technológia, továbbra sem egy körmönfont dologról van szó. Én úgy hallottam minden konferencián, hogy erősek vagyunk adatiparban. A szakemberképzés, a szakembergárda központi helyet kapott ebben a régióban. Meg lenne hozzá a kapacitás. Visszakanyarodva az AI-ra, megszereztük az adatot, betanítottuk, teszteltük és validáltuk. Mindegyik emberi input, kivétel nélkül. Ezért nyomonkövethető. Ott lesznek majd egyébként érdekes dolgok, hogy adatvédelmi szempontból ilyen, hogy adatminimalizáció, tehát, hogy betanítod az algoritmust az adaton, azt meg kéne őrizni, mert akkor így vissza tudod fejteni, hogy mit is csináltál. Az EESZT-ben van elvi lehetőség, hogy fejlessz, utána kivonod az algoritmust, elviszed üzleti alkalmazásba, de az adatot nem tudod magaddal hozni, az ott kell, hogy maradjon. Igazán nagy lehetősége az egészségügyben annak lenne, hogy nemcsak egy egyszerű adatbázishoz hozzájutsz, hanem folyamatosan hozzájutsz az adatfrissítésekhez is, akkor érdekes, ha mondjuk van egy diagnózis, és után tudod követni a beteg életútját, hogy mi történik vele. Ez nem egyszerű kérdés. Leszek itt ilyen konfliktusok, hogy aki az adatot szolgáltatja, az jól vette-e föl, aztán az, aki az adatot betanította, az vajon jól tanította-e be, és így szépen végig tudunk menni az ellátói, beszállítói láncon. Mindenki, aki hozzátesz, hogyan fogja tudni bizonyítani, hogy nem nála romlott el a rendszer.
Laczkó Gábor: – Itt jön majd be egyébként valószínűleg a hitelesítés és talán a blockchain. Ez egy nagyon jó pont tud lenni, ahol összekapcsolódik a két technológia.
Dr. Zorkóczy Miklós: – Mindenképpen párhuzamos a fejlődés. Inkább azt mondanám, hogy a blockchain most a pénzügyi háttere miatt szárnyakat kapott. Visszatérve az algoritmusokra, vannak olyan algoritmusok, amik már eleve bizonytalanul működnek, mert nem az a feladatuk, nem az a tulajdonságuk. Tehát egy K-közép, egy K-nearest, ahol egy adathalmazon belül azt tudja megnézni, hogy mi az a hasonlóság, hol vannak azok a hasonló mintázatok mondjuk egy szövegben, és akkor ez alapján értékelni. A lineáris regresszió értelmezhető, átlátható algoritmusok. Mindenféle döntési fák, és más egyéb bonyolultabb algoritmusok már eleve lehet, hogy éppen a funkcióból adódóan a kis értékekre, az alacsony számú találatokra fókuszál, kihagyja, egyszerűsíti. Lehet nagy pontosságú rendszereket fejleszteni, de az nagyon drága, vagy a hatékonyság rovására megy, tehát nem szükséges. Ugyanakkor a fejlesztői, forgalmazói felelősség az mindenképpen felmerül. Akkor, amikor üzembe helyezi, akkor a megfelelő tájékoztatást megadja, illetve a felek egymás között, amikor pakolják egymásra a különböző szolgáltatásokat, vagy beépítik a hardverbe a szoftvert, akkor egymás között állapodjanak meg, hogy ki miért felelős. Szerződéses, írásos háttere legyen. A dokumentáció nagyon fontos, mert védi a fejlesztőt, a forgalmazót is. Pontos és naprakész legyen a dokumentáció. Ez az összes specifikációra igaz, az összes számítástechnikai produktumra. Itt sem különbözik ettől. Meg kell adni azt a kizárásokat, disclaimereket, hogy miért nem felelős, illetve meg kell adni a tájékoztatást, hogy igen, ez olyan típusú termék, ahol a pontosság kb. ilyen valószínűséget tartalmaz, és hogy emberi felügyelet szükséges azoknak a használatához. Az algoritmusok adnak egyfajta eredményt, az lehet statisztikai vagy prediktív. Nem mindegy, hogyha minden elemet megmértél, akkor az a statisztikai eredmény az valós. Ez predikción alapul és trendvonalakon, mintavételeken, akkor attól nagyobb a kockázat a felhasználásnak is. Ezt a tájékoztatást meg kell adni, hogy az a bizonyos termék mire jó, mire nem jó. Ellustít minket. Ez egy veszély. Azt hisszük, hogy akkor az úgy van. Hajlamosak vagyunk a trendeknek hinni, merthogy kiszámolta a gép, és sokkal gyorsabb, sokkal okosabb, és mindig tanul. Nem szabad, hogy ellankadjon a figyelmünk. A jogi eszközkészlet kész, rendelkezésre áll, nem kell most fejleszteni. Lehet majd, hogyha a technológia fejlődik, odaérünk, akkor lehet majd jogi innovatív eszközökkel élni. Most vannak nehezen megállapítható esetek, de nem az a gyakori. Az önvezető autókkal példálózik mindenki, hát az egy sajátos valami. Március 31-én volt Elon Muskkal – YouTube-on láttam – egy interjú, jó egy órában beszél a jövőről, többek között a Mars-utazásokról, meg ilyesmikről. Egy valamiben mindenképp igazat adok neki, hogy ez a fajta önvezető autózás igazándiból jelenleg testidegen. Ezt az emberi közlekedésre találták ki, az automobilozást. Az úthálózat, meg az embereknek a gondolkozása, minden annyira emberi. Az igazi áttörés az önvezető autónál majd akkor lesz, ha minden autó önvezető lesz, mert akkor lesz viszonyítási alap. Felügyelet nélküli tanulással dolgozik az ő autójuk, az ő objektumfelismerő rendszerük. Ez is szögegyszerű, objektumfelismerés. Azt a predikciót viszik bele, hogy teherautó mögül látja, hogy jön a kislány vagy szalad a labda, prediktív módon meg kell tanítani, hogy nagy valószínűséggel a labda ki fog gurulni, és a kislány utána fog lépni, ezért már lassítania kell. Azok az etikai dilemmák, hogy akkor most kit üssön el, nyilván alapelvszinten kell és szükséges szabályozni azt, bele kell kódolni, hogy lehető legkevesebb sérülést okozza, vagy hogy ezeket így elkerülje. Lehet etikát programozni? Nem tudjuk. Nyilván vannak ilyen törekvések, hogy az AI-nak legyen etikai oldala, de az már ilyen általánosító lenne. Lehet, hogy képes lesz rá majd a technológia, de az már a következő szint, ott ahol már tényleg általános következtetéseket tud levonni. Szokták még a sakkozógépet említeni. Megtanították neki a szabályokat először, nehezen ment, de ott is legyőzte az embert, a világbajnokot. Utána jött az, hogy különböző lépésvariációkat tanítottak meg neki, és gyorsan győzött. Ettől ő még nem fog tudni újságot olvasni például. A LegalTech eszközöm, ami nekem többezernyi oldal dokumentumot prediktív módon percek alatt szétszed, azt nem fogja tudni, hogy mit tartalmaz a szöveg, mert mintázatokban gondolkozik. Ilyen módon azt mondani, hogy valamit a jogi anyagban nem találok meg, az az ügyvéd felelőssége továbbra is. Azt nem lehet mondani, hogy a gépi tanulási megoldásom az itt hibázott. Vannak ilyenek egyébként, hogy az OCR nem ismer fel valamit, és akkor az nem létezik a gép számára. Amikor ezeket a platformokat kezeljük, akkor nem kódolunk, ezek ilyen no-code, low-code rendszerek. Beütöd a paramétereket, ez is szöveges. Mit keresel? Mondjuk, egy adatvédelmi átvilágításról van szó, akkor beütöd azt, hogy érintett, személyes adat, adatfeldolgozó, adatkezelő, és akkor elkezdi keresni a rendszer. Osztályoz, szortíroz és predikciót ad. Nagy valószínűséggel ezt keresed. A tanítás úgy zajlik, hogy kipipálsz egy rubrikát. Igen, ezt kerestem. Vagy kihúzol egy rubrikát, hogy nem, ez nem releváns. A következőnél már tudni fogja. Tanul, tanul, tanul, de te vagy az, aki tanítod. Ha te rosszul tanítod, akkor nem lehet azt mondani, hogy nem működött a gép. Egyébként az egészségügyben is lehet analógiákat hozni arra, hogy vannak bizonyos olyan fejlesztések, ahol gyorsabb, pontosabb a gép, de ez nem jelenti azt, hogy az orvos azt mondhatja, hogy tévedett a gép. Ez annyira komplex dolog, bármilyen egyszerű egészségügyi kérdés is, ezt nem tudod megtanítani rendszerekkel. Olyanok vannak, hogy betáplálják az összes protokollt meg szakmai publikációt, és akkor szövegelemzés alapján szintén feldobja, hogy más orvosok ebben az esetben ezeket keresték, ezeket olvasták el. De hát itt semmilyen intelligencia nincsen, nem orvos az a gép, nem tudja hogy mit csinál, hanem karakterösszességeket, mintázatokat vizsgál, amit szintén ember ad meg neki. Eljutottunk a fejlesztőig, forgalmazóig, meg az üzemeltetőig, aki felhasználja, hogy legyen tisztább, az az ő felelőssége, hogy például hol van az az adat. Tehát ha én ilyen átvilágító szoftverről beszélek, akkor nekem fontos ügyvédként az, hogy Európában van a szerver. Föl kell töltenem a platformra azt az adatot, On-premise is lehet, algoritmusokkal, AI támogatott rendszerekkel is dolgozni, de az iszonyú drága. Max egy bank tudja megfizetni, de igazából ő sem, mert akkor nem tud lépést tartani a világgal. Legjobb dobozos termékeket megvenni, de nekem ügyvédként fontos, hogy hol van az a szerver. Utána kell járjak. Az MI kapcsán felmerül valami kérdés, meg kell értenem a technológiát, hogy mire jó. Fel kell tudni térképezni azt, hogy egy predikció nem lesz sosem 100 %-ig pontos, az egy előrejelzés lesz. Itt van a felhasználónak, itt van az üzemeltetőnek a felelőssége. Elmondom az ügyfelemnek, hogy mesterséges intelligencia alkalmazásokkal dolgozom. Nagyon szép, de nem mondhatom sosem azt, hogy hibázott a gép. Ilyen szabály most nincsen, nem burkolózhatsz. sőt adott esetben tájékoztatnom kell az ügyfelet, hogy az ő adatát föl fogom tölteni egy olyan rendszerbe, ami mondjuk Amerikában van, és ilyen és ilyen kockázatok vannak. Ha az ügyfél aláírja, akkor csinálom. Lassan a kör be is zárul. Mert eljutottunk odáig, hogy a fogyasztónak ez hol számíthat. Nagyon jó példa az, hogy vannak ilyen csuklóra szerelhető szenzorok. Ezt megveheted órában is. Most már van EKG is, azt hiszem a Samsungnak, meg az iPhone-nak is benne van a lehetőség, hogy akár tud EKG tesztet is csinálni. Két pontot összekötnek, megnyomsz egy gombot és megméri. De hát ez nem lesz sohasem orvosi adat. A fogyasztónak ott van lehetősége és felelőssége, hogy valószínűleg nem szaladgálna pulzusát nézegetni annyit. Tisztában kell lenni azzal, hogy ez nem egy hiteles mért adat. Nem egy orvosi eszköz. Ha orvosi eszköz, azt kórházban használják, és onnan kezdődik az egész, hogy klinikai kutatás, tesztadatbázis, validálás, engedélyeztetés, CE megfelelés, majd forgalmazás. Tehát a piacra jutás ebből a szempontból nehezebb, mint mondjuk egy könyvelőt támogató AI megoldásnak a lefejlesztése, ahol adatbázishoz is könnyebb hozzájutni, ahol anonimitás van, mindegy hogy Gipsz Jakabnak hívnak valakit, vagy pedig XY-nak. Visszatérve a fogyasztóhoz. A fogyasztó szeretne kényelmesen élni, szeretné élvezni a kényelmi előnyöket mindenütt. A Telemedicinában 24 órában szeretne tájékozódni. Amikor rájön az, hogy holnap megyek orvoshoz, mit is kéne vigyek. Lehessen valakitől megkérdezni. Ez már chatbot kérdése. Ügyvédeknél ugyanez. Panaszkodnak a kollégák, hogy karácsonykor üzennek rájuk, meg vasárnap este. Egyre több az ilyen eset, tehát az ügyfélnek megvan az igénye. Lehet ilyet mondani, hogy az ügyfélnek nincs igaza, de nem nagyon van értelme, mert az ügyfél hozzá van szokva ahhoz, hogy 24 órában bizonyos szolgáltatásokat elér. Karácsony este is tud mobilszolgáltatási csomagot változtatni, mert akkor jön rá. Vagy mert éppen nem ünnepli, vagy szüksége van, mert külföldön van, és kifogyott a tarifából, elfogyott az adatforgalma. Ügyvédeknél van ügyelet büntetőügyekben is, ugye szükség van ügyeletre, mert letartóztatások jellemzően nem napközben délben történnek. Polgári ügyes, kereskedelmi jogos ügyvédeknek is előbb vagy utóbb azzal érdemes szembesülni, hogy az ügyfél igényli az innovációt. Nem kell, csak lemaradsz.
Laczkó Gábor: – Miklós, nekem még egy best practice a fejemben van, és ez egy örök kérdéskör. Mobiltelefon, rajta egy Androidos rendszer, Google Assistant – egyébként a telefonomon fel is ugrott, most, ahogy kimondtam, hogy Google Assistant. Kérdezel tőle valamit, és blődséget javasol neked. Ez is egy olyan probléma, amiből azt hiszem talán valami nagyobb baj is származott, valaki meg is halt emiatt, mert valami olyat mondott neki a Google Assistant, ami abszolút irreleváns. Ilyenkor egyébként ezek a felelősségi szintek – itt vannak gyártók, vannak hardverek, vannak szoftverek – hogy néznek ki?
Dr. Zorkóczy Miklós: – Nézd meg, hogy ki van zárva mindenütt, főleg amerikai cégeknél a felelősség. Mikróra is rá van írva, hogy ne tedd be a macskát szárítani. Egészen buta módon megadják a tájékoztatást. Nézd meg mostanában egy gyógyszerterméknek a tájékoztató anyagát. Mindenféle disclaimer benne van. Tehát, aki terhes, szemüveges, ősz, idős, gyerek, ne szedje, vagy kockázatra hívja fel a figyelmet. Ahogy ez burjánzik, oda vezet ez az egész, hogy csak klikkelnek, nem érdekli őket a hozzájárulás. Mindenhova klikkelsz. Hozzájárulok, oké, menjünk, haladjunk. Magának a tájékoztatásnak a fogalma kiüresedik. Tudnak veszélyes helyzetek lenni, de Amerikában nagykorúnak tekintik az állampolgárt. Rá van bízva. Az amerikai fogyasztóvédelem nem egy európai fogyasztóvédelem, ugye, hogy itt kézen fogják az embert. Hanem ott nagyfiúnak tekintik, és a kereskedelem az első, a biznisz az első. Ezért is tud ilyen jól fejlődni, és ezért is tart sok mindenben előrébb. De rettenetes esetek vannak. Múltkor is beszéltünk arról, van is egy hölgy, írt erről egy könyvet, ő egyébként adatos, Cathy O’Neilnek hívják, az a könyv címe, hogy Weapons of math destruction. Nagyvállalati, illetve befektetői oldalon dolgozott adatelemzésekkel, és megundorodott ettől az egész világtól, hogy az emberek csak jelek, és hogy mi mindent lehet velük művelni. Elkezdte összegyűjteni ezeket az eseteket a könyvében, és megmagyarázni adatos szempontból, hogy hol, és ki, és mikor hibázott. Érdekes eseteket lehet olvasni, hogy például apuka bemegy reklamálni a helyi ügyfélszolgálatára a szolgáltatónak, hogy a 12 éves lánya kismama ruhákra vonatkozó hirdetéseket kap. Egy hét múlva visszament elnézést kérni, hogy ja, terhes a lányom. Hol van a társadalmi probléma? A helyi üzlet hamarabb tudja meg, hogy a lány terhes, mint a saját családja, a saját apja. Másik dolog. A tanárok fizetését olyan teljesítményez kötötték, hogy a diákok milyen vizsgaeredményeket értek el. Hirtelen mindenki átment, nem lett bukás. Mert hozzá lett kötve a tanárnak a fizetése ahhoz, hogy jó jegyeket kapjon. Ezek mind-mind mérések alapján történtek. Szemmel látható, ilyen az emberi közrehatás. Megoldást is ad ezekre a könyvében a hölgyemény. Az ilyen kismama hirdetéseknél zárják ki az előző 6 hónap statisztikáját. Neki ne küldjenek olyat, mert 6 hónap alatt azért kiderül egy lánygyermekről, hogy növekszik a hasa általában. Kezdjék el visszatorzítani az adatbázison a méréseket, zárjanak ki bizonyos kisebbségeket. Banki hitelbírálatban rengeteg eset van, hogy bizonyos területek soha nem kapnak hitelt, mert az algoritmus valahogy kizárja őket. Egészségügyben nem választ be az algoritmus a kutatásba bizonyos társadalmi csoportokat, mert olyanok az életkilátásaik. Tehát megint a tanító adatbázison kell szerelni valamit, vagy magán az értékelőrendszeren. Például súlyozni kellene, hogy bizonyos értékeket 0-val vegyen, bizonyos értékeket meg kétszeres szorzóval, ha valaki mondjuk szegénynegyedben lakik. Ez megint csak emberi beavatkozás. A Google Photosnak volt egy ilyen botránya 2018-ban, hogy közzétett valaki egy képet, hogy a feketebőrű barátait a Google gorillaként ismeri föl. Ez eléggé nem fair, nem korrekt. A Microsofttól kezdve, Facebook, Cambridge Analytica, mianmari népirtás, Amazon, szexista toborzóbotok. Volt egy eset, amikor 24 óra alatt teljesen rasszistává tettek egy chatbot beszélgetőrobotot a felhasználók. Le kellett kapcsolni. Volt egy kísérlet, hogy a Twitter bejegyzések alapján egy felügyelet nélküli tanulásos módszerrel akarták megfigyelni azt, hogy milyen beszélgetések zajlanak. A felügyelet nélküli tanulás azért jó, mert olyan helyre tudom ráküldeni, ahol nem tudom, hogy milyen tartalmat keresek, hanem arra vagyok kíváncsi, hogy mi van benne. Hasznos? Hasznos. Prediktív? Prediktív. Tehát nem pontos, de mégis kapok egy képet. Veszélyes valóban, és akár emberi sorsokról beszélünk. Amerikában sokkal szélesebb körű annak a lehetősége, hogy kártérítéseket indítsunk. Itt azért ez nem Amerika. Ez egy kontinentális jogrendszer. Nem akarok senkit sem megbántani, de voltam egy perben képviselő talán 2010-2011 tájékán az egyik magyar csúcsbíróságon, és az idősebb bíró kollégának próbáltam elmagyarázni a SIM-kártyát, hogy az mi, és hogy miért válik el a szolgáltató és a telefonnak a tulajdonosa, tehát, hogy mi micsoda. Nyilván nem a bíró tehet róla, hanem a képzés. LegalTechet tanítani kéne az egyetemeket. Egyébként ezen vagyunk, ha minden igaz, hamarosan tantárgy lehet a LegalTech. Ettől még az ipar és a szolgáltatások számos területén is van itt nekünk egy Mesterséges Intelligencia Koalíciónk, az ő munkásságuk is erre irányul, hogy általános ismertséget szerezzenek az emberek erről. Ez nem egy terminátortechnológia. Én sokszor nem hívnám intelligenciának. Mert félrevezető. Elkezdünk tőle félni. Viszont nagyon hasznos, akár ez egy végszó is lehetne, hogyha kihagyjuk, akkor lemaradunk. George Tileschnek könyvében van az, hogy aki az első technológiai áttörést ezen a területen átviszi, az mindent visz. Tehát, hogy az utolérhetetlen lesz. Kis országoknak, mint nekünk, a kisebb közösségeknek megvan a sansz, hogy a nagyokkal tudjunk versenyezni, ha jók vagyunk. Mert nagyon-nagyon hasznos ez a technológia.
Laczkó Gábor: – Miklós, nagyon köszönöm, tényleg egy remek befejezés ehhez a mai témánkhoz. Pont azon gondolkodtam, ki is emeltük, hogy a mai beszélgetésünk az inkább a mostani világunkat körülvevő, és az ahhoz kapcsolódó mesterséges intelligenciát és technológiát vizsgálta. Viszont nagyon-nagyon érdekes tudna lenni egy következő vonulatban egy kicsit kutatni a jövőt. Tudom, hogy ez ilyen útkeresős dolog, de engem az is nagyon érdekelne, hogy mi várható, milyen predikciók vannak, milyen utakat látunk. Azt gondolom, ez is formálhatja a látókörünket majd.
Dr. Zorkóczy Miklós: – Csináljuk meg, annak más kell, hogy legyen a címe.
Laczkó Gábor: – Az biztos. Miklós, én nagyon szépen köszönöm, sok sikert neked a továbbiakban is. Nagyon remélem, hogy akkor hamarosan folytatni tudjuk ezt egy következő etappal.
Dr. Zorkóczy Miklós: – Állok szíves rendelkezésre, bárkinek egyébként.
Laczkó Gábor: – Szuper. Nagyon köszönöm. Szervusztok!
Dr. Zorkóczy Miklós: – Sziasztok!
Founder & Director @ Zorkóczy Law Office / LEGALai§e
Zorkóczy Miklós ügyvéd, mesterséges intelligencia konzultáns, kutatója a LegalTech és a HealthTech
témakörnek. Témaspecifikus iskoláit a Legal Technology Innovations Institute Certificate (UK, Dubai), illetve az EIT Health RIS HelloAI képzések keretében szerezte. Start up tanácsadó és mentor, a HVCA és a CEU iLAB tevékenységének aktív résztvevője, ügyvédi irodáknak, nagyvállalati jogi osztályoknak szívesen tart bemutatót a technológia szerződés előkészítő és ügyfélkiszolgáló
munkára gyakorolt hatásáról, a mesterséges intelligencia felelősségi és etikai vonatkozásairól. A TalkingLegalTech HuB alapító tagja. (www.legalise.hu; Linkedin).
Managing Partner @ Stylers Group
Gábor a Stylers, a Stylers Academy, valamint a Protechtor egyik alapító tulajdonosa. Az elmúlt 18 évben IT területen tevékenykedett, szoftverfejlesztő vállalatot épített Magyarországon és az Egyesült Államokban, valamint IT iskola és tréningcentrum kialakításával foglalkozott. Legfőbb erényei közé tartozik a tudatos vállalati kultúra kialakítása, csapatok vezetése és motiválása. Jelenleg a Stylers és a Stylers Academy üzletfejlesztésével foglalkozik, digitális transzformációs projekteket vezet és egyedi IT képzési modelleket épít.
Mesterséges intelligencia és jogi felelősség | Publikus
Feltöltés dátuma : 2022. június 15.
Digitális mérnökhiány a vegyiparban – Mi lesz a megoldás?
2024. december 02.
Rugalmas és biztonságérzetet teremtő szervezet egy bizonytalan korban
2024. november 11.
NIS2: Térkép a kiberbiztonság-szabályozási aknamezőhöz
2024. november 04.
Az AI lehetséges irányai és kihívásai az aviatika iparágban
2024. október 25.
Hogyan tegyük AI adaptívvá a szervezetünket?
2024. október 18.
A jelen uralása az ipari termelésben
2024. október 11.
Digitális akadálymentesség szabályozás: Sok vállalatnak fog fájni!
2024. szeptember 27.
AI Has Entered The Chat; Humans, AI, and the Art of Collaboration
2024. augusztus 01.
The anatomy of autonomous driving projects
2024. július 25.