Székely János, Veress Emőd: A mesterséges intelligencia és a jog

1.

A sajtó és a hírfogyasztó közönség fantáziáját egyre inkább leköti a mesterséges intelligencia kérdése, és e technológiai vívmány várható jövőbeni hatásai. Természetesen olykor napvilágot látnak visszafogottabb értékelések is, melyek szerint a mesterséges intelligencia (rövidítve: „MI”; angol rövidítéssel: AI – azaz „artificial intelligence”) virágkora még a messzi jövőbe vész. Sőt az is felvetődött, hogy e kérdésben a technológiai optimizmus mai, az 1950-es évek végét idéző fellángolása újra elhamarkodottnak bizonyul majd, és keserű csalódásban végződik. Elképzelhető az is, hogy a mesterséges intelligencia kiteljesedése – a magfúziós energiatermeléshez hasonlóan – mindig pár évtizednyire áll majd a megvalósulástól, csak épp soha nem kerül majd közelebb… De ez a kevésbé valószínű forgatókönyv.

2.

Az önvezető autók és az általuk okozott súlyos balesetek (egy konkrét esetben mert a jármű „úgy döntött” figyelmen kívül hagyja az észlelt gyalogost), ezekkel pedig a polgári jog szempontjából jelentős felelősségi kérdések már időszerűvé váltak, ahogyan az óriási adatbázisokból a személy legbensőségesebb gondolatai, akár csak a saját maga számára is ismeretlen viselkedési mintázatai kifürkészésére, esetleg gazdasági vagy politikai kiaknázásra és sok minden másra alkalmas, gyakran a szakemberek számára sem átlátható működésű algoritmusok is. A képfelismerés, a testtartás-alapú azonosítás, az arcfelismerés, a hangfelismerés, a szem mozgásának (implicit a személy figyelmének) követésére alkalmas rendszerek, a geolokáció és más, minden korábbinál szorosabb megfigyelésére használható technológiák már ma is komoly etikai és normaalkotási kérdéseket vetnek fel. A tömeges automatizált adatgyűjtés és feldolgozás – legyen célja a reklám, a közbiztonságra veszélyes személyek kiszűrése, vagy egyes önkényuralmi rendszerek fenntartása – igazán a mesterséges intelligencia fejlődésével válhat hatékonnyá, ugyanis ez utóbbi technológia az, amely a felhalmozott adattömegből releváns összefüggések felfedezésére leginkább alkalmas.

Emiatt nyilvános és titkos módon zajló kutatásokhoz gyakorlatilag végtelen erőforrások állnak rendelkezésre a MI fejlesztésére. Végsősoron e technológia a termelékenység soha nem látott növekedéséhez, a közbiztonság szinte utópisztikus javulásához vagy a társadalmi kontroll minden korábbinál hatékonyabb megvalósításához, minden eddiginél totálisabb totalitarizmushoz egyaránt vezethet, így nincs olyan (demokratikus vagy más berendezkedéssel rendelkező) állam, sem nagyvállalat, mely ne tenne meg minden tőle telhetőt, hogy a mesterséges intelligencia gyümölcseihez hozzáférjen.

3.

Nem meglepő tehát, hogy a MI egyre szélesebb körben foglalkoztatja államok, egyének és különböző gazdasági, rendészeti, katonai vagy éppen szakmai szervezetek, újságírók és jogalkotók képzelőerejét. A jogi szaksajtóra korlátozódva, csupán az elmúlt pár hónapban számos elmélkedés látott napvilágot a mesterséges intelligencia és az igazságszolgáltatás kölcsönhatásai kérdésében. A gépi döntéshozatal jogi kereteinek szabályozása, és az európai térségben az e téren szükséges együttműködés, jogharmonizáció és annak hiánya, ahogyan a mesterségesen intelligens automatizált folyamatok által hozott döntések és az általuk működtetett gépek (üzembentartóinak) esetleges büntetőjogi felelőssége látszólag elméleti kérdései már most jogalkotói megoldás után kiáltanak. Ellentétben a genetika fejlődése által keltett majdnem pánikszerű jogszabályalkotási hullámmal, a mesterséges intelligencia fejlődésével szemben a jogalkotók világszerte tanácstalanul állnak.

A technológiai jövő ilyen fürkészőinek egyik legjelentősebb felvetése, hogy e technológia az igazságszolgáltatásban is felhasználható, esetleg egyes jogi hivatásrendek, így – elsősorban, és mintegy „közkívánatra” – az ügyvédek, jogtanácsosok vagy esetleg a bírák helyettesítését eredményezi majd. Az ilyen nézetek egyik legfőbb hirdetője Richard Susskind, aki beszédes című, jellemzően ügyvédellenes hangvételű írásaiban [pl. „Az ügyvédség vége?” vagy „Tomorrow’s Lawyers: An Introduction to Your Future” („A holnap ügyvédjei: Egy bevezető a jövődhöz”)] firtatja a mesterséges intelligencia potenciális hatásait a jogi hivatásrendekre.

Egyik előadásában összefoglalt álláspontja szerint a 2020-as évekre a jogi szakmák tevékenységében az automatizáció és informatizáció a mainál is komolyabb jelentőséggel fognak bírni, más faktorok mellett amiatt is, mert küszöbön áll a számítástechnika újabb forradalma. Ennek során a számítógépek adatfeldolgozási sebességének és a rendelkezésre álló adattömegnek (ún. big data) köszönhetően az alkalmazandó jogszabályok, sőt a jogviták kimenetelének megjóslása (ha nem is megoldása) tekintetében a gépi kapacitások az emberi képességeket elérhetik, sőt meg is haladhatják. Az okiratszerkesztés, az egyes ügyekre alkalmazandó jogszabályok azonosítása, a megkötött jogügyletek átvilágítása (az ún. due diligence tevékenységek) mind szabványosítható, gépesített folyamatokká alakulnak, ezzel megfosztva állásától a kevésbé szakosodott jogászokat. Érdekes (és az alább kifejtett érvek miatt szerintünk téves) a szerző azon nézete, miszerint ezzel párhuzamosan a magasan képzett jogászi szolgáltatások (pl. szakjogi tanácsadás) piaca is visszaszorul és a nagyközönség számára nyíltan hozzáférhető jogi ismeretszolgáltatókkal (szakosodott online platformokkal) egészül ki.

Susskind kutatásai, melyek nem csupán az jogász, hanem az orvosi, közjegyzői, mérlegképes könyvelői és más szellemi szabad szakmák tekintetében is mérvadók, mégsem mutatják ki egyértelműen azok művelőinek küszöbön álló gépi helyettesítését, csupán arra utalnak, hogy a jogi szakmák egyes jellemző tevékenységei terén, az eddig emberi közreműködést is igénylő bizonyos munkafolyamatok várhatóan nagymértékben gépesítetté válhatnak. E fejlődési irány, és potenciális hatása a jogi szolgáltatásokra már Romániából is látható. A romániai Ügyvédi Kamarák Országos Egyesületének elnöke például nemrég kifejezetten apokaliptikus hangvétellel nyilatkozott a mesterséges intelligencia által jelentett kockázatokról az igazságszolgáltatás számára.

4.

Az e téren születő egyre komorabb jövőt előre vetítő elmélkedések a jogásztársadalmat és a szakirodalmat nem csupán az ügyvédi, illetve jogtanácsosi hivatásrend szemszögéből, hanem annak kapcsán is foglalkoztatják, lehetséges-e egy emberi bíró géppel helyettesítése a jogviták megoldása során?

Mint a mesterséges intelligencia kapcsán oly sok más kérdés, ez is látszólag a valóságtól elrugaszkodott filozófiai elmélkedésnek tűnik, de valójában egy gyakran felmerülő súlyos probléma, a részrehajlás, az elfogultság leküzdésének technológiai lehetőségeit feszegeti. Ahogyan a futballban a videóbíráskodás bevezetésétől igazságosabb döntéseket remélt a nagyközönség (és ehelyett a hagyományos bírói szigor és a büntetőrúgások száma nőtt meg), úgy a bírók technológiai helyettesítése is (pl. Richard Susskind álláspontja szerint) olcsó, gyors és mindenekelőtt pártatlan, megvesztegethetetlen és elfogulatlan igazságszolgáltatás megvalósításához vezethet(ne). 

Ez az utópisztikus látásmód azonban két jelentős problémát vet fel: (a) az igazságszolgáltató mesterséges intelligencia jó eséllyel nem az emberi kogníció eszközeit fogja bevetni a jogvita megoldására, hanem átláthatatlan informatikai algoritmusokat és (b) a patikamérleggel osztott „matematizált” igazság, az ún. elfogultság teljes hiánya konkrét esetekben súlyos, az emberi igazságérzettel és az emberiség általános jogi tudatosságával egyaránt össze nem egyeztethető igazságtalanságokat szülhet, emiatt az igazságszolgáltatásban és a jogi szakmák működésében az emberi faktor megkerülhetetlen.

(a)

A mesterséges intelligencia most ismert leghatékonyabb implementációja az ún. gépi tanulási (machine learning), ezeken belül pedig a mélytanulási (deep learning) algoritmusokra korlátozódik. A MI azonban nem azonos a gépi tanulás fogalmával, hanem annál sokkal tágabb. Míg az „intelligencia” a rugalmas, kreatív gépi problémamegoldás jelentéstartalmára is utal, amit szokás általános mesterséges intelligenciának nevezni, amihez a tudomány ma sem áll sokkal közelebb mint 50 éve, addig a gépi tanulás algoritmus (informatikai program) működésére vonatkozik, mely nagy, de véges számú repetitív művelet hihetetlenül gyors végrehajtásával bizonyos összefüggések felfedezésére alkalmas adott adattömegben, ezzel „okos” válaszokat produkálva szűken definiált kérdésekre.

Minél nagyobb adattömegen alkalmazunk gépi tanulást, és minél több példát azonosítunk számára a keresett adatokból, az algoritmus annál precízebben „tanulja meg” elhatárolni az adattömeg azon elemeit a többiektől, melyeket az adott példák alapján meg szeretnénk találni, ki szeretnénk szűrni. A gépi tanulási algoritmusok működéséhez elsőnek tehát példák adásával meg kell tanítanunk a programnak milyen kritériumokat szeretnénk, ha utóbb a neki szolgáltatott adatokban felismerne. A módszer működése kicsit hasonló az elsőosztályos kisdiákok módszeréhez a szépírás-gyakorlatok során: a tanító megkezdi a sorban az elsajátítandó betűt, majd a kisiskolás igyekszik azt legjobb tudása szerint utánozni, addig másolva egymás után az írásjelet, amíg el nem sajátítja megrajzolásának helyes módját.

Ezért a gépi tanulási algoritmus csak olyasmit képes megtanulni és utóbb magától felismerni, amelyre már számos példát szolgáltattunk neki, és amit utóbb ő maga is gyakorolhat. Egy ilyen algoritmus nagyon hatékonyan tud például gépjármű-fényképeket szortírozni (ld. itt, az előadó a gépi tanulás fogalmát és kockázatait is részletesen ismerteti), és azonos módszerrel szövettani mintákról készült fényképek közül is ki tudja válogatni a kimutatható daganatokat tartalmazókat, ha elég példát (fényképet) szolgáltattunk neki az azonosítandó jelenségről a betanítási fázisban. Az, hogy az azonosítás pontosan hogyan történik egyes algoritmusok esetén többé vagy mások esetén kevésbé nyilvánvaló a programozók számára. Innen ered a köznyelvi értelemben mesterséges intelligenciának nevezett algoritmusok igazságszolgáltatásban alkalmazásának két fő akadálya.

Egyrészt az igazságosság fogalmát az emberiségnek sem sikerült általánosan kielégítő módon meghatároznia. John Rawls, a téma talán legjelentősebb filozófiai kutatója például az igazságos magatartás több eltérő elméletét azonosította, melyek a társadalmi együttműködést szolgálják. Az igazságszolgáltatás célja pontosan e társadalmi együttműködés (napjainkban már kevésbé divatos megnevezéssel az ún. „társadalmi szerződés”) megőrzése. Jelenleg nincs mód arra, hogy egy gép számára kellő mennyiségű példát szolgáltassunk jogvita társadalmilag igazságos megoldására, ahhoz, hogy, ha fel is ismerné az illető jogvita meghatározó jellemzőit, azt önmaga megoldhassa. Adott ugyanis, hogy nem csupán az egyéni emberek, hanem a jogi normák is, – jogviták megoldása esetén – az igazságosság fogalmát heterogén módon értékelik és alkalmazzák. Igazságos például éhező gyermekei számára élelmiszert ellopó személyt azonos büntetéssel sújtani, mint egy zsebtolvajt? Nyilván nem, de a számítógép, melynek betanítása a lopási bűncselekményeken hozott ítéletekkel történne, ezt a különbséget nem biztos, hogy észlelné.

A gépi tanulási algoritmusok mindenkor a betanításukra szolgáló adathalmazból önmaguk számára érthető (bár mások számára nem nyilvánvaló) kritériumok alapján igyekeznek bizonyos elemeket azok közös jellemzői alapján elhatárolni. Mivel az emberi élet szinte minden mozzanata napjainkban már digitalizálható, elképzelhető, hogy egy személy minden ismert adata (egészségügyi és tanulmányi adatai, szülei, testvérei személyazonossága, politikai nézetei, bankadatai, írásos és szóbeli rögzített megnyilvánulásai, büntetett előélete stb.) egyetlen adathalmazba begyűjthető. Ebből a számítógép megtanítható arra, hogy mondjuk az egyes bűncselekményekben elmarasztalt, vagy bizonyos betegségekben szenvedő személyek közös magatartási jellemzőit azonosítsa. Utóbb a gép adott személyről meg tudja majd állapítani, hogy bizonyos bűncselekmény elkövetésére, vagy bizonyos betegségekre hajlamos-e, csupán a személy „digitális lábnyomából.” Ez a legközelebbi pont, amihez egy gép az igazságszolgáltatáshoz a ma ismert gépi tanulási módszerrel juthat: mintegy statisztikai profilalkotással valószínűsítheti, hogy egy személy bizonyos magatartásokra hajlamos, vagy ezeket elképzelhető, hogy el is elkövette. Ez azonban nem igazságszolgáltatás, hanem maga a rossz értelemben vett előítélet, melyet a számítógépek alkalmazásával ki szeretnénk küszöbölni. A gépi tanulási algoritmusok ilyen természetű működése jó eséllyel napjaink totalitárius társadalmaiban lel majd először gyakorlati felhasználásra.

Másrészt a gép kognitív folyamatai, belső érvelése nem mindig lesz ellenőrizhető az igazság megismerésének szemszögéből, mert még az informatikusok sem mindig tudják megállapítani, hogy bizonyos gépi tanulási algoritmusok miért pont egy adott eredményt (azonosítást) produkálnak, még akkor is, ha az eredmény rendeltetésszerű. Ezt nevezzük az algoritmusok átláthatósága vagy elszámoltathatósága problémájának a gépi döntéshozatal során. Ha nem tudjuk pontosan meghatározni, hogy egy algoritmus miért jutott bizonyos döntésre (vagy esetleg csak azzal tudjuk meghatározni, hogy azért, mert az a legvalószínűbb a gép számára) akkor nem tudjuk ellenőrizni a határozat igazságos (törvényes) jellegét sem. Ez a probléma már most létezik, bár még kevesek számára tűnik jelentősnek. Jogban azonban az elszámoltathatóság, a határozathozatal jogi és ténybeli indokolása elengedhetetlen. Csupán ezek ismeretében tudjuk megállapítani, hogy egy határozat jogszerű, és egyben igazságos-e? Csupán ezek alapján tudjuk a jogorvoslat vagy perorvoslat lehetőségét biztosítani a jogkeresők számára egy jogszerűtlen, igazságtalan határozattal szemben.

(b)

A tág értelemben vett jog semmiképpen sem egyszerűsíthető le matematikai, logikai folyamatokká, mert a jogalkalmazás sokkal emberhez kötöttebb és szubjektívebb, minthogy teljes egészében algoritmusok vezéreljék. A jog olyan állami alkotás, amely domináns értékeket és politikai célokat közvetít. Képzeljük el Batthyáneum vagy a Székely Mikó Kollégium ügyét, ahol a MI a tények és bizonyítékok objektív és komoly mérlegelése alapján visszaszolgáltatási határozatában megállapítaná: a Római Katolikus Érsekség vagy az Erdélyi Református Egyházkerület, és nem a Román Állam a vitatott sorsú ingatlanok tulajdonosa. 

El merjük képzelni, hogy a jogalkalmazást bármely állam, mint érdekközösség átengedi a teljes objektivitásnak? Az alternatíva az, hogy a mesterséges intelligenciának is lesz nemzetisége és megjelenik a nacionalistává programált mesterséges intelligencia? A nemzeti vagy vállalati érdekeket követő mesterséges intelligencia?

A társadalom egyre bonyolultabbá válásával a jogi szabályozás iránti szükséglet csak nő. A mesterséges intelligencia és általában az informatika, a jogalkalmazás szolgálatában egyre nagyobb szerepet játszik és e szerepkör egyre csak bővülni fog. Már maga a mesterséges intelligencia az egyik legnehezebb új szabályozási terület, hiszen ennek működése és elterjedése precíz jogi szabályozás nélkül elképzelhetetlen.

A mesterséges intelligencia veszélyeit jogi preventív eszközökkel kell korlátozni. Megfelelő jogi keretek nélkül – maguk azok a műszaki szakemberek szerint akik fejlesztésének élvonalában járnak – egyre veszélyesebb hazárdjátékká látszik válni.

A valóság az, hogy a jogalkalmazással szemben az a valós állami elvásás, hogy adott mértékben igenis szubjektív legyen, és ami szubjektív, az emberi előítéletek által vezérelt. Ennek egyidejűleg van negatív és pozitív oldala. Ha mesterséges intelligenciával végeztetünk komplexebb jogi feladatokat, akkor ezeket az érzelmeket és előítéleteket a mesterséges intelligenciának is el kell sajátítania és működésének alapjává kell tennie. Ez a folyamat egyébként lehetséges, csak nem biztos, hogy kívánatos: a mesterséges intelligencia óriási adatmennyiségek feldolgozásával fejlődik, tökéletesedik, de ha a mesterségesen intelligens folyamat kialakításához előítéletekkel terhelt adatok kerülnek betáplálásra, a folyamat mintegy „örökli” az adatokban tükröződő előítéleteket.

Nyilván nem szabad kizárni, sőt, ésszerű is, hogy egyszerű jogi munkák automatizálhatók lesznek, és ez a jogászok számának bizonyos mértékű csökkenését fogja eredményezni. A jogi szakmák eltűnését jósló álláspontok mégis alaptalanok. A jogi szakmáért nem kell aggódni, akkor sem, ha a mesterséges intelligencia szerepe megnő és egyre intenzívebben használunk informatikai eszközöket a jogalkalmazásban. Az „emberi tényezőt” csupán az emberi tényező leképezésével lehet a jogalkalmazásba bevezetni, azaz a mesterséges intelligencia nem helyettesíti, hanem csak segítheti a jogászt. Érzelmek nélkül: rá tudjuk bízni például a büntetőjog alkalmazását algoritmusokra? Vagy képzeljük el az iszlám vallási jogot, a sáriát alkalmazó mesterséges intelligenciát, amint objektíven jóváhagyja a prostitúció tilalmának kijátszására alkotott meghatározott idejű (önmegsemmisítő) házasság intézményét (akár kiskorúval megkötött, meghatározott idejű házassági szerződést).

A mesterséges intelligencia megjelenése a társadalom konfliktusait nem fogja megszüntetni. Egyetlen technológia sem képes ilyen hatást kiváltani, a konfliktus léte az emberi társadalom velejárója. Ha a jövőt fürkésszük, inkább a konfliktusfelületek növekedésétől kell tartani. 

Képzeljünk el egy jogvitát, amikor a felek ügyvédjei mindkét oldalon mesterséges intelligencia segítségét veszik igénybe. A mesterséges intelligenciák konfliktusa és versenye is kialakul. Valamelyik álláspontnak mégis győznie kell, máskülönben a jogvita lezáratlan marad. A jog alkalmazásakor az összes valós jogi problémákat felvető perben a bíró mindkét oldalon fennálló részigazságokat mérlegel, és a jogvita megoldásának, megoldhatóságának érdekében valamelyik részigazságot megfontolás után és indokoltan abszolutizálja. (Ezért is van az, hogy a jogi és erkölcsi igazság sok esetben eltérhet.)

Dönthet két mesterséges intelligencia konfliktusában harmadik mesterséges intelligencia? Az emberi tényezőt leképező mesterséges intelligencia és a mesterséges intelligenciát segítségül hívó ember között igenis van és nem is kicsi a különbség. A mesterséges intelligencia számos jogi folyamatban fontos szerepet fog játszani, például a szerződéskötések esetén jelentősen csökkentheti a tranzakciós költségeket. Azonban a konfliktuális részben a szerepe inkább előkészítő, tanácsadó feladatok ellátására alkalmazható.

5.

Azt is fontos leszögezni, hogy a mesterséges intelligencia általános veszélye hosszú távon az emberi elbutulás. Túlzó használata a jogi kultúrát és tudást, az ember konfliktusmegoldó képességének megfelelő szintjét veszélyezteti. A mesterséges intelligenciát csak a kontrollra képes, önmagában magas felkészültségű jogász tudja teljes mértékben felhasználni. Az innovációt, a jogot, mint az emberi társadalom értékközpontú irányítási és fejlesztési rendszerét, az úttörő erkölcsi folyamatokat az ember kezéből „kiengedni” valóban hazárdjáték.

Dr. Székely János a Sapientia EMTE egyetemi adjunktusa.

Dr. Veress Emőd a Sapientia EMTE egyetemi tanára.

A mesterséges intelligencia és a jog kapcsolatáról a Sapientia EMTE 2019. május 9-10-én angol nyelvű nemzetközi konferenciát szervez.