Ki felel az AI által okozott károkért, ha már a biztosítók is kizárják a felelősségüket?

Az Egyesült Államokban egyes biztosítók elkezdték kizárni a felelősségüket az AI eszközök használata során okozott károkért, és ez a trend már Magyarországon is megjelent.

Ki felel az AI által okozott károkért, ha már a biztosítók is kizárják a felelősségüket?

Képzeljük el, hogy egy hazai tanácsadó cég a piacon már elérhető népszerű alkalmazás felhasználásával kifejleszt egy AI eszközt az ügyfeleivel való könnyebb és hatékonyabb kommunikáció céljára, de a chatbot által generált valótlan vagy félrevezető válaszok alapján több tucat ügyfél hoz hibás befektetési döntést, és ezért kártérítési igénnyel fordulnak a céghez. A tanácsadó jogi osztálya az ügyvezetés utasítására megkeresi a cég biztosítóját, és ezzel párhuzamosan megvizsgálja a fejlesztés során felhasznált AI rendszer szolgáltatójával kötött szerződést is. Kiderül, hogy sem a cég biztosítása nem fedezi az ilyen károkat, sem a külső szolgáltató nem vállal felelősséget ezekért. Megfelelő helytállás és fedezet hiányában a tanácsadó cég kénytelen viselni a károkat. 

Az AI technológiák használatának elterjedésével és a biztosítási piac erre adott válasza alapján egyre több, a fentihez hasonló szituáció előfordulása valószínűsíthető. A közelmúltban több hír is megjelent arról, hogy az Egyesült Államokban egyes biztosítók elkezdték kizárni a felelősségüket az AI eszközök használata során okozott károkért, és ez a trend várhatóan előbb-utóbb Európába is átgyűrűzik, sőt, a közelmúltban már Magyarországon is megjelent.

Ez a trend a szöveges utasítások alapján szöveg, kép, videó és egyéb tartalmak létrehozatalára alkalmas generatív AI eszközök (pl. ChatGPT) sajátos kockázatai, és a biztosítási piac működési algoritmusai alapján egyáltalán nem meglepő. 

A felelősségbiztosítási modell működése

A felelősségbiztosítás olyan termék, ahol a biztosító a biztosítási díjért cserébe arra vállal kötelezettséget, hogy a biztosított cég által a tevékenysége során okozott kárt megtéríti helyette a károsultnak. Ha például egy gyógyszergyártó hibás terméket dob a piacra, és az egészségügyi károsodást okoz, általában a biztosító az, aki a gyártó helyett a felelősségbiztosítási szerződése miatt helyt fog állni és megtéríti a károsultak kárát.

A biztosíthatóság feltételei

Ez az üzlet alapvetően úgy működik, mely általánosságban is a biztosíthatóság egyik fontos feltétele, hogy a biztosító csak olyan tevékenységekre kínál biztosítást, ahol különböző matematikai és statisztikai modellek segítségével meg tudja becsülni, hogy mekkora valószínűséggel és milyen összegben kell kártérítést fizetnie.

Amikor a biztosító erre nem képes, a kockázat túl magas, vagy megjósolhatatlan, akkor bizonyos tevékenység és kockázatok tekintetében kizárja a felelősségét.

Tipikusan ilyenek az előre nem látható, vagy nehezen befolyásolható események is, mint például egy háború vagy forradalom kitörése, vagy például egy nukleáris baleset.

A biztosítási termékek kialakításának folyamata

A felelősségbiztosítás egy komplex pénzügyi termék, amelynek a kialakítása, árazása legalább annyira művészet, mint amennyire tudomány, és a biztosító által felvállalni, vagy éppen kizárni tervezett kockázatok felmérése pedig egy komoly biztosításmatematikai feladat. A folyamatnak szükségszerűen a részét képezi az adatgyűjtés a korábbi káreseményekkel kapcsolatban, de idetartozik a kárgyakoriságot és az esetlegesen kifizetendő károk összegét előre jelző, az utóbbi időben az AI technológiát is hasznosító valószínűségi modellek felállítása, az ennek alapján a vállalható és kizárandó kockázatok meghatározása, a biztosítói fedezetben állás feltételrendszerének meghatározása, a díjkalkulációhoz szükséges kockázatbecslés, és a károk fedezéséhez szükséges tartalékképzés is. 

Grok ai interface with a question prompt

A generatív AI sajátos kockázatai

A mesterséges intelligenciával kapcsolatos kockázatok felmérésének egyik alapvető problémája, hogy mivel kereskedelmileg széles körben csak pár éve érhetőek el ezek a megoldások, így nem áll megfelelő mennyiségű historikus adat a káreseményekkel kapcsolatban a biztosítók rendelkezésére, ami megnehezíti a felmérés folyamatát.

Egy másik kihívás, hogy a generatív, és az ügynöki AI működése sokkal változatosabb és nehezen átlátható kockázati profillal bír, még a „hagyományosabb” AI-megoldásokhoz képest is, mint például egy önvezető autó, ahol az ilyen járművekkel kapcsolatos korábbi káresemények kellő alapot adhatnak egy aktuáriusi elemzéshez. 

Hogy működnek a genAI eszközök?

A generatív AI eszközök működése alapvetően a statisztikai valószínűségszámítás elvén alapszik. Az AI rendszerek a nagy teljesítményű és mennyiségű tanítóadat felhasználásával betanított modellek gyakorlatilag véletlenszerű működése során generált tartalmakat, döntéseket, előrejelzéseket és javaslatokat meggyőző stílusban és formában tálalják, ami felhasználói oldalról rendkívül kényelmesnek tűnik, de valójában pont ebben rejlik a probléma. 

A generatív AI rendszerek teljesítménye instabil, változó, a tanító és egyéb adatok (pl. promptok) alapján történő kikövetkeztetési képességük nem koherens. Ebből kifolyólag az általuk előállított anyagok, következtetések megfelelő ellenőrzés nélkül nem megbízhatóak, de a megfelelőség ellenőrzéséhez viszont az adott területtel kapcsolatos tartozó szakértelem szükséges, amivel nem mindenki rendelkezik.

A többi hasonló megoldáshoz hasonlóan az ügyfelekkel való kommunikációra épített chatbotok is hajlamosak a hallucinációkra, azaz bármikor elképzelhető, hogy egy ügyfél kérdésére olyan választ adnak, ami nem felel meg a valóságnak, vagy a cégek olyan kreatív tartalmakat állíthatnak elő velük, ami harmadik személyek szerzői vagy személyiségi jogait sérti (deepfake videók). Egy másik releváns veszély, ha egy cég a vonatkozó jogszabályok megsértésével használ AI rendszert, például a munkaerőtoborzás során a jelentkezők önéletrajzainak szűrésére. Ugyanilyen szituációt eredményezhet, ha egy bank AI rendszer segítségével állapítja meg az ügyfelei hitelképességét, vagy egy újság az AI által generált és nem ellenőrzött hamis tényállításokat publikál.

Komplexitás, függőségek és a jogsértő használat veszélye

Ezek az eszközök továbbá az általuk használt tech stack-ek komplexitása, és az egymásra épülő mikroszolgáltatások nehezen átlátható hálózata miatt sokkal jobban ki vannak téve a kiberbiztonsági kockázatoknak, az ezzel járó adatlopás és egyéb visszaélések veszélyének. Ráadásul az egyre inkább önálló működést és döntéshozatali képességgel felvértezett ügynöki (agentic) AI megoldások elterjedésével ez a kitettség csak fokozódni fog. 

Az AI eszközök felhasználásával ezen felül számos adat-intenzív tevékenység (pl. munkavállalók megfigyelése, ellenőrzése, teljesítményértékelése) is hatékonyabban elvégezhető, de így az irányadó adat -, és személyiségvédelmi jogszabályok megsértése is könnyebben elkövethető. Ezek az AI segítségével egyszerűen, és viszonylagos látenciával elkövethető jogsértések és események mind kártérítési felelősséget eredményezhetnek a szolgáltatói és a felhasználói oldalon egyaránt.

A helyzetet súlyosbítja az a tény, hogy világszerte rengetegen hoznak létre meglévő AI-rendszerekre épülő, vagy elterjedt AI-modelleket használó megoldásokat, és egy ilyen helyzetben az alapul fekvő rendszer vagy modell hibás működése többezer cégnél és akár többmillió felhasználónál okozhat egyszere problémát, aminek a kockázatát, és a kockázat bekövetkezése esetén jelentkező károk mértékét és kiterjedését nagyon nehéz egy biztosítás keretén belül előre megbecsülni.

Újszerű kockázati profil

A fentiekből egy olyan kockázati profil rajzolódik ki, amely egyrészt eltér a korábban ismert mintázatoktól, másrészt még a hagyományos AI (pl. adatelemzésre, előrejelzésekre használt) rendszerekhez képest is új elemeket tartalmaz, és amelyek emiatt nehezebben biztosítható.

a bunch of blue wires connected to each other

A kiberbiztonsági biztosítások tanulságai

Természetesen nem a mesterséges intelligencia az első olyan technológia, amely új típusú kockázatokat hozott, és amely emiatt újfajta megközelítést, és a meglévő iparági gyakorlatok felülvizsgálatát teszi szükségessé.

Látencia és szabályozási vákuum

Szintén a digitalizáció elterjedésével összefüggésben pár éve hasonló kérdések merültek fel a kiberbiztonsági kockázatok kezelése során, ahol leginkább az nehezítette a biztosítók tevékenységét, hogy a kiber-incidensek nagy része (pl. a szolgáltatásmegtagadással kapcsolatos támadások, a zsarolóvírusok megjelenése) a nyilvánosság elől rejtve maradt, és a hatósági bejelentési kötelezettségek csak az adatvédelmi incidensekre terjedtek ki.

Ennek megfelelően a kiberbiztonsági biztosítások is először csak a nyilvánosan megismerhető kártörténeti előzményekkel rendelkező területekre terjedtek ki, de a gyakorlatban gondot okozott az is, hogy a biztosítók termékei általában egyáltalán nem tettek említést ezekről a kockázatokról.

Emiatt gyakoriak voltak a biztosító fedezetben állásával kapcsolatos viták (ez a jelenség a „silent cyber” néven vált ismertté), de a helyzet idővel aztán enyhült.

A biztosítók számára további problémát okozott annak az egységesen alkalmazható és transzparens követelményrendszernek a meghatározása is, amelyet számon kérhettek volna a biztosított cégeken a mentesülésük érdekében, és amelynek a segítségével egyértelműen igazolható lett volna, hogy az adott cég valóban megtette-e az elvárható intézkedéseket az ilyen típusú kockázatok elleni védekezés során. 

A szabványok és egyéb keretrendszerek szerepe

A megfelelő védettségi szint igazolásában természetesen ezen a területen is nagy szerep jutott és jut az auditálható, és széles körben elismert nemzetközi szabványoknak és keretrendszereknek (pl. ISO, NIST, CIF, SOC 2) is. Ezekkel kapcsolatban viszont két dolgot érdemes észben tartani az alkalmazóknak, hatóságoknak és biztosítóknak egyaránt.

Egyrészt, ezek a szabványok általában nem tartalmaznak egy mindenkire általánosan alkalmazható szabályrendszert és egyszerűen kitölthető dokumentum mintatárat, hanem sokkal inkább a szervezetek saját tevékenységének és irányítási rendszereinek kontextusában értelmezhető megfelelési struktúrát kínálnak. Ezért a bevezetésükhöz, de még inkább az érdemi működtetésükhöz komoly elhatározás és erőforrások szükségesek.

Másrészt, az elmúlt évek adatvédelmi, adat -, és kiberbiztonsági eseményei azt mutatják, hogy ahol a jogszabályi és szabványoknak való megfelelés csak papíron, és a követelményeknek megfelelően elkészített dokumentációban létezik, de azt a cég tényleges tevékenysége során érdemben nem veszik figyelembe, ez a valódi megfelelés illúzióját keltő „dokumentációs” compliance sok esetben rosszabb eredményekhez vezet, és nagyobb kitettséget eredményezhet a cégek részéről, mintha egyáltalán nem foglalkoztak volna a területtel. Ezt a biztosítóknak is érdemes szem előtt tartaniuk a biztosítási termékeik kialakításakor.

A jogi szabályozás, mint a biztosíthatóság egyik feltétele

A szabványok és keretrendszerek mellett egy másik, a biztosíthatóságot elősegítő elem az adott terület jogi szabályozása. A kiberbiztonság az Európai Unióban először csak felületesen, de az elmúlt években átfogóbban szabályozott területté vált, és a NIS2 irányelvnek az egyes tagállamokban végrehajtott átültetése, és a pénzügyi szektorban a DORA rendelet hatályba lépése hozzájárult a megfelelő védettséggel kapcsolatos elvárások standardizálásához. 

two cars in front of shutter doors

A generatív AI az új kiberbiztonság?

A fentieket távolról nézve akár arra a következtetésre is juthatunk, hogy a kiberbiztosítások piacán megfigyeltek a generatív és ügynöki AI területére is érvényesek lehetnek, így megfelelően irányadóak ezen a területen is. 

Hasonlóságok

Ezt támaszthatja alá az a tény, hogy az AI rendszerek használatával elkövetett visszaélésszerű cselekmények és hátrányok (pl. prompt injection-ök által indukált felhasználói magatartások, deepfake videók, a felhasznált megoldások működési sajátosságaiként megjelenő model, data vagy éppen concept driftek miatti helytelen és nem megbízható eredményekre épülő üzleti döntéshozatalból eredő károk) sok esetben szintén rejtve maradnak a nyilvánosság elől. Ennek oka ugyanaz, mint a kiberbiztonsági kockázatok esetében: egyik, a tevékenységébe AI-technológiát integráló, vagy ilyen megoldásokat fejlesztő cég sem szeretné, ha ezek az események kitudódnának, mivel ez egyértelműen aláásná a cégbe, és termékeibe, szolgáltatásaiba vetett fogyasztói bizalmat, és a hatóságok figyelmét is felkeltheti.

A kiberbiztonsághoz hasonlóan a jogi szabályozás és a szabványok az AI területén is ugyanolyan fontosak a biztosíthatósági és biztosítói helytállási feltételek meghatározásához.

Az Unió 2024-től fokozatosan hatályba lépő Mesterséges Intelligencia Rendelete egy hibrid, alapjogi és termékbiztonsági szabályozásként elsősorban az egészségünkre, a biztonságunkra, és új elemként az alapvető jogaink érvényesülésére nagy kockázatot jelentő AI rendszerek szolgáltatóira és felhasználóira határoz meg követelményeket.

A termékbiztonsági szabályozás sajátosságainak megfelelően a Rendelet csak az ilyen megoldásokkal kapcsolatos lényeges követelményeket határozza meg, de az azoknak való megfelelés módját és mikéntjét az ún. harmonizált szabványokra bízza majd, amit a Bizottság felkérésére az EU-s szabványalkotó szervezetek (CEN, CENELEC) alkotnak majd meg a Rendelet megfelelő szabályaihoz illesztve. Ha ezek elkészülnek majd, akkor a valóban magas kockázatú AI rendszerek szolgáltatói és felhasználói számára is egyértelműbben meghatározhatóak lesznek a biztosítói elvárások és a helytállás feltételei.

Különbségek

Közelebbről szemlélve a két területet ugyanakkor feltűnik egy fontos különbség. Míg a kiberbiztonsági károk általában egy külső támadás eredményeképpen jelentkeznek, és a kockázatok (például adatvesztés, adatszivárgás) könnyebben kategorizálhatóak, a generatív AI még rendeltetésszerű használat esetén is okozhat károkat, pl. a felhasznált AI-modell létrehozatalához felhasznált tanítóadatokban meglévő torzítás hátrányos megkülönböztetést eredményezhet az oktatásban, vagy a HR-ben. A mesterséges intelligenciával okozható károk köre jóval szélesebb (a személyiségi jogoktól a szerzői jogokon át az AI által vezérelt kritikus infrastruktúrák által okozható katasztrófákig elég terjedelmes a spektrum), és ez jóval túlmutat a hagyományos területeken és a kiberbiztonság terrénumán is.

A generatív AI egyik fontos különbsége a korábban használt AI megoldásokhoz képest pont az általánosságában, a felhasználási esetek gazdag tárházában, a rendszerek tanulási és adaptív képességeiben, és az ilyen megoldásokra épülő AI rendszerek széles körű elérhetőségében rejlik.

Ahol szöveges utasítás alapján kis túlzással bármilyen, a közösségi médiában és egyéb platformokon pillanatok alatt potenciálisan virálissá váló tartalom előállítható, ahol az automatizált döntéshozatal a modellekben meglévő torzítások megfelelő emberi felügyelet nélküli alkalmazása komoly jogsérelmekhez vezethet, és ahol az ügynöki működés révén az AI-nak átengedett autonómia és döntéshozatal révén sok esetben beláthatatlan következményekhez vezethet, ott a historikus adatok hiánya, a hagyományos logikára és struktúrákra épülő matematikai modellek működése, az ebből fakadóan nehezen megbecsülhető kockázat és kitettség és árazási nehézségek alapvetően kérdőjelezik meg a korábbi biztosítói gyakorlatok alkalmazhatóságát. 

A károkért fennálló felelősség telepítésével kapcsolatos akadályok

Egy másik sajátosság az AI ökoszisztéma és értéklánc bonyolultságára és komplexitására vezethető vissza.

Míg egy termék vagy szoftver működésénél viszonylag egyszerű annak meghatározása, hogy kit kell (vagy lehet) felelőssé tenni a hibás működés miatti kárért, az AI megoldásokkal okozott károkkal kapcsolatos felelősség telepítése ennél sokkal nehezebb.

Ha például egy az egészségügyben felhasználásra tervezett, AI technológiát használó eszközbe egy meglévő AI rendszert vagy modellt integrálunk, és az összetett szolgáltatás során keletkezett hamis diagnózis miatt meghal, vagy súlyos egészségügyi károsodást szenved egy beteg, akkor kit teszünk felelőssé? Az alapul fekvő AI rendszer szolgáltatóját? Mi a helyzet akkor, ha a szolgáltató kizárta ezt a konkrét felhasználási esetet a felhasználási feltételeiben? Vagy az eszközt a saját üzleti tevékenysége körében használó kórház üzemeltetőjét, esetleg magát az orvost, aki a diagnózis felállításának teljes folyamatát kiszervezte a mesterséges intelligenciának, és nem biztosította a megfelelő emberi részvételt és a szakma szabályainak megfelelő szempontrendszer érvényesülését a döntéshozatalban? Esetleg valamennyi felsorolt szereplőt együttesen, vagy egyetemlegesen? Az AI használata során okozható károk egyértelmű taxonómiájának és szabályozásának hiányában a jogi szabályozás ezekre a kérdésekre egyelőre még nem tud egyértelmű választ adni. 

Ebből kifolyólag az így bekövetkező károk érvényesítésével kapcsolatos eljárások és perek egyelőre csak az országonként eltérő kártérítési jogi szabályozás bonyolult útvesztőin keresztül intézhetőek, ami nemcsak az érintett károsultaknak és károkozóknak okozhat gyakorlati problémákat, de az egyes területeken és kultúrákban meglévő jelentős különbségek (például a megítélhető kártérítések mértéke, az angolszász világban meglévő, de a kontinentális rendszerekből hiányzó, általában tetemes mértékű büntető kártérítések lehetősége) egy újabb, jelentős bizonytalanságot jelentenek a biztosítók szempontjából is.

grayscale photo of a wooden floor

A biztosítási piac reakciói, és a cégek fedezetlen kockázatai

A fentiek alapján tehát aligha meglepő, hogy a biztosítási piac lassan, de biztosan reagál az AI rendszerek által fémjelzett egyedi kockázatokra és biztosítási nehézségekre, egyfelől a felelősségük korlátozásával és kizárásával, másfelől pedig a kifejezetten az AI eszközök jellemzőihez igazított biztosítási termékek kidolgozásával.

A magyar fecske

A cikk bevezető részében jelzett, az AI-kockázatok felelősségbiztosítások hatálya alól történő kizárásával kapcsolatos amerikai piaci fejleményeket pedig valószínűleg egyre több biztosító követi majd az Európai Unióban is. A magyar felelősségbiztosítási piacon például az UNIQA biztosító felelősségbiztosítási általános szerződési feltételei már most is kizárják a biztosító felelősségét a mesterséges intelligenciával, vagy ilyen technológia alkalmazásával okozott, illetve ezekkel összefüggésben bekövetkezett károkért.

Bár a többi hazai biztosító szerződési feltételeiben egyelőre nem szerepelnek hasonló kikötések, távolról sem biztos, hogy egy ilyen igény felmerülése esetén a biztosító automatikusan megtéríti majd a kárt, és az ilyen biztosításokat használó cégeknek valószínűleg konkrét szabályozás hiányában is fel kell majd készülniük a fent említett, a „silent cyber” eseményekhez hasonló vitákra és bizonytalanságokra.

A technológia használata kizárólagos felelősségvállalást eredményez

Az erre való felkészülés fontosságát a generatív AI eszközök felhasználására vonatkozó, szolgáltatók által meghatározott szerződési feltételek is aláhúzzák.

A ChatGPT, a Copilot és minden más hasonló AI rendszer használatának megkezdésével felhasználóként elfogadjuk azt a mára már iparági és piaci standarddá váló rendelkezést, hogy az AI eszközök használatáért kizárólag mi, a felhasználók leszünk felelősek, és a szolgáltatóra nem tudjuk áthárítani az AI rendszer használatával a munkavállalóinknak, vagy az ügyfeleinknek okozott, és velünk szemben érvényesített károkat.

A liability gap

Ezzel pedig vissza is kanyarodtunk az írásom felütésében említett problémához: ha generatív, vagy ügynöki AI megoldás felhasználása, azaz egy ilyen szolgáltatásnak a cég értékláncába történő integrációja során hiba, jogsértés, vagy visszaélés esetén a szolgáltatóhoz nem fordulhatunk, a problémáért szerencsés esetben felelőssé tehető munkavállaló felelőssége munkajogi alapon korlátozott, akkor az egyetlen fennmaradó megoldásnak a megfelelő szakmai és egyéb felelősségbiztosítási szerződésünk kínálkozik.

De mi a helyzet akkor, ha az AI technológiával összefüggésben keletkezett, velünk szemben támasztott kárigényre a biztosításunk sem terjed ki? Ebben az esetben sajnos az ezzel kapcsolatos üzleti, operatív és pénzügyi kockázatot kizárólag a cégünk futja.

Mit tehetünk a felelősségi kitettségünk csökkentése érdekében?

A fenti kockázatok természetesen csökkenthetőek és részben megelőzhetőek az igazolható, és a dokumentálás szintjét meghaladó valódi jogszabályi megfeleléssel, a bevezetett szabványok megfelelő implementációjával, az AI megoldásokkal kapcsolatos döntéshozatali és egyéb folyamatokat egységes, dinamikus és rugalmas keretbe foglaló governance rendszerek bevezetésével és működtetésével.

De mindezek mellett minden generatív vagy ügynöki AI megoldásokat fejlesztő és használó cégnek érdemes ellenőriznie a kockázati profilját és biztosítási szerződéseit, és szükség esetén tartalékképzéssel, csoportszintű biztosítékokkal, speciális biztosítási termékek igénybevételével, vagy más módon, de minden esetben a biztosítási piac változásait figyelemmel követve felkészülni a mesterséges intelligencia által okozott, adott esetben fedezetlen káresemények lehetőségére.

Amennyiben a céged kockázati profiljának és kitettségének felméréséhez, a biztosítási szerződések elemzéséhez, az AI jogi szabályozásnak való megfeleléshez, a compliance és governance keretrendszer létrehozatalához, vagy bevezetéséhez segítségre lenne szükséged, lépj kapcsolatba valamelyik elérhetőségemen.