Felelősségteljes mesterséges intelligencia fejlesztés – jó úton járunk?

forrás: Prím Online, 2023. április 24. 11:18

Az utóbbi időszakban különösen nagy figyelmet kapott a különféle mesterséges intelligencia modellek nagyközönség számára való elindítása. A generatív mesterséges intelligencia használatával kapcsolatos potenciális kockázatok megnövekedtek, különösen a szerzői jogi kérdések területén, de az ilyen eszközöket alkalmazó vállalatoknak olyan kockázatokra is komoly figyelmet kell fordítaniuk, mint a rendszer-kimenetek helyessége és megmagyarázhatósága, vagy a negatív előítéletek kiszűrése. 

A ChatGPT (társalgási nyelvi-rendszer) és a DALL-E (szöveget képpé alakító alkalmazás) elindításával a generatív mesterséges intelligencia (MI) különösen nagy figyelmet kap, és egyre népszerűbb. A generatív MI gépi tanulást használ új tartalmak, pl. szövegek, képek, programkódok, költemények vagy grafikák, előállításához. A legtöbb munkavállaló attól tart, hogy a DALL-E átalakíthatja a hirdetések, a filmkészítés, valamint a játékok világát, a ChatGPT pedig munkahelyeket válthat ki tartalom- és szöveggyártás, oktatás, szoftverfejlesztés és újságírás bizonyos területein. 

 

Dr. Barta Gergő

„Ezek az aggodalmak nem alaptalanok, de nem is ennyire fekete-fehér a történet: a munkahelyek biztosan átalakulóban vannak, azonban továbbra is versenyben marad az, aki megtanulja az MI eszközöket jól és az előnyére használni, együtt élni velük, jól alkalmazni azokat munkájában, saját területén – aki az új eszközökkel együtt tud dolgozni, nem nélkülözhetetlen, hanem keresett szakember lesz.” – mondta Dr. Barta Gergő, a Deloitte Vezető MI szakértője.

 

Vannak vállalatok, melyek a szerzői jogok megsértésével kapcsolatos aggályok és felelősségek miatt nem engedélyezik az MI által létrehozott tartalmak felhasználását. Számos, stock-fotót gyűjtő platform pedig a művészek és fotósok kérésére MI által létrehozott képek használatát tiltotta be. A ChatGPT alkalmazásának terjedésével megnőtt az oktatásban a plágium kockázata, ezért bizonyos városok állami iskoláiban tilos a nyelvi modell használata.

 

Bizonytalanság az MI-ben: mennyire lehetünk benne biztosak, hogy helyes a kimenet?

 

Mit nevezünk kimenetnek? Amikor egy feltett kérdésre választ adunk, gyakran kezdjük mondatunkat azzal, hogy „Nem vagyok biztos benne, de…”, vagy „Ez csak egy sejtés, de…” – attól függően, hogy mennyire vagyunk biztosak válaszunk helyességében. Ezzel szemben a ChatGPT gyakran szabadkozás nélkül kimenetet produkál. A ChatGPT korlátait sorolva az Open AI így fogalmaz: „A ChatGPT néha hihetően hangzó, ugyanakkor helytelen válaszokat ad.” Egy kódolással foglalkozó Q&A platform éppen ezért tiltotta be a ChatGPT használatát: „A ChatGPT által generált válaszok közzététele kifejezetten káros az oldalra nézve… mivel ezen válaszok jónak tűnhetnek, mégis nagy arányban tévesek”. Több olyan esetről is tudunk, amikor a ChatGPT nevetséges hibát vétett a matematika és a logika területein, előfordult, hogy az algebrai jelöléseket használta rosszul, illetve olyan területeken, amilyen pl. a sakk is, ahol a számítógépek köztudottan képesek felülmúlni az emberi teljesítményt, a ChatGPT irracionális lépéseket hajtott végre, tökéletes pókerarccal.

 

A chatbot hamis önbizalmán keresztül megnő a téves információ terjesztésének, a félretájékoztatásnak a kockázata. A ChatGPT információs oldala kifejti, hogy ez kihívást jelent, mivel „jelenleg a biztonságos információforrás nem áll rendelkezésre” és „ha a modellt nagyobb óvatosságra tanítják, elutasíthatja azoknak a kérdések megválaszolását, amelyekre egyébként helyesen tudna válaszolni”. 

 

„Ugyan tesztelési célokból érdemes lehet inkább helytelenül megválaszolni egy kérdést, mint a választ megtagadni, valós helyzetben történő alkalmazás esetén a rossz válasz nagyobb károkkal és költségekkel járhat, mint a semmilyen válasz. Az elővigyázatosság szükséges mértéke téma- és feladatkörönként eltérő lehet. Annak érdekében, hogy a felhasználók megbízhassanak a generált szöveg tartalmában, a létrehozott szöveg nem lehet egyformán magabiztos minden témában. Az olyan nagy nyelvi modelleknek – Large Language Models, LLM – , amilyen a ChatGPT is, jelenlegi formájukban fontolóra kellene venniük, hogy tisztázó kérdéseket tegyenek fel, ismerjék fel a tudásbázisuk korlátait, kis mértékű bizonyossággal adják meg a válaszokat és adott esetben egy egyszerű „nem tudom a választ” szöveggel térjenek vissza.” – mondta Barta Gergő.

 

pexels.com

 

Megmagyarázhatóság: honnan származik a generált információ?

 

A fő kihívás a ChatGPT kimenetelének azonosításában az, hogy nem rendelkezik egy egyértelmű információforrással. Ellentétben más MI alapú személyi asszisztensekkel, amilyen a Siri vagy az Alexa, melyek internetes keresőmotorok segítségével keresik a választ, a ChatGPT-t úgy tanították, hogy a mondatokat a következő, statisztikailag valószínű nyelvi egységre vonatkozó találgatások sorozatával alkossa meg. Emiatt nevezik az LLM-eket néha „sztochasztikus papagájoknak” is.

 

A tudományos kutatások során minden információ megbízhatóságát annak forrása alapján határozzák meg. Egyes nyelvi modellek, több különböző forrást szintetizálnak annak érdekében, hogy megadjanak egyetlen választ. Ezek a rendszerek különböző megbízhatósági szinteket rendelhetnek a különböző forrásokhoz azok reputációja alapján. Például, ha az információ megkérdőjelezhető forrásból származik módosíthatják válaszukat oly módon, hogy a felmerült kételyt kifejezzék, vagy több lehetséges választ is bemutathatnak, ha a különböző források nem értenek egyet egy bizonyos témában. Érdemes lehet megfontolni ezeknek a típusú modelleknek a használatát egy-egy speciálisabb téma során.

 

Puskás Attila

„A megmagyarázhatóság kritériuma nélkülözhetetlen lesz, hiszen abban az esetben, ha az eredmény megkérdőjelezhető, az lehetővé teszi az információ befogadója számára, hogy felmérje a kontextust, és betekintést nyerjen a további feltételezésekbe, vagy az alkalmazott logikába.” – mondta Puskás Attila, a Deloitte Kockázatkezelési Tanácsadás Vezető Tanácsadója.

 

Ennek hiánya többek között a képgenerátorokat is érinti. A szintetikus, szöveget képpé alakító programok az interneten elérhető képekből tanulnak. Egy vizuális médiával foglalkozó cég beperelte az egyik MI eszköz létrehozóit, amiért megfelelő engedély nélkül használták fel képeiket. Művészek egy csoportja korábban a szerzői jogok megsértéseként értékelt, ezért bojkottált egy MI által generált képeket tartalmazó alkalmazást, mivel az MI egy valós művész stílusát utánzó képeket generált. Bár a jogi kihívások összetettek, az MI által generált műalkotások inspirációforrásának azonosítása – tehát annak a forrásnak, ahonnan az MI nagyrészben másolta a meglévő műalkotást, lehetővé teszi a pénzügyi kompenzációt és elszámolást.

 

Előítélet: mi történik, ha „rossz” forrásból tanul a rendszer?

 

Ha a modellt nagy volumenű, szöveget és képeket tartalmazó adathalmazon tanítják, akkor a modell természetesen megismétli a forrásban található torzításokat. Ez gyakorlatban azt jelenti, ha a felhasznált tanító adathalmaz pl. egy arcfelismerő rendszer esetében felül-reprezentált egy adott etnikai csoport tekintetében, akkor megvan a kockázata annak, hogy más csoportokat nem fog sikeresen felismerni, tehát elfogult lesz a tanító adatban szignifikánsan megjelenő mintákkal szemben – ez pedig igazságtalan kimenetet eredményezhet.

 

Bár a ChatGPT tartalommoderálási korlátokat alkalmaz a szexuális, gyűlöletkeltő, erőszakos vagy káros tartalmak generálásának megelőzése érdekében, ezeket a beépített szűrőket könnyű megkerülni az utasítások átfogalmazásával. A Galactica, a ChatGPT elődje pl. 3 nap után állt le, mert hamis és rasszista tartalmakat generált. Sok munkát kell még elvégezni ahhoz, hogy a tanításra használt adatokban a torzításokat azonosítani és csökkenteni lehessen – nemcsak a generatív MI esetében, hanem az MI összességében. Egyes tudósok a tanításhoz használt adatok gondos összegyűjtése mellett érveltek a hatalmas mennyiségű és könnyen elérhető internetes források használata helyett.

 

Összességében a generatív MI népszerűségének növekedése következtében jelentkező potenciális kockázatokat és etikai megfontolásokat teljes mértékben figyelembe kell vennie az ilyen modellt implementálni kívánó vállalkozásnak. Ezeknek a technológiáknak új, izgalmas alkalmazási lehetőségei vannak, fontos azonban ezeket a lépéseket összhangba hozni és arányosan mérlegelni a felmerült kockázatokkal, elszámoltathatósággal és az esetleges visszaélésekkel, mert így lehet korlátozni az előre nem látható negatív hatásokat.

 

„Átgondolt kockázatkezelésre és irányításra van szükség ahhoz, hogy biztonságosan és magabiztosan lehessen használni a generatív MI innovációit. A generatív MI kockázatait az olyan klasszikus vállalati kockázati tényezőkkel, amilyen a működési, adatvédelmi, jogi, vagy technológiai kockázat is, együtt kell azonosítani és értékelni, annak biztosítása érdekében, hogy a maradványkockázatok ne jelentsenek fenyegetést se a vállalati működésre, se a társadalomra vagy a környezetre.” – mondta Barta Gergő.

E-világ ROVAT TOVÁBBI HÍREI

Tippek a hosszabb üzemidőhöz a HONOR-tól

A HONOR készülékei, a kedvező árútól a csúcskategóriásig kiváló akkumulátor üzemidővel rendelkeznek, mérsékelt igénybevétel mellett akár egész nap használhatóak. Ettől függetlenül azonban érdemes figyelni arra, hogy miként tudjuk a leghatékonyabban kihasználni az üzemidőt, hogy még véletlenül se merüljön le okostelefonunk.

2024. április 26. 16:19

A Sprinter felvásárlásával lépne jelentőset a SAMEDAY

Az akvizíció révén a SAMEDAY magyarországi házhozszállítási infrastruktúrája 60 százalékkal bővülhet a Sprinter tulajdonában lévő több mint 450 kézbesítési pont átvételével. A felvásárlást jelenleg a hatóságok vizsgálják. Ha a felek megkapják a jóváhagyást, az ügylet lezárultát követően egy 6000 átvételi pontból álló régiós out-of-home átvételi hálózat jöhet létre a magyar, román és bolgár piacokon.

2024. április 26. 14:44

Álljunk meg egy parkolásra – így parkolunk a fizető övezetekben

A fizetőparkolás intézményét sok autós a sofőrök ellenségeként éli meg, miközben annak egyik fontos célja éppen a forgalomszabályozás és a városi parkolókapacitás hatékonyabb kihasználása, különösen a sűrűn lakott területeken. A Yettel mobilparkolás szolgáltatásának elemzésével érdekes megállapítások derültek ki a hazai autósok szokásairól, most pedig szervizcsomagot és üzemanyag utalványt is érhet a mobilparkolás használata.

2024. április 26. 13:10

Dekarboizáció és hatékonyságnövelés egyszerre az iparban

A globális üvegházhatásúgáz-kibocsátás 45 százalékát adja az ipari tevékenység, így a klímacélok elérése érdekében kulcsfontosságú a szektor dekarbonizációja. A Schneider Electric a világ elsőszámú ipari szakvásárán, a Hannover Messén mutatta be azokat az innovációkat, amelyek lehetővé teszik az ipari szereplők számára a kibocsátásuk csökkentését és a termelési hatékonyságuk növelését.

2024. április 26. 11:33

A HONOR szállította a legtöbb okostelefonot a kínai piacra

Az IDC legújabb jelentése szerint 2024 első negyedévében a HONOR lett a vezető márka Kína okostelefonos piacán. 

2024. április 26. 09:55

Kövess minket a Facebookon!

Cikkgyűjtő

További fontos híreink

Ingyenes digitális platform segít a tanároknak és diákoknak az érettségire való felkészülésben

2024. április 20. 11:36

Itt a világ első, Swarovski kristályba ágyazott autós kijelzője

2024. április 10. 14:55

A csevegőprogramokat vizsgálta az NMHH

2024. április 2. 13:14

Megvannak az IAB 2023-as Legjobb szakdolgozat pályázatának nyertesei

2024. március 25. 15:50