Felelősségteljes mesterséges intelligencia fejlesztés – jó úton járunk?

forrás: Prím Online, 2023. április 24. 11:18

Az utóbbi időszakban különösen nagy figyelmet kapott a különféle mesterséges intelligencia modellek nagyközönség számára való elindítása. A generatív mesterséges intelligencia használatával kapcsolatos potenciális kockázatok megnövekedtek, különösen a szerzői jogi kérdések területén, de az ilyen eszközöket alkalmazó vállalatoknak olyan kockázatokra is komoly figyelmet kell fordítaniuk, mint a rendszer-kimenetek helyessége és megmagyarázhatósága, vagy a negatív előítéletek kiszűrése. 

A ChatGPT (társalgási nyelvi-rendszer) és a DALL-E (szöveget képpé alakító alkalmazás) elindításával a generatív mesterséges intelligencia (MI) különösen nagy figyelmet kap, és egyre népszerűbb. A generatív MI gépi tanulást használ új tartalmak, pl. szövegek, képek, programkódok, költemények vagy grafikák, előállításához. A legtöbb munkavállaló attól tart, hogy a DALL-E átalakíthatja a hirdetések, a filmkészítés, valamint a játékok világát, a ChatGPT pedig munkahelyeket válthat ki tartalom- és szöveggyártás, oktatás, szoftverfejlesztés és újságírás bizonyos területein. 

 

Dr. Barta Gergő

„Ezek az aggodalmak nem alaptalanok, de nem is ennyire fekete-fehér a történet: a munkahelyek biztosan átalakulóban vannak, azonban továbbra is versenyben marad az, aki megtanulja az MI eszközöket jól és az előnyére használni, együtt élni velük, jól alkalmazni azokat munkájában, saját területén – aki az új eszközökkel együtt tud dolgozni, nem nélkülözhetetlen, hanem keresett szakember lesz.” – mondta Dr. Barta Gergő, a Deloitte Vezető MI szakértője.

 

Vannak vállalatok, melyek a szerzői jogok megsértésével kapcsolatos aggályok és felelősségek miatt nem engedélyezik az MI által létrehozott tartalmak felhasználását. Számos, stock-fotót gyűjtő platform pedig a művészek és fotósok kérésére MI által létrehozott képek használatát tiltotta be. A ChatGPT alkalmazásának terjedésével megnőtt az oktatásban a plágium kockázata, ezért bizonyos városok állami iskoláiban tilos a nyelvi modell használata.

 

Bizonytalanság az MI-ben: mennyire lehetünk benne biztosak, hogy helyes a kimenet?

 

Mit nevezünk kimenetnek? Amikor egy feltett kérdésre választ adunk, gyakran kezdjük mondatunkat azzal, hogy „Nem vagyok biztos benne, de…”, vagy „Ez csak egy sejtés, de…” – attól függően, hogy mennyire vagyunk biztosak válaszunk helyességében. Ezzel szemben a ChatGPT gyakran szabadkozás nélkül kimenetet produkál. A ChatGPT korlátait sorolva az Open AI így fogalmaz: „A ChatGPT néha hihetően hangzó, ugyanakkor helytelen válaszokat ad.” Egy kódolással foglalkozó Q&A platform éppen ezért tiltotta be a ChatGPT használatát: „A ChatGPT által generált válaszok közzététele kifejezetten káros az oldalra nézve… mivel ezen válaszok jónak tűnhetnek, mégis nagy arányban tévesek”. Több olyan esetről is tudunk, amikor a ChatGPT nevetséges hibát vétett a matematika és a logika területein, előfordult, hogy az algebrai jelöléseket használta rosszul, illetve olyan területeken, amilyen pl. a sakk is, ahol a számítógépek köztudottan képesek felülmúlni az emberi teljesítményt, a ChatGPT irracionális lépéseket hajtott végre, tökéletes pókerarccal.

 

A chatbot hamis önbizalmán keresztül megnő a téves információ terjesztésének, a félretájékoztatásnak a kockázata. A ChatGPT információs oldala kifejti, hogy ez kihívást jelent, mivel „jelenleg a biztonságos információforrás nem áll rendelkezésre” és „ha a modellt nagyobb óvatosságra tanítják, elutasíthatja azoknak a kérdések megválaszolását, amelyekre egyébként helyesen tudna válaszolni”. 

 

„Ugyan tesztelési célokból érdemes lehet inkább helytelenül megválaszolni egy kérdést, mint a választ megtagadni, valós helyzetben történő alkalmazás esetén a rossz válasz nagyobb károkkal és költségekkel járhat, mint a semmilyen válasz. Az elővigyázatosság szükséges mértéke téma- és feladatkörönként eltérő lehet. Annak érdekében, hogy a felhasználók megbízhassanak a generált szöveg tartalmában, a létrehozott szöveg nem lehet egyformán magabiztos minden témában. Az olyan nagy nyelvi modelleknek – Large Language Models, LLM – , amilyen a ChatGPT is, jelenlegi formájukban fontolóra kellene venniük, hogy tisztázó kérdéseket tegyenek fel, ismerjék fel a tudásbázisuk korlátait, kis mértékű bizonyossággal adják meg a válaszokat és adott esetben egy egyszerű „nem tudom a választ” szöveggel térjenek vissza.” – mondta Barta Gergő.

 

pexels.com

 

Megmagyarázhatóság: honnan származik a generált információ?

 

A fő kihívás a ChatGPT kimenetelének azonosításában az, hogy nem rendelkezik egy egyértelmű információforrással. Ellentétben más MI alapú személyi asszisztensekkel, amilyen a Siri vagy az Alexa, melyek internetes keresőmotorok segítségével keresik a választ, a ChatGPT-t úgy tanították, hogy a mondatokat a következő, statisztikailag valószínű nyelvi egységre vonatkozó találgatások sorozatával alkossa meg. Emiatt nevezik az LLM-eket néha „sztochasztikus papagájoknak” is.

 

A tudományos kutatások során minden információ megbízhatóságát annak forrása alapján határozzák meg. Egyes nyelvi modellek, több különböző forrást szintetizálnak annak érdekében, hogy megadjanak egyetlen választ. Ezek a rendszerek különböző megbízhatósági szinteket rendelhetnek a különböző forrásokhoz azok reputációja alapján. Például, ha az információ megkérdőjelezhető forrásból származik módosíthatják válaszukat oly módon, hogy a felmerült kételyt kifejezzék, vagy több lehetséges választ is bemutathatnak, ha a különböző források nem értenek egyet egy bizonyos témában. Érdemes lehet megfontolni ezeknek a típusú modelleknek a használatát egy-egy speciálisabb téma során.

 

Puskás Attila

„A megmagyarázhatóság kritériuma nélkülözhetetlen lesz, hiszen abban az esetben, ha az eredmény megkérdőjelezhető, az lehetővé teszi az információ befogadója számára, hogy felmérje a kontextust, és betekintést nyerjen a további feltételezésekbe, vagy az alkalmazott logikába.” – mondta Puskás Attila, a Deloitte Kockázatkezelési Tanácsadás Vezető Tanácsadója.

 

Ennek hiánya többek között a képgenerátorokat is érinti. A szintetikus, szöveget képpé alakító programok az interneten elérhető képekből tanulnak. Egy vizuális médiával foglalkozó cég beperelte az egyik MI eszköz létrehozóit, amiért megfelelő engedély nélkül használták fel képeiket. Művészek egy csoportja korábban a szerzői jogok megsértéseként értékelt, ezért bojkottált egy MI által generált képeket tartalmazó alkalmazást, mivel az MI egy valós művész stílusát utánzó képeket generált. Bár a jogi kihívások összetettek, az MI által generált műalkotások inspirációforrásának azonosítása – tehát annak a forrásnak, ahonnan az MI nagyrészben másolta a meglévő műalkotást, lehetővé teszi a pénzügyi kompenzációt és elszámolást.

 

Előítélet: mi történik, ha „rossz” forrásból tanul a rendszer?

 

Ha a modellt nagy volumenű, szöveget és képeket tartalmazó adathalmazon tanítják, akkor a modell természetesen megismétli a forrásban található torzításokat. Ez gyakorlatban azt jelenti, ha a felhasznált tanító adathalmaz pl. egy arcfelismerő rendszer esetében felül-reprezentált egy adott etnikai csoport tekintetében, akkor megvan a kockázata annak, hogy más csoportokat nem fog sikeresen felismerni, tehát elfogult lesz a tanító adatban szignifikánsan megjelenő mintákkal szemben – ez pedig igazságtalan kimenetet eredményezhet.

 

Bár a ChatGPT tartalommoderálási korlátokat alkalmaz a szexuális, gyűlöletkeltő, erőszakos vagy káros tartalmak generálásának megelőzése érdekében, ezeket a beépített szűrőket könnyű megkerülni az utasítások átfogalmazásával. A Galactica, a ChatGPT elődje pl. 3 nap után állt le, mert hamis és rasszista tartalmakat generált. Sok munkát kell még elvégezni ahhoz, hogy a tanításra használt adatokban a torzításokat azonosítani és csökkenteni lehessen – nemcsak a generatív MI esetében, hanem az MI összességében. Egyes tudósok a tanításhoz használt adatok gondos összegyűjtése mellett érveltek a hatalmas mennyiségű és könnyen elérhető internetes források használata helyett.

 

Összességében a generatív MI népszerűségének növekedése következtében jelentkező potenciális kockázatokat és etikai megfontolásokat teljes mértékben figyelembe kell vennie az ilyen modellt implementálni kívánó vállalkozásnak. Ezeknek a technológiáknak új, izgalmas alkalmazási lehetőségei vannak, fontos azonban ezeket a lépéseket összhangba hozni és arányosan mérlegelni a felmerült kockázatokkal, elszámoltathatósággal és az esetleges visszaélésekkel, mert így lehet korlátozni az előre nem látható negatív hatásokat.

 

„Átgondolt kockázatkezelésre és irányításra van szükség ahhoz, hogy biztonságosan és magabiztosan lehessen használni a generatív MI innovációit. A generatív MI kockázatait az olyan klasszikus vállalati kockázati tényezőkkel, amilyen a működési, adatvédelmi, jogi, vagy technológiai kockázat is, együtt kell azonosítani és értékelni, annak biztosítása érdekében, hogy a maradványkockázatok ne jelentsenek fenyegetést se a vállalati működésre, se a társadalomra vagy a környezetre.” – mondta Barta Gergő.

E-világ ROVAT TOVÁBBI HÍREI

Ilyen volt a magyar rádiók zenei repertoárja 2023-ban

Összesen 103 év és kilenc hónapnyi adást sugároztak a magyarországi rádiók 2023. január 1-jétől december 31-ig – derült ki a Nemzeti Média- és Hírközlési Hatóság (NMHH) legfrissebb kutatásából, amely a magyar rádiók 2023-as zenei repertoárját vizsgálta. A teljes kínálatban a legtöbbet játszott előadó Rúzsa Magdolna volt. Az énekesnőt több mint két és félszer annyiszor hallhattuk, mint a huszadik helyezett Azahriah-t. A tavalyi év legsikeresebb hazai slágere a ValMartól az Úristen, a külföldiek közül Miley Cyrus Flowers című dala volt.

2024. május 3. 18:05

Az akadálymentesség elengedhetetlen szempont az épületek tervezése során

Az akadálymentesség szempontjának egyre fontosabb szerepe van az építészetben, világszerte egyre több vállalat törekszik arra, hogy inkluzív környezetet alakítson ki. A Skanska a befogadás és a fenntarthatóság iránti elkötelezettségével összhangban szintén jelentős hangsúlyt fektet erre. A vállalat az átgondolt tervezés és megvalósítás érdekében együttműködik az Access4you-val azzal a céllal, hogy épületeiben a legmagasabb szintű access4you tanúsító védjegyet szerezze meg. 

2024. május 3. 16:17

Szűkülő piacon bővül a Pepita.hu

A Pepita Group Zrt. hazai bruttó forgalma 30, külfölddel együtt 44 százalékos növekedést mutat az első negyedév eredményei alapján. Kinőtte magát: levetkőzte a csupán baba-mama jelleget, a hazai műszaki és elektronikai területen lévő erős piaci verseny ellenére is e termékkategóriákban Magyarországon 57 százalékos bruttó forgalomnövekedést ért el.

2024. május 3. 14:41

A Xiaomi publikálta a legújabb ESG jelentését

A Xiaomi a napokban közzétette a hatodik ESG (környezetvédelem, társadalmi felelősségvállalás és vállalatirányítás) jelentését. A több mint 80 oldalas dokumentum, amelyet kínai és angol nyelven adtak ki azt az előrehaladást mutatja be, amelyet a Xiaomi és leányvállalatai megtettek az ESG stratégia megvalósítása terén 2023-ban. 

2024. május 3. 13:04

Továbbra is az InfoRádió szólhat a Budapest 88,1 MHz-es frekvencián

Egyedüli pályázóként az InfoRádió Kft. nyerte meg a Nemzeti Média- és Hírközlési Hatóság Médiatanácsa által a Budapest 88,1 MHz-es frekvencia használatára kiírt rádiós pályázatot, így a médiaszolgáltató szeptember 1-je után is folytathatja működését. A testület legutóbbi ülésén azt is megállapította, hogy a Balázsék című műsorszám ismét törvényt sértett, amikor a rasszizmusból táplálkozó humorizálásra építette a január 15-i műsor.

2024. május 3. 11:39

Kövess minket a Facebookon!

Cikkgyűjtő

További fontos híreink

Magyar siker: Nemzetközi díjat nyert a TIME magazintól a nyelvtanuló-applikáció

2024. május 3. 19:59

Megvannak 2024 legvonzóbb hazai munkaadói

2024. április 29. 11:38

Ingyenes digitális platform segít a tanároknak és diákoknak az érettségire való felkészülésben

2024. április 20. 11:36

Itt a világ első, Swarovski kristályba ágyazott autós kijelzője

2024. április 10. 14:55