Köszöntsük el az elfogadhatatlan mesterséges intelligencia használatától!


A mesterséges intelligencia (AI) használatának "vadnyugati" korszaka véget ért, mivel február másodikától új szabályozások léptek életbe az Európai Unió területén.

A pontosan meghatározott rendszerek és gyakorlatok kerültek a tilalom alá, amelyeket elfogadhatatlanoknak, a személyes jogokat sértőknek, valamint veszélyesnek ítéltek.

A kerettörvény elfogadása, ahogy azt már tudjuk, tavaly augusztusban történt, és a tervek szerint 2026. augusztus 2-tól lép majd teljes körű hatályba az Európai Unió területén. Azonban a törvény szigorúbb aspektusait már most is bevezetik. Az Európai Bizottság már iránymutatást is nyújtott ennek a folyamatnak a megkönnyítésére; bár ezek az ajánlások nem kötelező érvényűek, a Bizottság úgy véli, hogy hozzájárulhatnak az AI-jogszabályok következetes, hatékony és egységes alkalmazásához.

A News.ro értesülései szerint az AFP részletesen átvizsgálta a szerdán publikált dokumentumot, amely nyolc fő kategóriába sorolta a tiltottnak ítélt mesterséges intelligencia alkalmazásokat.

1. Tilos a térfigyelő kamerák révén azonnali időben beazonosítani személyeket.

A "valós idő" kulcsszó köré építve szeretném hangsúlyozni, hogy elengedhetetlen elkerülni az ellenőrzés nélküli beavatkozásokat. Bár a rendfenntartó szervek bizonyos intézkedései mentesülnek a megszorítások alól, alapvetően tilos bármiféle, a Fast and Furious filmekben bemutatott "Isten szeme" jellegű rendszerek alkalmazása. Az ilyen megoldások használata nemcsak etikai kérdéseket vet fel, hanem a magánélet védelmét is veszélyezteti.

A személyes adatokon nyugvó társadalmi beskatulyázás olyan jelenség, amely során egyének vagy csoportok előítéletek és általánosítások alá esnek a rendelkezésre álló információik alapján. Ez a gyakorlat gyakran torzítja az emberek megítélését, és hozzájárulhat a társadalmi feszültségekhez. Az adatok, mint például életkor, nem, etnikai hovatartozás vagy gazdasági helyzet, könnyen váltanak ki sztereotípiákat, amelyek nem mindig tükrözik a valóságot. Ahelyett, hogy a személyiséget és az egyedi tapasztalatokat figyelembe vennénk, sokszor csak a statisztikai átlagok alapján alkotunk véleményt. Ez a megközelítés nemcsak a társadalmi kapcsolatokra van negatív hatással, hanem a döntéshozatalra is, hiszen a beskatulyázott egyének gyakran nem kapják meg a megérdemelt lehetőségeket vagy támogatást. Fontos tehát, hogy tudatosan törekedjünk arra, hogy megismerjük a másikat, és elkerüljük a felületes ítéleteket.

Ez azt jelenti, hogy egy vállalat kockázatfelméréskor nem használhat olyan AI-alkalmazásokat, amely a tárgytól eltérő személyes adatok alapján osztályozza az embereket. Például a csalásra való hajlamukat származásuk, bőrük színe, vagy a közösségi médiában mutatott viselkedésük alapján határozza meg. Az EB iránymutatása egyértelműen példázza, hogy egy bankhitel-igénylés elbírálásakor kizárólag a pénzügyi adatok vehetők számításba.

3. Biometrikus adatok alapján történő kockázatfelmérés

A már említett társadalmi besoroláshoz hasonlóan a rendőrség számára sem engedélyezett olyan mesterséges intelligencia alkalmazása, amely biometrikus adatokra támaszkodva próbálná megjósolni egy egyén bűnözői hajlamait vagy viselkedését. Nem lehet kizárólag az arcvonások alapján megítélni, hogy valaki részt vehet egy felkelésen vagy elkövethet-e merényletet bárki ellen. Az objektív és ellenőrizhető tények figyelembevételének fontosságát hangsúlyozzák a szakértők.

4. Az interneten fellelhető fényképek felhasználásával kialakított arcfelismerő adatbázis.

Tilosak az olyan alkalmazások, amelyek jóváhagyás nélkül fotókat gyűjtenek az emberek arcáról, amelyeket aztán milliárdos nagyságrendű adatbázis összeállításához használnak. A szabályozás szerint ez már állami megfigyelést jelentene.

5. Érzelemfelismerés a munkahelyi környezetben A munkahelyi érzelemfelismerés kulcsfontosságú tényező a hatékony együttműködés és a pozitív munkakörnyezet kialakításában. A munkatársak közötti empátia és a saját érzelmeink tudatosítása hozzájárul a konfliktusok megelőzéséhez és a kreatív problémamegoldáshoz. A környezetünkben rejlő érzelmi jelek, mint például a testbeszéd, a hangszín és a mimika, segítenek abban, hogy megértsük kollégáink hangulatát és szükségleteit. A sikeres érzelemfelismerés nemcsak a kommunikációt javítja, hanem erősíti a csapatszellemet is. Fontos, hogy a munkahelyeken támogassuk az érzelmi intelligencia fejlesztését, például tréningekkel és workshopokkal. Ez lehetővé teszi, hogy a munkavállalók jobban kezeljék a stresszt, és hatékonyabban reagáljanak a különböző helyzetekre. Az érzelemfelismerés tehát nem csupán egy hasznos készség, hanem elengedhetetlen a harmonikus és produktív munkakörnyezet megteremtéséhez.

Semmilyen cég vagy intézmény nem engedheti meg magának, hogy webkamerát vagy hangfelismerő technológiát alkalmazzon azzal a céllal, hogy felfedje vagy figyelemmel kísérje munkavállalói érzelmi állapotát.

A viselkedésmanipulálás egy olyan folyamat, amelynek során egyes egyének vagy csoportok tudatosan befolyásolják mások viselkedését, döntéseit vagy érzéseit. Ez a módszer gyakran rejtett technikákra és pszichológiai trükkökre épít, amelyek célja az, hogy a manipulált személyek olyan módon reagáljanak, ahogyan azt a manipuláló fél kívánja. A manipuláció lehet pozitív vagy negatív irányú is, attól függően, hogy a manipuláló szándéka mi. Például a marketing területén gyakran alkalmaznak viselkedésmanipuláló stratégiákat, hogy a vásárlók figyelmét felkeltsék és vásárlásra ösztönözzék őket. Az érzelmi apellálás, a társadalmi bizonyítékra való hivatkozás vagy a sürgetés érzésének keltése mind olyan eszközök, amelyeket széles körben használnak. Fontos megjegyezni, hogy a viselkedésmanipulálás etikailag kérdéses lehet, különösen akkor, ha a manipulált egyének nincsenek tudatában a folyamatnak, vagy ha a manipuláció a kárukra válik. Ezért lényeges, hogy tudatosan és felelősségteljesen közelítsünk a manipuláció kérdéséhez, és mindig tartsuk szem előtt a mások iránti tiszteletet és empátiát.

Nem megengedett olyan mesterséges intelligencia rendszert integrálni egy alkalmazásba vagy weboldal dizájnjába, amely manipulálja a felhasználót, hogy vásárlásra ösztönözze.

7. Az életkor vagy a fogyatékosság következtében kialakuló kiszolgáltatottság kihasználása

Nem élhet senki vissza egy személy korából vagy fogyatékából adódó sérülékenységével. Erre példaként hozták fel, hogy tilos olyan AI-játékot készíteni, amely sérülésveszélyes, kockázatos kihívásokra bátorítja a gyermekeket.

A biometrikus adatok elemzése révén lehetőség nyílik arra, hogy a politikai vagy szexuális orientációval kapcsolatos következtetéseket vonjunk le. Az ilyen jellegű információk feldolgozása azonban komoly etikai és adatvédelmi kérdéseket vet fel. Az arcterület, a hangminták vagy akár a viselkedési minták alapján gyűjtött adatok révén a kutatók és elemzők képesek lehetnek felfedezni olyan mintázatokat, amelyek összefügghetnek az egyének világnézetével vagy személyes preferenciáival. Fontos azonban, hogy ez a megközelítés nemcsak tudományos érdeklődésre ad okot, hanem komoly felelősséget is ró a szakemberekre. A biometrikus adatok felhasználása során elengedhetetlen a magánélet védelme és az egyének jogainak tiszteletben tartása. Különös figyelmet kell fordítani arra, hogy az ilyen típusú elemzések ne stigmatizáljanak vagy diszkrimináljanak senkit, hiszen az egyéni identitás sokkal összetettebb és árnyaltabb, mint amit csupán adatok révén meg lehetne határozni.

Fedd fel az igazi éned, és én megmondom, ki vagy! Az olyan rendszerek, amelyek arcfelismeréssel próbálják meghatározni valakinek a politikai vagy szexuális irányultságát, szigorúan tilosak.

Related posts