Nëse nisemi nga Rregulli i Artë, trajtuar edhe nga Kanti, vepro sikurse do të doje që të tjerët të vepronin mbi ty (përshtatur), do të ishte ende e vështirë të përfshihej teknologjia inteligjente në objekt-subjektet e ndërgjegjshme me vullnet e objektiva. A do të donte IA të vepronte mbi ne si ne mbi të (këtu lindin pyetje të panumërta)? A ka vullnet IA aktualisht? Në fazën ku jemi teknologjia IA është ende zgjatim i njeriut, ndaj sjellja në vëmendje e disa kufizimeve, si pjesë e kontratës sociale të Russeau do të kishte vend mbi njerëzit që udhëheqin IA-në. Në fund, parimi i sovranitetit e sjell rregullimin e IA-së tek ne, populli, si vullnet i gjerë. Vullneti lidhet ngushtë me njohuritë, dhe është po ashtu detyrë e e secilit prej nesh të qartësojë sadopak panoramën aktuale të përdorimit dhe sjelljeve të IA-së.
Shqipëria nuk ka bërë shumë mbi IA-në në aspektin zhvillimor, domosdo, vendet me ekonomi dhe kërkim shkencor të zhvilluar mund ta bëjnë. Por, Shqipëria mund të luajë një rol themelor në organizata ndërkombëtare në evokimin e nevojës për rregullim ligjor ndërkombëtar/kombëtar. Nëse kjo nuk bëhet tani, zhvillimi galopant i teknologjive të tilla në Perëndim e Lindje do e detyrojë vendin tone të struket më tej në varësinë ndërkombëtare. Nga ana tjetër përdorimi i IA-së në trajtë eksperimenti në fusha të ndryshme të jetës mund të na bëjë të parët në të kuptuarit të risqeve sistemike ose jo të IA-së. Por kush sakrifikon lirinë e tij pa pasur rregulla, njohuri, qartësi?
Megjithatë, nisma për hartimin e një vendimi mbi Strategjinë e Inteligjencës Artificiale 2030 apo rregullorja aktuale në fuqi janë hapa pozitive drejt përqafimit të teknologjive inteligjente në rang kapilar të aktiviteteve të shoqërisë. Edhe pse jemi një vend i vogël kemi mundësi të integrojmë IA-në në shumë dimensione. Vetë IA, nëse përdoret me kujdes dhe rregullohet në rang ndërkombëtar/kombëtar mund të relativizojë diferencat aktuale ekonomike mes vendeve duke iu rikrijuar edhe një herë mundësi për konkurrencë intelektuale, dhe kjo e fundit vjen si rrjedhojë e çlirimit të talenteve nga kufijtë e kostove teknologjike të deritanishme. Ky avantazh duhet përdorur sa më parë. Nisur nga ky avantazh duhen eksploruar gjithashtu edhe zonat e ‘errëta’ apo vijat e kuqe, të cilat nevojiten si targete apo kufij drejt një rruge të kujdesshme!
Në petkun e botës akademike shqetësohem për ndikimin e IA-së në mësimdhënie, në qasjen sesi universitetet duhet ta përqafojnë sot për të orientuar burimet njerëzore apo studentët drejt tregjeve fluide të punës. Si qytetare dhe anëtare e IASEAI, organizatë me qendër në USA, punoj për aplikimin sa më të plotë e në linjë me zhvillimet në vendet e zhvilluara të aspekteve etike të IA-së.
Ndaj, shkruar sa më lartë, nxitur edhe nga thirrja për konsultim publik kam dërguar propozimet e mia sipas disa pikave më poshtë:
Integrimi në strategji i koncepteve të “Vijave të Kuqe për Inteligjencën Artificiale”
Nisur nga punime të caktuara në këtë drejtim, bazuar edhe tek artikulli i Future Society, https://thefuturesociety.org/airedlines, nga marrëveshja e Singaporit https://arxiv.org/abs/2506.20702, apo korniza e EU/AI act, përmbledhtazi, duhen integruar aspektet e mëposhtme që lidhen me përdorimet dhe sjelljet e sistemeve inteligjente:
Të cilësohet se kur ndalohet të përdoren sistemet IA, atëherë dhe vetëm atëherë kur:
-Manipulojnë/mashtrojnë sjelljen me teknika që provokojnë nëndërgjegjen, duke dëmtuar rëndë individët.
-Shfrytëzojnë apo cenojnë individin sipas moshës/aftësisë/gjendjes socio-ekonomike, duke shkaktuar dëm të rëndë.
-Bëjnë vlerësim social apo social-scoring të individëve/grupeve.
-Parashikojnë rrezikun e krimit vetëm nga profilizimi pseudo-psikologjik.
-Grumbullojnë databaza fytyrash me “scraping” të pa-synuar (internet/CCTV).
-Nxjerrin emocione të njerëzve në shkolla/vende pune (përveç arsyeve mjekësore/sigurie).
-Kategorizojnë biometrikisht atribute të ndjeshme (p.sh. bindjet politike, orientimi seksual).
-Identifikojnë biometrikisht “në kohë reale” në hapësira publike për ruajtjen e rendit — i lejuar vetëm me autorizim, në raste të rrepta dhe të justifikuara.
-Qasja e sistemeve të IA-së ndaj fëmijëve të jetë e trajtuar dhe studiuar me raporte psikologjike
Pavarësisht përdorimit, ndalohen sistemet/agentët që demonstrojnë ose synojnë sjellje si:
- Vetë-riprodhim / vetë-përmirësim të pakontrolluar
- Sjellje pushtet-kërkuese (p.sh. anashkalim i kontrollit njerëzor)
- Mashtim/Deception të qëllimshëm
- Sulme kibernetike autonome
- Ndihmë në zhvillimin e armëve
Për modelet me përdorim të përgjithshëm (GPAI) dhe veçanërisht ato që arrijnë rrezik sistemik, vendosen detyrime të posaçme:
- Publikimi i përmbledhjes së të dhënave të trajnimit dhe përputhshmëri me të drejtat e autorit
- Vlerësime të modelit, testim adversarial, raportim incidentesh serioze, dhe masa sigurie kibernetike
- Ndalesë e vendosjes në treg/zhvillimit kur pragu i rrezikut kalon kriteret e pranueshmërisë
Për zbatim të pikave të mësipërme lind nevoja edhe e një kornize ligjore/institucionale si:
- Autoritet kombëtar të IA-së;pranon njoftime dhe mban Regjistrin Kombëtar të IA-së me Rrezik të Lartë, autorizon përjashtimet ligjore, koordinon inspektime dhe sanksione.
- Barra e provës e lë tek zhvilluesi: për përdorime afër vijave të kuqe, leja jepet vetëm nëse paraqitet “safety case” i verifikueshëm.
- Përputhje me Metodologjinë kombëtare: politika, dokumentimi, menaxhimi i rrezikut dhe trajnimi janë të detyrueshme dhe shërbejnë si bazë për zbatimin e vijave të kuqe.
-Shteti krijon një Laborator Kombëtar të Sigurisë së IA-së që ofron: Infrastrukturë të sigurt vlerësimi (sandbox me akses të kontrolluar në modele), grupe auditimi e bençmarke (përfshirë kapacitete të rrezikshme, humbje kontrolli, metrologji), red-teaming (grup kontrolli) të pavarur dhe monitorim pas vendosjes (incidentet, abuzimet, dezinformimi).
Nevojitet edhe përputhja me instrumentet ndërkombëtare si:
- EU/AI act, aneksi ku pasqyrohen ndalimet dhe proceset shoqëruese.
- GPAI/rrezik sistemik: përafrim me detyrimet e BE-së për vlerësime, testim dhe raportim incidentesh.
- Konsensusi i Singaporit: prioritet për auditime/bençmarke, infrastrukturë vlerësimi, monitorim ekosistemi.
- Vijat e kuqe globale (Future Society/IDAIS): ndalime për vetë-riprodhimin, pushtet-kërkimin, mashtrimin, sulmet kibernetike dhe armët.
Për moszbatim mund të vendosen sanksione si:
- Ndalim i menjëhershëm dhe heqje nga shërbimi të operatorëve për shkelje të vijave të kuqe
- Gjobitje/ndalim pjesëmarrjeje në prokurime për operatorët
- Raportim incidentesh brenda afateve dhe publikim përmbledhjesh
Nëse nuk ndërmerren hapa vet-rregulluese për aplikimin e këtyre sistemeve inteligjente do të kishim përqendrim më të lartë të pushtetit në pak duar dhe zvogëlim të avantazheve për shoqërinë njerëzore si e tërë.
Në linjë me sugjerimet e sjella në vëmendje trajtuar në dokumentat e sipërpërmendura ju ftoj t’i hidhni një sy edhe qasjes së pionerit të etikës së IA-së, prof.Stuart Russell, të cilin kam pasur nderin ta intervistoj gjatë një takimi në US/CA.
Komente
