Užsiregistruoti

ataskaita

Vadovas politikos formuotojams: sparčiai besivystančių technologijų, įskaitant dirbtinį intelektą, didelių kalbų modelius ir ne tik, įvertinimas

Šiame dokumente ISC nagrinėja sistemos, skirtos informuoti politikos formuotojus apie įvairias pasaulines ir nacionalines diskusijas, susijusias su AI, metmenis.

ISC vadove pateikiama visapusiška sistema, skirta užpildyti atotrūkį tarp aukšto lygio principų ir praktinės, įgyvendinamos politikos. Ji reaguoja į neatidėliotiną poreikį bendrai suprasti naujų technologijų teikiamas galimybes ir riziką. Tai būtinas dokumentas tiems, kurie dirba su politikos sąsaja mūsų greitai besikeičiančioje skaitmeninėje eroje.

Sistema nagrinėja AI ir jo darinių potencialą per visapusį objektyvą, apimantį žmonių ir visuomenės gerovę bei išorinius veiksnius, tokius kaip ekonomika, politika, aplinka ir saugumas. Kai kurie kontrolinio sąrašo aspektai gali būti svarbesni už kitus, atsižvelgiant į kontekstą, tačiau geresni sprendimai atrodo labiau tikėtini, jei atsižvelgiama į visas sritis, net jei kai kuriuos konkrečiais atvejais galima greitai nustatyti kaip nereikšmingus. Tai yra neatskiriama kontrolinio sąrašo metodo vertė.

„Šioje eroje, kuriai būdingos sparčios technologinės naujovės ir sudėtingi pasauliniai iššūkiai, ISC visapusės ir daugialypės galimo poveikio analizės sistema įgalina lyderius priimti pagrįstus, atsakingus sprendimus. Tai užtikrina, kad tobulėdami technologijų srityje tai darysime atidžiai apsvarstydami etines, socialines ir ekonomines pasekmes.

Peter Gluckmanas, ISC prezidentas

Nors UNESCO, EBPO, Europos Komisija ir JT, be kita ko, paskelbė aukšto lygio principus ir tęsiasi įvairios diskusijos dėl galimo valdymo, reguliavimo, etikos ir saugos klausimų, yra didelis atotrūkis tarp tokių principų ir valdymo ar reguliavimo sistemos. ISC patenkina šį poreikį per savo naują vadovą politikos formuotojams.

Šiuo vadovu politikos formuotojams nesiekiama uždrausti reguliavimo režimo, o pasiūlyti prisitaikančią ir besikeičiančią analitinę sistemą, kuri galėtų paremti bet kokius vertinimo ir reguliavimo procesus, kuriuos gali parengti suinteresuotosios šalys, įskaitant vyriausybes ir daugiašalę sistemą.

„Sistema yra svarbus žingsnis visame pasaulyje vykstančiame pokalbyje apie AI, nes tai yra pagrindas, kuriuo remdamiesi galime pasiekti sutarimą dėl technologijos pasekmių tiek dabar, tiek ateityje“. 

Hema Sridhar, buvusi Naujosios Zelandijos gynybos ministerijos vyriausioji mokslo patarėja, o dabar vyresnioji mokslo darbuotoja Fellow, Oklando universitetas, Naujoji Zelandija.

Nuo 2023 m. spalio mėn. buvo pradėtos kelios svarbios nacionalinės ir daugiašalės iniciatyvos, kuriomis toliau buvo svarstoma dirbtinio intelekto etika ir saugumas. AI poveikis kai kurių mūsų svarbiausių sistemų, įskaitant finansų, vyriausybės, teisės ir švietimo, taip pat įvairių žinių sistemų (įskaitant mokslo ir vietines žinias), vientisumui kelia vis didesnį susirūpinimą. Sistema toliau atspindi šiuos aspektus.

Iš ISC narių ir tarptautinės politiką formuojančios bendruomenės iki šiol gauti atsiliepimai atsispindi atnaujintoje analitinės sistemos versijoje, kuri dabar išleista kaip vadovas politikos formuotojams.

Vadovas politikos formuotojams: sparčiai besivystančių technologijų, įskaitant dirbtinį intelektą, didelių kalbų modelius ir ne tik, įvertinimas

Šiame diskusijų dokumente pateikiami pradinės sistemos, skirtos informuoti apie daugybę pasaulinių ir nacionalinių diskusijų, susijusių su AI, metmenys.

Sistema, skirta naudoti jūsų organizacijoje

Atsisiųskite sistemą, skirtą naudoti savo organizacijoje

Čia pateikiame pagrindų įrankį kaip redaguojamą „Excel“ lapą, skirtą naudoti jūsų organizacijoje. Jei pageidaujate atvirojo kodo formato, susisiekite [apsaugotas el. paštu].

Įvadas

Sparčiai atsirandančios technologijos kelia sudėtingų problemų, susijusių su jų naudojimu, valdymu ir galimu reguliavimu. Vykstanti politika ir viešos diskusijos dėl dirbtinio intelekto (DI) ir jo naudojimo iškėlė į šias problemas didelį dėmesį. UNESCO, EBPO, JT ir kiti, įskaitant Jungtinės Karalystės Bletchley deklaraciją, paskelbė plačius dirbtinio intelekto principus, taip pat atsiranda naujų jurisdikcijos bandymų reguliuoti technologijos aspektus per, pavyzdžiui, Europos Sąjungos (ES) AI. aktą arba neseniai priimtą Jungtinių Valstijų AI vykdomąjį įsakymą.

Nors dirbtinio intelekto naudojimas yra plačiai aptariamas šiuose ir kituose forumuose, atsižvelgiant į geopolitinį takoskyrą ir visų pajamų lygių šalis, išlieka ontologinis atotrūkis tarp aukšto lygio principų kūrimo ir jų įtraukimo į praktiką reguliavimo, politikos, valdymo būdu. arba priežiūros metodai. Kelias nuo principo iki praktikos yra menkai apibrėžtas, tačiau atsižvelgiant į AI kūrimo ir taikymo pobūdį ir dažnumą, interesų įvairovę ir galimų pritaikymų įvairovę, bet koks požiūris negali būti pernelyg bendras ar įsakmi.

Dėl šių priežasčių nevyriausybinė mokslo bendruomenė ir toliau atlieka ypatingą vaidmenį. Tarptautinė mokslo taryba (ISC), turinti pliuralistinę socialinių ir gamtos mokslų narių grupę, 2023 m. spalio mėn. paskelbė diskusijų dokumentą, kuriame pristatė preliminarią analitinę sistemą, kurioje buvo nagrinėjama rizika, nauda, ​​grėsmės ir galimybės, susijusios su sparčiai besikeičiančiomis skaitmeninėmis technologijomis. Nors jis buvo sukurtas atsižvelgiant į dirbtinį intelektą, jis iš esmės yra technologijų agnostikas ir gali būti taikomas įvairioms naujoms ir žalingoms technologijoms, tokioms kaip sintetinė biologija ir kvantinė. Šis diskusijų dokumentas paragino akademikų ir politikos formuotojų atsiliepimus. Dėl daugybės atsiliepimų atlikti tokią analizę buvo būtina ir tai buvo vertingas būdas spręsti naujas technologijas, pvz., AI.

Sistemos tikslas – suteikti priemonę, skirtą informuoti visas suinteresuotąsias šalis, įskaitant vyriausybes, derybininkus dėl prekybos, reguliavimo institucijas, pilietinę visuomenę ir pramonę, apie šių technologijų raidą, kad būtų galima nustatyti, kaip jie galėtų įvertinti teigiamus ar neigiamus šių technologijų padarinius. pati technologija, o konkrečiau – konkretus jos pritaikymas. Ši analitinė sistema buvo sukurta nepriklausomai nuo vyriausybės ir pramonės interesų. Ji yra maksimaliai pliuralistinė savo perspektyvomis, apimanti visus technologijos aspektus ir jos pasekmes, pagrįsta išsamiomis konsultacijomis ir atsiliepimais.

Šiuo politikos formuotojams skirtu diskusijų dokumentu siekiama ne uždrausti reguliavimo režimą, o pasiūlyti prisitaikančią ir besikeičiančią analitinę sistemą, kuri galėtų paremti bet kokius vertinimo ir reguliavimo procesus, kuriuos gali parengti suinteresuotosios šalys, įskaitant vyriausybes ir daugiašalę sistemą.

Kadangi sprendimus priimantys asmenys visame pasaulyje ir nacionaliniu mastu svarsto tinkamas politikos nuostatas ir svertus, kad subalansuotų naujos technologijos, pvz., AI, riziką ir naudą, analizės sistema yra skirta kaip papildoma priemonė, užtikrinanti, kad būtų tinkamai atsižvelgta į visas galimų pasekmių rinkinys.

Fonas: kodėl reikalinga analitinė sistema?

Spartus technologijų, susijusių su dirbtinio intelekto sudėtingumu ir pasekmėmis, atsiradimas skatina daugybę tvirtinimų apie didelę naudą. Tačiau tai taip pat sukelia baimę dėl didelių rizikų – nuo ​​individualaus iki geostrateginio lygio.1 Didžioji dalis iki šiol vykstančių diskusijų buvo svarstoma dvejetaine prasme, nes viešai išreikštos nuomonės dažniausiai vyksta kraštutiniuose spektro kraštuose. Teiginiai už arba prieš AI dažnai yra hiperboliški ir, atsižvelgiant į technologijos pobūdį, sunkiai įvertinami.

Reikalingas pragmatiškesnis požiūris, kai hiperbolė pakeičiama kalibruotais ir detalesniais vertinimais. Dirbtinio intelekto technologija ir toliau vystysis, o istorija rodo, kad beveik kiekviena technologija yra naudinga ir žalinga. Todėl kyla klausimas: kaip galime pasiekti naudingų šios technologijos rezultatų, tuo pačiu sumažinant žalingų pasekmių riziką, kai kurios iš jų gali būti egzistencinio dydžio?

Ateitis visada neaiški, tačiau yra pakankamai patikimų ir ekspertų nuomonės apie AI ir generatyvųjį AI, kad būtų skatinamas santykinai atsargus požiūris. Be to, būtinas sisteminis požiūris, nes dirbtinis intelektas yra technologijų klasė, kurią plačiai naudoja ir taiko įvairių tipų vartotojai. Tai reiškia, kad svarstant bet kokio AI naudojimo pasekmes asmenims, socialiniam gyvenimui, pilietiniam gyvenimui, visuomenės gyvenimui ir pasauliniam kontekstui, reikia atsižvelgti į visą kontekstą.

Skirtingai nuo daugelio kitų technologijų, skaitmeninių ir susijusių technologijų atveju laikas nuo kūrimo, išleidimo ir taikymo yra labai trumpas, daugiausia dėl gamybos įmonių ar agentūrų interesų. Dėl savo prigimties – ir atsižvelgiant į tai, kad jis pagrįstas skaitmeniniu pagrindu – AI turės programas, kurios greitai plinta, kaip jau buvo matyti kuriant didelius kalbos modelius. Dėl to kai kurios savybės gali išryškėti tik po paleidimo, o tai reiškia, kad kyla nenumatytų pasekmių – tiek piktavališkų, tiek geranoriškų – rizika.

Svarbūs visuomenės vertybių dimensijos, ypač skirtinguose regionuose ir kultūrose, turės įtakos bet kokio naudojimo suvokimui ir priėmimui. Be to, diskusijose jau dominuoja geostrateginiai interesai, suverenūs ir daugiašaliai interesai nuolat susikerta ir taip skatina konkurenciją bei susiskaldymą.

Iki šiol didžioji dalis virtualios technologijos reguliavimo buvo vertinama per „principų“ ir savanoriško laikymosi objektyvą, nors ir su ES AI įstatymu.2 ir panašiai matome perėjimą prie labiau vykdytinų, bet šiek tiek siaurų taisyklių. Veiksmingos pasaulinės ar nacionalinės technologijų valdymo ir (arba) reguliavimo sistemos sukūrimas tebėra sudėtingas ir nėra aiškaus sprendimo. Šioje grandinėje, nuo išradėjo iki gamintojo, naudotojo, vyriausybės ir daugiašalės sistemos, reikės kelių pagrįstų sprendimų priėmimo lygių.

Nors UNESCO, EBPO, Europos Komisija ir JT, be kita ko, paskelbė aukšto lygio principus ir tęsiasi įvairios aukšto lygio diskusijos dėl galimo valdymo, reguliavimo, etikos ir saugos klausimų, tarp tokių dalykų yra didelis atotrūkis. principus ir valdymo ar reguliavimo sistemą. Tai turi būti sprendžiama.

Kaip išeities tašką ISC svarsto, kad būtų sukurta svarstymų taksonomija, kuria galėtų remtis bet kuris kūrėjas, reguliuotojas, politikos patarėjas, vartotojas ar sprendimus priimantis asmuo. Atsižvelgiant į plačias šių technologijų pasekmes, tokia taksonomija turi atsižvelgti į pasekmių visumą, o ne į siaurai sutelktą kadravimą. Pasaulinis susiskaidymas didėja dėl geostrateginių interesų įtakos sprendimų priėmimui, todėl, atsižvelgiant į šios technologijos skubumą, labai svarbu, kad nepriklausomi ir neutralūs balsai nuolat propaguotų vieningą ir įtraukų požiūrį.


1) Hindustano laikai. 2023 m. G20 turi įsteigti tarptautinę technologinių pokyčių grupę.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) ES dirbtinio intelekto įstatymas. 2023. https://artificialintelligenceact.eu

Analitinės sistemos kūrimas

ISC yra pagrindinė pasaulinė nevyriausybinė organizacija, integruojanti gamtos ir socialinius mokslus. Jos pasaulinis ir disciplininis aprėptis reiškia, kad ji yra tinkama teikti nepriklausomus ir pasauliniu mastu svarbius patarimus, kurie padėtų priimti sudėtingus būsimus sprendimus, ypač dėl to, kad šiuo metu daugiausiai balsų šioje arenoje yra pramonės atstovai arba pagrindinių technologinių jėgų politikos ir politinės bendruomenės.

Po ilgų diskusijų, į kurias buvo įtrauktas ir nevyriausybinio vertinimo proceso svarstymas, ISC padarė išvadą, kad jos naudingiausias indėlis būtų sukurti adaptyvią analitinę sistemą, kurią visi galėtų naudoti kaip diskurso ir sprendimų priėmimo pagrindą. suinteresuotosioms šalims, įskaitant bet kokius iškilusius formalius vertinimo procesus.

Preliminari analitinė sistema, kuri buvo išleista aptarti ir pateikti atsiliepimams 2023 m. spalio mėn., buvo sudaryta kaip visa apimantis kontrolinis sąrašas, skirtas naudoti tiek vyriausybinėms, tiek nevyriausybinėms institucijoms. Sistema nustatė ir ištyrė tokios technologijos, kaip AI ir jos dariniai, potencialą per platų objektyvą, apimantį žmonių ir visuomenės gerovę, taip pat išorinius veiksnius, tokius kaip ekonomika, politika, aplinka ir saugumas. Kai kurie kontrolinio sąrašo aspektai gali būti svarbesni už kitus, atsižvelgiant į kontekstą, tačiau geresni sprendimai atrodo labiau tikėtini, jei atsižvelgiama į visas sritis, net jei kai kuriuos konkrečiais atvejais galima greitai nustatyti kaip nereikšmingus. Tai yra neatskiriama kontrolinio sąrašo metodo vertė.

Preliminari sistema buvo sudaryta iš ankstesnio darbo ir mąstymo, įskaitant Tarptautinio vyriausybių mokslo patarimų tinklo (INGSA) ataskaitą apie skaitmeninę gerovę3 ir EBPO AI sistemų klasifikavimo sistemą4, siekiant pateikti galimų galimybių, rizikos ir poveikio visumą. AI. Šie ankstesni produktai buvo labiau apriboti, atsižvelgiant į jų laiką ir kontekstą; reikia visa apimančios sistemos, kurioje būtų pateikiamos visos trumpalaikės ir ilgesnės trukmės problemos.

Nuo tada, kai buvo išleistas diskusijų dokumentas, jis sulaukė didelio daugelio ekspertų ir politikos formuotojų palaikymo. Daugelis konkrečiai pritarė rekomendacijai sukurti prisitaikančią sistemą, kuri leistų sąmoningai ir aktyviai apsvarstyti technologijos keliamą riziką ir pasekmes, o tai darant visada atsižvelgiama į dimensijų visumą nuo individo iki visuomenės ir sistemų.

Vienas iš pagrindinių pastabų, padarytų naudojant grįžtamąjį ryšį, buvo pripažinimas, kad kai kurios sistemoje nagrinėjamos pasekmės iš esmės yra daugialypės ir apima kelias kategorijas. Pavyzdžiui, dezinformacija gali būti vertinama tiek iš individualaus, tiek iš geostrateginio objektyvo; taigi, pasekmės būtų labai įvairios.

Taip pat buvo pasiūlyta galimybė įtraukti atvejų tyrimus arba pavyzdžius, kad būtų galima išbandyti sistemą. Tai galėtų būti panaudota kuriant gaires, kurios parodytų, kaip tai galėtų būti naudojama praktikoje įvairiuose kontekstuose. Tačiau tai būtų svarbus įsipareigojimas ir gali apriboti, kaip įvairios grupės suvoks šios sistemos naudojimą. Geriausia tai padaryti politikos formuotojams, dirbantiems su ekspertais konkrečiose jurisdikcijose ar kontekstuose.

Nuo 2023 m. spalio mėn. buvo pradėtos kelios svarbios nacionalinės ir daugiašalės iniciatyvos, kuriomis toliau buvo svarstoma dirbtinio intelekto etika ir saugumas. AI poveikis kai kurių mūsų svarbiausių sistemų, įskaitant finansų, vyriausybės, teisės ir švietimo, taip pat įvairių žinių sistemų (įskaitant mokslo ir vietines žinias), vientisumui kelia vis didesnį susirūpinimą. Peržiūrėta sistema toliau atspindi šiuos aspektus.

Iki šiol gauti atsiliepimai atsispindi atnaujintoje analitinės sistemos versijoje, kuri dabar išleista kaip vadovas politikos formuotojams.

Nors sistema pateikiama AI ir susijusių technologijų kontekste, ją galima nedelsiant perkelti į kitas greitai atsirandančias technologijas, tokias kaip kvantinė ir sintetinė biologija.


3) Gluckman, P. ir Allen, K. 2018. Gerovės supratimas greitų skaitmeninių ir susijusių transformacijų kontekste. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) EBPO. 2022 m. EBPO AI sistemų klasifikavimo sistema. EBPO skaitmeninės ekonomikos dokumentai, Nr. 323, Nr. Paryžius, EBPO leidykla.
https://oecd.ai/en/classificatio

Pagrindai

Toliau pateiktoje lentelėje pateikiami tariamos analizės sistemos matmenys. Pateikiami pavyzdžiai, iliustruojantys, kodėl kiekvienas domenas gali būti svarbus; atsižvelgiant į kontekstą, sistemą reikėtų išplėsti atsižvelgiant į kontekstą. Taip pat svarbu atskirti bendrąsias problemas, kurios kyla kuriant platformą, ir problemas, kurios gali iškilti naudojant konkrečias programas. Nė vienas čia įtrauktas aspektas neturėtų būti laikomas prioritetu, todėl turėtų būti išnagrinėti visi.

Problemos yra plačiai suskirstytos į šias kategorijas, kaip nurodyta toliau:

  • Gerovė (įskaitant asmenų ar savęs, visuomenės, socialinio ir pilietinio gyvenimo)
  • Prekyba ir ekonomika
  • aplinkos
  • Geostrateginis ir geopolitinis
  • Technologinės (sistemos charakteristikos, dizainas ir naudojimas)

Lentelėje išsamiai aprašomi matmenys, į kuriuos gali reikėti atsižvelgti vertinant naują technologiją.

? INGSA. 2018. Gerovės supratimas sparčių skaitmeninių ir susijusių transformacijų kontekste.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

? Nauji aprašai (pateikti per išsamias konsultacijas, atsiliepimus ir literatūros apžvalgą)

? EBPO AI sistemų klasifikavimo sistema: veiksmingos AI politikos priemonė.
https://oecd.ai/en/classification

Poveikio matmenys: individualus / sau

KriterijaiPavyzdžiai, kaip tai gali atsispindėti analizėje
?Naudotojų AI kompetencijaKiek galimi vartotojai, kurie sąveikaus su sistema, yra kompetentingi ir žino sistemos savybes? Kaip jiems bus suteikta atitinkama vartotojo informacija ir įspėjimai?
? Paveikta suinteresuotoji šalisKas yra pagrindiniai suinteresuotieji subjektai, kuriems sistema paveiks (asmenys, bendruomenės, pažeidžiami, sektorių darbuotojai, vaikai, politikos formuotojai, specialistai ir kt.)?
? PasirenkamumasAr vartotojams suteikiama galimybė atsisakyti sistemos, ar jiems suteikiamos galimybės užginčyti ar pataisyti išvestį?
?Pavojai žmogaus teisėms ir demokratinėms vertybėmsAr sistema daro esminį poveikį žmogaus teisėms, įskaitant, bet neapsiribojant, privatumą, saviraiškos laisvę, sąžiningumą, nediskriminavimą ir pan.?
?Galimas poveikis žmonių geroveiAr sistemos poveikio sritys yra susijusios su individualaus vartotojo gerove (darbo kokybe, išsilavinimu, socialine sąveika, psichine sveikata, tapatybe, aplinka ir tt)?
? Žmonių darbo jėgos perkėlimo galimybėAr sistema gali automatizuoti užduotis ar funkcijas, kurias vykdė žmonės? Jei taip, kokios pasekmės pasroviui?
? Tapatybės, vertybių ar žinių manipuliavimo potencialasAr sistema sukurta ar gali manipuliuoti vartotojo tapatybe, arba
nustatyti vertybes, ar skleisti dezinformaciją?
? Saviraiškos ir savirealizacijos galimybėsAr yra galimybė dirbtinai ir nepasitikėti savimi? Ar yra galimybė klaidingai arba
nepatikrinti ekspertizės teiginiai?
? Savivertės mataiAr jaučiamas spaudimas vaizduoti idealizuotą save? Ar automatika galėtų pakeisti jausmą
asmeninio pasitenkinimo? Ar yra spaudimas konkuruoti su sistema
darbo vieta? Ar individo reputaciją sunkiau apsaugoti nuo dezinformacijos?
? PrivatumasAr yra išsklaidytos atsakomybės už privatumo apsaugą ir ar tokių yra
daromos prielaidos, kaip naudojami asmens duomenys?
? AutonomijaAr AI sistema gali paveikti žmogaus savarankiškumą, sukurdama pernelyg didelį pasitikėjimą
galutiniams vartotojams?
? Žmogaus vystymasisAr turi įtakos pagrindinių žmogaus tobulėjimo įgūdžių įgijimui, pvz
vykdomosios funkcijos ar tarpasmeniniai įgūdžiai, arba dėmesio laiko pokyčiai
mokymasis, asmenybės tobulėjimas, psichikos sveikatos problemos ir pan.?
? Asmens sveikatos priežiūraAr yra pretenzijų dėl savidiagnostikos ar individualizuotų sveikatos priežiūros sprendimų? Jei taip,
ar jie patvirtinti pagal reguliavimo standartus?
? Psichikos sveikataAr yra padidėjusio nerimo, vienatvės ar kitų psichinės sveikatos problemų rizika, arba
ar technologija gali sumažinti tokį poveikį?
? Žmogaus evoliucijaAr dideli kalbos modeliai ir dirbtinis bendras intelektas galėtų pakeisti
žmogaus evoliucijos eiga?
? Žmogaus ir mašinos sąveikaAr naudojimas ilgainiui gali sukelti asmenų įgūdžių praradimą ir priklausomybę? Yra
ar turi įtakos žmonių sąveikai?
5) Sistemoje nagrinėjami technologiniai kriterijai yra skirti specialiai dirbtiniam intelektui ir prireikus juos reikės peržiūrėti, kad būtų galima taikyti kitas technologijas.

Poveikio matmenys: Visuomenė/socialinis gyvenimas

Kriterijai Pavyzdžiai, kaip tai gali atsispindėti analizėje
? Visuomenės vertybėsAr sistema iš esmės keičia visuomenės prigimtį, leidžia normalizuoti anksčiau antisocialiomis laikytas idėjas, ar pažeidžia kultūros, kurioje ji taikoma, visuomenines vertybes?
? Socialinės sąveikosAr yra poveikis prasmingam žmonių kontaktui, įskaitant emocinius santykius?
? Gyventojų sveikataAr sistema gali paskatinti ar pakenkti gyventojų sveikatos ketinimams?
? Kultūrinė raiškaAr tikėtina, kad padidėjusį kultūrinį pasisavinimą ar diskriminaciją yra sunku arba sunkiau? Ar pasikliovimas sprendimų priėmimo sistema išskiria ar nustumia kultūriškai svarbius visuomenės sluoksnius?
? Visuomenės švietimasAr tai turi įtakos mokytojų vaidmenims ar švietimo institucijoms? Ar sistema pabrėžia ar sumažina skaitmeninę atskirtį ir nelygybę tarp studentų? Ar vidinė žinių ar kritinio supratimo vertė yra pažengusi į priekį ar sumenkinta?
? Iškreiptos realybėsAr metodai, naudojami siekiant išsiaiškinti, kas tiesa, vis dar taikomi? Ar pažeidžiamas tikrovės suvokimas?

Poveikio matmenys: ekonominis kontekstas (prekyba)

KriterijaiPavyzdžiai, kaip tai gali atsispindėti analizėje
? Pramonės sektoriusKuriame pramonės sektoriuje sistema įdiegta (finansų, žemės ūkio, sveikatos apsaugos, švietimo, gynybos ir kt.)?
? Verslo modelisKurioms verslo funkcijoms sistema naudojama ir kokiais pajėgumais? Kur naudojama sistema (privati, viešoji, ne pelno siekianti)?
? Poveikis kritinei veiklai Ar sistemos funkcijos ar veiklos sutrikimas paveiktų esmines paslaugas arba ypatingos svarbos infrastruktūrą?
? Platus diegimoKaip įdiegta sistema (siauras naudojimas padalinyje, palyginti su plačiai paplitusiu nacionaliniu / tarptautiniu mastu)?
? Techninė brandaKiek techniškai brandi yra sistema?
? Sąveika Ar nacionaliniu ar pasauliniu mastu gali būti silosų, kurie trukdo laisvai prekybai ir daro įtaką bendradarbiavimui su partneriais?
? Technologinis suverenitetasAr technologinio suverenumo troškimas skatina elgesį, įskaitant visos AI tiekimo grandinės kontrolę?
? Pajamų perskirstymas ir nacionaliniai fiskaliniai svertaiAr gali būti pažeisti pagrindiniai suverenios valstybės vaidmenys (pvz., atsargų bankai)? Ar valstybės galimybės pateisinti piliečių lūkesčius ir pasekmes (socialines, ekonomines, politines ir kt.) bus padidintos ar sumažintos?
? Skaitmeninė atskirtis (AI padalijimas) Ar esama skaitmeninė nelygybė didėja ar atsiranda naujų?

Poveikio matmenys: pilietinis gyvenimas

KriterijaiPavyzdžiai, kaip tai gali atsispindėti analizėje
? Valdymas ir viešoji tarnybaAr valdymo mechanizmai ir pasaulinė valdymo sistema gali būti paveikti teigiamai ar neigiamai?
? ŽiniasklaidaAr tikėtina, kad viešasis diskursas taps poliarizuotas ir įsitvirtins gyventojų lygmeniu? Ar tai turės įtakos pasitikėjimo ketvirtuoju turtu lygiui? Ar tradicinė žurnalistų etika ir sąžiningumo standartai bus dar labiau paveikti?
? Teisinė valstybėAr tai turės įtakos gebėjimui identifikuoti asmenis ar organizacijas, kurie turi būti atsakingi (pvz., kokią atsakomybę priskirti algoritmui už nepageidaujamus padarinius)? Ar yra prarastas suverenitetas (aplinkosaugos, mokesčių, socialinės politikos, etikos ir kt.)?
?Politika ir socialinė sanglaudaAr yra galimybė labiau įsitvirtinti politinėms pažiūroms ir mažiau galimybių siekti sutarimo? Ar yra galimybė toliau atskirti grupes? Ar priešingi politikos stiliai yra labiau ar mažiau tikėtini?
? Socialinė licencijaAr yra privatumo, pasitikėjimo ir moralinių problemų, į kurias reikia atsižvelgti norint, kad suinteresuotosios šalys priimtų naudojimą?
? Vietinės žiniosAr vietinės žinios ir duomenys gali būti sugadinti arba pasisavinti? Ar yra tinkamų priemonių apsaugoti nuo klaidingo pateikimo, dezinformacijos ir išnaudojimo?
? Mokslinė sistemaAr pažeistas akademinis ir mokslinių tyrimų vientisumas? Ar prarandamas pasitikėjimas mokslu? Ar yra piktnaudžiavimo, per didelio naudojimo ar piktnaudžiavimo galimybių? Kokios yra mokslo praktikos pasekmės?

Poveikio matmenys: Geostrateginis/geopolitinis kontekstas

KriterijaiPavyzdžiai, kaip tai gali atsispindėti analizėje
? Tikslus stebėjimasAr sistemos apmokytos remiantis individualiais elgsenos ir biologiniais duomenimis ir ar jos gali būti naudojamos asmenims ar grupėms išnaudoti?
? Skaitmeninis konkursasAr valstybiniai ar nevalstybiniai veikėjai (pvz., didelės technologijų įmonės) galėtų panaudoti sistemas ir duomenis, kad suprastų ir kontroliuotų kitų šalių populiacijas ir ekosistemas, arba pakenktų jurisdikcijos kontrolei?
? Geopolitinė konkurencijaAr sistema gali sukelti konkurenciją tarp tautų dėl individualių ir grupių duomenų panaudojimo ekonominiams, medicininiams ir saugumo interesams?
? Pasaulinių galių pasikeitimasAr kyla grėsmė nacionalinių valstybių, kaip pagrindinių pasaulio geopolitinių veikėjų, statusui? Ar technologijų įmonės turi galią, kuri kažkada buvo skirta nacionalinėms valstybėms, ir ar jos tapo nepriklausomomis, suvereniomis veikėjomis (besiformuojanti technopoliarinė pasaulio tvarka)?
? DezinformacijaAr sistema palengvintų dezinformacijos, turinčios įtakos socialinei sanglaudai, pasitikėjimui ir demokratijai, kūrimą ir sklaidą valstybiniams ir nevalstybiniams veikėjams?
? Dvejopo naudojimo programosAr yra galimybė naudoti tiek kariniais, tiek civiliniais tikslais?
? Pasaulinės tvarkos suskaidymasAr gali susidaryti reguliavimo ir atitikties silosai arba grupės, kurios trukdo bendradarbiavimui, gali sukelti taikymo nenuoseklumą ir sudaryti sąlygas konfliktams?

Poveikio matmenys: Aplinka

KriterijaiPavyzdžiai, kaip tai gali atsispindėti analizėje
? Energijos ir išteklių suvartojimas (anglies pėdsakas)Ar sistema ir reikalavimai padidina energijos ir išteklių suvartojimą, viršijantį efektyvumą, gaunamą naudojant programą?
? Energijos šaltinisIš kur gaunama energija sistemai (atsinaujinantis, palyginti su iškastiniu kuru ir tt)?

Poveikio matmenys: duomenys ir įvestis

KriterijaiPavyzdžiai, kaip tai gali atsispindėti analizėje
? Kryptis ir surinkimasAr duomenis ir įvestį renka žmonės, automatiniai jutikliai ar abu?
? Duomenų kilmėAr ekspertų duomenys ir įvestis yra pateikti, stebimi, sintetiniai ar išvestiniai? Ar yra vandens ženklų apsauga, patvirtinanti kilmę?
? Dinaminis duomenų pobūdisAr duomenys dinamiški, statiški, dinamiški kartas nuo karto ar realiuoju laiku?
? TeisėsAr duomenys yra nuosavybės teisės, vieši ar asmeniniai (susiję su asmenimis, kurių tapatybę galima nustatyti)?
? Identifikavimas ir asmens duomenysJei asmeniniai, ar duomenys anonimizuoti ar pseudonimizuoti?
? Duomenų struktūraAr duomenys struktūrizuoti, pusiau struktūrizuoti, sudėtingi struktūrizuoti ar nestruktūruoti?
? Duomenų formatasAr duomenų ir metaduomenų formatas yra standartizuotas ar nestandartizuotas?
? Duomenų mastelisKokia yra duomenų rinkinio skalė?
? Duomenų tinkamumas ir kokybė Ar duomenų rinkinys atitinka paskirtį? Ar tinkamas imties dydis? Ar jis pakankamai reprezentatyvus ir išsamus? Kiek triukšmingi duomenys? Ar tai linkusi į klaidas?

Smūgio matmenys: modelis

KriterijaiPavyzdžiai, kaip tai gali atsispindėti analizėje
? Informacijos prieinamumasAr yra kokios nors informacijos apie sistemos modelį?
? AI modelio tipasAr modelis yra simbolinis (žmogaus sukurtos taisyklės), statistinis (naudoja duomenis) ar hibridinis?
? Su modeliu susijusios teisėsAr modelis yra atvirojo kodo ar patentuotas, valdomas savarankiškai ar trečiosios šalies?
? Vienas iš kelių modeliųAr sistema sudaryta iš vieno modelio ar kelių tarpusavyje susijusių modelių?
? Generatyvus arba diskriminacinisAr modelis generatyvus, diskriminacinis ar abu?
? Modelio kūrimasAr sistema mokosi remdamasi žmogaus parašytomis taisyklėmis, iš duomenų, per prižiūrimą mokymąsi ar per sustiprintą mokymąsi?
? Modelio evoliucija (AI dreifas)Ar modelis vystosi ir (arba) įgyja gebėjimų sąveikaujant su lauko duomenimis?
? Federacinis arba centrinis mokymasisAr modelis mokomas centralizuotai, ar keliuose vietiniuose serveriuose ar „kraštiniuose“ įrenginiuose?
? Kūrimas/priežiūraAr modelis yra universalus, pritaikomas ar pritaikytas dirbtinio intelekto veikėjo duomenims?
? Deterministinis arba tikimybinis Ar modelis naudojamas deterministiniu ar tikimybiniu būdu?
? Modelio skaidrumas Ar vartotojams prieinama informacija, leidžianti suprasti modelio rezultatus ir apribojimus arba naudoti apribojimus?
? Skaičiavimo apribojimasAr yra sistemos skaičiavimo apribojimų? Ar įmanoma numatyti pajėgumų šuolius ar mastelio dėsnius?

Poveikio matmenys: užduotis ir rezultatas

KriterijaiPavyzdžiai, kaip tai gali atsispindėti analizėje
? Sistemos atliekama užduotis (-os).Kokias užduotis atlieka sistema (atpažinimas, įvykių aptikimas, prognozavimas ir pan.)?
? Užduočių ir veiksmų derinimasAr sistema apjungia keletą užduočių ir veiksmų (turinio generavimo sistemos, autonominės sistemos, valdymo sistemos ir kt.)?
? Sistemos autonomijos lygis Kiek autonomiški yra sistemos veiksmai ir kokį vaidmenį atlieka žmonės?
? Žmogaus įsitraukimo laipsnisAr yra tam tikras žmogaus dalyvavimas, kad būtų galima prižiūrėti bendrą AI sistemos veiklą ir galimybę nuspręsti, kada ir kaip bet kokioje situacijoje naudoti AI sistemą?
? Pagrindinė programaAr sistema priklauso pagrindinei taikymo sričiai, pvz., žmogaus kalbos technologijoms, kompiuterinei vizijai, automatizavimui ir (arba) optimizavimui ar robotikai?
? ĮvertinimasAr galimi standartai ar metodai sistemos rezultatams įvertinti?

Kaip būtų galima panaudoti šią sistemą?

Ši sistema gali būti naudojama įvairiais būdais, įskaitant:

  • Užpildyti atotrūkį tarp aukšto lygio principų ir vertinimo reguliavimo ar valdymo tikslais. Sistema gali tai paremti nustatydama patvirtintą bendrą taksonomiją įvairiems klausimams, kuriuos reikia apsvarstyti atitinkamoms suinteresuotosioms šalims kaip pagrindą informuoti ir formuoti tolesnį mąstymą. Pavyzdžiui, nacionaliniu lygmeniu vyriausybė galėtų naudoti sistemą kaip įrankį, kai ji kuria nacionalinę dirbtinio intelekto strategiją ir politiką, kad nustatytų bendrą rizikos ir galimybių pagrindą visose suinteresuotųjų šalių grupėse.
  • Informuoti poveikio vertinimus. ES AI įstatyme reikalaujama, kad organizacijos, teikiančios dirbtinio intelekto priemones arba taikančios dirbtinį intelektą savo procesuose, atliktų poveikio vertinimą, kad nustatytų savo iniciatyvų riziką ir taikytų tinkamą rizikos valdymo metodą. Čia pateikta sistema galėtų būti naudojama kaip pagrindas.
  • Informuoti horizonto nuskaitymą dėl rizikos ir ateities scenarijų. JT AI patariamosios institucijos tarpinėje ataskaitoje6 rizikos skirstymas į kategorijas iš esmės atitinka čia pateiktą sistemą. Yra galimybė, kad sistema gali būti naudojama siekiant sutarimo ir išbandyti kylančios rizikos rimtumą bei užbėgti jai už akių.
  • Tobulinti etikos principus, reikalingus dirbtinio intelekto naudojimui vadovauti ir valdyti. Sistema gali tai padaryti suteikdama lankstų pagrindą, kuriuo remiantis gali būti kuriamos patikimos sistemos, ir užtikrinant teisėtą, etišką, patikimą ir atsakingą technologijos naudojimą. Šiuos principus būtų galima išbandyti atsižvelgiant į visą šioje sistemoje pateiktą poveikį.
  • Palengvinti esamų ir besikeičiančių priemonių (reguliavimo, teisėkūros, politikos, standartų, valdymo ir kt.) įvertinimą ir nustatyti spragas, kurias reikia toliau apsvarstyti. Jas būtų galima priskirti pagal pagrindines kategorijas nacionaliniu arba tarptautiniu lygiu, siekiant nustatyti spragas ir tinkamas priemones rizikai sumažinti.
  • Remti vyriausybinį dirbtinio intelekto naudojimą. Kadangi daugelis vyriausybių nustato savo atitinkamas DI naudojimo agentūrose ir sistemose strategijas, sistema galėtų būti naudojama nustatant atitinkamas rizikos ribas ir pagrindines suinteresuotąsias šalis bei pareigas.
  • Remti viešąjį diskursą ir nustatyti socialinę licenciją, kaip naudojamas AI, ir pagrindinius duomenis, kurie bus naudojami visose vyriausybės tarnybose arba plačiau visuomenėje.

Kelias į priekį
Apibendrinant galima pasakyti, kad analitinė sistema yra priemonių rinkinio, kuriuo suinteresuotosios šalys galėtų nuosekliai ir sistemingai išsamiai apžvelgti bet kokius reikšmingus platformų ar naudojimo pokyčius, pagrindas. Šioje sistemoje pateikti aspektai yra svarbūs nuo technologijų vertinimo iki viešosios politikos, nuo žmogaus vystymosi iki sociologijos ir ateities bei technologijų studijų. Nors ši analitinė sistema sukurta dirbtiniam intelektui, ji daug plačiau taikoma bet kuriai kitai naujai technologijai.

6 JT AI patariamoji taryba. 2023 m. Tarpinė ataskaita: „Governing AI for Humanity“. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

Padėka

Rengiant tiek pradinį diskusijų dokumentą, tiek atsiliepimus po jo paskelbimo, buvo konsultuojamasi su daugeliu žmonių ir jie pateikė atsiliepimų. Abu dokumentus parengė Sir Peter Gluckman Gluckmanas, ISC prezidentas, ir Hema Sridhar, buvusi Naujosios Zelandijos gynybos ministerijos vyriausioji mokslo patarėja, o dabar vyresnioji mokslo darbuotoja. Fellow, Oklando universitetas, Naujoji Zelandija.

Visų pirma, ISC Lordas Martinas Reesas, buvęs Karališkosios draugijos prezidentas ir Kembridžo universiteto Egzistencinių rizikų tyrimo centro įkūrėjas; Profesorius Shivaji Sondhi, Oksfordo universiteto fizikos profesorius; profesorius K Vijay Raghavan, buvęs Indijos vyriausybės vyriausiasis patarėjas moksliniais klausimais; Amandeep Singh Gill, JT Generalinio Sekretoriaus pasiuntinys technologijų klausimais; Seán Ó hÉigeartaigh, Kembridžo universiteto Egzistencinių rizikų tyrimo centro vykdomasis direktorius; Seras Davidas Spiegelhalteris, Wintono universiteto visuomenės supratimo apie riziką profesorius
Kembridžo; Amanda-June Brawner, vyresnioji politikos patarėja ir Ianas Wigginsas, tarptautinių reikalų direktorius, Karališkoji draugija, Jungtinė Karalystė; Dr. Jerome'as Duberry, generalinis direktorius ir dr. Marie-Laure Salles, Ženevos studijų instituto direktorius; Chor Pharn Lee, Strateginės ateities centras, Ministro Pirmininko biuras, Singapūras; Barendas Monsas ir dr. Simonas Hodsonas, Duomenų komitetas (CoDATA); Profesorius Yuko Harayama, buvęs RIKEN vykdomasis direktorius; Profesorius
Rémi Quirion, INGSA prezidentas; Dr Claire Craig, Oksfordo universitetas ir buvęs Vyriausybės mokslo biuro prognozavimo vadovas; Yoshua Bengio, JT Generalinio Sekretoriaus mokslinė patariamoji taryba ir Monrealio universitetas; ir daugelis kitų, kurie pateikė atsiliepimų ISC apie pradinį diskusijų dokumentą.


Toliau skaitykite

Nacionalinių mokslinių tyrimų ekosistemų paruošimas dirbtiniam intelektui: strategijos ir pažanga 2024 m

Šiame ISC ekspertų grupės, Mokslo ateities centro, darbiniame dokumente pateikiama pagrindinė informacija ir prieiga prie išteklių iš visų pasaulio šalių įvairiais DI integravimo į jų mokslinių tyrimų ekosistemas etapais.


trys tyrėjai diskutuoja

Ateičiai paruoštų mokslo sistemų kūrimas Pietų pusrutulyje

Naujos technologijos keičia mokslo vykdymo būdus ir suteikia didelį potencialą stiprinti mokslo sistemas Pietų pusrutulyje, jei jų diegimas bus grindžiamas įtraukiais, gerai pagrįstais ir į kontekstą reaguojančiais metodais. Šio neseniai vykusio strateginio susitikimo pagrindinis dėmesys buvo skiriamas tam, kaip užtikrinti, kad šios technologijos prisidėtų prie teisingesnių ir atsparesnių mokslo sistemų, o ne sustiprintų esamą nelygybę.