ISC vadove pateikiama visapusiška sistema, skirta užpildyti atotrūkį tarp aukšto lygio principų ir praktinės, įgyvendinamos politikos. Ji reaguoja į neatidėliotiną poreikį bendrai suprasti naujų technologijų teikiamas galimybes ir riziką. Tai būtinas dokumentas tiems, kurie dirba su politikos sąsaja mūsų greitai besikeičiančioje skaitmeninėje eroje.
Sistema nagrinėja AI ir jo darinių potencialą per visapusį objektyvą, apimantį žmonių ir visuomenės gerovę bei išorinius veiksnius, tokius kaip ekonomika, politika, aplinka ir saugumas. Kai kurie kontrolinio sąrašo aspektai gali būti svarbesni už kitus, atsižvelgiant į kontekstą, tačiau geresni sprendimai atrodo labiau tikėtini, jei atsižvelgiama į visas sritis, net jei kai kuriuos konkrečiais atvejais galima greitai nustatyti kaip nereikšmingus. Tai yra neatskiriama kontrolinio sąrašo metodo vertė.
„Šioje eroje, kuriai būdingos sparčios technologinės naujovės ir sudėtingi pasauliniai iššūkiai, ISC visapusės ir daugialypės galimo poveikio analizės sistema įgalina lyderius priimti pagrįstus, atsakingus sprendimus. Tai užtikrina, kad tobulėdami technologijų srityje tai darysime atidžiai apsvarstydami etines, socialines ir ekonomines pasekmes.
Peter Gluckmanas, ISC prezidentas
Nors UNESCO, EBPO, Europos Komisija ir JT, be kita ko, paskelbė aukšto lygio principus ir tęsiasi įvairios diskusijos dėl galimo valdymo, reguliavimo, etikos ir saugos klausimų, yra didelis atotrūkis tarp tokių principų ir valdymo ar reguliavimo sistemos. ISC patenkina šį poreikį per savo naują vadovą politikos formuotojams.
Šiuo vadovu politikos formuotojams nesiekiama uždrausti reguliavimo režimo, o pasiūlyti prisitaikančią ir besikeičiančią analitinę sistemą, kuri galėtų paremti bet kokius vertinimo ir reguliavimo procesus, kuriuos gali parengti suinteresuotosios šalys, įskaitant vyriausybes ir daugiašalę sistemą.
„Sistema yra svarbus žingsnis visame pasaulyje vykstančiame pokalbyje apie AI, nes tai yra pagrindas, kuriuo remdamiesi galime pasiekti sutarimą dėl technologijos pasekmių tiek dabar, tiek ateityje“.
Hema Sridhar, buvusi Naujosios Zelandijos gynybos ministerijos vyriausioji mokslo patarėja, o dabar vyresnioji mokslo darbuotoja Fellow, Oklando universitetas, Naujoji Zelandija.
Nuo 2023 m. spalio mėn. buvo pradėtos kelios svarbios nacionalinės ir daugiašalės iniciatyvos, kuriomis toliau buvo svarstoma dirbtinio intelekto etika ir saugumas. AI poveikis kai kurių mūsų svarbiausių sistemų, įskaitant finansų, vyriausybės, teisės ir švietimo, taip pat įvairių žinių sistemų (įskaitant mokslo ir vietines žinias), vientisumui kelia vis didesnį susirūpinimą. Sistema toliau atspindi šiuos aspektus.
Iš ISC narių ir tarptautinės politiką formuojančios bendruomenės iki šiol gauti atsiliepimai atsispindi atnaujintoje analitinės sistemos versijoje, kuri dabar išleista kaip vadovas politikos formuotojams.
Vadovas politikos formuotojams: sparčiai besivystančių technologijų, įskaitant dirbtinį intelektą, didelių kalbų modelius ir ne tik, įvertinimas
Šiame diskusijų dokumente pateikiami pradinės sistemos, skirtos informuoti apie daugybę pasaulinių ir nacionalinių diskusijų, susijusių su AI, metmenys.
Atsisiųskite sistemą, skirtą naudoti savo organizacijoje
Čia pateikiame pagrindų įrankį kaip redaguojamą „Excel“ lapą, skirtą naudoti jūsų organizacijoje. Jei pageidaujate atvirojo kodo formato, susisiekite [apsaugotas el. paštu].
Įvadas
Sparčiai atsirandančios technologijos kelia sudėtingų problemų, susijusių su jų naudojimu, valdymu ir galimu reguliavimu. Vykstanti politika ir viešos diskusijos dėl dirbtinio intelekto (DI) ir jo naudojimo iškėlė į šias problemas didelį dėmesį. UNESCO, EBPO, JT ir kiti, įskaitant Jungtinės Karalystės Bletchley deklaraciją, paskelbė plačius dirbtinio intelekto principus, taip pat atsiranda naujų jurisdikcijos bandymų reguliuoti technologijos aspektus per, pavyzdžiui, Europos Sąjungos (ES) AI. aktą arba neseniai priimtą Jungtinių Valstijų AI vykdomąjį įsakymą.
Nors dirbtinio intelekto naudojimas yra plačiai aptariamas šiuose ir kituose forumuose, atsižvelgiant į geopolitinį takoskyrą ir visų pajamų lygių šalis, išlieka ontologinis atotrūkis tarp aukšto lygio principų kūrimo ir jų įtraukimo į praktiką reguliavimo, politikos, valdymo būdu. arba priežiūros metodai. Kelias nuo principo iki praktikos yra menkai apibrėžtas, tačiau atsižvelgiant į AI kūrimo ir taikymo pobūdį ir dažnumą, interesų įvairovę ir galimų pritaikymų įvairovę, bet koks požiūris negali būti pernelyg bendras ar įsakmi.
Dėl šių priežasčių nevyriausybinė mokslo bendruomenė ir toliau atlieka ypatingą vaidmenį. Tarptautinė mokslo taryba (ISC), turinti pliuralistinę socialinių ir gamtos mokslų narių grupę, 2023 m. spalio mėn. paskelbė diskusijų dokumentą, kuriame pristatė preliminarią analitinę sistemą, kurioje buvo nagrinėjama rizika, nauda, grėsmės ir galimybės, susijusios su sparčiai besikeičiančiomis skaitmeninėmis technologijomis. Nors jis buvo sukurtas atsižvelgiant į dirbtinį intelektą, jis iš esmės yra technologijų agnostikas ir gali būti taikomas įvairioms naujoms ir žalingoms technologijoms, tokioms kaip sintetinė biologija ir kvantinė. Šis diskusijų dokumentas paragino akademikų ir politikos formuotojų atsiliepimus. Dėl daugybės atsiliepimų atlikti tokią analizę buvo būtina ir tai buvo vertingas būdas spręsti naujas technologijas, pvz., AI.
Sistemos tikslas – suteikti priemonę, skirtą informuoti visas suinteresuotąsias šalis, įskaitant vyriausybes, derybininkus dėl prekybos, reguliavimo institucijas, pilietinę visuomenę ir pramonę, apie šių technologijų raidą, kad būtų galima nustatyti, kaip jie galėtų įvertinti teigiamus ar neigiamus šių technologijų padarinius. pati technologija, o konkrečiau – konkretus jos pritaikymas. Ši analitinė sistema buvo sukurta nepriklausomai nuo vyriausybės ir pramonės interesų. Ji yra maksimaliai pliuralistinė savo perspektyvomis, apimanti visus technologijos aspektus ir jos pasekmes, pagrįsta išsamiomis konsultacijomis ir atsiliepimais.
Šiuo politikos formuotojams skirtu diskusijų dokumentu siekiama ne uždrausti reguliavimo režimą, o pasiūlyti prisitaikančią ir besikeičiančią analitinę sistemą, kuri galėtų paremti bet kokius vertinimo ir reguliavimo procesus, kuriuos gali parengti suinteresuotosios šalys, įskaitant vyriausybes ir daugiašalę sistemą.
Kadangi sprendimus priimantys asmenys visame pasaulyje ir nacionaliniu mastu svarsto tinkamas politikos nuostatas ir svertus, kad subalansuotų naujos technologijos, pvz., AI, riziką ir naudą, analizės sistema yra skirta kaip papildoma priemonė, užtikrinanti, kad būtų tinkamai atsižvelgta į visas galimų pasekmių rinkinys.
Fonas: kodėl reikalinga analitinė sistema?
Spartus technologijų, susijusių su dirbtinio intelekto sudėtingumu ir pasekmėmis, atsiradimas skatina daugybę tvirtinimų apie didelę naudą. Tačiau tai taip pat sukelia baimę dėl didelių rizikų – nuo individualaus iki geostrateginio lygio.1 Didžioji dalis iki šiol vykstančių diskusijų buvo svarstoma dvejetaine prasme, nes viešai išreikštos nuomonės dažniausiai vyksta kraštutiniuose spektro kraštuose. Teiginiai už arba prieš AI dažnai yra hiperboliški ir, atsižvelgiant į technologijos pobūdį, sunkiai įvertinami.
Reikalingas pragmatiškesnis požiūris, kai hiperbolė pakeičiama kalibruotais ir detalesniais vertinimais. Dirbtinio intelekto technologija ir toliau vystysis, o istorija rodo, kad beveik kiekviena technologija yra naudinga ir žalinga. Todėl kyla klausimas: kaip galime pasiekti naudingų šios technologijos rezultatų, tuo pačiu sumažinant žalingų pasekmių riziką, kai kurios iš jų gali būti egzistencinio dydžio?
Ateitis visada neaiški, tačiau yra pakankamai patikimų ir ekspertų nuomonės apie AI ir generatyvųjį AI, kad būtų skatinamas santykinai atsargus požiūris. Be to, būtinas sisteminis požiūris, nes dirbtinis intelektas yra technologijų klasė, kurią plačiai naudoja ir taiko įvairių tipų vartotojai. Tai reiškia, kad svarstant bet kokio AI naudojimo pasekmes asmenims, socialiniam gyvenimui, pilietiniam gyvenimui, visuomenės gyvenimui ir pasauliniam kontekstui, reikia atsižvelgti į visą kontekstą.
Skirtingai nuo daugelio kitų technologijų, skaitmeninių ir susijusių technologijų atveju laikas nuo kūrimo, išleidimo ir taikymo yra labai trumpas, daugiausia dėl gamybos įmonių ar agentūrų interesų. Dėl savo prigimties – ir atsižvelgiant į tai, kad jis pagrįstas skaitmeniniu pagrindu – AI turės programas, kurios greitai plinta, kaip jau buvo matyti kuriant didelius kalbos modelius. Dėl to kai kurios savybės gali išryškėti tik po paleidimo, o tai reiškia, kad kyla nenumatytų pasekmių – tiek piktavališkų, tiek geranoriškų – rizika.
Svarbūs visuomenės vertybių dimensijos, ypač skirtinguose regionuose ir kultūrose, turės įtakos bet kokio naudojimo suvokimui ir priėmimui. Be to, diskusijose jau dominuoja geostrateginiai interesai, suverenūs ir daugiašaliai interesai nuolat susikerta ir taip skatina konkurenciją bei susiskaldymą.
Iki šiol didžioji dalis virtualios technologijos reguliavimo buvo vertinama per „principų“ ir savanoriško laikymosi objektyvą, nors ir su ES AI įstatymu.2 ir panašiai matome perėjimą prie labiau vykdytinų, bet šiek tiek siaurų taisyklių. Veiksmingos pasaulinės ar nacionalinės technologijų valdymo ir (arba) reguliavimo sistemos sukūrimas tebėra sudėtingas ir nėra aiškaus sprendimo. Šioje grandinėje, nuo išradėjo iki gamintojo, naudotojo, vyriausybės ir daugiašalės sistemos, reikės kelių pagrįstų sprendimų priėmimo lygių.
Nors UNESCO, EBPO, Europos Komisija ir JT, be kita ko, paskelbė aukšto lygio principus ir tęsiasi įvairios aukšto lygio diskusijos dėl galimo valdymo, reguliavimo, etikos ir saugos klausimų, tarp tokių dalykų yra didelis atotrūkis. principus ir valdymo ar reguliavimo sistemą. Tai turi būti sprendžiama.
Kaip išeities tašką ISC svarsto, kad būtų sukurta svarstymų taksonomija, kuria galėtų remtis bet kuris kūrėjas, reguliuotojas, politikos patarėjas, vartotojas ar sprendimus priimantis asmuo. Atsižvelgiant į plačias šių technologijų pasekmes, tokia taksonomija turi atsižvelgti į pasekmių visumą, o ne į siaurai sutelktą kadravimą. Pasaulinis susiskaidymas didėja dėl geostrateginių interesų įtakos sprendimų priėmimui, todėl, atsižvelgiant į šios technologijos skubumą, labai svarbu, kad nepriklausomi ir neutralūs balsai nuolat propaguotų vieningą ir įtraukų požiūrį.
1) Hindustano laikai. 2023 m. G20 turi įsteigti tarptautinę technologinių pokyčių grupę.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) ES dirbtinio intelekto įstatymas. 2023. https://artificialintelligenceact.eu
Analitinės sistemos kūrimas
ISC yra pagrindinė pasaulinė nevyriausybinė organizacija, integruojanti gamtos ir socialinius mokslus. Jos pasaulinis ir disciplininis aprėptis reiškia, kad ji yra tinkama teikti nepriklausomus ir pasauliniu mastu svarbius patarimus, kurie padėtų priimti sudėtingus būsimus sprendimus, ypač dėl to, kad šiuo metu daugiausiai balsų šioje arenoje yra pramonės atstovai arba pagrindinių technologinių jėgų politikos ir politinės bendruomenės.
Po ilgų diskusijų, į kurias buvo įtrauktas ir nevyriausybinio vertinimo proceso svarstymas, ISC padarė išvadą, kad jos naudingiausias indėlis būtų sukurti adaptyvią analitinę sistemą, kurią visi galėtų naudoti kaip diskurso ir sprendimų priėmimo pagrindą. suinteresuotosioms šalims, įskaitant bet kokius iškilusius formalius vertinimo procesus.
Preliminari analitinė sistema, kuri buvo išleista aptarti ir pateikti atsiliepimams 2023 m. spalio mėn., buvo sudaryta kaip visa apimantis kontrolinis sąrašas, skirtas naudoti tiek vyriausybinėms, tiek nevyriausybinėms institucijoms. Sistema nustatė ir ištyrė tokios technologijos, kaip AI ir jos dariniai, potencialą per platų objektyvą, apimantį žmonių ir visuomenės gerovę, taip pat išorinius veiksnius, tokius kaip ekonomika, politika, aplinka ir saugumas. Kai kurie kontrolinio sąrašo aspektai gali būti svarbesni už kitus, atsižvelgiant į kontekstą, tačiau geresni sprendimai atrodo labiau tikėtini, jei atsižvelgiama į visas sritis, net jei kai kuriuos konkrečiais atvejais galima greitai nustatyti kaip nereikšmingus. Tai yra neatskiriama kontrolinio sąrašo metodo vertė.
Preliminari sistema buvo sudaryta iš ankstesnio darbo ir mąstymo, įskaitant Tarptautinio vyriausybių mokslo patarimų tinklo (INGSA) ataskaitą apie skaitmeninę gerovę3 ir EBPO AI sistemų klasifikavimo sistemą4, siekiant pateikti galimų galimybių, rizikos ir poveikio visumą. AI. Šie ankstesni produktai buvo labiau apriboti, atsižvelgiant į jų laiką ir kontekstą; reikia visa apimančios sistemos, kurioje būtų pateikiamos visos trumpalaikės ir ilgesnės trukmės problemos.
Nuo tada, kai buvo išleistas diskusijų dokumentas, jis sulaukė didelio daugelio ekspertų ir politikos formuotojų palaikymo. Daugelis konkrečiai pritarė rekomendacijai sukurti prisitaikančią sistemą, kuri leistų sąmoningai ir aktyviai apsvarstyti technologijos keliamą riziką ir pasekmes, o tai darant visada atsižvelgiama į dimensijų visumą nuo individo iki visuomenės ir sistemų.
Vienas iš pagrindinių pastabų, padarytų naudojant grįžtamąjį ryšį, buvo pripažinimas, kad kai kurios sistemoje nagrinėjamos pasekmės iš esmės yra daugialypės ir apima kelias kategorijas. Pavyzdžiui, dezinformacija gali būti vertinama tiek iš individualaus, tiek iš geostrateginio objektyvo; taigi, pasekmės būtų labai įvairios.
Taip pat buvo pasiūlyta galimybė įtraukti atvejų tyrimus arba pavyzdžius, kad būtų galima išbandyti sistemą. Tai galėtų būti panaudota kuriant gaires, kurios parodytų, kaip tai galėtų būti naudojama praktikoje įvairiuose kontekstuose. Tačiau tai būtų svarbus įsipareigojimas ir gali apriboti, kaip įvairios grupės suvoks šios sistemos naudojimą. Geriausia tai padaryti politikos formuotojams, dirbantiems su ekspertais konkrečiose jurisdikcijose ar kontekstuose.
Nuo 2023 m. spalio mėn. buvo pradėtos kelios svarbios nacionalinės ir daugiašalės iniciatyvos, kuriomis toliau buvo svarstoma dirbtinio intelekto etika ir saugumas. AI poveikis kai kurių mūsų svarbiausių sistemų, įskaitant finansų, vyriausybės, teisės ir švietimo, taip pat įvairių žinių sistemų (įskaitant mokslo ir vietines žinias), vientisumui kelia vis didesnį susirūpinimą. Peržiūrėta sistema toliau atspindi šiuos aspektus.
Iki šiol gauti atsiliepimai atsispindi atnaujintoje analitinės sistemos versijoje, kuri dabar išleista kaip vadovas politikos formuotojams.
Nors sistema pateikiama AI ir susijusių technologijų kontekste, ją galima nedelsiant perkelti į kitas greitai atsirandančias technologijas, tokias kaip kvantinė ir sintetinė biologija.
3) Gluckman, P. ir Allen, K. 2018. Gerovės supratimas greitų skaitmeninių ir susijusių transformacijų kontekste. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) EBPO. 2022 m. EBPO AI sistemų klasifikavimo sistema. EBPO skaitmeninės ekonomikos dokumentai, Nr. 323, Nr. Paryžius, EBPO leidykla.
https://oecd.ai/en/classificatio
Pagrindai
Toliau pateiktoje lentelėje pateikiami tariamos analizės sistemos matmenys. Pateikiami pavyzdžiai, iliustruojantys, kodėl kiekvienas domenas gali būti svarbus; atsižvelgiant į kontekstą, sistemą reikėtų išplėsti atsižvelgiant į kontekstą. Taip pat svarbu atskirti bendrąsias problemas, kurios kyla kuriant platformą, ir problemas, kurios gali iškilti naudojant konkrečias programas. Nė vienas čia įtrauktas aspektas neturėtų būti laikomas prioritetu, todėl turėtų būti išnagrinėti visi.
Problemos yra plačiai suskirstytos į šias kategorijas, kaip nurodyta toliau:
Lentelėje išsamiai aprašomi matmenys, į kuriuos gali reikėti atsižvelgti vertinant naują technologiją.
? INGSA. 2018. Gerovės supratimas sparčių skaitmeninių ir susijusių transformacijų kontekste.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
? Nauji aprašai (pateikti per išsamias konsultacijas, atsiliepimus ir literatūros apžvalgą)
? EBPO AI sistemų klasifikavimo sistema: veiksmingos AI politikos priemonė.
https://oecd.ai/en/classification
| Kriterijai | Pavyzdžiai, kaip tai gali atsispindėti analizėje |
| ?Naudotojų AI kompetencija | Kiek galimi vartotojai, kurie sąveikaus su sistema, yra kompetentingi ir žino sistemos savybes? Kaip jiems bus suteikta atitinkama vartotojo informacija ir įspėjimai? |
| ? Paveikta suinteresuotoji šalis | Kas yra pagrindiniai suinteresuotieji subjektai, kuriems sistema paveiks (asmenys, bendruomenės, pažeidžiami, sektorių darbuotojai, vaikai, politikos formuotojai, specialistai ir kt.)? |
| ? Pasirenkamumas | Ar vartotojams suteikiama galimybė atsisakyti sistemos, ar jiems suteikiamos galimybės užginčyti ar pataisyti išvestį? |
| ?Pavojai žmogaus teisėms ir demokratinėms vertybėms | Ar sistema daro esminį poveikį žmogaus teisėms, įskaitant, bet neapsiribojant, privatumą, saviraiškos laisvę, sąžiningumą, nediskriminavimą ir pan.? |
| ?Galimas poveikis žmonių gerovei | Ar sistemos poveikio sritys yra susijusios su individualaus vartotojo gerove (darbo kokybe, išsilavinimu, socialine sąveika, psichine sveikata, tapatybe, aplinka ir tt)? |
| ? Žmonių darbo jėgos perkėlimo galimybė | Ar sistema gali automatizuoti užduotis ar funkcijas, kurias vykdė žmonės? Jei taip, kokios pasekmės pasroviui? |
| ? Tapatybės, vertybių ar žinių manipuliavimo potencialas | Ar sistema sukurta ar gali manipuliuoti vartotojo tapatybe, arba nustatyti vertybes, ar skleisti dezinformaciją? |
| ? Saviraiškos ir savirealizacijos galimybės | Ar yra galimybė dirbtinai ir nepasitikėti savimi? Ar yra galimybė klaidingai arba nepatikrinti ekspertizės teiginiai? |
| ? Savivertės matai | Ar jaučiamas spaudimas vaizduoti idealizuotą save? Ar automatika galėtų pakeisti jausmą asmeninio pasitenkinimo? Ar yra spaudimas konkuruoti su sistema darbo vieta? Ar individo reputaciją sunkiau apsaugoti nuo dezinformacijos? |
| ? Privatumas | Ar yra išsklaidytos atsakomybės už privatumo apsaugą ir ar tokių yra daromos prielaidos, kaip naudojami asmens duomenys? |
| ? Autonomija | Ar AI sistema gali paveikti žmogaus savarankiškumą, sukurdama pernelyg didelį pasitikėjimą galutiniams vartotojams? |
| ? Žmogaus vystymasis | Ar turi įtakos pagrindinių žmogaus tobulėjimo įgūdžių įgijimui, pvz vykdomosios funkcijos ar tarpasmeniniai įgūdžiai, arba dėmesio laiko pokyčiai mokymasis, asmenybės tobulėjimas, psichikos sveikatos problemos ir pan.? |
| ? Asmens sveikatos priežiūra | Ar yra pretenzijų dėl savidiagnostikos ar individualizuotų sveikatos priežiūros sprendimų? Jei taip, ar jie patvirtinti pagal reguliavimo standartus? |
| ? Psichikos sveikata | Ar yra padidėjusio nerimo, vienatvės ar kitų psichinės sveikatos problemų rizika, arba ar technologija gali sumažinti tokį poveikį? |
| ? Žmogaus evoliucija | Ar dideli kalbos modeliai ir dirbtinis bendras intelektas galėtų pakeisti žmogaus evoliucijos eiga? |
| ? Žmogaus ir mašinos sąveika | Ar naudojimas ilgainiui gali sukelti asmenų įgūdžių praradimą ir priklausomybę? Yra ar turi įtakos žmonių sąveikai? |
| Kriterijai | Pavyzdžiai, kaip tai gali atsispindėti analizėje |
| ? Visuomenės vertybės | Ar sistema iš esmės keičia visuomenės prigimtį, leidžia normalizuoti anksčiau antisocialiomis laikytas idėjas, ar pažeidžia kultūros, kurioje ji taikoma, visuomenines vertybes? |
| ? Socialinės sąveikos | Ar yra poveikis prasmingam žmonių kontaktui, įskaitant emocinius santykius? |
| ? Gyventojų sveikata | Ar sistema gali paskatinti ar pakenkti gyventojų sveikatos ketinimams? |
| ? Kultūrinė raiška | Ar tikėtina, kad padidėjusį kultūrinį pasisavinimą ar diskriminaciją yra sunku arba sunkiau? Ar pasikliovimas sprendimų priėmimo sistema išskiria ar nustumia kultūriškai svarbius visuomenės sluoksnius? |
| ? Visuomenės švietimas | Ar tai turi įtakos mokytojų vaidmenims ar švietimo institucijoms? Ar sistema pabrėžia ar sumažina skaitmeninę atskirtį ir nelygybę tarp studentų? Ar vidinė žinių ar kritinio supratimo vertė yra pažengusi į priekį ar sumenkinta? |
| ? Iškreiptos realybės | Ar metodai, naudojami siekiant išsiaiškinti, kas tiesa, vis dar taikomi? Ar pažeidžiamas tikrovės suvokimas? |
| Kriterijai | Pavyzdžiai, kaip tai gali atsispindėti analizėje |
| ? Pramonės sektorius | Kuriame pramonės sektoriuje sistema įdiegta (finansų, žemės ūkio, sveikatos apsaugos, švietimo, gynybos ir kt.)? |
| ? Verslo modelis | Kurioms verslo funkcijoms sistema naudojama ir kokiais pajėgumais? Kur naudojama sistema (privati, viešoji, ne pelno siekianti)? |
| ? Poveikis kritinei veiklai | Ar sistemos funkcijos ar veiklos sutrikimas paveiktų esmines paslaugas arba ypatingos svarbos infrastruktūrą? |
| ? Platus diegimo | Kaip įdiegta sistema (siauras naudojimas padalinyje, palyginti su plačiai paplitusiu nacionaliniu / tarptautiniu mastu)? |
| ? Techninė branda | Kiek techniškai brandi yra sistema? |
| ? Sąveika | Ar nacionaliniu ar pasauliniu mastu gali būti silosų, kurie trukdo laisvai prekybai ir daro įtaką bendradarbiavimui su partneriais? |
| ? Technologinis suverenitetas | Ar technologinio suverenumo troškimas skatina elgesį, įskaitant visos AI tiekimo grandinės kontrolę? |
| ? Pajamų perskirstymas ir nacionaliniai fiskaliniai svertai | Ar gali būti pažeisti pagrindiniai suverenios valstybės vaidmenys (pvz., atsargų bankai)? Ar valstybės galimybės pateisinti piliečių lūkesčius ir pasekmes (socialines, ekonomines, politines ir kt.) bus padidintos ar sumažintos? |
| ? Skaitmeninė atskirtis (AI padalijimas) | Ar esama skaitmeninė nelygybė didėja ar atsiranda naujų? |
| Kriterijai | Pavyzdžiai, kaip tai gali atsispindėti analizėje |
| ? Valdymas ir viešoji tarnyba | Ar valdymo mechanizmai ir pasaulinė valdymo sistema gali būti paveikti teigiamai ar neigiamai? |
| ? Žiniasklaida | Ar tikėtina, kad viešasis diskursas taps poliarizuotas ir įsitvirtins gyventojų lygmeniu? Ar tai turės įtakos pasitikėjimo ketvirtuoju turtu lygiui? Ar tradicinė žurnalistų etika ir sąžiningumo standartai bus dar labiau paveikti? |
| ? Teisinė valstybė | Ar tai turės įtakos gebėjimui identifikuoti asmenis ar organizacijas, kurie turi būti atsakingi (pvz., kokią atsakomybę priskirti algoritmui už nepageidaujamus padarinius)? Ar yra prarastas suverenitetas (aplinkosaugos, mokesčių, socialinės politikos, etikos ir kt.)? |
| ?Politika ir socialinė sanglauda | Ar yra galimybė labiau įsitvirtinti politinėms pažiūroms ir mažiau galimybių siekti sutarimo? Ar yra galimybė toliau atskirti grupes? Ar priešingi politikos stiliai yra labiau ar mažiau tikėtini? |
| ? Socialinė licencija | Ar yra privatumo, pasitikėjimo ir moralinių problemų, į kurias reikia atsižvelgti norint, kad suinteresuotosios šalys priimtų naudojimą? |
| ? Vietinės žinios | Ar vietinės žinios ir duomenys gali būti sugadinti arba pasisavinti? Ar yra tinkamų priemonių apsaugoti nuo klaidingo pateikimo, dezinformacijos ir išnaudojimo? |
| ? Mokslinė sistema | Ar pažeistas akademinis ir mokslinių tyrimų vientisumas? Ar prarandamas pasitikėjimas mokslu? Ar yra piktnaudžiavimo, per didelio naudojimo ar piktnaudžiavimo galimybių? Kokios yra mokslo praktikos pasekmės? |
| Kriterijai | Pavyzdžiai, kaip tai gali atsispindėti analizėje |
| ? Tikslus stebėjimas | Ar sistemos apmokytos remiantis individualiais elgsenos ir biologiniais duomenimis ir ar jos gali būti naudojamos asmenims ar grupėms išnaudoti? |
| ? Skaitmeninis konkursas | Ar valstybiniai ar nevalstybiniai veikėjai (pvz., didelės technologijų įmonės) galėtų panaudoti sistemas ir duomenis, kad suprastų ir kontroliuotų kitų šalių populiacijas ir ekosistemas, arba pakenktų jurisdikcijos kontrolei? |
| ? Geopolitinė konkurencija | Ar sistema gali sukelti konkurenciją tarp tautų dėl individualių ir grupių duomenų panaudojimo ekonominiams, medicininiams ir saugumo interesams? |
| ? Pasaulinių galių pasikeitimas | Ar kyla grėsmė nacionalinių valstybių, kaip pagrindinių pasaulio geopolitinių veikėjų, statusui? Ar technologijų įmonės turi galią, kuri kažkada buvo skirta nacionalinėms valstybėms, ir ar jos tapo nepriklausomomis, suvereniomis veikėjomis (besiformuojanti technopoliarinė pasaulio tvarka)? |
| ? Dezinformacija | Ar sistema palengvintų dezinformacijos, turinčios įtakos socialinei sanglaudai, pasitikėjimui ir demokratijai, kūrimą ir sklaidą valstybiniams ir nevalstybiniams veikėjams? |
| ? Dvejopo naudojimo programos | Ar yra galimybė naudoti tiek kariniais, tiek civiliniais tikslais? |
| ? Pasaulinės tvarkos suskaidymas | Ar gali susidaryti reguliavimo ir atitikties silosai arba grupės, kurios trukdo bendradarbiavimui, gali sukelti taikymo nenuoseklumą ir sudaryti sąlygas konfliktams? |
| Kriterijai | Pavyzdžiai, kaip tai gali atsispindėti analizėje |
| ? Energijos ir išteklių suvartojimas (anglies pėdsakas) | Ar sistema ir reikalavimai padidina energijos ir išteklių suvartojimą, viršijantį efektyvumą, gaunamą naudojant programą? |
| ? Energijos šaltinis | Iš kur gaunama energija sistemai (atsinaujinantis, palyginti su iškastiniu kuru ir tt)? |
| Kriterijai | Pavyzdžiai, kaip tai gali atsispindėti analizėje |
| ? Kryptis ir surinkimas | Ar duomenis ir įvestį renka žmonės, automatiniai jutikliai ar abu? |
| ? Duomenų kilmė | Ar ekspertų duomenys ir įvestis yra pateikti, stebimi, sintetiniai ar išvestiniai? Ar yra vandens ženklų apsauga, patvirtinanti kilmę? |
| ? Dinaminis duomenų pobūdis | Ar duomenys dinamiški, statiški, dinamiški kartas nuo karto ar realiuoju laiku? |
| ? Teisės | Ar duomenys yra nuosavybės teisės, vieši ar asmeniniai (susiję su asmenimis, kurių tapatybę galima nustatyti)? |
| ? Identifikavimas ir asmens duomenys | Jei asmeniniai, ar duomenys anonimizuoti ar pseudonimizuoti? |
| ? Duomenų struktūra | Ar duomenys struktūrizuoti, pusiau struktūrizuoti, sudėtingi struktūrizuoti ar nestruktūruoti? |
| ? Duomenų formatas | Ar duomenų ir metaduomenų formatas yra standartizuotas ar nestandartizuotas? |
| ? Duomenų mastelis | Kokia yra duomenų rinkinio skalė? |
| ? Duomenų tinkamumas ir kokybė | Ar duomenų rinkinys atitinka paskirtį? Ar tinkamas imties dydis? Ar jis pakankamai reprezentatyvus ir išsamus? Kiek triukšmingi duomenys? Ar tai linkusi į klaidas? |
| Kriterijai | Pavyzdžiai, kaip tai gali atsispindėti analizėje |
| ? Informacijos prieinamumas | Ar yra kokios nors informacijos apie sistemos modelį? |
| ? AI modelio tipas | Ar modelis yra simbolinis (žmogaus sukurtos taisyklės), statistinis (naudoja duomenis) ar hibridinis? |
| ? Su modeliu susijusios teisės | Ar modelis yra atvirojo kodo ar patentuotas, valdomas savarankiškai ar trečiosios šalies? |
| ? Vienas iš kelių modelių | Ar sistema sudaryta iš vieno modelio ar kelių tarpusavyje susijusių modelių? |
| ? Generatyvus arba diskriminacinis | Ar modelis generatyvus, diskriminacinis ar abu? |
| ? Modelio kūrimas | Ar sistema mokosi remdamasi žmogaus parašytomis taisyklėmis, iš duomenų, per prižiūrimą mokymąsi ar per sustiprintą mokymąsi? |
| ? Modelio evoliucija (AI dreifas) | Ar modelis vystosi ir (arba) įgyja gebėjimų sąveikaujant su lauko duomenimis? |
| ? Federacinis arba centrinis mokymasis | Ar modelis mokomas centralizuotai, ar keliuose vietiniuose serveriuose ar „kraštiniuose“ įrenginiuose? |
| ? Kūrimas/priežiūra | Ar modelis yra universalus, pritaikomas ar pritaikytas dirbtinio intelekto veikėjo duomenims? |
| ? Deterministinis arba tikimybinis | Ar modelis naudojamas deterministiniu ar tikimybiniu būdu? |
| ? Modelio skaidrumas | Ar vartotojams prieinama informacija, leidžianti suprasti modelio rezultatus ir apribojimus arba naudoti apribojimus? |
| ? Skaičiavimo apribojimas | Ar yra sistemos skaičiavimo apribojimų? Ar įmanoma numatyti pajėgumų šuolius ar mastelio dėsnius? |
| Kriterijai | Pavyzdžiai, kaip tai gali atsispindėti analizėje |
| ? Sistemos atliekama užduotis (-os). | Kokias užduotis atlieka sistema (atpažinimas, įvykių aptikimas, prognozavimas ir pan.)? |
| ? Užduočių ir veiksmų derinimas | Ar sistema apjungia keletą užduočių ir veiksmų (turinio generavimo sistemos, autonominės sistemos, valdymo sistemos ir kt.)? |
| ? Sistemos autonomijos lygis | Kiek autonomiški yra sistemos veiksmai ir kokį vaidmenį atlieka žmonės? |
| ? Žmogaus įsitraukimo laipsnis | Ar yra tam tikras žmogaus dalyvavimas, kad būtų galima prižiūrėti bendrą AI sistemos veiklą ir galimybę nuspręsti, kada ir kaip bet kokioje situacijoje naudoti AI sistemą? |
| ? Pagrindinė programa | Ar sistema priklauso pagrindinei taikymo sričiai, pvz., žmogaus kalbos technologijoms, kompiuterinei vizijai, automatizavimui ir (arba) optimizavimui ar robotikai? |
| ? Įvertinimas | Ar galimi standartai ar metodai sistemos rezultatams įvertinti? |
Kaip būtų galima panaudoti šią sistemą?
Ši sistema gali būti naudojama įvairiais būdais, įskaitant:
Kelias į priekį
Apibendrinant galima pasakyti, kad analitinė sistema yra priemonių rinkinio, kuriuo suinteresuotosios šalys galėtų nuosekliai ir sistemingai išsamiai apžvelgti bet kokius reikšmingus platformų ar naudojimo pokyčius, pagrindas. Šioje sistemoje pateikti aspektai yra svarbūs nuo technologijų vertinimo iki viešosios politikos, nuo žmogaus vystymosi iki sociologijos ir ateities bei technologijų studijų. Nors ši analitinė sistema sukurta dirbtiniam intelektui, ji daug plačiau taikoma bet kuriai kitai naujai technologijai.
6 JT AI patariamoji taryba. 2023 m. Tarpinė ataskaita: „Governing AI for Humanity“. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd
Padėka
Rengiant tiek pradinį diskusijų dokumentą, tiek atsiliepimus po jo paskelbimo, buvo konsultuojamasi su daugeliu žmonių ir jie pateikė atsiliepimų. Abu dokumentus parengė Sir Peter Gluckman Gluckmanas, ISC prezidentas, ir Hema Sridhar, buvusi Naujosios Zelandijos gynybos ministerijos vyriausioji mokslo patarėja, o dabar vyresnioji mokslo darbuotoja. Fellow, Oklando universitetas, Naujoji Zelandija.
Visų pirma, ISC Lordas Martinas Reesas, buvęs Karališkosios draugijos prezidentas ir Kembridžo universiteto Egzistencinių rizikų tyrimo centro įkūrėjas; Profesorius Shivaji Sondhi, Oksfordo universiteto fizikos profesorius; profesorius K Vijay Raghavan, buvęs Indijos vyriausybės vyriausiasis patarėjas moksliniais klausimais; Amandeep Singh Gill, JT Generalinio Sekretoriaus pasiuntinys technologijų klausimais; Seán Ó hÉigeartaigh, Kembridžo universiteto Egzistencinių rizikų tyrimo centro vykdomasis direktorius; Seras Davidas Spiegelhalteris, Wintono universiteto visuomenės supratimo apie riziką profesorius
Kembridžo; Amanda-June Brawner, vyresnioji politikos patarėja ir Ianas Wigginsas, tarptautinių reikalų direktorius, Karališkoji draugija, Jungtinė Karalystė; Dr. Jerome'as Duberry, generalinis direktorius ir dr. Marie-Laure Salles, Ženevos studijų instituto direktorius; Chor Pharn Lee, Strateginės ateities centras, Ministro Pirmininko biuras, Singapūras; Barendas Monsas ir dr. Simonas Hodsonas, Duomenų komitetas (CoDATA); Profesorius Yuko Harayama, buvęs RIKEN vykdomasis direktorius; Profesorius
Rémi Quirion, INGSA prezidentas; Dr Claire Craig, Oksfordo universitetas ir buvęs Vyriausybės mokslo biuro prognozavimo vadovas; Yoshua Bengio, JT Generalinio Sekretoriaus mokslinė patariamoji taryba ir Monrealio universitetas; ir daugelis kitų, kurie pateikė atsiliepimų ISC apie pradinį diskusijų dokumentą.
Nacionalinių mokslinių tyrimų ekosistemų paruošimas dirbtiniam intelektui: strategijos ir pažanga 2024 m
Šiame ISC ekspertų grupės, Mokslo ateities centro, darbiniame dokumente pateikiama pagrindinė informacija ir prieiga prie išteklių iš visų pasaulio šalių įvairiais DI integravimo į jų mokslinių tyrimų ekosistemas etapais.
Ateičiai paruoštų mokslo sistemų kūrimas Pietų pusrutulyje
Naujos technologijos keičia mokslo vykdymo būdus ir suteikia didelį potencialą stiprinti mokslo sistemas Pietų pusrutulyje, jei jų diegimas bus grindžiamas įtraukiais, gerai pagrįstais ir į kontekstą reaguojančiais metodais. Šio neseniai vykusio strateginio susitikimo pagrindinis dėmesys buvo skiriamas tam, kaip užtikrinti, kad šios technologijos prisidėtų prie teisingesnių ir atsparesnių mokslo sistemų, o ne sustiprintų esamą nelygybę.