Daugelis akademikų ir politikos ekspertų pasiūlė, kad Tarptautinė mokslo taryba, turinti pliuralistinę socialinių ir gamtos mokslų narystę, sukurtų ir prižiūrėtų anotuotą rizikos, naudos, grėsmių ir galimybių sistemą / kontrolinį sąrašą. susiję su sparčiai besikeičiančiomis skaitmeninėmis technologijomis, įskaitant, bet tuo neapsiribojant, dirbtinį intelektą. Kontrolinio sąrašo tikslas – informuoti visas suinteresuotąsias šalis, įskaitant vyriausybes, prekybos derybininkus, reguliavimo institucijas, pilietinę visuomenę ir pramonę, apie galimus ateities scenarijus ir nustatyti, kaip jos galėtų apsvarstyti galimybes, naudą, riziką ir kitus klausimus.
ISC džiaugiasi galėdamas pristatyti šį diskusijų dokumentą apie sparčiai besivystančių skaitmeninių ir susijusių technologijų įvertinimą. Dirbtinis intelektas, sintetinė biologija ir kvantinės technologijos yra puikūs mokslo pagrįstų naujovių pavyzdžiai, atsirandantys precedento neturinčiu greičiu. Gali būti sudėtinga sistemingai numatyti ne tik jų pritaikymą, bet ir pasekmes.
Visuomeninių generatyvinio AI aspektų, tokių kaip didelių kalbų modelių, kurie, kaip galima nuspėti, sudaro didžiąją dalį šio diskusijų dokumento, įvertinimas yra būtinas tiltas dabartiniame diskurse – kartais panikos, o kartais nepakankamai gilaus mąstymo – ir būtinų kursų. veiksmų, kurių galime imtis. ISC yra įsitikinęs, kad būtina analitinė sistema tarp socialinio tokių naujų technologijų pripažinimo ir galimo jų reguliavimo, siekiant palengvinti daugelio suinteresuotųjų šalių diskusijas, kurių reikia norint priimti pagrįstus ir atsakingus sprendimus, kaip optimizuoti šios sparčiai besivystančios technologijos socialinę naudą.
ISC yra atvira mūsų bendruomenės reakcijai per šį diskusijų dokumentą, kad įvertintų, kaip geriausia toliau dalyvauti diskusijose apie technologijas ir prie jų prisidėti.
Salvatore Aricò, generalinis direktorius
ISC diskusijų dokumentas
Sparčiai besivystančių skaitmeninių ir susijusių technologijų – AI, didelių kalbų modelių ir kitų – vertinimo sistema
Šiame diskusijų dokumente pateikiami pradinės sistemos, skirtos informuoti apie daugybę pasaulinių ir nacionalinių diskusijų, susijusių su AI, metmenys.
Atsisiųskite ataskaitąNauja! Skaitykite 2024 m. versiją, skirtą politikos formuotojams su atsisiunčiama sistema jūsų organizacijai.
Vadovas politikos formuotojams: sparčiai besivystančių technologijų, įskaitant dirbtinį intelektą, didelių kalbų modelius ir ne tik, įvertinimas
Šiame diskusijų dokumente pateikiami pradinės sistemos, skirtos informuoti apie daugybę pasaulinių ir nacionalinių diskusijų, susijusių su AI, metmenys.
Turinys
Įvadas
Sparčiai atsirandančios technologijos kelia sudėtingų problemų, susijusių su jų valdymu ir galimu reguliavimu. Politika ir viešos diskusijos dėl dirbtinio intelekto (AI) ir jo naudojimo iškėlė į šias problemas didelį dėmesį. Nors UNESCO, EBPO ir kiti paskelbė plačius dirbtinio intelekto principus ir vyksta diskusijos dėl pasaulinio ar jurisdikcinio technologijos reguliavimo, egzistuoja ontologinis atotrūkis tarp aukšto lygio principų kūrimo ir jų įtraukimo į reguliavimą, politiką, valdymo ir priežiūros metodus. Čia ypatingą vaidmenį galėtų atlikti nevyriausybinė mokslo bendruomenė.
Nemažai akademikų ir politikos ekspertų pasiūlė, kad Tarptautinė mokslo taryba (ISC), turinti pliuralistinę socialinių ir gamtos mokslų narystę, sukurtų ir tvarkytų anotuotą rizikos, naudos pagrindą / kontrolinį sąrašą, grėsmės ir galimybės, susijusios su sparčiai besikeičiančiomis skaitmeninėmis technologijomis, įskaitant, bet tuo neapsiribojant, dirbtinį intelektą. Kontrolinio sąrašo tikslas – informuoti visas suinteresuotąsias šalis, įskaitant vyriausybes, prekybos derybininkus, reguliavimo institucijas, pilietinę visuomenę ir pramonę, apie galimus ateities scenarijus ir nustatyti, kaip jos galėtų apsvarstyti galimybes, naudą, riziką ir kitus klausimus.
Rezultatai veiktų ne kaip vertinimo įstaiga, o kaip prisitaikanti ir besivystanti analitinė sistema, kuri galėtų paremti bet kokius vertinimo ir reguliavimo procesus, kuriuos galėtų sukurti suinteresuotosios šalys, įskaitant vyriausybes ir daugiašalę sistemą. Bet kokia analitinė sistema idealiu atveju turėtų būti sukurta nepriklausomai nuo vyriausybės ir pramonės pretenzijų, atsižvelgiant į jų suprantamus interesus. Ji taip pat turi būti maksimaliai pliuralistinė savo perspektyvomis, taip apimdama visus technologijos aspektus ir jos pasekmes.
Šiame diskusijų dokumente pateikiami pradinės sistemos, skirtos informuoti apie daugybę pasaulinių ir nacionalinių diskusijų, susijusių su AI, metmenys.
Pagrindiniai faktai: kam reikalinga analitinė sistema?
Spartus technologijos su AI sudėtingumu ir padariniais atsiradimas skatina daugybę tvirtinimų apie didelę naudą. Tačiau tai taip pat kelia baimę dėl didelių rizikų – nuo individualaus iki geostrateginio lygio. Didžioji diskusijų dalis dažniausiai vyksta kraštutiniuose požiūrių spektro kraštuose, todėl reikia pragmatiškesnio požiūrio. Dirbtinio intelekto technologija ir toliau vystysis, o istorija rodo, kad beveik kiekviena technologija yra naudinga ir žalinga. Todėl kyla klausimas: kaip galime pasiekti naudingų šios technologijos rezultatų, tuo pačiu sumažinant žalingų pasekmių riziką, kai kurios iš jų gali būti egzistencinio dydžio?
Ateitis visada neaiški, tačiau yra pakankamai patikimų ir ekspertų nuomonės apie AI ir generatyvųjį AI, kad būtų skatinamas santykinai atsargus požiūris. Be to, reikalingas sisteminis požiūris, nes dirbtinis intelektas yra technologijų klasė, kurią plačiai naudoja ir taiko įvairių tipų vartotojai. Tai reiškia, kad svarstant AI poveikį asmenims, socialiniam gyvenimui, pilietiniam, visuomeniniam gyvenimui ir pasauliniam kontekstui, reikia atsižvelgti į visą kontekstą.
Skirtingai nuo daugelio ankstesnių technologijų, skaitmeninės ir susijusios technologijos turi labai trumpą laikotarpį nuo kūrimo iki išleidimo, daugiausia dėl gamybos įmonių ar agentūrų interesų. AI greitai plinta; kai kurios savybės gali išryškėti tik po išleidimo, o technologija gali turėti ir piktavališką, ir geranorišką pritaikymą. Svarbių verčių matmenys turės įtakos tam, kaip bus suvokiamas bet koks naudojimas. Be to, galimi geostrateginiai interesai.
Iki šiol virtualios technologijos reguliavimas iš esmės buvo vertinamas per „principų“ ir savanoriško laikymosi objektyvą. Tačiau pastaruoju metu diskusijos pakrypo į nacionalinio ir daugiašalio valdymo klausimus, įskaitant reguliavimo ir kitų politikos priemonių naudojimą. Teiginiai už arba prieš AI dažnai yra hiperboliški ir, atsižvelgiant į technologijos pobūdį, sunkiai įvertinami. Sukurti veiksmingą pasaulinę ar nacionalinę technologijų reguliavimo sistemą bus sudėtinga, o grandinėje reikės kelių sluoksnių, pagrįstų rizika pagrįstų sprendimų priėmimo – nuo išradėjo iki gamintojo, naudotojo, vyriausybės ir daugiašalės sistemos.
Nors UNESCO, EBPO ir Europos Komisija, be kita ko, paskelbė aukšto lygio principus ir vyksta įvairios aukšto lygio diskusijos dėl galimo reguliavimo klausimų, tarp tokių principų ir valdymo ar reguliavimo sistemos yra didelis ontologinis atotrūkis. Kokia yra svarstymų taksonomija, į kurią reguliavimo institucijai gali tekti atsižvelgti? Siaurai sutelktas kadravimas būtų neprotingas, atsižvelgiant į platų šių technologijų poveikį. Šis potencialas sulaukė daug teigiamų ir neigiamų komentarų.
Analitinės sistemos kūrimas
ISC yra pagrindinė pasaulinė NVO, integruojanti gamtos ir socialinius mokslus. Jos pasaulinis ir disciplininis aprėptis reiškia, kad ji yra tinkama teikti nepriklausomus ir pasauliniu mastu svarbius patarimus, kurie padėtų priimti sudėtingus būsimus sprendimus, ypač dėl to, kad šiuo metu daugiausiai nuomonės šioje arenoje yra pramonės atstovai arba didžiausios technologinės jėgos. Po plačių diskusijų pastaraisiais mėnesiais, įskaitant nevyriausybinio vertinimo proceso svarstymą, ISC padarė išvadą, kad jos naudingiausias indėlis būtų sukurti ir išlaikyti adaptyvią analitinę sistemą, kuri galėtų būti naudojama kaip pagrindas diskusijoms ir priimant sprendimus. visos suinteresuotosios šalys, įskaitant bet kokį oficialų vertinimo procesą, kuris atsiranda.
Ši sistema būtų visa apimantis kontrolinis sąrašas, kurį galėtų naudoti ir vyriausybinės, ir nevyriausybinės institucijos. Sistema identifikuoja ir tiria technologijos, pvz., AI ir jos darinių, potencialą per platų objektyvą, apimantį žmonių ir visuomenės gerovę, taip pat išorinius veiksnius, tokius kaip ekonomika, politika, aplinka ir saugumas. Kai kurie kontrolinio sąrašo aspektai gali būti svarbesni už kitus, atsižvelgiant į kontekstą, bet geresni sprendimai yra labiau tikėtini, jei atsižvelgiama į visas sritis. Tai yra neatskiriama kontrolinio sąrašo metodo vertė.
Siūloma sistema yra paimta iš ankstesnio darbo ir mąstymo, įskaitant Tarptautinio vyriausybės mokslo patarimų tinklo (INGSA) skaitmeninės gerovės ataskaitą.1 ir EBPO AI klasifikavimo sistemą2 pateikti AI galimų galimybių, rizikos ir poveikio visumą. Šių ankstesnių produktų paskirtis buvo labiau apribota, atsižvelgiant į jų laiką ir kontekstą, todėl reikalinga visa apimanti sistema, kurioje būtų pateikiamos visos trumpalaikės ir ilgalaikės problemos.
Nors ši analitinė sistema buvo sukurta atsižvelgiant į AI, ji gali būti taikoma bet kuriai greitai atsirandančiai technologijai. Problemos yra plačiai sugrupuotos į šias kategorijas, kad būtų galima toliau nagrinėti:
Pateikiamas kiekvienos iš aukščiau paminėtų kategorijų svarstymų sąrašas kartu su atitinkamomis galimybėmis ir pasekmėmis. Kai kurie yra svarbūs konkretiems AI atvejams ar programoms, o kiti yra bendri ir agnostiški platformai ar naudojimui. Nė vienas čia įtrauktas aspektas neturėtų būti laikomas prioritetu, todėl turėtų būti išnagrinėti visi.
Kaip būtų galima panaudoti šią sistemą?
Ši sistema gali būti naudojama šiais būdais, bet neapsiribojant:
Toliau pateiktoje lentelėje parodytas ankstyvas analitinės sistemos matmenų formavimas. Priklausomai nuo technologijos ir jos naudojimo, kai kurie komponentai bus aktualesni už kitus. Pateikiami pavyzdžiai, siekiant parodyti, kodėl kiekvienas domenas gali būti svarbus; atsižvelgiant į kontekstą, sistemą reikėtų išplėsti atsižvelgiant į kontekstą. Taip pat svarbu atskirti platformos plėtrą ir bendrąsias problemas, kurios gali iškilti naudojant konkrečias programas.
Matmenys, į kuriuos reikia atsižvelgti vertinant naują technologiją
| Pradinis matmenų, į kuriuos gali reikėti atsižvelgti vertinant naują technologiją, projektas | ||
| Poveikio matmenys | Kriterijai | Pavyzdžiai, kaip tai gali atsispindėti analizėje |
| Individualus/savarankiškas | Vartotojų AI kompetencija | Kiek galimi vartotojai, kurie sąveikaus su sistema, yra kompetentingi ir žino sistemos savybes? Kaip jiems bus suteikta atitinkama vartotojo informacija ir įspėjimai? |
| Paveiktos suinteresuotosios šalys | Kas yra pagrindinės suinteresuotosios šalys, kurias paveiks sistema (ty asmenys, bendruomenės, pažeidžiami, sektorių darbuotojai, vaikai, politikos formuotojai, specialistai)? | |
| Pasirenkamumas | Ar vartotojams suteikiama galimybė atsisakyti sistemos; ar jiems turėtų būti suteikta galimybė užginčyti ar pataisyti rezultatus? | |
| Pavojai žmogaus teisėms ir demokratinėms vertybėms | Ar sistema gali turėti įtakos (ir kokia kryptimi) žmogaus teisėms, įskaitant, bet neapsiribojant, privatumą, saviraiškos laisvę, sąžiningumą, diskriminacijos riziką ir kt.? | |
| Galimas poveikis žmonių gerovei | Ar sistema gali turėti įtakos (ir kokia kryptimi) individualaus vartotojo gerovei (ty darbo kokybei, išsilavinimui, socialinei sąveikai, psichinei sveikatai, tapatybei, aplinkai)? | |
| Žmonių darbo jėgos perkėlimo galimybė | Ar sistema gali automatizuoti užduotis ar funkcijas, kurias vykdė žmonės? Jei taip, kokios pasekmės pasroviui? | |
| Tapatybės, vertybių ar žinių manipuliavimo potencialas | Ar sistema sukurta taip, kad būtų galima manipuliuoti vartotojo tapatybe ar nustatytomis vertybėmis arba skleisti dezinformaciją? Ar yra galimybė pateikti melagingus ar nepatvirtintus teiginius apie ekspertizę? | |
| Savivertės matai | Ar jaučiamas spaudimas vaizduoti idealizuotą save? Ar automatizavimas galėtų pakeisti asmeninio pasitenkinimo jausmą? Ar darbo vietoje jaučiamas spaudimas konkuruoti su sistema? Ar asmens reputaciją sunkiau apsaugoti nuo dezinformacijos? | |
| Privatumo politika | Ar yra išsklaidytos atsakomybės už privatumo apsaugą ir ar daromos prielaidos, kaip naudojami asmens duomenys? | |
| Autonomija | Ar sistema gali paveikti žmogaus savarankiškumą, nes galutiniai vartotojai per daug pasikliauja technologijomis? | |
| Žmogaus raida | Ar turi įtakos pagrindinių žmogaus raidai reikalingų įgūdžių, tokių kaip vykdomosios funkcijos, tarpasmeniniai įgūdžiai, dėmesio laiko pokyčiai, turintys įtakos mokymuisi, asmenybės vystymuisi, psichikos sveikatos problemoms ir kt., įgijimui? | |
| Asmens sveikatos priežiūra | Ar yra pretenzijų dėl individualizuotų sveikatos priežiūros sprendimų? Jei taip, ar jie patvirtinti pagal reguliavimo standartus? | |
| Psichikos sveikata | Ar yra padidėjusio nerimo, vienatvės ar kitų psichinės sveikatos problemų rizika, ar technologija gali sušvelninti tokį poveikį? | |
| Žmogaus evoliucija | Ar technologija gali pakeisti žmogaus evoliuciją? | |
| Poveikio matmenys | Kriterijai | Aprašymas |
| Visuomenė/socialinis gyvenimas | Visuomenės vertybės | Ar sistema iš esmės keičia visuomenės prigimtį ar leidžia normalizuoti anksčiau antisocialiomis laikytas idėjas, ar ji pažeidžia kultūros, kurioje ji taikoma, visuomenines vertybes? |
| Socialinė sąveika | Ar yra poveikis prasmingam žmonių kontaktui, įskaitant emocinius santykius? | |
| Teisingumas | Ar taikymas / technologija gali sumažinti arba padidinti nelygybę (ty ekonominę, socialinę, švietimo, geografinę)? | |
| Gyventojų sveikata | Ar sistema gali paskatinti ar pakenkti gyventojų sveikatos ketinimams? | |
| Kultūrinė raiška | Ar tikėtina, kad padidėjusį kultūrinį pasisavinimą ar diskriminaciją yra sunku arba sunkiau? Ar pasitikėjimas sprendimų priėmimo sistema gali išstumti arba marginalizuoti visuomenės dalis? | |
| Visuomeninis švietimas | Ar tai turi įtakos mokytojų vaidmenims ar švietimo institucijoms? Ar sistema pabrėžia ar mažina studentų nelygybę ir skaitmeninę atskirtį? Ar vidinė žinių ar kritinio supratimo vertė yra pažengusi į priekį ar sumenkinta? | |
| Iškreiptos realybės | Ar metodai, kuriuos naudojame siekdami išsiaiškinti, kas yra tiesa, vis dar taikomi? Ar pažeidžiamas tikrovės suvokimas? | |
| Ekonominis kontekstas (prekyba) | Pramonės sektorius | Kuriame pramonės sektoriuje sistema naudojama (ty finansų, žemės ūkio, sveikatos priežiūros, švietimo, gynybos)? |
| Verslo modelis | Kurioje verslo funkcijoje sistema naudojama ir kokiais pajėgumais? Kur naudojama sistema (privati, viešoji, ne pelno siekianti)? | |
| Poveikis kritinei veiklai | Ar sistemos funkcijos ar veiklos sutrikimas paveiktų esmines paslaugas arba ypatingos svarbos infrastruktūrą? | |
| Diegimo kvėpavimas | Kaip sistema įdiegta (siaurai organizacijos viduje, palyginti su plačiai paplitusia nacionaliniu / tarptautiniu mastu)? | |
| Techninė branda (TRL) | Kiek techniškai brandi yra sistema? | |
| Technologinis suverenitetas | Ar technologija skatina didesnę technologinio suvereniteto koncentraciją. | |
| Pajamų perskirstymas ir nacionaliniai fiskaliniai svertai | Ar gali būti pažeisti pagrindiniai suverenios valstybės vaidmenys (ty atsargų bankai)? Ar valstybės gebėjimas patenkinti piliečių lūkesčius ir pasekmes (ty socialines, ekonomines, politines) bus padidintas ar sumažintas? | |
| Poveikio matmenys | Kriterijai | Aprašymas |
| Pilietinis gyvenimas | Valdymas ir viešoji tarnyba | Ar valdymo mechanizmai ir pasaulinės valdymo sistemos gali turėti teigiamos ar neigiamos įtakos? |
| Naujienų medija | Ar tikėtina, kad viešasis diskursas taps daugiau ar mažiau poliarizuotas ir įsitvirtins gyventojų lygmenyje? Ar tai turės įtakos pasitikėjimo žiniasklaida lygiui? Ar įprastos žurnalistikos etikos ir sąžiningumo standartai bus dar labiau paveikti? | |
| Įstatymo taisyklė | Ar tai turės įtakos gebėjimui identifikuoti asmenis ar organizacijas, už kuriuos reikia atsakyti (ty kokią atsakomybę priskirti algoritmui už nepageidaujamus padarinius)? Ar dėl to prarandamas suverenitetas (ty aplinkosaugos, fiskalinės, socialinės politikos, etikos)? | |
| Politika ir socialinė sanglauda | Ar yra galimybė labiau įsitvirtinti politinėms pažiūroms ir mažiau galimybių siekti sutarimo? Ar yra galimybė toliau atskirti grupes? Ar priešingi politikos stiliai yra labiau ar mažiau tikėtini? | |
| Geostrateginis / geopolitinis kontekstas | Tikslus stebėjimas | Ar sistemos yra apmokytos pagal individualius elgesio ir biologinius duomenis ir, jei taip, ar jos gali būti naudojamos asmenims ar grupėms išnaudoti? |
| Skaitmeninė kolonizacija | Ar valstybiniai ar nevalstybiniai veikėjai gali panaudoti sistemas ir duomenis, kad suprastų ir kontroliuotų kitų šalių populiacijas ir ekosistemas arba pakenktų jurisdikcijos kontrolei? | |
| Geopolitinė konkurencija | Ar sistema turi įtakos konkurencijai tarp tautų ir technologijų platformų dėl prieigos prie individualių ir kolektyvinių duomenų ekonominiais ar strateginiais tikslais? | |
| Prekyba ir prekybos sutartys | Ar sistema turi įtakos tarptautiniams prekybos susitarimams? | |
| Pasaulinių galių pasikeitimas | Ar kyla grėsmė nacionalinių valstybių, kaip pagrindinių pasaulio geopolitinių veikėjų, statusui? Ar technologijų įmonės turės galią, kuri kažkada buvo skirta nacionalinėms valstybėms, ir ar jos taps nepriklausomais suvereniais veikėjais? | |
| dezinformacija | Ar valstybiniams ir nevalstybiniams veikėjams lengviau gaminti ir skleisti dezinformaciją, kuri daro įtaką socialinei sanglaudai, pasitikėjimui ir demokratijai? | |
| aplinkos | Energijos ir išteklių suvartojimas (anglies pėdsakas) | Ar sistema ir reikalavimai padidina energijos ir išteklių suvartojimą, viršijantį efektyvumą, gaunamą naudojant programą? |
| Poveikio matmenys | Kriterijai | Aprašymas |
| Duomenys ir įvestis | Aptikimas ir surinkimas | Ar duomenis ir įvestį renka žmonės, automatiniai jutikliai ar abu? |
| Duomenų kilmė | Kalbant apie duomenis, ar jie yra pateikti, stebimi, sintetiniai ar išvestiniai? Ar yra vandens ženklų apsauga, patvirtinanti kilmę? | |
| Dinaminis duomenų pobūdis | Ar duomenys dinamiški, statiški, karts nuo karto atnaujinami ar atnaujinami realiuoju laiku? | |
| Teisės | Ar duomenys yra nuosavybės teisės, vieši ar asmeniniai (ty susiję su asmenimis, kurių tapatybę galima nustatyti)? | |
| Asmens duomenų identifikavimas | Jei asmens duomenys, ar jie anonimizuoti ar pseudonimizuoti? | |
| Duomenų struktūra | Ar duomenys struktūrizuoti, pusiau struktūrizuoti, sudėtingi struktūrizuoti ar nestruktūruoti? | |
| Duomenų formatas | Ar duomenų ir metaduomenų formatas yra standartizuotas ar nestandartizuotas? | |
| Duomenų mastelis | Kokia yra duomenų rinkinio skalė? | |
| Duomenų tinkamumas ir kokybė | Ar duomenų rinkinys atitinka paskirtį? Ar tinkamas imties dydis? Ar jis pakankamai reprezentatyvus ir išsamus? Kiek triukšmingi duomenys? Ar tai linkusi į klaidas? | |
| Modelis | Informacijos prieinamumas | Ar yra informacijos apie sistemos modelį? |
| AI modelio tipas | Ar modelis yra simbolinis (žmogaus sukurtos taisyklės), statistinis (naudoja duomenis) ar hibridinis? | |
| Su modeliu susijusios teisės | Ar modelis yra atvirojo kodo, ar yra patentuotas, valdomas savarankiškai ar trečiosios šalies? | |
| Vienetiniai arba keli modeliai | Ar sistema sudaryta iš vieno modelio ar kelių tarpusavyje susijusių modelių? | |
| Generatyvus arba diskriminacinis | Ar modelis generatyvus, diskriminacinis ar abu? | |
| Modelio kūrimas | Ar sistema mokosi remdamasi žmogaus parašytomis taisyklėmis, iš duomenų, per prižiūrimą mokymąsi ar per sustiprintą mokymąsi? | |
| Modelio evoliucija (AI dreifas) | Ar modelis vystosi ir (arba) įgyja gebėjimų sąveikaujant su lauko duomenimis? | |
| Federacinis arba centrinis mokymasis | Ar modelis mokomas centralizuotai, ar keliuose vietiniuose serveriuose ar „kraštiniuose“ įrenginiuose? | |
| Kūrimas ir priežiūra | Ar modelis yra universalus, pritaikomas ar pritaikytas dirbtinio intelekto veikėjo duomenims? | |
| Deterministinis arba tikimybinis | Ar modelis naudojamas deterministiniu ar tikimybiniu būdu? | |
| Modelio skaidrumas | Ar vartotojams prieinama informacija, leidžianti suprasti modelio rezultatus ir apribojimus arba naudoti apribojimus? | |
| Skaičiavimo apribojimas | Ar yra sistemos skaičiavimo apribojimų? Ar galime numatyti pajėgumų šuolius ar mastelio dėsnius? | |
| Poveikio matmenys | Kriterijai | Aprašymas |
| Užduotis ir išvestis | Sistemos atliekama užduotis (-os). | Kokias užduotis atlieka sistema (ty atpažinimą, įvykių aptikimą, prognozavimą)? |
| Užduočių ir veiksmų derinimas | Ar sistema apjungia keletą užduočių ir veiksmų (ty turinio generavimo sistemos, autonominės sistemos, valdymo sistemos)? | |
| Sistemos autonomijos lygis | Kiek autonomiški yra sistemos veiksmai ir kokį vaidmenį atlieka žmonės? | |
| Žmogaus įsitraukimo laipsnis | Ar yra tam tikras žmogaus dalyvavimas, kad būtų galima prižiūrėti bendrą AI sistemos veiklą ir nuspręsti, kada ir kaip naudoti sistemą bet kurioje situacijoje? | |
| Pagrindinė programa | Ar sistema priklauso pagrindinei taikymo sričiai, pvz., žmogaus kalbos technologijoms, kompiuterinei vizijai, automatizavimui ir (arba) optimizavimui arba robotikai? | |
| Vertinimas | Ar yra standartų ar metodų, leidžiančių įvertinti sistemos išvestį arba susidoroti su nenumatytomis iškylančiomis savybėmis? | |
Raktas į deskriptorių šaltiniai
Paprastas tekstas:
Gluckman, P. ir Allen, K. 2018 m. Gerovės supratimas sparčių skaitmeninių ir susijusių transformacijų kontekste. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
Paryškintas tekstas:
EBPO. 2022 m. EBPO AI sistemų klasifikavimo sistema. EBPO skaitmeninės ekonomikos dokumentai, Nr. 323, EBPO leidykla, Paryžius. https://oecd.ai/en/classification
Kursyvus tekstas:
Nauji aprašai (iš kelių šaltinių)
Kelias į priekį
Atsižvelgdamas į atsakymą į šį diskusijų dokumentą, ISC sudarytų ekspertų darbo grupę, kuri toliau plėtotų arba iš dalies pakeistų pirmiau minėtą analitinę sistemą, pagal kurią suinteresuotosios šalys galėtų visapusiškai išnagrinėti bet kokius reikšmingus platformų arba naudojimo aspektų pokyčius. Darbo grupė būtų discipliniškai, geografiškai ir demografiškai įvairi, jos kompetencija apimtų nuo technologijų vertinimo iki viešosios politikos, nuo žmogaus raidos iki sociologijos ir ateities bei technologijų studijų.
Norėdami dalyvauti šiame diskusijų dokumente, apsilankykite taryba.science/publications/framework-digital-technologies
Padėka
Rengiant šį dokumentą, kurį parengė Sir Peter Gluckman, ISC prezidentė ir Hema Sridhar, buvusi Gynybos ministerijos vyriausioji mokslininkė, o dabar vyresnioji mokslo darbuotoja Oklando universitete (Naujoji Zelandija).
Ypač dėkojame Lordui Martinui Reesui, buvusiam Karališkosios draugijos prezidentui ir Kembridžo universiteto Egzistencinių rizikų tyrimo centro įkūrėjui; Profesorius Shivaji Sondhi, Oksfordo universiteto fizikos profesorius; profesorius K Vijay Raghavan, buvęs Indijos vyriausybės pagrindinis mokslinis patarėjas; Amandeep Singh Gill, JT Generalinio Sekretoriaus pasiuntinys technologijų klausimais; Dr. Seán Óh Éigeartaigh, Kembridžo universiteto Egzistencinių rizikų tyrimo centro vykdomasis direktorius; Amanda-June Brawner, vyresnioji politikos patarėja ir Ianas Wigginsas, Karališkosios draugijos JK tarptautinių reikalų direktorius; Dr. Jerome'as Duberry'as, dr. Marie-Laure Salles, Ženevos studijų instituto direktorius; Chor Pharn Lee, Strateginės ateities centras, Ministro Pirmininko biuras, Singapūras; Barendas Monsas ir dr. Simonas Hodsonas, Duomenų komitetas (CoDATA); Prof Yuko Harayama, Japonija; Profesorius Rémi Quirion, INGSA prezidentas; Dr. Claire Craig, Oksfordo universitetas ir buvęs Vyriausybės mokslo biuro numatymo vadovas; ir prof. Yoshua Bengio, JT Generalinio Sekretoriaus mokslinė patariamoji taryba ir Monrealio universiteto. Iš esmės buvo pritarta kontrolinio sąrašo metodui ir buvo pabrėžtas bet kokių ISC veiksmų savalaikiškumas.
Vaizdas: adamichi iStock