Zarejestruj się

Zgłoś

Przewodnik dla decydentów: Ocena szybko rozwijających się technologii, w tym sztucznej inteligencji, dużych modeli językowych i nie tylko

W tym dokumencie ISC bada zarys ram informowania decydentów o licznych dyskusjach globalnych i krajowych związanych ze sztuczną inteligencją.

Przewodnik ISC oferuje kompleksowe ramy zaprojektowane w celu wypełnienia luki pomiędzy zasadami wysokiego szczebla a praktyczną polityką wykonalną. Odpowiada na pilną potrzebę wspólnego zrozumienia zarówno możliwości, jak i zagrożeń, jakie stwarzają powstające technologie. Jest to niezbędny dokument dla osób pracujących nad powiązaniami politycznymi w naszej szybko zmieniającej się erze cyfrowej.

Ramy badają potencjał sztucznej inteligencji i jej pochodnych z wszechstronnego punktu widzenia, obejmującego dobrostan ludzi i społeczeństwa, a także czynniki zewnętrzne, takie jak ekonomia, polityka, środowisko i bezpieczeństwo. Niektóre aspekty listy kontrolnej mogą być bardziej istotne niż inne, w zależności od kontekstu, ale lepsze decyzje wydają się bardziej prawdopodobne, jeśli weźmie się pod uwagę wszystkie domeny, nawet jeśli niektóre można szybko zidentyfikować jako nieistotne w konkretnych przypadkach. Jest to nieodłączna wartość podejścia opartego na liście kontrolnej.

„W erze naznaczonej szybkimi innowacjami technologicznymi i złożonymi wyzwaniami globalnymi ramy ISC umożliwiające kompleksową i wielowymiarową analizę potencjalnych skutków umożliwiają liderom podejmowanie świadomych i odpowiedzialnych decyzji. Gwarantuje, że w miarę postępu technologicznego będziemy robić to ze starannym uwzględnieniem implikacji etycznych, społecznych i ekonomicznych”.

Peter Gluckman, Prezydent ISC

Chociaż zasady wysokiego szczebla zostały ogłoszone między innymi przez UNESCO, OECD, Komisję Europejską i ONZ, a różne dyskusje toczą się na temat kwestii potencjalnego zarządzania, regulacji, etyki i bezpieczeństwa, istnieje duża rozbieżność między takimi zasadami a ramy zarządzania lub ramy regulacyjne. ISC wychodzi naprzeciw tej potrzebie w swoim nowym przewodniku dla decydentów.

Celem niniejszego przewodnika dla decydentów nie jest zakazanie systemu regulacyjnego, ale raczej zasugerowanie adaptacyjnych i ewoluujących ram analitycznych, które mogłyby stanowić podstawę wszelkich procesów oceny i regulacji, które mogą zostać opracowane przez zainteresowane strony, w tym rządy i system wielostronny.

„Ramy te stanowią kluczowy krok w globalnej dyskusji na temat sztucznej inteligencji, ponieważ stanowią podstawę, na podstawie której możemy budować konsensus w sprawie konsekwencji tej technologii zarówno obecnie, jak i w przyszłości”. 

Hema Sridhar, była główna doradczyni ds. nauki w Ministerstwie Obrony Nowej Zelandii, a obecnie starszy pracownik naukowy na Uniwersytecie w Auckland w Nowej Zelandii.

Od października 2023 r. podjęto kilka znaczących inicjatyw krajowych i wielostronnych, w ramach których dokładniej rozważono etykę i bezpieczeństwo sztucznej inteligencji. Coraz większe obawy budzą skutki sztucznej inteligencji dla integralności niektórych naszych kluczowych systemów, w tym finansowych, rządowych, prawnych i edukacyjnych, a także różnych systemów wiedzy (w tym wiedzy naukowej i lokalnej). Ramy dodatkowo odzwierciedlają te aspekty.

Dotychczasowe informacje zwrotne otrzymane od członków ISC i międzynarodowej społeczności tworzącej politykę znajdują odzwierciedlenie w poprawionej wersji ram analitycznych, która jest obecnie publikowana jako przewodnik dla decydentów.

Przewodnik dla decydentów: Ocena szybko rozwijających się technologii, w tym sztucznej inteligencji, dużych modeli językowych i nie tylko

Niniejszy dokument do dyskusji przedstawia zarys wstępnych ram, na których opierają się liczne globalne i krajowe dyskusje dotyczące sztucznej inteligencji.

Framework do wykorzystania w Twojej organizacji

Pobierz framework do wykorzystania w Twojej organizacji

Tutaj udostępniamy narzędzie frameworka w postaci edytowalnego arkusza Excel do wykorzystania w Twojej organizacji. Jeśli wolisz format open source, skontaktuj się z nami [email chroniony].

Wprowadzenie

Szybko powstające technologie stwarzają wyzwania, jeśli chodzi o ich wykorzystanie, zarządzanie i potencjalne regulacje. Trwające debaty polityczne i publiczne na temat sztucznej inteligencji (AI) i jej wykorzystania zwróciły uwagę na te kwestie. Ogólne zasady dotyczące sztucznej inteligencji zostały ogłoszone przez UNESCO, OECD, ONZ i inne instytucje, w tym brytyjską Deklarację z Bletchley, a także pojawiają się próby jurysdykcyjne regulowania aspektów tej technologii, na przykład za pośrednictwem sztucznej inteligencji Unii Europejskiej (UE) Ustawa lub najnowsze rozporządzenie wykonawcze Stanów Zjednoczonych dotyczące sztucznej inteligencji.

Chociaż wykorzystanie sztucznej inteligencji jest szczegółowo omawiane na tych i innych forach, ponad podziałami geopolitycznymi oraz w krajach na wszystkich poziomach dochodów, pozostaje ontologiczna luka między rozwojem zasad wysokiego szczebla a ich włączeniem do praktyki poprzez regulacje, politykę, zarządzanie lub podejście do zarządzania. Droga od zasady do praktyki jest słabo zdefiniowana, ale biorąc pod uwagę charakter i tempo rozwoju i stosowania sztucznej inteligencji, różnorodność zainteresowań i zakres możliwych zastosowań, żadne podejście nie może być zbyt ogólne ani nakazowe.

Z tych powodów pozarządowe środowisko naukowe nadal odgrywa szczególną rolę. Międzynarodowa Rada Nauki (ISC) – składająca się z pluralistycznego członkostwa przedstawicieli nauk społecznych i przyrodniczych – opublikowała w październiku 2023 r. dokument do dyskusji, w którym przedstawiła wstępne ramy analityczne, które uwzględniają ryzyko, korzyści, zagrożenia i możliwości związane z szybko rozwijającą się technologią cyfrową. Chociaż został opracowany z myślą o sztucznej inteligencji, jest z natury niezależny od technologii i można go zastosować w szeregu pojawiających się i przełomowych technologii, takich jak biologia syntetyczna i kwantowa. W tym dokumencie dyskusyjnym zwrócono się o opinie do naukowców i decydentów. Przytłaczająca liczba opinii sprawiła, że ​​przeprowadzenie takiej analizy stało się konieczne i okazało się cennym podejściem do rozwiązywania problemów pojawiających się technologii, takich jak sztuczna inteligencja.

Celem ram jest zapewnienie narzędzia umożliwiającego informowanie wszystkich zainteresowanych stron – w tym rządów, negocjatorów handlowych, organów regulacyjnych, społeczeństwa obywatelskiego i przemysłu – o ewolucji tych technologii, aby pomóc im określić, w jaki sposób mogą rozważyć pozytywne lub negatywne konsekwencje samą technologię, a dokładniej jej konkretne zastosowanie. Te ramy analityczne zostały opracowane niezależnie od interesów rządu i branży. Jest maksymalnie pluralistyczna w swoich perspektywach, obejmująca wszystkie aspekty technologii i jej implikacje w oparciu o szerokie konsultacje i opinie.

Celem niniejszego dokumentu do dyskusji dla decydentów nie jest zakazanie systemu regulacyjnego, ale raczej zasugerowanie adaptacyjnych i ewoluujących ram analitycznych, które mogłyby stanowić podstawę wszelkich procesów oceny i regulacji, które mogą zostać opracowane przez zainteresowane strony, w tym rządy i system wielostronny.

Ponieważ decydenci na całym świecie i na szczeblu krajowym rozważają odpowiednie ustalenia polityczne i dźwignie w celu zrównoważenia ryzyka i korzyści związanych z nową technologią, taką jak sztuczna inteligencja, ramy analityczne mają w zamierzeniu stanowić narzędzie uzupełniające, zapewniające odpowiednie odzwierciedlenie pełnego zestawu potencjalnych konsekwencji.

Tło: dlaczego ramy analityczne?

Szybkie pojawienie się technologii charakteryzujących się złożonością i konsekwencjami sztucznej inteligencji powoduje wiele twierdzeń o ogromnych korzyściach. Budzi jednak także obawy przed poważnymi zagrożeniami, zarówno na poziomie indywidualnym, jak i geostrategicznym.1 Większość dotychczasowych dyskusji rozpatrywano w sensie binarnym, ponieważ poglądy wyrażane publicznie zazwyczaj mieszczą się na skrajnych krańcach spektrum. Twierdzenia za lub przeciw sztucznej inteligencji są często przesadne i – biorąc pod uwagę charakter technologii – trudne do oceny.

W przypadku zastąpienia hiperboli skalibrowanymi i bardziej szczegółowymi ocenami konieczne jest bardziej pragmatyczne podejście. Technologia sztucznej inteligencji będzie nadal ewoluować, a historia pokazuje, że praktycznie każda technologia ma zarówno korzystne, jak i szkodliwe zastosowania. Pytanie brzmi zatem: w jaki sposób możemy osiągnąć korzystne wyniki tej technologii, jednocześnie zmniejszając ryzyko szkodliwych konsekwencji, z których niektóre mogą mieć wymiar egzystencjalny?

Przyszłość jest zawsze niepewna, istnieje jednak wystarczająca liczba wiarygodnych i eksperckich głosów na temat sztucznej inteligencji i generatywnej sztucznej inteligencji, aby zachęcić do przyjęcia stosunkowo ostrożnego podejścia. Ponadto konieczne jest podejście systemowe, ponieważ sztuczna inteligencja to klasa technologii o szerokim zastosowaniu i zastosowaniu przez wiele typów użytkowników. Oznacza to, że rozważając konsekwencje dowolnego zastosowania sztucznej inteligencji dla jednostek, życia społecznego, życia obywatelskiego, życia społecznego i w kontekście globalnym, należy wziąć pod uwagę pełny kontekst.

W przeciwieństwie do większości innych technologii, w przypadku technologii cyfrowych i pokrewnych, czas pomiędzy opracowaniem, wydaniem i zastosowaniem jest niezwykle krótki, w dużej mierze wynikający z interesów firm produkcyjnych lub agencji. Ze względu na swój charakter – i biorąc pod uwagę, że opiera się na cyfrowym szkielecie – sztuczna inteligencja będzie miała zastosowania, które szybko się rozpowszechnią, co zaobserwowano już w przypadku rozwoju dużych modeli językowych. W rezultacie niektóre właściwości mogą ujawnić się dopiero po uwolnieniu, co oznacza ryzyko nieprzewidzianych konsekwencji, zarówno złych, jak i życzliwych.

Ważne wymiary wartości społecznych, szczególnie w różnych regionach i kulturach, będą miały wpływ na postrzeganie i akceptowanie każdego zastosowania. Co więcej, w dyskusji dominują już interesy geostrategiczne, a interesy suwerenne i wielostronne stale się krzyżują, napędzając w ten sposób konkurencję i podziały.

Do chwili obecnej znaczną część regulacji dotyczących technologii wirtualnej postrzegano głównie przez pryzmat „zasad” i dobrowolnej zgodności, choć zgodnie z unijną ustawą o sztucznej inteligencji2 i podobnie, obserwujemy przejście w stronę bardziej wykonalnych, ale nieco zawężonych przepisów. Ustanowienie skutecznego globalnego lub krajowego systemu zarządzania technologią i/lub systemu regulacyjnego pozostaje wyzwaniem i nie ma oczywistego rozwiązania. Konieczne będzie podejmowanie decyzji na wielu poziomach w oparciu o ryzyko w całym łańcuchu, od wynalazcy do producenta, użytkownika, rządu i systemu wielostronnego.

Chociaż zasady wysokiego szczebla zostały ogłoszone między innymi przez UNESCO, OECD, Komisję Europejską i ONZ, a różne dyskusje na wysokim szczeblu toczą się na temat kwestii potencjalnego zarządzania, regulacji, etyki i bezpieczeństwa, istnieje duża rozbieżność między tymi zasadami zasady oraz ramy zarządzania lub ramy regulacyjne. Należy się tym zająć.

Jako punkt wyjścia ISC rozważa opracowanie taksonomii zagadnień, do której mógłby się odnieść każdy deweloper, organ regulacyjny, doradca ds. polityki, konsument lub decydent. Biorąc pod uwagę szerokie implikacje tych technologii, taka taksonomia musi uwzględniać całość implikacji, a nie wąsko ukierunkowane ramy. Globalna fragmentacja wzrasta ze względu na wpływ interesów geostrategicznych na podejmowanie decyzji, a biorąc pod uwagę pilność tej technologii, istotne jest, aby niezależne i neutralne głosy nieustannie opowiadały się za ujednoliconym i włączającym podejściem.


1) Czasy Hindustanu. 2023. G20 musi powołać międzynarodowy panel ds. zmian technologicznych.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Unijna ustawa o sztucznej inteligencji. 2023. https://artificialintelligenceact.eu

Opracowanie ram analitycznych

ISC jest wiodącą światową organizacją pozarządową integrującą nauki przyrodnicze i społeczne. Jej globalny i dyscyplinarny zasięg oznacza, że ​​jest dobrze przygotowana do generowania niezależnych i odpowiednich na skalę globalną porad, które pomogą w podejmowaniu złożonych wyborów, jakie będą przed nami, zwłaszcza że obecne głosy na tej arenie pochodzą głównie ze strony przemysłu lub społeczności politycznych i politycznych głównych potęg technologicznych.

Po okresie szeroko zakrojonych dyskusji, które obejmowały rozważenie pozarządowego procesu oceny, ISC stwierdziła, że ​​jego najbardziej użytecznym wkładem byłoby stworzenie adaptacyjnych ram analitycznych, które mogłyby zostać wykorzystane jako podstawa dyskursu i procesu decyzyjnego przez wszystkich zainteresowanymi stronami, w tym podczas wszelkich pojawiających się formalnych procesów oceny.

Wstępne ramy analityczne, które udostępniono do dyskusji i informacji zwrotnych w październiku 2023 r., miały formę nadrzędnej listy kontrolnej przeznaczonej do użytku zarówno przez instytucje rządowe, jak i pozarządowe. W ramach zidentyfikowano i zbadano potencjał technologii, takiej jak sztuczna inteligencja i jej pochodne, z szerokiego punktu widzenia, obejmującego dobrostan ludzi i społeczeństwa, a także czynniki zewnętrzne, takie jak ekonomia, polityka, środowisko i bezpieczeństwo. Niektóre aspekty listy kontrolnej mogą być bardziej istotne niż inne, w zależności od kontekstu, ale lepsze decyzje wydają się bardziej prawdopodobne, jeśli weźmie się pod uwagę wszystkie domeny, nawet jeśli niektóre można szybko zidentyfikować jako nieistotne w konkretnych przypadkach. Jest to nieodłączna wartość podejścia opartego na liście kontrolnej.

Wstępne ramy powstały na podstawie wcześniejszych prac i przemyśleń, w tym raportu Międzynarodowej Sieci Rządowego Doradztwa Naukowego (INGSA) na temat cyfrowego dobrostanu3 oraz Ram OECD dotyczących klasyfikacji systemów sztucznej inteligencji4, aby przedstawić całość potencjalnych możliwości, zagrożeń i skutków sztucznej inteligencji. Te poprzednie produkty miały bardziej ograniczone przeznaczenie, biorąc pod uwagę czas i kontekst; potrzebne są nadrzędne ramy przedstawiające pełen zakres zagadnień zarówno w perspektywie krótko-, jak i długoterminowej.

Od czasu publikacji dokument do dyskusji uzyskał znaczące wsparcie ze strony wielu ekspertów i decydentów. Wiele osób szczególnie poparło zalecenie opracowania ram adaptacyjnych, które pozwolą na świadome i proaktywne rozważenie zagrożeń i konsekwencji związanych z technologią, a czyniąc to, zawsze uwzględniają całość wymiarów, od jednostki po społeczeństwo i systemy.

Jedną z kluczowych obserwacji poczynionych w ramach informacji zwrotnych było potwierdzenie, że kilka implikacji uwzględnionych w ramach jest z natury wieloaspektowych i rozciąga się na wiele kategorii. Na przykład dezinformację można rozpatrywać zarówno z perspektywy indywidualnej, jak i geostrategicznej; zatem konsekwencje byłyby dalekosiężne.

Zasugerowano również opcję włączenia studiów przypadków lub przykładów w celu przetestowania ram. Można to wykorzystać do opracowania wytycznych pokazujących, jak można je zastosować w praktyce w różnych kontekstach. Byłoby to jednak znaczące przedsięwzięcie i mogłoby ograniczyć sposób, w jaki różne grupy postrzegają stosowanie tych ram. Najlepiej jest to robić przez decydentów współpracujących z ekspertami w określonych jurysdykcjach lub kontekstach.

Od października 2023 r. podjęto kilka znaczących inicjatyw krajowych i wielostronnych, w ramach których dokładniej rozważono etykę i bezpieczeństwo sztucznej inteligencji. Coraz większe obawy budzą skutki sztucznej inteligencji dla integralności niektórych naszych kluczowych systemów, w tym finansowych, rządowych, prawnych i edukacyjnych, a także różnych systemów wiedzy (w tym wiedzy naukowej i lokalnej). Zmienione ramy dodatkowo odzwierciedlają te aspekty.

Otrzymane dotychczas informacje zwrotne znajdują odzwierciedlenie w poprawionej wersji ram analitycznych, która jest obecnie udostępniana jako przewodnik dla decydentów.

Chociaż ramy przedstawiono w kontekście sztucznej inteligencji i technologii pokrewnych, można je natychmiast przenieść do rozważań na temat innych szybko pojawiających się technologii, takich jak biologia kwantowa i biologia syntetyczna.


3) Gluckman, P. i Allen, K. 2018. Zrozumienie dobrostanu w kontekście szybkich transformacji cyfrowych i z nimi związanych. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OECD. 2022. Ramy OECD dotyczące klasyfikacji systemów sztucznej inteligencji. Dokumenty OECD dotyczące gospodarki cyfrowej, nr 323,#. Paryż, Wydawnictwo OECD.
https://oecd.ai/en/classificatio

Ramy

Poniższa tabela przedstawia wymiary domniemanych ram analitycznych. Podano przykłady ilustrujące, dlaczego każda domena może mieć znaczenie; w kontekście ramy wymagałyby kontekstowo odpowiedniego rozszerzenia. Ważne jest również rozróżnienie pomiędzy problemami ogólnymi, które pojawiają się podczas opracowywania platform, a problemami, które mogą pojawić się w trakcie konkretnych zastosowań. Żadnej pojedynczej kwestii zawartej w tym miejscu nie należy traktować priorytetowo i jako takie należy zbadać wszystkie.

Zagadnienia są ogólnie pogrupowane w następujące kategorie, jak opisano poniżej:

  • Dobrostan (w tym dobrostan jednostki lub samego siebie, społeczeństwa, życia społecznego i obywatelskiego)
  • Handel i gospodarka
  • Środowiskowy
  • Geostrategiczne i geopolityczne
  • Technologiczne (charakterystyka systemu, konstrukcja i zastosowanie)

W tabeli wyszczególniono wymiary, które mogą wymagać uwzględnienia przy ocenie nowej technologii.

🔴INGSA. 2018. Zrozumienie wellbeingu w kontekście szybkich transformacji cyfrowych i z nimi związanych.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

🟢 Nowe deskryptory (pozyskane w wyniku szeroko zakrojonych konsultacji, opinii i przeglądu literatury)

🟡 Ramy OECD dotyczące klasyfikacji systemów AI: narzędzie skutecznej polityki AI.
https://oecd.ai/en/classification

Wymiary wpływu: Indywidualny / własny

kryteriaPrzykłady tego, jak można to odzwierciedlić w analizie
🟡Kompetencje AI użytkownikówNa ile kompetentni i świadomi właściwości systemu są prawdopodobni użytkownicy, którzy będą wchodzić w interakcję z systemem? W jaki sposób otrzymają oni odpowiednie informacje i przestrogi dla użytkowników?
🟡 Interesariusz, którego to dotyczyKim są główni interesariusze, na których system będzie miał wpływ (pojedyncze osoby, społeczności, osoby znajdujące się w trudnej sytuacji, pracownicy sektorowi, dzieci, decydenci, specjaliści itp.)?
🟡 OpcjonalnośćCzy użytkownikom zapewnia się możliwość rezygnacji z systemu lub możliwość zakwestionowania lub skorygowania wyników?
🟡Zagrożenia dla praw człowieka i wartości demokratycznychCzy system ma zasadniczy wpływ na prawa człowieka, w tym między innymi na prywatność, wolność słowa, sprawiedliwość, niedyskryminację itp.?
🟡Potencjalny wpływ na dobrostan ludziCzy obszary wpływu systemu odnoszą się do dobrego samopoczucia indywidualnego użytkownika (jakość pracy, edukacja, interakcje społeczne, zdrowie psychiczne, tożsamość, środowisko itp.)?
🟡 Potencjał przesiedleń siły roboczejCzy system ma potencjał do automatyzacji zadań lub funkcji wykonywanych przez człowieka? Jeśli tak, jakie są dalsze konsekwencje?
🟡 Potencjał manipulacji tożsamością, wartościami czy wiedząCzy system został zaprojektowany lub może potencjalnie manipulować tożsamością użytkownika?
ustalone wartości czy szerzenie dezinformacji?
🔴Możliwości wyrażania siebie i samorealizacjiCzy istnieje potencjał do sztuczności i zwątpienia? Czy istnieje możliwość fałszywego lub
nieweryfikowalne roszczenia dotyczące wiedzy specjalistycznej?
🔴 Miary poczucia własnej wartościCzy istnieje presja, aby przedstawiać wyidealizowane „ja”? Czy automatyzacja może zastąpić zmysł?
osobistego spełnienia? Czy istnieje presja, aby konkurować z systemem w
Miejsce pracy? Czy indywidualną reputację trudniej chronić przed dezinformacją?
🔴 PrywatnośćCzy obowiązki w zakresie ochrony prywatności są rozproszone i czy w ogóle takie istnieją
przyjmuje się założenia dotyczące sposobu wykorzystania danych osobowych?
🔴 AutonomiaCzy system sztucznej inteligencji może wpływać na autonomię człowieka, generując nadmierną zależność
użytkownicy końcowi?
🔴Rozwój człowiekaCzy ma to wpływ na nabywanie kluczowych dla rozwoju człowieka umiejętności, jak np
wpływające na funkcje wykonawcze lub umiejętności interpersonalne lub zmiany w czasie uwagi
uczenia się, rozwoju osobowości, problemów ze zdrowiem psychicznym itp.?
🔴Osobista opieka zdrowotnaCzy istnieją roszczenia dotyczące samodiagnozy lub spersonalizowanych rozwiązań w zakresie opieki zdrowotnej? W takim razie,
czy są one zatwierdzone pod kątem zgodności z normami regulacyjnymi?
🔴Zdrowie psychiczneCzy istnieje ryzyko zwiększonego lęku, samotności lub innych problemów ze zdrowiem psychicznym?
czy technologia może złagodzić takie skutki?
🟢 Ewolucja człowiekaCzy duże modele językowe i sztuczna inteligencja ogólna mogą zmienić
przebieg ewolucji człowieka?
🟢 Interakcja człowiek-maszynaCzy zażywanie może z czasem prowadzić do utraty kwalifikacji i uzależnienia poszczególnych osób? Czy
ma wpływ na interakcje międzyludzkie?
5) Kryteria technologiczne uwzględnione w ramach dotyczą konkretnie sztucznej inteligencji i w stosownych przypadkach będą wymagały przeglądu pod kątem innych technologii.

Wymiary oddziaływania: Społeczeństwo/życie społeczne

kryteria Przykłady tego, jak można to odzwierciedlić w analizie
🔴 Wartości społeczneCzy system zasadniczo zmienia naturę społeczeństwa, umożliwia normalizację idei uznawanych wcześniej za antyspołeczne lub narusza społeczne wartości kultury, w której jest stosowany?
🔴 Interakcje społeczneCzy ma to wpływ na znaczący kontakt międzyludzki, w tym na relacje emocjonalne?
🔴Zdrowie populacjiCzy system ma potencjał, aby przyspieszyć lub podważyć zamierzenia populacji w zakresie zdrowia?
🔴 Ekspresja kulturowaCzy wzrost przywłaszczenia kultury lub dyskryminacji jest prawdopodobny lub trudniejszy do rozwiązania? Czy poleganie na systemie podejmowania decyzji wyklucza lub marginalizuje istotne kulturowo, przekrojowe powiązania społeczne?
🔴Edukacja publicznaCzy ma to wpływ na role nauczycieli lub instytucje edukacyjne? Czy system uwypukla lub zmniejsza przepaść cyfrową i nierówności wśród uczniów? Czy wewnętrzna wartość wiedzy lub krytycznego zrozumienia jest rozwinięta czy podważona?
🟢 Zniekształcona rzeczywistośćCzy metody stosowane w celu rozpoznania, co jest prawdą, są nadal aktualne? Czy postrzeganie rzeczywistości jest zagrożone?

Wymiary wpływu: Kontekst gospodarczy (handel)

kryteriaPrzykłady tego, jak można to odzwierciedlić w analizie
🟡Sektor przemysłowyW jakim sektorze przemysłu zastosowano system (finanse, rolnictwo, opieka zdrowotna, edukacja, obrona itp.)?
🟡 Model biznesowyW jakiej funkcji biznesowej wykorzystywany jest system i w jakim charakterze? Gdzie stosowany jest system (prywatny, publiczny, non-profit)?
🟡 Wpływ na krytyczne działania Czy zakłócenie funkcji lub działania systemu miałoby wpływ na podstawowe usługi lub infrastrukturę krytyczną?
🟡Szeroki zakres wdrożeńW jaki sposób system jest wdrażany (wąskie zastosowanie w obrębie jednostki vs. powszechne w kraju/międzynarodowym)?
🟡 Dojrzałość technicznaJak zaawansowany technicznie jest system?
🟢 Interoperacyjność Czy prawdopodobne jest istnienie silosów, na poziomie krajowym lub globalnym, które utrudniają wolny handel i wpływają na współpracę z partnerami?
🟢 Suwerenność technologicznaCzy dążenie do suwerenności technologicznej napędza zachowania, w tym kontrolę nad całym łańcuchem dostaw AI?
🔴Redystrybucja dochodów i krajowe dźwignie fiskalneCzy można zagrozić podstawowym rolom suwerennego państwa (np. banków rezerwowych)? Czy zdolność państwa do sprostania oczekiwaniom obywateli i implikacjom (społecznym, gospodarczym, politycznym itp.) ulegnie poprawie, czy zmniejszeniu?
🟢 Przepaść cyfrowa (przepaść AI) Czy istniejące nierówności cyfrowe pogłębiają się lub powstają nowe?

Wymiary oddziaływania: Życie obywatelskie

kryteriaPrzykłady tego, jak można to odzwierciedlić w analizie
🔴 Zarządzanie i służba publicznaCzy mechanizmy zarządzania i globalny system zarządzania mogą mieć pozytywny lub negatywny wpływ?
🔴 Wiadomości w mediachCzy dyskurs publiczny może ulec polaryzacji i utrwaleniu się na poziomie populacji? Czy będzie to miało wpływ na poziom zaufania do czwartej władzy? Czy będzie to miało dalszy wpływ na konwencjonalne standardy etyki i uczciwości dziennikarzy?
🔴 PraworządnośćCzy będzie to miało wpływ na możliwość zidentyfikowania osób lub organizacji, które należy pociągnąć do odpowiedzialności (np. jaki rodzaj odpowiedzialności przypisać algorytmowi za niekorzystne skutki)? Czy następuje utrata suwerenności (w zakresie ochrony środowiska, polityki fiskalnej, społecznej, etyki itp.)?
🔴Polityka i spójność społecznaCzy istnieje możliwość bardziej ugruntowanych poglądów politycznych i mniejszych możliwości budowania konsensusu? Czy istnieje możliwość dalszej marginalizacji grup? Czy kontradyktoryjny styl polityki jest bardziej czy mniej prawdopodobny?
🟢Licencja społecznaCzy istnieją obawy związane z prywatnością, zaufaniem i moralnością, które należy wziąć pod uwagę, aby zainteresowane strony wyraziły zgodę na wykorzystanie?
🟢 Wiedza rodzimaCzy rodzima wiedza i dane mogą zostać uszkodzone lub sprzeniewieżone? Czy istnieją odpowiednie środki ochrony przed wprowadzaniem w błąd, dezinformacją i wykorzystywaniem?
🟢 System naukowyCzy uczciwość akademicka i badawcza jest zagrożona? Czy doszło do utraty zaufania do nauki? Czy istnieją możliwości niewłaściwego użycia, nadmiernego użycia lub nadużycia? Jakie są konsekwencje uprawiania nauki?

Wymiary oddziaływania: Kontekst geostrategiczny/geopolityczny

kryteriaPrzykłady tego, jak można to odzwierciedlić w analizie
🟢 Precyzyjny nadzórCzy systemy są szkolone w oparciu o indywidualne dane behawioralne i biologiczne i czy można je wykorzystać do wykorzystywania jednostek lub grup?
🟢 Cyfrowy konkursCzy podmioty państwowe lub niepaństwowe (np. duże firmy technologiczne) mogłyby wykorzystać systemy i dane w celu zrozumienia i kontrolowania populacji i ekosystemów innych krajów lub podważyć kontrolę jurysdykcyjną?
🟢 Konkurencja geopolitycznaCzy system mógłby wywołać konkurencję między narodami w zakresie wykorzystania danych indywidualnych i grupowych do celów gospodarczych, medycznych i bezpieczeństwa?
🟢 Zmiana światowych mocarstwCzy status państw narodowych jako głównych aktorów geopolitycznych na świecie jest zagrożony? Czy firmy technologiczne dzierżą władzę niegdyś zarezerwowaną dla państw narodowych i czy stały się niezależnymi, suwerennymi aktorami (wyłaniający się technopolarny porządek świata)?
🟢 DezinformacjaCzy system ułatwiłby tworzenie i rozpowszechnianie dezinformacji przez podmioty państwowe i niepaństwowe, co miałoby wpływ na spójność społeczną, zaufanie i demokrację?
🟢 Aplikacje podwójnego zastosowaniaCzy istnieje możliwość zastosowania zarówno wojskowego, jak i cywilnego?
🟢 Fragmentacja porządku globalnegoCzy mogą powstać silosy lub skupiska przepisów i zgodności, które utrudniają współpracę, prowadzą do niespójności w stosowaniu i tworzą pole do konfliktów?

Wymiary wpływu: Środowiskowe

kryteriaPrzykłady tego, jak można to odzwierciedlić w analizie
🟢 Zużycie energii i zasobów (ślad węglowy)Czy system i wymagania zwiększają zużycie energii i zasobów w porównaniu z przyrostem wydajności uzyskanym dzięki aplikacji?
🟢Źródło energiiSkąd pochodzi energia dla systemu (odnawialne czy kopalne itp.)?

Wymiary wpływu: Dane i dane wejściowe

kryteriaPrzykłady tego, jak można to odzwierciedlić w analizie
🟡 Kierunek i kolekcjaCzy dane i dane wejściowe gromadzone są przez ludzi, czujniki automatyczne, czy jedno i drugie?
🟡 Pochodzenie danychCzy dane i wkład ekspertów są dostarczane, obserwowane, syntetyczne czy pochodne? Czy istnieją zabezpieczenia znaku wodnego potwierdzające pochodzenie?
🟡 Dynamiczny charakter danychCzy dane są dynamiczne, statyczne, dynamiczne i aktualizowane od czasu do czasu, czy w czasie rzeczywistym?
🟡 PrawaCzy dane są zastrzeżone, publiczne czy osobiste (dotyczą możliwych do zidentyfikowania osób fizycznych)?
🟡 Identyfikowalność i dane osoboweJeżeli są to dane osobowe, czy są one anonimizowane czy pseudonimizowane?
🟡Struktura danychCzy dane są ustrukturyzowane, półustrukturyzowane, złożone czy nieustrukturyzowane?
🟡Format danychCzy format danych i metadanych jest ustandaryzowany czy niestandaryzowany?
🟡Skala danychJaka jest skala zbioru danych?
🟡 Adekwatność i jakość danych Czy zbiór danych jest odpowiedni do celu? Czy wielkość próbki jest odpowiednia? Czy jest on wystarczająco reprezentatywny i kompletny? Jak zaszumione są dane? Czy jest podatny na błędy?

Wymiary uderzenia: Model

kryteriaPrzykłady tego, jak można to odzwierciedlić w analizie
🟡 Dostępność informacjiCzy są dostępne informacje na temat modelu systemu?
🟡 Typ modelu AICzy model jest symboliczny (reguły stworzone przez człowieka), statystyczny (wykorzystuje dane) czy hybrydowy?
🟡 Prawa związane z modelemCzy model jest typu open source, czy jest zastrzeżony, zarządzany samodzielnie czy przez stronę trzecią?
🟡 Pojedynczy z wielu modeliCzy system składa się z jednego modelu, czy z kilku powiązanych ze sobą modeli?
🟡 Generatywny lub dyskryminującyCzy model jest generatywny, dyskryminacyjny, czy może oba?
🟡 Budowa modeluCzy system uczy się w oparciu o zasady pisane przez człowieka, na podstawie danych, w drodze uczenia się pod nadzorem czy poprzez uczenie się przez wzmacnianie?
🟡 Ewolucja modelu (dryf AI)Czy model ewoluuje i/lub nabywa umiejętności w wyniku interakcji z danymi w terenie?
🟡 Uczenie się federacyjne lub centralneCzy model jest szkolony centralnie, czy na kilku lokalnych serwerach lub urządzeniach brzegowych?
🟡 Rozwój/utrzymanieCzy model jest uniwersalny, konfigurowalny lub dostosowany do danych aktora AI?
🟡 Deterministyczny lub probabilistyczny Czy model jest używany w sposób deterministyczny czy probabilistyczny?
🟡 Przezroczystość modelu Czy użytkownicy mają dostęp do informacji pozwalających im zrozumieć wyniki i ograniczenia modelu lub zastosować ograniczenia?
🟢 Ograniczenia obliczenioweCzy istnieją ograniczenia obliczeniowe systemu? Czy można przewidzieć skoki zdolności lub prawa skalowania?

Wymiary wpływu: Zadanie i wynik

kryteriaPrzykłady tego, jak można to odzwierciedlić w analizie
🟡 Zadania wykonywane przez systemJakie zadania realizuje system (rozpoznawanie, wykrywanie zdarzeń, prognozowanie itp.)?
🟡 Łączenie zadań i działańCzy system łączy w sobie kilka zadań i działań (systemy generowania treści, systemy autonomiczne, systemy sterowania itp.)?
🟡 Poziom autonomii systemu Na ile autonomiczne jest działanie systemu i jaką rolę odgrywa człowiek?
🟡 Stopień zaangażowania człowiekaCzy wymagany jest udział człowieka w nadzorowaniu ogólnej działalności systemu AI oraz możliwości decydowania, kiedy i jak korzystać z systemu AI w dowolnej sytuacji?
🟡 Aplikacja podstawowaCzy system należy do podstawowego obszaru zastosowań, takiego jak technologie języka ludzkiego, wizja komputerowa, automatyzacja i/lub optymalizacja lub robotyka?
🟡 OcenaCzy dostępne są standardy lub metody oceny wyników systemu?

Jak można wykorzystać te ramy?

Ramy te można wykorzystać na wiele sposobów, w tym:

  • Wypełnienie luki pomiędzy zasadami wysokiego szczebla a oceną do celów regulacyjnych lub zarządczych. Ramy mogą to wspierać poprzez ustanowienie zatwierdzonej wspólnej taksonomii zakresu kwestii, które zasługują na rozważenie przez odpowiednie zainteresowane strony jako podstawa do informowania i kształtowania dalszego myślenia. Na przykład na poziomie krajowym ramy mogłyby zostać wykorzystane przez rząd jako narzędzie podczas opracowywania krajowej strategii i polityk w zakresie sztucznej inteligencji w celu ustalenia wspólnej podstawy zagrożeń i możliwości dla wszystkich grup interesariuszy.
  • Aby informować o ocenach skutków. Ustawa UE o sztucznej inteligencji wymaga, aby organizacje dostarczające narzędzia sztucznej inteligencji lub wdrażające sztuczną inteligencję w swoich procesach przeprowadziły ocenę skutków w celu zidentyfikowania ryzyka związanego z ich inicjatywami i zastosowania odpowiedniego podejścia do zarządzania ryzykiem. Zaprezentowane tutaj ramy mogą posłużyć jako podstawa.
  • Aby informować o skanowaniu horyzontu pod kątem zagrożeń i przyszłych scenariuszy. Kategoryzacja zagrożeń zawarta w raporcie okresowym Organu Doradczego ONZ ds. AI6 jest zasadniczo dostosowana do ram przedstawionych w niniejszym dokumencie. Istnieje możliwość wykorzystania ram do budowania konsensusu i testowania powagi pojawiających się zagrożeń, a także zapobiegania im.
  • Wzmocnienie zasad etycznych niezbędnych do kierowania i zarządzania wykorzystaniem sztucznej inteligencji. Ramy mogą tego dokonać, zapewniając elastyczną podstawę, na której można opracować wiarygodne systemy i zapewniając zgodne z prawem, etyczne, solidne i odpowiedzialne wykorzystanie technologii. Zasady te można przetestować w odniesieniu do pełnego zakresu skutków przedstawionych w niniejszych ramach.
  • Ułatwienie przeglądu istniejących i rozwijających się środków (regulacyjnych, legislacyjnych, politycznych, standardów, zarządzania itp.) oraz określenie luk wymagających dalszego rozważenia. Można je zestawić z kategoriami ramowymi na poziomie krajowym lub międzynarodowym w celu określenia luk i zidentyfikowania odpowiednich środków łagodzących ryzyko.
  • Wspieranie rządowego wykorzystania sztucznej inteligencji. Ponieważ wiele rządów określa swoje odpowiednie strategie wykorzystania sztucznej inteligencji w agencjach i systemach, ramy można wykorzystać do zdefiniowania odpowiednich progów ryzyka oraz zidentyfikowania kluczowych interesariuszy i obowiązków.
  • Wspieranie dyskursu publicznego i ustanowienie licencji społecznej na temat sposobu wykorzystania sztucznej inteligencji oraz danych stanowiących podstawę, które będą wykorzystywane w usługach rządowych lub szerzej w społeczeństwie.

Droga naprzód
Podsumowując, ramy analityczne stanowią podstawę zestawu narzędzi, z którego zainteresowane strony mogą kompleksowo przyjrzeć się wszelkim znaczącym zmianom w zakresie platform lub ich wykorzystania w spójny i systematyczny sposób. Wymiary przedstawione w tym kontekście mają znaczenie od oceny technologii po politykę publiczną, od rozwoju człowieka po socjologię oraz studia nad przyszłością i technologią. Chociaż te ramy analityczne zostały opracowane dla sztucznej inteligencji, mają znacznie szersze zastosowanie w przypadku każdej innej powstającej technologii.

6 Rada Doradcza ONZ ds. AI. 2023. Raport okresowy: Zarządzanie sztuczną inteligencją dla ludzkości. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

Podziękowania

Przeprowadzono konsultacje z wieloma osobami i przekazały one uwagi podczas opracowywania wstępnego dokumentu do dyskusji oraz informacji zwrotnych po jego opublikowaniu. Obydwa artykuły zostały opracowane przez Sir Petera Gluckmana, Prezydenta ISC i Hemę Sridhar, byłego głównego doradcy ds. nauki w Ministerstwie Obrony Nowej Zelandii, a obecnie starszego pracownika badawczego na Uniwersytecie w Auckland w Nowej Zelandii.

W szczególności Lordowi Martinowi Reesowi ISC, byłemu prezesowi Towarzystwa Królewskiego i współzałożycielowi Centrum Studiów nad Ryzykiem Egzystencjalnym na Uniwersytecie w Cambridge; Profesor Shivaji Sondhi, profesor fizyki, Uniwersytet Oksfordzki; Profesor K. Vijay Raghavan, były główny doradca naukowy rządu Indii; Amandeep Singh Gill, wysłannik Sekretarza Generalnego ONZ ds. Technologii; Seán Ó hÉigeartaigh, dyrektor wykonawczy, Centrum Badań nad Ryzykiem Egzystencjalnym, Uniwersytet w Cambridge; Sir David Spiegelhalter, profesor Winton na Uniwersytecie w dziedzinie publicznego zrozumienia ryzyka
z Cambridge; Amanda-June Brawner, starszy doradca ds. polityki i Ian Wiggins, dyrektor ds. międzynarodowych, Royal Society, Wielka Brytania; dr Jerome Duberry, dyrektor zarządzający i dr Marie-Laure Salles, dyrektor Geneva Graduate Institute; Chor Pharn Lee, Centrum Strategicznej Przyszłości, Biuro Premiera, Singapur; Barend Mons i dr Simon Hodson, Komisja ds. Danych (CoDATA); profesor Yuko Harayama, była dyrektor wykonawcza RIKEN; Profesor
Rémi Quirion, Prezes INGSA; dr Claire Craig, Uniwersytet Oksfordzki i była dyrektor ds. prognozowania w Rządowym Biurze Naukowym; prof. Yoshua Bengio, Naukowa Rada Doradcza Sekretarza Generalnego ONZ i Université de Montréal; oraz wielu innych, którzy przekazali ISC uwagi na temat wstępnego dokumentu do dyskusji.


Dalsze czytanie

Przygotowanie krajowych ekosystemów badawczych dla AI: strategie i postęp w roku 2024

Niniejszy dokument roboczy przygotowany przez zespół doradców ISC, Center for Science Futures, zapewnia podstawowe informacje i dostęp do zasobów z krajów ze wszystkich części świata, na różnych etapach integracji sztucznej inteligencji z ich ekosystemami badawczymi.

Przejdź do treści