Przewodnik ISC oferuje kompleksowe ramy zaprojektowane w celu wypełnienia luki pomiędzy zasadami wysokiego szczebla a praktyczną polityką wykonalną. Odpowiada na pilną potrzebę wspólnego zrozumienia zarówno możliwości, jak i zagrożeń, jakie stwarzają powstające technologie. Jest to niezbędny dokument dla osób pracujących nad powiązaniami politycznymi w naszej szybko zmieniającej się erze cyfrowej.
Ramy badają potencjał sztucznej inteligencji i jej pochodnych z wszechstronnego punktu widzenia, obejmującego dobrostan ludzi i społeczeństwa, a także czynniki zewnętrzne, takie jak ekonomia, polityka, środowisko i bezpieczeństwo. Niektóre aspekty listy kontrolnej mogą być bardziej istotne niż inne, w zależności od kontekstu, ale lepsze decyzje wydają się bardziej prawdopodobne, jeśli weźmie się pod uwagę wszystkie domeny, nawet jeśli niektóre można szybko zidentyfikować jako nieistotne w konkretnych przypadkach. Jest to nieodłączna wartość podejścia opartego na liście kontrolnej.
„W erze naznaczonej szybkimi innowacjami technologicznymi i złożonymi wyzwaniami globalnymi ramy ISC umożliwiające kompleksową i wielowymiarową analizę potencjalnych skutków umożliwiają liderom podejmowanie świadomych i odpowiedzialnych decyzji. Gwarantuje, że w miarę postępu technologicznego będziemy robić to ze starannym uwzględnieniem implikacji etycznych, społecznych i ekonomicznych”.
Peter Gluckman, Prezydent ISC
Chociaż zasady wysokiego szczebla zostały ogłoszone między innymi przez UNESCO, OECD, Komisję Europejską i ONZ, a różne dyskusje toczą się na temat kwestii potencjalnego zarządzania, regulacji, etyki i bezpieczeństwa, istnieje duża rozbieżność między takimi zasadami a ramy zarządzania lub ramy regulacyjne. ISC wychodzi naprzeciw tej potrzebie w swoim nowym przewodniku dla decydentów.
Celem niniejszego przewodnika dla decydentów nie jest zakazanie systemu regulacyjnego, ale raczej zasugerowanie adaptacyjnych i ewoluujących ram analitycznych, które mogłyby stanowić podstawę wszelkich procesów oceny i regulacji, które mogą zostać opracowane przez zainteresowane strony, w tym rządy i system wielostronny.
„Ramy te stanowią kluczowy krok w globalnej dyskusji na temat sztucznej inteligencji, ponieważ stanowią podstawę, na podstawie której możemy budować konsensus w sprawie konsekwencji tej technologii zarówno obecnie, jak i w przyszłości”.
Hema Sridhar, była główna doradczyni ds. nauki w Ministerstwie Obrony Nowej Zelandii, a obecnie starszy pracownik naukowy na Uniwersytecie w Auckland w Nowej Zelandii.
Od października 2023 r. podjęto kilka znaczących inicjatyw krajowych i wielostronnych, w ramach których dokładniej rozważono etykę i bezpieczeństwo sztucznej inteligencji. Coraz większe obawy budzą skutki sztucznej inteligencji dla integralności niektórych naszych kluczowych systemów, w tym finansowych, rządowych, prawnych i edukacyjnych, a także różnych systemów wiedzy (w tym wiedzy naukowej i lokalnej). Ramy dodatkowo odzwierciedlają te aspekty.
Dotychczasowe informacje zwrotne otrzymane od członków ISC i międzynarodowej społeczności tworzącej politykę znajdują odzwierciedlenie w poprawionej wersji ram analitycznych, która jest obecnie publikowana jako przewodnik dla decydentów.
Przewodnik dla decydentów: Ocena szybko rozwijających się technologii, w tym sztucznej inteligencji, dużych modeli językowych i nie tylko
Niniejszy dokument do dyskusji przedstawia zarys wstępnych ram, na których opierają się liczne globalne i krajowe dyskusje dotyczące sztucznej inteligencji.
Pobierz framework do wykorzystania w Twojej organizacji
Tutaj udostępniamy narzędzie frameworka w postaci edytowalnego arkusza Excel do wykorzystania w Twojej organizacji. Jeśli wolisz format open source, skontaktuj się z nami [email chroniony].
Wprowadzenie
Szybko powstające technologie stwarzają wyzwania, jeśli chodzi o ich wykorzystanie, zarządzanie i potencjalne regulacje. Trwające debaty polityczne i publiczne na temat sztucznej inteligencji (AI) i jej wykorzystania zwróciły uwagę na te kwestie. Ogólne zasady dotyczące sztucznej inteligencji zostały ogłoszone przez UNESCO, OECD, ONZ i inne instytucje, w tym brytyjską Deklarację z Bletchley, a także pojawiają się próby jurysdykcyjne regulowania aspektów tej technologii, na przykład za pośrednictwem sztucznej inteligencji Unii Europejskiej (UE) Ustawa lub najnowsze rozporządzenie wykonawcze Stanów Zjednoczonych dotyczące sztucznej inteligencji.
Chociaż wykorzystanie sztucznej inteligencji jest szczegółowo omawiane na tych i innych forach, ponad podziałami geopolitycznymi oraz w krajach na wszystkich poziomach dochodów, pozostaje ontologiczna luka między rozwojem zasad wysokiego szczebla a ich włączeniem do praktyki poprzez regulacje, politykę, zarządzanie lub podejście do zarządzania. Droga od zasady do praktyki jest słabo zdefiniowana, ale biorąc pod uwagę charakter i tempo rozwoju i stosowania sztucznej inteligencji, różnorodność zainteresowań i zakres możliwych zastosowań, żadne podejście nie może być zbyt ogólne ani nakazowe.
Z tych powodów pozarządowe środowisko naukowe nadal odgrywa szczególną rolę. Międzynarodowa Rada Nauki (ISC) – składająca się z pluralistycznego członkostwa przedstawicieli nauk społecznych i przyrodniczych – opublikowała w październiku 2023 r. dokument do dyskusji, w którym przedstawiła wstępne ramy analityczne, które uwzględniają ryzyko, korzyści, zagrożenia i możliwości związane z szybko rozwijającą się technologią cyfrową. Chociaż został opracowany z myślą o sztucznej inteligencji, jest z natury niezależny od technologii i można go zastosować w szeregu pojawiających się i przełomowych technologii, takich jak biologia syntetyczna i kwantowa. W tym dokumencie dyskusyjnym zwrócono się o opinie do naukowców i decydentów. Przytłaczająca liczba opinii sprawiła, że przeprowadzenie takiej analizy stało się konieczne i okazało się cennym podejściem do rozwiązywania problemów pojawiających się technologii, takich jak sztuczna inteligencja.
Celem ram jest zapewnienie narzędzia umożliwiającego informowanie wszystkich zainteresowanych stron – w tym rządów, negocjatorów handlowych, organów regulacyjnych, społeczeństwa obywatelskiego i przemysłu – o ewolucji tych technologii, aby pomóc im określić, w jaki sposób mogą rozważyć pozytywne lub negatywne konsekwencje samą technologię, a dokładniej jej konkretne zastosowanie. Te ramy analityczne zostały opracowane niezależnie od interesów rządu i branży. Jest maksymalnie pluralistyczna w swoich perspektywach, obejmująca wszystkie aspekty technologii i jej implikacje w oparciu o szerokie konsultacje i opinie.
Celem niniejszego dokumentu do dyskusji dla decydentów nie jest zakazanie systemu regulacyjnego, ale raczej zasugerowanie adaptacyjnych i ewoluujących ram analitycznych, które mogłyby stanowić podstawę wszelkich procesów oceny i regulacji, które mogą zostać opracowane przez zainteresowane strony, w tym rządy i system wielostronny.
Ponieważ decydenci na całym świecie i na szczeblu krajowym rozważają odpowiednie ustalenia polityczne i dźwignie w celu zrównoważenia ryzyka i korzyści związanych z nową technologią, taką jak sztuczna inteligencja, ramy analityczne mają w zamierzeniu stanowić narzędzie uzupełniające, zapewniające odpowiednie odzwierciedlenie pełnego zestawu potencjalnych konsekwencji.
Tło: dlaczego ramy analityczne?
Szybkie pojawienie się technologii charakteryzujących się złożonością i konsekwencjami sztucznej inteligencji powoduje wiele twierdzeń o ogromnych korzyściach. Budzi jednak także obawy przed poważnymi zagrożeniami, zarówno na poziomie indywidualnym, jak i geostrategicznym.1 Większość dotychczasowych dyskusji rozpatrywano w sensie binarnym, ponieważ poglądy wyrażane publicznie zazwyczaj mieszczą się na skrajnych krańcach spektrum. Twierdzenia za lub przeciw sztucznej inteligencji są często przesadne i – biorąc pod uwagę charakter technologii – trudne do oceny.
W przypadku zastąpienia hiperboli skalibrowanymi i bardziej szczegółowymi ocenami konieczne jest bardziej pragmatyczne podejście. Technologia sztucznej inteligencji będzie nadal ewoluować, a historia pokazuje, że praktycznie każda technologia ma zarówno korzystne, jak i szkodliwe zastosowania. Pytanie brzmi zatem: w jaki sposób możemy osiągnąć korzystne wyniki tej technologii, jednocześnie zmniejszając ryzyko szkodliwych konsekwencji, z których niektóre mogą mieć wymiar egzystencjalny?
Przyszłość jest zawsze niepewna, istnieje jednak wystarczająca liczba wiarygodnych i eksperckich głosów na temat sztucznej inteligencji i generatywnej sztucznej inteligencji, aby zachęcić do przyjęcia stosunkowo ostrożnego podejścia. Ponadto konieczne jest podejście systemowe, ponieważ sztuczna inteligencja to klasa technologii o szerokim zastosowaniu i zastosowaniu przez wiele typów użytkowników. Oznacza to, że rozważając konsekwencje dowolnego zastosowania sztucznej inteligencji dla jednostek, życia społecznego, życia obywatelskiego, życia społecznego i w kontekście globalnym, należy wziąć pod uwagę pełny kontekst.
W przeciwieństwie do większości innych technologii, w przypadku technologii cyfrowych i pokrewnych, czas pomiędzy opracowaniem, wydaniem i zastosowaniem jest niezwykle krótki, w dużej mierze wynikający z interesów firm produkcyjnych lub agencji. Ze względu na swój charakter – i biorąc pod uwagę, że opiera się na cyfrowym szkielecie – sztuczna inteligencja będzie miała zastosowania, które szybko się rozpowszechnią, co zaobserwowano już w przypadku rozwoju dużych modeli językowych. W rezultacie niektóre właściwości mogą ujawnić się dopiero po uwolnieniu, co oznacza ryzyko nieprzewidzianych konsekwencji, zarówno złych, jak i życzliwych.
Ważne wymiary wartości społecznych, szczególnie w różnych regionach i kulturach, będą miały wpływ na postrzeganie i akceptowanie każdego zastosowania. Co więcej, w dyskusji dominują już interesy geostrategiczne, a interesy suwerenne i wielostronne stale się krzyżują, napędzając w ten sposób konkurencję i podziały.
Do chwili obecnej znaczną część regulacji dotyczących technologii wirtualnej postrzegano głównie przez pryzmat „zasad” i dobrowolnej zgodności, choć zgodnie z unijną ustawą o sztucznej inteligencji2 i podobnie, obserwujemy przejście w stronę bardziej wykonalnych, ale nieco zawężonych przepisów. Ustanowienie skutecznego globalnego lub krajowego systemu zarządzania technologią i/lub systemu regulacyjnego pozostaje wyzwaniem i nie ma oczywistego rozwiązania. Konieczne będzie podejmowanie decyzji na wielu poziomach w oparciu o ryzyko w całym łańcuchu, od wynalazcy do producenta, użytkownika, rządu i systemu wielostronnego.
Chociaż zasady wysokiego szczebla zostały ogłoszone między innymi przez UNESCO, OECD, Komisję Europejską i ONZ, a różne dyskusje na wysokim szczeblu toczą się na temat kwestii potencjalnego zarządzania, regulacji, etyki i bezpieczeństwa, istnieje duża rozbieżność między tymi zasadami zasady oraz ramy zarządzania lub ramy regulacyjne. Należy się tym zająć.
Jako punkt wyjścia ISC rozważa opracowanie taksonomii zagadnień, do której mógłby się odnieść każdy deweloper, organ regulacyjny, doradca ds. polityki, konsument lub decydent. Biorąc pod uwagę szerokie implikacje tych technologii, taka taksonomia musi uwzględniać całość implikacji, a nie wąsko ukierunkowane ramy. Globalna fragmentacja wzrasta ze względu na wpływ interesów geostrategicznych na podejmowanie decyzji, a biorąc pod uwagę pilność tej technologii, istotne jest, aby niezależne i neutralne głosy nieustannie opowiadały się za ujednoliconym i włączającym podejściem.
1) Czasy Hindustanu. 2023. G20 musi powołać międzynarodowy panel ds. zmian technologicznych.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Unijna ustawa o sztucznej inteligencji. 2023. https://artificialintelligenceact.eu
Opracowanie ram analitycznych
ISC jest wiodącą światową organizacją pozarządową integrującą nauki przyrodnicze i społeczne. Jej globalny i dyscyplinarny zasięg oznacza, że jest dobrze przygotowana do generowania niezależnych i odpowiednich na skalę globalną porad, które pomogą w podejmowaniu złożonych wyborów, jakie będą przed nami, zwłaszcza że obecne głosy na tej arenie pochodzą głównie ze strony przemysłu lub społeczności politycznych i politycznych głównych potęg technologicznych.
Po okresie szeroko zakrojonych dyskusji, które obejmowały rozważenie pozarządowego procesu oceny, ISC stwierdziła, że jego najbardziej użytecznym wkładem byłoby stworzenie adaptacyjnych ram analitycznych, które mogłyby zostać wykorzystane jako podstawa dyskursu i procesu decyzyjnego przez wszystkich zainteresowanymi stronami, w tym podczas wszelkich pojawiających się formalnych procesów oceny.
Wstępne ramy analityczne, które udostępniono do dyskusji i informacji zwrotnych w październiku 2023 r., miały formę nadrzędnej listy kontrolnej przeznaczonej do użytku zarówno przez instytucje rządowe, jak i pozarządowe. W ramach zidentyfikowano i zbadano potencjał technologii, takiej jak sztuczna inteligencja i jej pochodne, z szerokiego punktu widzenia, obejmującego dobrostan ludzi i społeczeństwa, a także czynniki zewnętrzne, takie jak ekonomia, polityka, środowisko i bezpieczeństwo. Niektóre aspekty listy kontrolnej mogą być bardziej istotne niż inne, w zależności od kontekstu, ale lepsze decyzje wydają się bardziej prawdopodobne, jeśli weźmie się pod uwagę wszystkie domeny, nawet jeśli niektóre można szybko zidentyfikować jako nieistotne w konkretnych przypadkach. Jest to nieodłączna wartość podejścia opartego na liście kontrolnej.
Wstępne ramy powstały na podstawie wcześniejszych prac i przemyśleń, w tym raportu Międzynarodowej Sieci Rządowego Doradztwa Naukowego (INGSA) na temat cyfrowego dobrostanu3 oraz Ram OECD dotyczących klasyfikacji systemów sztucznej inteligencji4, aby przedstawić całość potencjalnych możliwości, zagrożeń i skutków sztucznej inteligencji. Te poprzednie produkty miały bardziej ograniczone przeznaczenie, biorąc pod uwagę czas i kontekst; potrzebne są nadrzędne ramy przedstawiające pełen zakres zagadnień zarówno w perspektywie krótko-, jak i długoterminowej.
Od czasu publikacji dokument do dyskusji uzyskał znaczące wsparcie ze strony wielu ekspertów i decydentów. Wiele osób szczególnie poparło zalecenie opracowania ram adaptacyjnych, które pozwolą na świadome i proaktywne rozważenie zagrożeń i konsekwencji związanych z technologią, a czyniąc to, zawsze uwzględniają całość wymiarów, od jednostki po społeczeństwo i systemy.
Jedną z kluczowych obserwacji poczynionych w ramach informacji zwrotnych było potwierdzenie, że kilka implikacji uwzględnionych w ramach jest z natury wieloaspektowych i rozciąga się na wiele kategorii. Na przykład dezinformację można rozpatrywać zarówno z perspektywy indywidualnej, jak i geostrategicznej; zatem konsekwencje byłyby dalekosiężne.
Zasugerowano również opcję włączenia studiów przypadków lub przykładów w celu przetestowania ram. Można to wykorzystać do opracowania wytycznych pokazujących, jak można je zastosować w praktyce w różnych kontekstach. Byłoby to jednak znaczące przedsięwzięcie i mogłoby ograniczyć sposób, w jaki różne grupy postrzegają stosowanie tych ram. Najlepiej jest to robić przez decydentów współpracujących z ekspertami w określonych jurysdykcjach lub kontekstach.
Od października 2023 r. podjęto kilka znaczących inicjatyw krajowych i wielostronnych, w ramach których dokładniej rozważono etykę i bezpieczeństwo sztucznej inteligencji. Coraz większe obawy budzą skutki sztucznej inteligencji dla integralności niektórych naszych kluczowych systemów, w tym finansowych, rządowych, prawnych i edukacyjnych, a także różnych systemów wiedzy (w tym wiedzy naukowej i lokalnej). Zmienione ramy dodatkowo odzwierciedlają te aspekty.
Otrzymane dotychczas informacje zwrotne znajdują odzwierciedlenie w poprawionej wersji ram analitycznych, która jest obecnie udostępniana jako przewodnik dla decydentów.
Chociaż ramy przedstawiono w kontekście sztucznej inteligencji i technologii pokrewnych, można je natychmiast przenieść do rozważań na temat innych szybko pojawiających się technologii, takich jak biologia kwantowa i biologia syntetyczna.
3) Gluckman, P. i Allen, K. 2018. Zrozumienie dobrostanu w kontekście szybkich transformacji cyfrowych i z nimi związanych. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OECD. 2022. Ramy OECD dotyczące klasyfikacji systemów sztucznej inteligencji. Dokumenty OECD dotyczące gospodarki cyfrowej, nr 323,#. Paryż, Wydawnictwo OECD.
https://oecd.ai/en/classificatio
Ramy
Poniższa tabela przedstawia wymiary domniemanych ram analitycznych. Podano przykłady ilustrujące, dlaczego każda domena może mieć znaczenie; w kontekście ramy wymagałyby kontekstowo odpowiedniego rozszerzenia. Ważne jest również rozróżnienie pomiędzy problemami ogólnymi, które pojawiają się podczas opracowywania platform, a problemami, które mogą pojawić się w trakcie konkretnych zastosowań. Żadnej pojedynczej kwestii zawartej w tym miejscu nie należy traktować priorytetowo i jako takie należy zbadać wszystkie.
Zagadnienia są ogólnie pogrupowane w następujące kategorie, jak opisano poniżej:
W tabeli wyszczególniono wymiary, które mogą wymagać uwzględnienia przy ocenie nowej technologii.
🔴INGSA. 2018. Zrozumienie wellbeingu w kontekście szybkich transformacji cyfrowych i z nimi związanych.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
🟢 Nowe deskryptory (pozyskane w wyniku szeroko zakrojonych konsultacji, opinii i przeglądu literatury)
🟡 Ramy OECD dotyczące klasyfikacji systemów AI: narzędzie skutecznej polityki AI.
https://oecd.ai/en/classification
kryteria | Przykłady tego, jak można to odzwierciedlić w analizie |
🟡Kompetencje AI użytkowników | Na ile kompetentni i świadomi właściwości systemu są prawdopodobni użytkownicy, którzy będą wchodzić w interakcję z systemem? W jaki sposób otrzymają oni odpowiednie informacje i przestrogi dla użytkowników? |
🟡 Interesariusz, którego to dotyczy | Kim są główni interesariusze, na których system będzie miał wpływ (pojedyncze osoby, społeczności, osoby znajdujące się w trudnej sytuacji, pracownicy sektorowi, dzieci, decydenci, specjaliści itp.)? |
🟡 Opcjonalność | Czy użytkownikom zapewnia się możliwość rezygnacji z systemu lub możliwość zakwestionowania lub skorygowania wyników? |
🟡Zagrożenia dla praw człowieka i wartości demokratycznych | Czy system ma zasadniczy wpływ na prawa człowieka, w tym między innymi na prywatność, wolność słowa, sprawiedliwość, niedyskryminację itp.? |
🟡Potencjalny wpływ na dobrostan ludzi | Czy obszary wpływu systemu odnoszą się do dobrego samopoczucia indywidualnego użytkownika (jakość pracy, edukacja, interakcje społeczne, zdrowie psychiczne, tożsamość, środowisko itp.)? |
🟡 Potencjał przesiedleń siły roboczej | Czy system ma potencjał do automatyzacji zadań lub funkcji wykonywanych przez człowieka? Jeśli tak, jakie są dalsze konsekwencje? |
🟡 Potencjał manipulacji tożsamością, wartościami czy wiedzą | Czy system został zaprojektowany lub może potencjalnie manipulować tożsamością użytkownika? ustalone wartości czy szerzenie dezinformacji? |
🔴Możliwości wyrażania siebie i samorealizacji | Czy istnieje potencjał do sztuczności i zwątpienia? Czy istnieje możliwość fałszywego lub nieweryfikowalne roszczenia dotyczące wiedzy specjalistycznej? |
🔴 Miary poczucia własnej wartości | Czy istnieje presja, aby przedstawiać wyidealizowane „ja”? Czy automatyzacja może zastąpić zmysł? osobistego spełnienia? Czy istnieje presja, aby konkurować z systemem w Miejsce pracy? Czy indywidualną reputację trudniej chronić przed dezinformacją? |
🔴 Prywatność | Czy obowiązki w zakresie ochrony prywatności są rozproszone i czy w ogóle takie istnieją przyjmuje się założenia dotyczące sposobu wykorzystania danych osobowych? |
🔴 Autonomia | Czy system sztucznej inteligencji może wpływać na autonomię człowieka, generując nadmierną zależność użytkownicy końcowi? |
🔴Rozwój człowieka | Czy ma to wpływ na nabywanie kluczowych dla rozwoju człowieka umiejętności, jak np wpływające na funkcje wykonawcze lub umiejętności interpersonalne lub zmiany w czasie uwagi uczenia się, rozwoju osobowości, problemów ze zdrowiem psychicznym itp.? |
🔴Osobista opieka zdrowotna | Czy istnieją roszczenia dotyczące samodiagnozy lub spersonalizowanych rozwiązań w zakresie opieki zdrowotnej? W takim razie, czy są one zatwierdzone pod kątem zgodności z normami regulacyjnymi? |
🔴Zdrowie psychiczne | Czy istnieje ryzyko zwiększonego lęku, samotności lub innych problemów ze zdrowiem psychicznym? czy technologia może złagodzić takie skutki? |
🟢 Ewolucja człowieka | Czy duże modele językowe i sztuczna inteligencja ogólna mogą zmienić przebieg ewolucji człowieka? |
🟢 Interakcja człowiek-maszyna | Czy zażywanie może z czasem prowadzić do utraty kwalifikacji i uzależnienia poszczególnych osób? Czy ma wpływ na interakcje międzyludzkie? |
kryteria | Przykłady tego, jak można to odzwierciedlić w analizie |
🔴 Wartości społeczne | Czy system zasadniczo zmienia naturę społeczeństwa, umożliwia normalizację idei uznawanych wcześniej za antyspołeczne lub narusza społeczne wartości kultury, w której jest stosowany? |
🔴 Interakcje społeczne | Czy ma to wpływ na znaczący kontakt międzyludzki, w tym na relacje emocjonalne? |
🔴Zdrowie populacji | Czy system ma potencjał, aby przyspieszyć lub podważyć zamierzenia populacji w zakresie zdrowia? |
🔴 Ekspresja kulturowa | Czy wzrost przywłaszczenia kultury lub dyskryminacji jest prawdopodobny lub trudniejszy do rozwiązania? Czy poleganie na systemie podejmowania decyzji wyklucza lub marginalizuje istotne kulturowo, przekrojowe powiązania społeczne? |
🔴Edukacja publiczna | Czy ma to wpływ na role nauczycieli lub instytucje edukacyjne? Czy system uwypukla lub zmniejsza przepaść cyfrową i nierówności wśród uczniów? Czy wewnętrzna wartość wiedzy lub krytycznego zrozumienia jest rozwinięta czy podważona? |
🟢 Zniekształcona rzeczywistość | Czy metody stosowane w celu rozpoznania, co jest prawdą, są nadal aktualne? Czy postrzeganie rzeczywistości jest zagrożone? |
kryteria | Przykłady tego, jak można to odzwierciedlić w analizie |
🟡Sektor przemysłowy | W jakim sektorze przemysłu zastosowano system (finanse, rolnictwo, opieka zdrowotna, edukacja, obrona itp.)? |
🟡 Model biznesowy | W jakiej funkcji biznesowej wykorzystywany jest system i w jakim charakterze? Gdzie stosowany jest system (prywatny, publiczny, non-profit)? |
🟡 Wpływ na krytyczne działania | Czy zakłócenie funkcji lub działania systemu miałoby wpływ na podstawowe usługi lub infrastrukturę krytyczną? |
🟡Szeroki zakres wdrożeń | W jaki sposób system jest wdrażany (wąskie zastosowanie w obrębie jednostki vs. powszechne w kraju/międzynarodowym)? |
🟡 Dojrzałość techniczna | Jak zaawansowany technicznie jest system? |
🟢 Interoperacyjność | Czy prawdopodobne jest istnienie silosów, na poziomie krajowym lub globalnym, które utrudniają wolny handel i wpływają na współpracę z partnerami? |
🟢 Suwerenność technologiczna | Czy dążenie do suwerenności technologicznej napędza zachowania, w tym kontrolę nad całym łańcuchem dostaw AI? |
🔴Redystrybucja dochodów i krajowe dźwignie fiskalne | Czy można zagrozić podstawowym rolom suwerennego państwa (np. banków rezerwowych)? Czy zdolność państwa do sprostania oczekiwaniom obywateli i implikacjom (społecznym, gospodarczym, politycznym itp.) ulegnie poprawie, czy zmniejszeniu? |
🟢 Przepaść cyfrowa (przepaść AI) | Czy istniejące nierówności cyfrowe pogłębiają się lub powstają nowe? |
kryteria | Przykłady tego, jak można to odzwierciedlić w analizie |
🔴 Zarządzanie i służba publiczna | Czy mechanizmy zarządzania i globalny system zarządzania mogą mieć pozytywny lub negatywny wpływ? |
🔴 Wiadomości w mediach | Czy dyskurs publiczny może ulec polaryzacji i utrwaleniu się na poziomie populacji? Czy będzie to miało wpływ na poziom zaufania do czwartej władzy? Czy będzie to miało dalszy wpływ na konwencjonalne standardy etyki i uczciwości dziennikarzy? |
🔴 Praworządność | Czy będzie to miało wpływ na możliwość zidentyfikowania osób lub organizacji, które należy pociągnąć do odpowiedzialności (np. jaki rodzaj odpowiedzialności przypisać algorytmowi za niekorzystne skutki)? Czy następuje utrata suwerenności (w zakresie ochrony środowiska, polityki fiskalnej, społecznej, etyki itp.)? |
🔴Polityka i spójność społeczna | Czy istnieje możliwość bardziej ugruntowanych poglądów politycznych i mniejszych możliwości budowania konsensusu? Czy istnieje możliwość dalszej marginalizacji grup? Czy kontradyktoryjny styl polityki jest bardziej czy mniej prawdopodobny? |
🟢Licencja społeczna | Czy istnieją obawy związane z prywatnością, zaufaniem i moralnością, które należy wziąć pod uwagę, aby zainteresowane strony wyraziły zgodę na wykorzystanie? |
🟢 Wiedza rodzima | Czy rodzima wiedza i dane mogą zostać uszkodzone lub sprzeniewieżone? Czy istnieją odpowiednie środki ochrony przed wprowadzaniem w błąd, dezinformacją i wykorzystywaniem? |
🟢 System naukowy | Czy uczciwość akademicka i badawcza jest zagrożona? Czy doszło do utraty zaufania do nauki? Czy istnieją możliwości niewłaściwego użycia, nadmiernego użycia lub nadużycia? Jakie są konsekwencje uprawiania nauki? |
kryteria | Przykłady tego, jak można to odzwierciedlić w analizie |
🟢 Precyzyjny nadzór | Czy systemy są szkolone w oparciu o indywidualne dane behawioralne i biologiczne i czy można je wykorzystać do wykorzystywania jednostek lub grup? |
🟢 Cyfrowy konkurs | Czy podmioty państwowe lub niepaństwowe (np. duże firmy technologiczne) mogłyby wykorzystać systemy i dane w celu zrozumienia i kontrolowania populacji i ekosystemów innych krajów lub podważyć kontrolę jurysdykcyjną? |
🟢 Konkurencja geopolityczna | Czy system mógłby wywołać konkurencję między narodami w zakresie wykorzystania danych indywidualnych i grupowych do celów gospodarczych, medycznych i bezpieczeństwa? |
🟢 Zmiana światowych mocarstw | Czy status państw narodowych jako głównych aktorów geopolitycznych na świecie jest zagrożony? Czy firmy technologiczne dzierżą władzę niegdyś zarezerwowaną dla państw narodowych i czy stały się niezależnymi, suwerennymi aktorami (wyłaniający się technopolarny porządek świata)? |
🟢 Dezinformacja | Czy system ułatwiłby tworzenie i rozpowszechnianie dezinformacji przez podmioty państwowe i niepaństwowe, co miałoby wpływ na spójność społeczną, zaufanie i demokrację? |
🟢 Aplikacje podwójnego zastosowania | Czy istnieje możliwość zastosowania zarówno wojskowego, jak i cywilnego? |
🟢 Fragmentacja porządku globalnego | Czy mogą powstać silosy lub skupiska przepisów i zgodności, które utrudniają współpracę, prowadzą do niespójności w stosowaniu i tworzą pole do konfliktów? |
kryteria | Przykłady tego, jak można to odzwierciedlić w analizie |
🟢 Zużycie energii i zasobów (ślad węglowy) | Czy system i wymagania zwiększają zużycie energii i zasobów w porównaniu z przyrostem wydajności uzyskanym dzięki aplikacji? |
🟢Źródło energii | Skąd pochodzi energia dla systemu (odnawialne czy kopalne itp.)? |
kryteria | Przykłady tego, jak można to odzwierciedlić w analizie |
🟡 Kierunek i kolekcja | Czy dane i dane wejściowe gromadzone są przez ludzi, czujniki automatyczne, czy jedno i drugie? |
🟡 Pochodzenie danych | Czy dane i wkład ekspertów są dostarczane, obserwowane, syntetyczne czy pochodne? Czy istnieją zabezpieczenia znaku wodnego potwierdzające pochodzenie? |
🟡 Dynamiczny charakter danych | Czy dane są dynamiczne, statyczne, dynamiczne i aktualizowane od czasu do czasu, czy w czasie rzeczywistym? |
🟡 Prawa | Czy dane są zastrzeżone, publiczne czy osobiste (dotyczą możliwych do zidentyfikowania osób fizycznych)? |
🟡 Identyfikowalność i dane osobowe | Jeżeli są to dane osobowe, czy są one anonimizowane czy pseudonimizowane? |
🟡Struktura danych | Czy dane są ustrukturyzowane, półustrukturyzowane, złożone czy nieustrukturyzowane? |
🟡Format danych | Czy format danych i metadanych jest ustandaryzowany czy niestandaryzowany? |
🟡Skala danych | Jaka jest skala zbioru danych? |
🟡 Adekwatność i jakość danych | Czy zbiór danych jest odpowiedni do celu? Czy wielkość próbki jest odpowiednia? Czy jest on wystarczająco reprezentatywny i kompletny? Jak zaszumione są dane? Czy jest podatny na błędy? |
kryteria | Przykłady tego, jak można to odzwierciedlić w analizie |
🟡 Dostępność informacji | Czy są dostępne informacje na temat modelu systemu? |
🟡 Typ modelu AI | Czy model jest symboliczny (reguły stworzone przez człowieka), statystyczny (wykorzystuje dane) czy hybrydowy? |
🟡 Prawa związane z modelem | Czy model jest typu open source, czy jest zastrzeżony, zarządzany samodzielnie czy przez stronę trzecią? |
🟡 Pojedynczy z wielu modeli | Czy system składa się z jednego modelu, czy z kilku powiązanych ze sobą modeli? |
🟡 Generatywny lub dyskryminujący | Czy model jest generatywny, dyskryminacyjny, czy może oba? |
🟡 Budowa modelu | Czy system uczy się w oparciu o zasady pisane przez człowieka, na podstawie danych, w drodze uczenia się pod nadzorem czy poprzez uczenie się przez wzmacnianie? |
🟡 Ewolucja modelu (dryf AI) | Czy model ewoluuje i/lub nabywa umiejętności w wyniku interakcji z danymi w terenie? |
🟡 Uczenie się federacyjne lub centralne | Czy model jest szkolony centralnie, czy na kilku lokalnych serwerach lub urządzeniach brzegowych? |
🟡 Rozwój/utrzymanie | Czy model jest uniwersalny, konfigurowalny lub dostosowany do danych aktora AI? |
🟡 Deterministyczny lub probabilistyczny | Czy model jest używany w sposób deterministyczny czy probabilistyczny? |
🟡 Przezroczystość modelu | Czy użytkownicy mają dostęp do informacji pozwalających im zrozumieć wyniki i ograniczenia modelu lub zastosować ograniczenia? |
🟢 Ograniczenia obliczeniowe | Czy istnieją ograniczenia obliczeniowe systemu? Czy można przewidzieć skoki zdolności lub prawa skalowania? |
kryteria | Przykłady tego, jak można to odzwierciedlić w analizie |
🟡 Zadania wykonywane przez system | Jakie zadania realizuje system (rozpoznawanie, wykrywanie zdarzeń, prognozowanie itp.)? |
🟡 Łączenie zadań i działań | Czy system łączy w sobie kilka zadań i działań (systemy generowania treści, systemy autonomiczne, systemy sterowania itp.)? |
🟡 Poziom autonomii systemu | Na ile autonomiczne jest działanie systemu i jaką rolę odgrywa człowiek? |
🟡 Stopień zaangażowania człowieka | Czy wymagany jest udział człowieka w nadzorowaniu ogólnej działalności systemu AI oraz możliwości decydowania, kiedy i jak korzystać z systemu AI w dowolnej sytuacji? |
🟡 Aplikacja podstawowa | Czy system należy do podstawowego obszaru zastosowań, takiego jak technologie języka ludzkiego, wizja komputerowa, automatyzacja i/lub optymalizacja lub robotyka? |
🟡 Ocena | Czy dostępne są standardy lub metody oceny wyników systemu? |
Jak można wykorzystać te ramy?
Ramy te można wykorzystać na wiele sposobów, w tym:
Droga naprzód
Podsumowując, ramy analityczne stanowią podstawę zestawu narzędzi, z którego zainteresowane strony mogą kompleksowo przyjrzeć się wszelkim znaczącym zmianom w zakresie platform lub ich wykorzystania w spójny i systematyczny sposób. Wymiary przedstawione w tym kontekście mają znaczenie od oceny technologii po politykę publiczną, od rozwoju człowieka po socjologię oraz studia nad przyszłością i technologią. Chociaż te ramy analityczne zostały opracowane dla sztucznej inteligencji, mają znacznie szersze zastosowanie w przypadku każdej innej powstającej technologii.
6 Rada Doradcza ONZ ds. AI. 2023. Raport okresowy: Zarządzanie sztuczną inteligencją dla ludzkości. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd
Podziękowania
Przeprowadzono konsultacje z wieloma osobami i przekazały one uwagi podczas opracowywania wstępnego dokumentu do dyskusji oraz informacji zwrotnych po jego opublikowaniu. Obydwa artykuły zostały opracowane przez Sir Petera Gluckmana, Prezydenta ISC i Hemę Sridhar, byłego głównego doradcy ds. nauki w Ministerstwie Obrony Nowej Zelandii, a obecnie starszego pracownika badawczego na Uniwersytecie w Auckland w Nowej Zelandii.
W szczególności Lordowi Martinowi Reesowi ISC, byłemu prezesowi Towarzystwa Królewskiego i współzałożycielowi Centrum Studiów nad Ryzykiem Egzystencjalnym na Uniwersytecie w Cambridge; Profesor Shivaji Sondhi, profesor fizyki, Uniwersytet Oksfordzki; Profesor K. Vijay Raghavan, były główny doradca naukowy rządu Indii; Amandeep Singh Gill, wysłannik Sekretarza Generalnego ONZ ds. Technologii; Seán Ó hÉigeartaigh, dyrektor wykonawczy, Centrum Badań nad Ryzykiem Egzystencjalnym, Uniwersytet w Cambridge; Sir David Spiegelhalter, profesor Winton na Uniwersytecie w dziedzinie publicznego zrozumienia ryzyka
z Cambridge; Amanda-June Brawner, starszy doradca ds. polityki i Ian Wiggins, dyrektor ds. międzynarodowych, Royal Society, Wielka Brytania; dr Jerome Duberry, dyrektor zarządzający i dr Marie-Laure Salles, dyrektor Geneva Graduate Institute; Chor Pharn Lee, Centrum Strategicznej Przyszłości, Biuro Premiera, Singapur; Barend Mons i dr Simon Hodson, Komisja ds. Danych (CoDATA); profesor Yuko Harayama, była dyrektor wykonawcza RIKEN; Profesor
Rémi Quirion, Prezes INGSA; dr Claire Craig, Uniwersytet Oksfordzki i była dyrektor ds. prognozowania w Rządowym Biurze Naukowym; prof. Yoshua Bengio, Naukowa Rada Doradcza Sekretarza Generalnego ONZ i Université de Montréal; oraz wielu innych, którzy przekazali ISC uwagi na temat wstępnego dokumentu do dyskusji.
Przygotowanie krajowych ekosystemów badawczych dla AI: strategie i postęp w roku 2024
Niniejszy dokument roboczy przygotowany przez zespół doradców ISC, Center for Science Futures, zapewnia podstawowe informacje i dostęp do zasobów z krajów ze wszystkich części świata, na różnych etapach integracji sztucznej inteligencji z ich ekosystemami badawczymi.