Wielu naukowców i ekspertów ds. polityki zaproponowało, aby Międzynarodowa Rada Nauki – składająca się z pluralistycznego członkostwa reprezentującego nauki społeczne i przyrodnicze – ustanowiła proces tworzenia i utrzymywania ramowych/list kontrolnych z adnotacjami dotyczących ryzyka, korzyści, zagrożeń i możliwości związane z szybko rozwijającymi się technologiami cyfrowymi, w tym między innymi sztuczną inteligencją. Celem listy kontrolnej byłoby poinformowanie wszystkich zainteresowanych stron – w tym rządów, negocjatorów handlowych, organów regulacyjnych, społeczeństwa obywatelskiego i przemysłu – o potencjalnych przyszłych scenariuszach oraz określenie, w jaki sposób mogą rozważyć możliwości, korzyści, ryzyko i inne kwestie.
ISC ma przyjemność przedstawić niniejszy dokument do dyskusji na temat oceny szybko rozwijającej się technologii cyfrowej i pokrewnych. Sztuczna inteligencja, biologia syntetyczna i technologie kwantowe to główne przykłady innowacji opartych na nauce, pojawiających się w niespotykanym dotąd tempie. Systematyczne przewidywanie nie tylko ich zastosowań, ale także implikacji może stanowić wyzwanie.
Ocena społecznych aspektów generatywnej sztucznej inteligencji, takich jak duże modele językowe, które, jak można się spodziewać, stanowią większość tego dokumentu do dyskusji, jest potrzebnym pomostem w ramach obecnego dyskursu – czasami wywołanego paniką, innym razem niewystarczająco dogłębnego myślenia – oraz niezbędnych kursów działania, jakie możemy podjąć. ISC jest przekonana, że potrzebne są ramy analityczne pomiędzy społeczną akceptacją takich nowych technologii a ich ewentualną regulacją, aby ułatwić dyskusje z udziałem wielu zainteresowanych stron, które są potrzebne do podejmowania świadomych i odpowiedzialnych decyzji dotyczących optymalizacji korzyści społecznych płynących z tej szybko powstającej technologii.
ISC jest otwarta na reakcje naszej społeczności zawarte w tym dokumencie do dyskusji, aby ocenić, w jaki sposób najlepiej nadal być częścią debaty na temat technologii i wnosić do niej wkład.
Salvatore Aricò, dyrektor generalny
Dokument do dyskusji ISC
Ramy oceny szybko rozwijających się technologii cyfrowych i pokrewnych: sztuczna inteligencja, duże modele językowe i nie tylko
Niniejszy dokument do dyskusji przedstawia zarys wstępnych ram, na których opierają się liczne globalne i krajowe dyskusje dotyczące sztucznej inteligencji.
Pobierz raportNowość! Przeczytaj wersję 2024 dla decydentów z platformą do pobrania dla Twojej organizacji.
Przewodnik dla decydentów: Ocena szybko rozwijających się technologii, w tym sztucznej inteligencji, dużych modeli językowych i nie tylko
Niniejszy dokument do dyskusji przedstawia zarys wstępnych ram, na których opierają się liczne globalne i krajowe dyskusje dotyczące sztucznej inteligencji.
Spis treści
Wprowadzenie
Szybko powstające technologie stwarzają wyzwania, jeśli chodzi o zarządzanie nimi i potencjalne regulacje. Debaty polityczne i publiczne na temat sztucznej inteligencji (AI) i jej wykorzystania zwróciły uwagę na te kwestie. Chociaż UNESCO, OECD i inne organizacje ogłosiły ogólne zasady dotyczące sztucznej inteligencji i toczą się dyskusje na temat globalnych lub jurysdykcyjnych regulacji tej technologii, istnieje ontologiczna luka pomiędzy rozwojem zasad wysokiego szczebla a ich włączeniem do przepisów, polityki, podejścia do zarządzania i zarządzania. Tutaj szczególną rolę mogłaby odegrać pozarządowa społeczność naukowa.
Wielu naukowców i ekspertów ds. polityki zaproponowało, aby Międzynarodowa Rada Nauki (ISC) – składająca się z pluralistycznego składu przedstawicieli nauk społecznych i przyrodniczych – ustanowiła proces tworzenia i utrzymywania ramowej/listy kontrolnej z adnotacjami dotyczącej zagrożeń, korzyści, zagrożenia i możliwości związane z szybko rozwijającymi się technologiami cyfrowymi, w tym między innymi sztuczną inteligencją. Celem listy kontrolnej byłoby poinformowanie wszystkich zainteresowanych stron – w tym rządów, negocjatorów handlowych, organów regulacyjnych, społeczeństwa obywatelskiego i przemysłu – o potencjalnych przyszłych scenariuszach oraz określenie, w jaki sposób mogą rozważyć możliwości, korzyści, ryzyko i inne kwestie.
Wyniki nie pełniłyby roli organu oceniającego, ale adaptacyjnych i ewoluujących ram analitycznych, które mogłyby stanowić podstawę wszelkich procesów oceny i regulacji, które mogą zostać opracowane przez zainteresowane strony, w tym rządy i system wielostronny. W idealnym przypadku wszelkie ramy analityczne powinny być opracowywane niezależnie od twierdzeń rządu i branży, biorąc pod uwagę ich zrozumiałe interesy. Musi być także maksymalnie pluralistyczna w swoich perspektywach, obejmując w ten sposób wszystkie aspekty technologii i jej implikacje.
Niniejszy dokument do dyskusji przedstawia zarys wstępnych ram, na których opierają się liczne globalne i krajowe dyskusje dotyczące sztucznej inteligencji.
Tło: Dlaczego ramy analityczne?
Szybkie pojawienie się technologii charakteryzującej się złożonością i konsekwencjami sztucznej inteligencji powoduje wiele twierdzeń o ogromnych korzyściach. Budzi jednak także obawy przed poważnymi zagrożeniami, zarówno na poziomie indywidualnym, jak i geostrategicznym. Duża część dyskusji toczy się zwykle na skrajnych krańcach spektrum poglądów i potrzebne jest bardziej pragmatyczne podejście. Technologia sztucznej inteligencji będzie nadal ewoluować, a historia pokazuje, że praktycznie każda technologia ma zarówno korzystne, jak i szkodliwe zastosowania. Pytanie brzmi zatem: w jaki sposób możemy osiągnąć korzystne wyniki dzięki tej technologii, jednocześnie zmniejszając ryzyko szkodliwych konsekwencji, z których niektóre mogą mieć wymiar egzystencjalny?
Przyszłość jest zawsze niepewna, istnieje jednak wystarczająca liczba wiarygodnych i eksperckich głosów na temat sztucznej inteligencji i generatywnej sztucznej inteligencji, aby zachęcić do przyjęcia stosunkowo ostrożnego podejścia. Ponadto potrzebne jest podejście systemowe, ponieważ sztuczna inteligencja to klasa technologii o szerokim zastosowaniu i zastosowaniu przez wiele typów użytkowników. Oznacza to, że rozważając implikacje sztucznej inteligencji dla jednostek, życia społecznego, życia obywatelskiego, życia społecznego oraz w kontekście globalnym, należy wziąć pod uwagę pełny kontekst.
W przeciwieństwie do większości wcześniejszych technologii, technologie cyfrowe i pokrewne mają bardzo krótki okres czasu od opracowania do wydania, w dużej mierze podyktowany interesami firm produkcyjnych lub agencji. Sztuczna inteligencja jest szybko wszechobecna; niektóre właściwości mogą ujawnić się dopiero po wypuszczeniu na rynek, a technologia może mieć zarówno złowrogie, jak i dobroczynne zastosowania. Wymiary ważnych wartości będą miały wpływ na postrzeganie każdego zastosowania. Co więcej, w grę mogą wchodzić interesy geostrategiczne.
Do tej pory regulacje dotyczące technologii wirtualnej były w dużej mierze postrzegane przez pryzmat „zasad” i dobrowolnego przestrzegania. Ostatnio jednak dyskusja zeszła na kwestie zarządzania krajowego i wielostronnego, w tym wykorzystania narzędzi regulacyjnych i innych narzędzi polityki. Twierdzenia za lub przeciw sztucznej inteligencji są często przesadne i – biorąc pod uwagę charakter technologii – trudne do oceny. Ustanowienie skutecznego globalnego lub krajowego systemu regulacji technologii będzie wyzwaniem i potrzebnych będzie wielopoziomowe podejmowanie decyzji w oparciu o ryzyko w całym łańcuchu, od wynalazcy do producenta, użytkownika, rządu i systemu wielostronnego.
Chociaż zasady wysokiego szczebla zostały ogłoszone między innymi przez UNESCO, OECD i Komisję Europejską i toczą się różne dyskusje na wysokim szczeblu dotyczące kwestii potencjalnych regulacji, istnieje duża rozbieżność ontologiczna pomiędzy takimi zasadami a ramami zarządzania lub ramami regulacyjnymi. Jaką taksonomię rozważań powinien rozważyć organ regulacyjny? Wąsko ukierunkowane ramy byłyby nierozsądne, biorąc pod uwagę szerokie implikacje tych technologii. Potencjał ten był przedmiotem wielu komentarzy, zarówno pozytywnych, jak i negatywnych.
Opracowanie ram analitycznych
ISC jest wiodącą światową organizacją pozarządową integrującą nauki przyrodnicze i społeczne. Jej globalny i dyscyplinarny zasięg oznacza, że jest dobrze przygotowana do generowania niezależnych i odpowiednich na skalę globalną porad, które pomogą w podejmowaniu złożonych wyborów, jakie stoją przed nami, zwłaszcza że obecne głosy na tej arenie pochodzą głównie ze strony przemysłu lub głównych potęg technologicznych. W następstwie szeroko zakrojonych dyskusji prowadzonych w ostatnich miesiącach, w tym rozważenia pozarządowego procesu oceny, ISC stwierdziła, że jego najbardziej użytecznym wkładem byłoby stworzenie i utrzymanie adaptacyjnych ram analitycznych, które można wykorzystać jako podstawę dyskursu i procesu decyzyjnego przez wszystkich interesariuszy, w tym podczas wszelkich pojawiających się formalnych procesów oceny.
Ramy te miałyby formę nadrzędnej listy kontrolnej, z której mogłyby korzystać zarówno instytucje rządowe, jak i pozarządowe. Ramy identyfikują i badają potencjał technologii, takiej jak sztuczna inteligencja i jej pochodne, z szerokiej perspektywy, która obejmuje dobrostan ludzi i społeczeństwa, a także czynniki zewnętrzne, takie jak ekonomia, polityka, środowisko i bezpieczeństwo. Niektóre aspekty listy kontrolnej mogą być bardziej istotne niż inne, w zależności od kontekstu, ale lepsze decyzje są bardziej prawdopodobne, jeśli uwzględni się wszystkie domeny. Jest to nieodłączna wartość podejścia opartego na liście kontrolnej.
Proponowane ramy wywodzą się z wcześniejszych prac i przemyśleń, w tym z raportu Międzynarodowej Sieci Rządowych Doradztw Naukowych (INGSA) dotyczącego dobrostanu cyfrowego1 oraz Ramy klasyfikacji AI OECD2 przedstawienie całości potencjalnych możliwości, zagrożeń i skutków sztucznej inteligencji. Ze względu na czas i kontekst, w jakim te poprzednie produkty miały bardziej ograniczone przeznaczenie, potrzebne są nadrzędne ramy przedstawiające pełen zakres zagadnień zarówno w perspektywie krótko-, jak i długoterminowej.
Chociaż te ramy analityczne zostały opracowane z myślą o sztucznej inteligencji, można je zastosować do dowolnej szybko powstającej technologii. Zagadnienia są ogólnie pogrupowane w następujące kategorie w celu dalszego zbadania:
Zawarto listę rozważań dotyczących każdej z powyższych kategorii wraz z ich możliwościami i konsekwencjami. Niektóre z nich są istotne dla konkretnych przypadków lub zastosowań sztucznej inteligencji, inne zaś mają charakter ogólny i niezależny od platformy lub zastosowania. Żadnej pojedynczej kwestii zawartej w tym miejscu nie należy traktować priorytetowo i jako takie należy zbadać wszystkie.
Jak można wykorzystać te ramy?
Ramy te można wykorzystać między innymi w następujący sposób:
Poniższa tabela przedstawia wczesne kształtowanie wymiarów ram analitycznych. W zależności od technologii i jej zastosowania niektóre komponenty będą bardziej istotne niż inne. Podane przykłady ilustrują, dlaczego każda domena może mieć znaczenie; w kontekście ramy wymagałyby kontekstowo odpowiedniego rozszerzenia. Ważne jest również rozróżnienie pomiędzy rozwojem platformy a problemami ogólnymi, które mogą pojawić się w trakcie konkretnych zastosowań.
Wymiary, które należy wziąć pod uwagę przy ocenie nowej technologii
Wstępny projekt wymiarów, które mogą wymagać uwzględnienia przy ocenie nowej technologii | ||
Wymiary oddziaływania | kryteria | Przykłady tego, jak można to odzwierciedlić w analizie |
Indywidualny/samodzielny | Kompetencje AI użytkowników | Na ile kompetentni i świadomi właściwości systemu są prawdopodobni użytkownicy, którzy będą wchodzić w interakcję z systemem? W jaki sposób otrzymają oni odpowiednie informacje i przestrogi dla użytkowników? |
Zaangażowani interesariusze | Kim są główni interesariusze, na których system będzie miał wpływ (tj. jednostki, społeczności, osoby bezbronne, pracownicy sektorowi, dzieci, decydenci, specjaliści)? | |
Opcjonalność | Czy użytkownicy mają możliwość rezygnacji z systemu; czy powinni mieć możliwość zakwestionowania lub skorygowania wyników? | |
Zagrożenia dla praw człowieka i wartości demokratycznych | Czy system mógłby wpłynąć (i w jakim kierunku) na prawa człowieka, w tym między innymi na prywatność, wolność słowa, sprawiedliwość, ryzyko dyskryminacji itp.? | |
Potencjalny wpływ na dobrostan ludzi | Czy system może mieć wpływ (i w jakim kierunku) na dobrostan indywidualnego użytkownika (tj. jakość pracy, edukację, interakcje społeczne, zdrowie psychiczne, tożsamość, środowisko)? | |
Potencjał przenoszenia siły roboczej | Czy system ma potencjał do automatyzacji zadań lub funkcji wykonywanych przez człowieka? Jeśli tak, jakie są dalsze konsekwencje? | |
Potencjał manipulacji tożsamością, wartościami czy wiedzą | Czy system jest zaprojektowany lub potencjalnie jest w stanie manipulować tożsamością użytkownika lub ustalonymi wartościami bądź szerzyć dezinformację? Czy istnieje możliwość fałszywych lub niemożliwych do sprawdzenia twierdzeń dotyczących wiedzy specjalistycznej? | |
Miary własnej wartości | Czy istnieje presja, aby przedstawiać wyidealizowane „ja”? Czy automatyzacja może zastąpić poczucie osobistego spełnienia? Czy w miejscu pracy istnieje presja, aby konkurować z systemem? Czy trudniej jest chronić reputację jednostki przed dezinformacją? | |
Polityka prywatności | Czy obowiązki w zakresie ochrony prywatności są rozproszone i czy przyjęto jakieś założenia dotyczące sposobu wykorzystania danych osobowych? | |
Autonomia | Czy system może wpływać na autonomię człowieka, powodując nadmierne poleganie na technologii przez użytkowników końcowych? | |
Rozwój człowieka | Czy istnieje wpływ na nabywanie umiejętności kluczowych dla rozwoju człowieka, takich jak funkcje wykonawcze, umiejętności interpersonalne, zmiany w czasie uwagi wpływające na uczenie się, rozwój osobowości, problemy ze zdrowiem psychicznym itp.? | |
Osobista opieka zdrowotna | Czy istnieją roszczenia dotyczące spersonalizowanych rozwiązań w zakresie opieki zdrowotnej? Jeśli tak, czy są one zatwierdzone pod kątem zgodności z normami regulacyjnymi? | |
Zdrowie psychiczne | Czy istnieje ryzyko zwiększonego lęku, samotności lub innych problemów ze zdrowiem psychicznym, czy też technologia może złagodzić takie skutki? | |
Ewolucja człowieka | Czy technologia może doprowadzić do zmian w ewolucji człowieka? | |
Wymiary oddziaływania | kryteria | Opis |
Społeczeństwo/życie społeczne | Wartości społeczne | Czy system zasadniczo zmienia naturę społeczeństwa lub umożliwia normalizację idei uznawanych wcześniej za antyspołeczne, czy też narusza wartości społeczne kultury, w której jest stosowany? |
Interakcji społecznych | Czy ma to wpływ na znaczący kontakt międzyludzki, w tym na relacje emocjonalne? | |
Sprawiedliwość | Czy aplikacja/technologia może zmniejszyć lub zwiększyć nierówności (tj. gospodarcze, społeczne, edukacyjne, geograficzne)? | |
Zdrowie ludności | Czy system ma potencjał, aby przyspieszyć lub podważyć zamierzenia populacji w zakresie zdrowia? | |
Wyraz kulturowy | Czy wzrost przywłaszczenia kultury lub dyskryminacji jest prawdopodobny lub trudniejszy do rozwiązania? Czy poleganie na systemie podejmowania decyzji potencjalnie wyklucza lub marginalizuje części społeczeństwa? | |
Edukacja publiczna | Czy ma to wpływ na role nauczycieli lub instytucje edukacyjne? Czy system uwypukla lub zmniejsza nierówności wśród studentów i przepaść cyfrową? Czy wewnętrzna wartość wiedzy lub krytycznego zrozumienia jest rozwinięta czy podważona? | |
Zniekształcone rzeczywistości | Czy metody, których używamy, aby rozpoznać, co jest prawdą, nadal mają zastosowanie? Czy postrzeganie rzeczywistości jest zagrożone? | |
Kontekst gospodarczy (handel) | Sektor przemysłowy | W jakim sektorze przemysłu wdrożono system (tj. finanse, rolnictwo, opieka zdrowotna, edukacja, obrona)? |
Model biznesowy | W jakiej funkcji biznesowej wykorzystywany jest system i w jakim charakterze? Gdzie stosowany jest system (prywatny, publiczny, non-profit)? | |
Wpływ na działania krytyczne | Czy zakłócenie funkcji lub działania systemu miałoby wpływ na podstawowe usługi lub infrastrukturę krytyczną? | |
Oddech wdrożenia | W jaki sposób system jest wdrażany (w wąskiej organizacji czy szeroko rozpowszechniony w kraju/międzynarodowym)? | |
Dojrzałość techniczna (TRL) | Jak zaawansowany technicznie jest system? | |
Suwerenność technologiczna | Czy technologia powoduje większą koncentrację suwerenności technologicznej? | |
Redystrybucja dochodów i krajowe dźwignie fiskalne | Czy podstawowe role suwerennego państwa (tj. banków rezerwowych) mogą zostać zagrożone? Czy zdolność państwa do sprostania oczekiwaniom obywateli i implikacjom (tj. społecznym, gospodarczym, politycznym) ulegnie poprawie, czy zmniejszeniu? | |
Wymiary oddziaływania | kryteria | Opis |
Życie obywatelskie | Zarządzanie i służba publiczna | Czy mechanizmy zarządzania i globalne systemy zarządzania mogą mieć pozytywny lub negatywny wpływ? |
Media informacyjne | Czy dyskurs publiczny może stać się mniej lub bardziej spolaryzowany i zakorzenić się na poziomie populacji? Czy będzie to miało wpływ na poziom zaufania do mediów? Czy będzie to miało dalszy wpływ na konwencjonalne standardy etyki dziennikarskiej i uczciwości? | |
Praworządność | Czy będzie to miało wpływ na możliwość zidentyfikowania osób lub organizacji, które należy pociągnąć do odpowiedzialności (tj. jaki rodzaj odpowiedzialności przypisać algorytmowi za niekorzystne skutki)? Czy powoduje to utratę suwerenności (tj. polityki środowiskowej, fiskalnej, społecznej, etycznej)? | |
Polityka i spójność społeczna | Czy istnieje możliwość bardziej ugruntowanych poglądów politycznych i mniejszych możliwości budowania konsensusu? Czy istnieje możliwość dalszej marginalizacji grup? Czy kontradyktoryjny styl polityki jest bardziej czy mniej prawdopodobny? | |
Kontekst geostrategiczny/geopolityczny | Precyzyjny nadzór | Czy systemy są szkolone w oparciu o indywidualne dane behawioralne i biologiczne, a jeśli tak, czy można je wykorzystać do wykorzystywania jednostek lub grup? |
Cyfrowa kolonizacja | Czy podmioty państwowe lub niepaństwowe są w stanie wykorzystać systemy i dane, aby zrozumieć i kontrolować populacje i ekosystemy innych krajów lub osłabić kontrolę jurysdykcyjną? | |
Konkurencja geopolityczna | Czy system wpływa na konkurencję między narodami i platformami technologicznymi w zakresie dostępu do danych indywidualnych i zbiorowych do celów gospodarczych lub strategicznych? | |
Handel i umowy handlowe | Czy system ma wpływ na międzynarodowe umowy handlowe? | |
Zmiana światowych mocarstw | Czy status państw narodowych jako głównych aktorów geopolitycznych na świecie jest zagrożony? Czy firmy technologiczne przejmą władzę niegdyś zarezerwowaną dla państw narodowych i staną się niezależnymi, suwerennymi podmiotami? | |
Dezinformacja | Czy podmiotom państwowym i niepaństwowym łatwiej jest wytwarzać i rozpowszechniać dezinformację, która wpływa na spójność społeczną, zaufanie i demokrację? | |
Środowiskowy | Zużycie energii i zasobów (ślad węglowy) | Czy system i wymagania zwiększają zużycie energii i zasobów w porównaniu z przyrostem wydajności uzyskanym dzięki zastosowaniu? |
Wymiary oddziaływania | kryteria | Opis |
Dane i dane wejściowe | Wykrywanie i zbieranie | Czy dane i dane wejściowe gromadzone są przez ludzi, czujniki automatyczne, czy jedno i drugie? |
Pochodzenie danych | Czy w odniesieniu do danych są one dostarczane, obserwowane, syntetyczne czy pochodne? Czy istnieją zabezpieczenia znaku wodnego potwierdzające pochodzenie? | |
Dynamiczny charakter danych | Czy dane są dynamiczne, statyczne, aktualizowane od czasu do czasu czy aktualizowane w czasie rzeczywistym? | |
Prawa | Czy dane są zastrzeżone, publiczne czy osobiste (tj. powiązane z możliwymi do zidentyfikowania osobami)? | |
Identyfikowalność danych osobowych | Jeżeli dane osobowe, to czy są one anonimizowane czy pseudonimizowane? | |
Struktura danych | Czy dane są ustrukturyzowane, półustrukturyzowane, złożone czy nieustrukturyzowane? | |
Format danych | Czy format danych i metadanych jest ustandaryzowany czy niestandaryzowany? | |
Skala danych | Jaka jest skala zbioru danych? | |
Adekwatność i jakość danych | Czy zbiór danych jest odpowiedni do celu? Czy wielkość próbki jest odpowiednia? Czy jest on wystarczająco reprezentatywny i kompletny? Jak zaszumione są dane? Czy jest podatny na błędy? | |
Model | Dostępność informacji | Czy dostępna jest informacja o modelu systemu? |
Rodzaj modelu AI | Czy model jest symboliczny (reguły stworzone przez człowieka), statystyczny (wykorzystuje dane) czy hybrydowy? | |
Prawa związane z modelem | Czy model jest open source, czy jest zastrzeżony, zarządzany samodzielnie lub przez stronę trzecią? | |
Modele pojedyncze lub wielokrotne | Czy system składa się z jednego modelu, czy z kilku powiązanych ze sobą modeli? | |
Generatywny lub dyskryminujący | Czy model jest generatywny, dyskryminacyjny, czy może oba? | |
Budowa modelu | Czy system uczy się w oparciu o zasady pisane przez człowieka, na podstawie danych, w drodze uczenia się pod nadzorem czy poprzez uczenie się przez wzmacnianie? | |
Ewolucja modelu (dryf AI) | Czy model ewoluuje i/lub nabywa umiejętności w wyniku interakcji z danymi w terenie? | |
Uczenie się stowarzyszone lub centralne | Czy model jest szkolony centralnie, czy na kilku lokalnych serwerach lub urządzeniach „edge”? | |
Rozwój i utrzymanie | Czy model jest uniwersalny, konfigurowalny lub dostosowany do danych aktora AI? | |
Deterministyczne lub probabilistyczne | Czy model jest używany w sposób deterministyczny czy probabilistyczny? | |
Przezroczystość modelu | Czy użytkownicy mają dostęp do informacji pozwalających im zrozumieć wyniki i ograniczenia modelu lub zastosować ograniczenia? | |
Ograniczenie obliczeniowe | Czy istnieją ograniczenia obliczeniowe systemu? Czy możemy przewidzieć skoki możliwości lub prawa skalowania? | |
Wymiary oddziaływania | kryteria | Opis |
Zadanie i wynik | Zadania wykonywane przez system | Jakie zadania realizuje system (tj. rozpoznawanie, wykrywanie zdarzeń, prognozowanie)? |
Łączenie zadań i działań | Czy system łączy w sobie kilka zadań i działań (tj. systemy generowania treści, systemy autonomiczne, systemy sterowania)? | |
Poziom autonomii systemu | Na ile autonomiczne jest działanie systemu i jaką rolę odgrywa człowiek? | |
Stopień zaangażowania człowieka | Czy wymagany jest udział człowieka w nadzorowaniu ogólnej działalności systemu sztucznej inteligencji oraz możliwości decydowania, kiedy i jak korzystać z systemu w dowolnej sytuacji? | |
Aplikacja podstawowa | Czy system należy do podstawowego obszaru zastosowań, takiego jak technologie języka ludzkiego, wizja komputerowa, automatyzacja i/lub optymalizacja lub robotyka? | |
Ocena | Czy dostępne są standardy lub metody oceny wydajności systemu lub radzenia sobie z nieprzewidzianymi, pojawiającymi się właściwościami? |
Klucz do źródła deskryptorów
Zwykły tekst:
Gluckman, P. i Allen, K. 2018. Zrozumienie wellbeingu w kontekście szybkich transformacji cyfrowych i z nimi związanych. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
Pogrubiony tekst:
OECD. 2022. Ramy OECD dotyczące klasyfikacji systemów sztucznej inteligencji. Dokumenty OECD dotyczące gospodarki cyfrowej, nr 323, OECD Publishing, Paryż. https://oecd.ai/en/classification
Tekst kursywą:
Nowe deskryptory (z wielu źródeł)
Droga naprzód
W zależności od odpowiedzi na niniejszy dokument do dyskusji, ISC utworzy ekspercką grupę roboczą w celu dalszego rozwijania lub zmiany powyższych ram analitycznych, dzięki którym zainteresowane strony mogłyby kompleksowo przyjrzeć się wszelkim znaczącym zmianom w zakresie platform lub wymiarów użytkowania. Grupa robocza byłaby zróżnicowana pod względem dyscyplinarnym, geograficznym i demograficznym, a jej wiedza specjalistyczna obejmowałaby ocenę technologii po politykę publiczną, od rozwoju człowieka po socjologię oraz studia nad przyszłością i technologią.
Aby wziąć udział w tym dokumencie do dyskusji, odwiedź stronę Council.science/publications/framework-digital-technologies
Podziękowania
Przy opracowywaniu tego dokumentu, którego autorem jest Sir Peter Gluckman Gluckman, prezes ISC i Hema Sridhar, była główna naukowczyni w Ministerstwie Obrony, a obecnie starsza pracowniczka naukowa Uniwersytetu w Auckland w Nowej Zelandii.
W szczególności dziękujemy Lordowi Martinowi Reesowi, byłemu prezesowi Towarzystwa Królewskiego i współzałożycielowi Centrum Badań nad Ryzykiem Egzystencjalnym na Uniwersytecie w Cambridge; Profesor Shivaji Sondhi, profesor fizyki, Uniwersytet Oksfordzki; profesor K. Vijay Raghavan, były główny doradca naukowy rządu Indii; Amandeep Singh Gill, wysłannik Sekretarza Generalnego ONZ ds. Technologii; Dr Seán Óh Éigeartaigh, dyrektor wykonawczy, Centrum Badań nad Ryzykiem Egzystencjalnym, Uniwersytet w Cambridge; Amanda-June Brawner, starszy doradca ds. polityki i Ian Wiggins, dyrektor ds. międzynarodowych, Royal Society UK; dr Jerome Duberry, dr Marie-Laure Salles, dyrektor Instytutu Absolwentów w Genewie; Chor Pharn Lee, Centrum Przyszłości Strategicznej, Biuro Premiera, Singapur; Barend Mons i dr Simon Hodson, Komisja ds. Danych (CoDATA); prof. Yuko Harayama, Japonia; profesor Rémi Quirion, prezes INGSA; dr Claire Craig, Uniwersytet Oksfordzki i była dyrektor ds. prognozowania w Rządowym Biurze Naukowym; oraz prof. Yoshua Bengio, Naukowa Rada Doradcza Sekretarza Generalnego ONZ i Université de Montréal. Ogólnie przyjęto podejście oparte na liście kontrolnej i podkreślono terminowość wszelkich działań ISC.
Zdjęcie: Adamichi w iStock