Zarejestruj się

Stanowisko

Ramy oceny szybko rozwijających się technologii cyfrowych i pokrewnych: sztuczna inteligencja, duże modele językowe i nie tylko

Niniejszy dokument do dyskusji przedstawia zarys wstępnych ram, na których opierają się liczne globalne i krajowe dyskusje dotyczące sztucznej inteligencji.

Wielu naukowców i ekspertów ds. polityki zaproponowało, aby Międzynarodowa Rada Nauki – składająca się z pluralistycznego członkostwa reprezentującego nauki społeczne i przyrodnicze – ustanowiła proces tworzenia i utrzymywania ramowych/list kontrolnych z adnotacjami dotyczących ryzyka, korzyści, zagrożeń i możliwości związane z szybko rozwijającymi się technologiami cyfrowymi, w tym między innymi sztuczną inteligencją. Celem listy kontrolnej byłoby poinformowanie wszystkich zainteresowanych stron – w tym rządów, negocjatorów handlowych, organów regulacyjnych, społeczeństwa obywatelskiego i przemysłu – o potencjalnych przyszłych scenariuszach oraz określenie, w jaki sposób mogą rozważyć możliwości, korzyści, ryzyko i inne kwestie.

ISC ma przyjemność przedstawić niniejszy dokument do dyskusji na temat oceny szybko rozwijającej się technologii cyfrowej i pokrewnych. Sztuczna inteligencja, biologia syntetyczna i technologie kwantowe to główne przykłady innowacji opartych na nauce, pojawiających się w niespotykanym dotąd tempie. Systematyczne przewidywanie nie tylko ich zastosowań, ale także implikacji może stanowić wyzwanie.

Ocena społecznych aspektów generatywnej sztucznej inteligencji, takich jak duże modele językowe, które, jak można się spodziewać, stanowią większość tego dokumentu do dyskusji, jest potrzebnym pomostem w ramach obecnego dyskursu – czasami wywołanego paniką, innym razem niewystarczająco dogłębnego myślenia – oraz niezbędnych kursów działania, jakie możemy podjąć. ISC jest przekonana, że ​​potrzebne są ramy analityczne pomiędzy społeczną akceptacją takich nowych technologii a ich ewentualną regulacją, aby ułatwić dyskusje z udziałem wielu zainteresowanych stron, które są potrzebne do podejmowania świadomych i odpowiedzialnych decyzji dotyczących optymalizacji korzyści społecznych płynących z tej szybko powstającej technologii.

ISC jest otwarta na reakcje naszej społeczności zawarte w tym dokumencie do dyskusji, aby ocenić, w jaki sposób najlepiej nadal być częścią debaty na temat technologii i wnosić do niej wkład.

Salvatore Aricò, dyrektor generalny
Dokument do dyskusji ISC

Dokument do dyskusji ISC

Ramy oceny szybko rozwijających się technologii cyfrowych i pokrewnych: sztuczna inteligencja, duże modele językowe i nie tylko

Niniejszy dokument do dyskusji przedstawia zarys wstępnych ram, na których opierają się liczne globalne i krajowe dyskusje dotyczące sztucznej inteligencji.

Pobierz raport

Nowość! Przeczytaj wersję 2024 dla decydentów z platformą do pobrania dla Twojej organizacji.

Przewodnik dla decydentów: Ocena szybko rozwijających się technologii, w tym sztucznej inteligencji, dużych modeli językowych i nie tylko

Niniejszy dokument do dyskusji przedstawia zarys wstępnych ram, na których opierają się liczne globalne i krajowe dyskusje dotyczące sztucznej inteligencji.

Przeczytaj dokument dyskusyjny ISC 2023 w Internecie lub w preferowanym języku

Spis treści

  • Wprowadzenie 
  • Tło 
  • Opracowanie ram analitycznych 
  • Korzystanie z ram analitycznych 
  • Wymiary, które należy wziąć pod uwagę przy ocenie nowej technologii 
  • Droga naprzód 
  • Podziękowania

Wprowadzenie

Szybko powstające technologie stwarzają wyzwania, jeśli chodzi o zarządzanie nimi i potencjalne regulacje. Debaty polityczne i publiczne na temat sztucznej inteligencji (AI) i jej wykorzystania zwróciły uwagę na te kwestie. Chociaż UNESCO, OECD i inne organizacje ogłosiły ogólne zasady dotyczące sztucznej inteligencji i toczą się dyskusje na temat globalnych lub jurysdykcyjnych regulacji tej technologii, istnieje ontologiczna luka pomiędzy rozwojem zasad wysokiego szczebla a ich włączeniem do przepisów, polityki, podejścia do zarządzania i zarządzania. Tutaj szczególną rolę mogłaby odegrać pozarządowa społeczność naukowa. 

Wielu naukowców i ekspertów ds. polityki zaproponowało, aby Międzynarodowa Rada Nauki (ISC) – składająca się z pluralistycznego składu przedstawicieli nauk społecznych i przyrodniczych – ustanowiła proces tworzenia i utrzymywania ramowej/listy kontrolnej z adnotacjami dotyczącej zagrożeń, korzyści, zagrożenia i możliwości związane z szybko rozwijającymi się technologiami cyfrowymi, w tym między innymi sztuczną inteligencją. Celem listy kontrolnej byłoby poinformowanie wszystkich zainteresowanych stron – w tym rządów, negocjatorów handlowych, organów regulacyjnych, społeczeństwa obywatelskiego i przemysłu – o potencjalnych przyszłych scenariuszach oraz określenie, w jaki sposób mogą rozważyć możliwości, korzyści, ryzyko i inne kwestie. 

Wyniki nie pełniłyby roli organu oceniającego, ale adaptacyjnych i ewoluujących ram analitycznych, które mogłyby stanowić podstawę wszelkich procesów oceny i regulacji, które mogą zostać opracowane przez zainteresowane strony, w tym rządy i system wielostronny. W idealnym przypadku wszelkie ramy analityczne powinny być opracowywane niezależnie od twierdzeń rządu i branży, biorąc pod uwagę ich zrozumiałe interesy. Musi być także maksymalnie pluralistyczna w swoich perspektywach, obejmując w ten sposób wszystkie aspekty technologii i jej implikacje. 

Niniejszy dokument do dyskusji przedstawia zarys wstępnych ram, na których opierają się liczne globalne i krajowe dyskusje dotyczące sztucznej inteligencji. 

Tło: Dlaczego ramy analityczne?

Szybkie pojawienie się technologii charakteryzującej się złożonością i konsekwencjami sztucznej inteligencji powoduje wiele twierdzeń o ogromnych korzyściach. Budzi jednak także obawy przed poważnymi zagrożeniami, zarówno na poziomie indywidualnym, jak i geostrategicznym. Duża część dyskusji toczy się zwykle na skrajnych krańcach spektrum poglądów i potrzebne jest bardziej pragmatyczne podejście. Technologia sztucznej inteligencji będzie nadal ewoluować, a historia pokazuje, że praktycznie każda technologia ma zarówno korzystne, jak i szkodliwe zastosowania. Pytanie brzmi zatem: w jaki sposób możemy osiągnąć korzystne wyniki dzięki tej technologii, jednocześnie zmniejszając ryzyko szkodliwych konsekwencji, z których niektóre mogą mieć wymiar egzystencjalny? 

Przyszłość jest zawsze niepewna, istnieje jednak wystarczająca liczba wiarygodnych i eksperckich głosów na temat sztucznej inteligencji i generatywnej sztucznej inteligencji, aby zachęcić do przyjęcia stosunkowo ostrożnego podejścia. Ponadto potrzebne jest podejście systemowe, ponieważ sztuczna inteligencja to klasa technologii o szerokim zastosowaniu i zastosowaniu przez wiele typów użytkowników. Oznacza to, że rozważając implikacje sztucznej inteligencji dla jednostek, życia społecznego, życia obywatelskiego, życia społecznego oraz w kontekście globalnym, należy wziąć pod uwagę pełny kontekst. 

W przeciwieństwie do większości wcześniejszych technologii, technologie cyfrowe i pokrewne mają bardzo krótki okres czasu od opracowania do wydania, w dużej mierze podyktowany interesami firm produkcyjnych lub agencji. Sztuczna inteligencja jest szybko wszechobecna; niektóre właściwości mogą ujawnić się dopiero po wypuszczeniu na rynek, a technologia może mieć zarówno złowrogie, jak i dobroczynne zastosowania. Wymiary ważnych wartości będą miały wpływ na postrzeganie każdego zastosowania. Co więcej, w grę mogą wchodzić interesy geostrategiczne. 

Do tej pory regulacje dotyczące technologii wirtualnej były w dużej mierze postrzegane przez pryzmat „zasad” i dobrowolnego przestrzegania. Ostatnio jednak dyskusja zeszła na kwestie zarządzania krajowego i wielostronnego, w tym wykorzystania narzędzi regulacyjnych i innych narzędzi polityki. Twierdzenia za lub przeciw sztucznej inteligencji są często przesadne i – biorąc pod uwagę charakter technologii – trudne do oceny. Ustanowienie skutecznego globalnego lub krajowego systemu regulacji technologii będzie wyzwaniem i potrzebnych będzie wielopoziomowe podejmowanie decyzji w oparciu o ryzyko w całym łańcuchu, od wynalazcy do producenta, użytkownika, rządu i systemu wielostronnego. 

Chociaż zasady wysokiego szczebla zostały ogłoszone między innymi przez UNESCO, OECD i Komisję Europejską i toczą się różne dyskusje na wysokim szczeblu dotyczące kwestii potencjalnych regulacji, istnieje duża rozbieżność ontologiczna pomiędzy takimi zasadami a ramami zarządzania lub ramami regulacyjnymi. Jaką taksonomię rozważań powinien rozważyć organ regulacyjny? Wąsko ukierunkowane ramy byłyby nierozsądne, biorąc pod uwagę szerokie implikacje tych technologii. Potencjał ten był przedmiotem wielu komentarzy, zarówno pozytywnych, jak i negatywnych.

Opracowanie ram analitycznych

ISC jest wiodącą światową organizacją pozarządową integrującą nauki przyrodnicze i społeczne. Jej globalny i dyscyplinarny zasięg oznacza, że ​​jest dobrze przygotowana do generowania niezależnych i odpowiednich na skalę globalną porad, które pomogą w podejmowaniu złożonych wyborów, jakie stoją przed nami, zwłaszcza że obecne głosy na tej arenie pochodzą głównie ze strony przemysłu lub głównych potęg technologicznych. W następstwie szeroko zakrojonych dyskusji prowadzonych w ostatnich miesiącach, w tym rozważenia pozarządowego procesu oceny, ISC stwierdziła, że ​​jego najbardziej użytecznym wkładem byłoby stworzenie i utrzymanie adaptacyjnych ram analitycznych, które można wykorzystać jako podstawę dyskursu i procesu decyzyjnego przez wszystkich interesariuszy, w tym podczas wszelkich pojawiających się formalnych procesów oceny. 

Ramy te miałyby formę nadrzędnej listy kontrolnej, z której mogłyby korzystać zarówno instytucje rządowe, jak i pozarządowe. Ramy identyfikują i badają potencjał technologii, takiej jak sztuczna inteligencja i jej pochodne, z szerokiej perspektywy, która obejmuje dobrostan ludzi i społeczeństwa, a także czynniki zewnętrzne, takie jak ekonomia, polityka, środowisko i bezpieczeństwo. Niektóre aspekty listy kontrolnej mogą być bardziej istotne niż inne, w zależności od kontekstu, ale lepsze decyzje są bardziej prawdopodobne, jeśli uwzględni się wszystkie domeny. Jest to nieodłączna wartość podejścia opartego na liście kontrolnej. 

Proponowane ramy wywodzą się z wcześniejszych prac i przemyśleń, w tym z raportu Międzynarodowej Sieci Rządowych Doradztw Naukowych (INGSA) dotyczącego dobrostanu cyfrowego1 oraz Ramy klasyfikacji AI OECD2 przedstawienie całości potencjalnych możliwości, zagrożeń i skutków sztucznej inteligencji. Ze względu na czas i kontekst, w jakim te poprzednie produkty miały bardziej ograniczone przeznaczenie, potrzebne są nadrzędne ramy przedstawiające pełen zakres zagadnień zarówno w perspektywie krótko-, jak i długoterminowej. 

Chociaż te ramy analityczne zostały opracowane z myślą o sztucznej inteligencji, można je zastosować do dowolnej szybko powstającej technologii. Zagadnienia są ogólnie pogrupowane w następujące kategorie w celu dalszego zbadania: 

  • Dobrostan (w tym dobrostan jednostki lub samego siebie, społeczeństwa i życia społecznego oraz życia obywatelskiego) 
  • Handel i gospodarka 
  • Środowiskowy 
  • Geostrategiczne i geopolityczne 
  • Technologiczne (charakterystyka systemu, konstrukcja i zastosowanie) 

Zawarto listę rozważań dotyczących każdej z powyższych kategorii wraz z ich możliwościami i konsekwencjami. Niektóre z nich są istotne dla konkretnych przypadków lub zastosowań sztucznej inteligencji, inne zaś mają charakter ogólny i niezależny od platformy lub zastosowania. Żadnej pojedynczej kwestii zawartej w tym miejscu nie należy traktować priorytetowo i jako takie należy zbadać wszystkie. 

Jak można wykorzystać te ramy?

Ramy te można wykorzystać między innymi w następujący sposób: 

  • Wypełnienie luki między zasadami a oceną poprzez ustanowienie zatwierdzonej wspólnej taksonomii zakresu czynników, które mogłyby zostać wykorzystane przez odpowiednie zainteresowane strony jako podstawa do informowania i kształtowania dalszego myślenia, w tym wszelkich ram oceny, które mogą zostać opracowane przez władze. 
  • Aby informować o ocenach skutków. Ustawa UE o sztucznej inteligencji wymaga, aby organizacje dostarczające narzędzia sztucznej inteligencji lub wdrażające sztuczną inteligencję w swoich procesach przeprowadziły ocenę skutków w celu zidentyfikowania ryzyka związanego z ich inicjatywami i zastosowania odpowiedniego podejścia do zarządzania ryzykiem. Zaprezentowane tutaj ramy mogą posłużyć jako podstawa. 
  • Wzmocnienie zasad etycznych niezbędnych do kierowania i zarządzania wykorzystaniem sztucznej inteligencji. Ramy mogą tego dokonać, zapewniając elastyczną podstawę, na której można opracować wiarygodne systemy i zapewniając zgodne z prawem, etyczne, solidne i odpowiedzialne wykorzystanie technologii. Zasady te można przetestować w odniesieniu do pełnego zakresu skutków przedstawionych w niniejszych ramach. 
  • Ułatwienie podsumowania istniejących środków (tj. regulacyjnych, legislacyjnych, politycznych) i zidentyfikowanie wszelkich luk wymagających dalszego rozważenia. 
  • Ramy są niezależne od technologii i jej wykorzystania. Można go zatem stosować w całkiem odrębnych obszarach, takich jak biologia syntetyczna. 

Poniższa tabela przedstawia wczesne kształtowanie wymiarów ram analitycznych. W zależności od technologii i jej zastosowania niektóre komponenty będą bardziej istotne niż inne. Podane przykłady ilustrują, dlaczego każda domena może mieć znaczenie; w kontekście ramy wymagałyby kontekstowo odpowiedniego rozszerzenia. Ważne jest również rozróżnienie pomiędzy rozwojem platformy a problemami ogólnymi, które mogą pojawić się w trakcie konkretnych zastosowań.  

Wymiary, które należy wziąć pod uwagę przy ocenie nowej technologii

Wstępny projekt wymiarów, które mogą wymagać uwzględnienia przy ocenie nowej technologii
Wymiary oddziaływania kryteria Przykłady tego, jak można to odzwierciedlić w analizie  
Indywidualny/samodzielny  Kompetencje AI użytkowników  Na ile kompetentni i świadomi właściwości systemu są prawdopodobni użytkownicy, którzy będą wchodzić w interakcję z systemem? W jaki sposób otrzymają oni odpowiednie informacje i przestrogi dla użytkowników? 
Zaangażowani interesariusze  Kim są główni interesariusze, na których system będzie miał wpływ (tj. jednostki, społeczności, osoby bezbronne, pracownicy sektorowi, dzieci, decydenci, specjaliści)? 
Opcjonalność Czy użytkownicy mają możliwość rezygnacji z systemu; czy powinni mieć możliwość zakwestionowania lub skorygowania wyników?  
Zagrożenia dla praw człowieka i wartości demokratycznych  Czy system mógłby wpłynąć (i w jakim kierunku) na prawa człowieka, w tym między innymi na prywatność, wolność słowa, sprawiedliwość, ryzyko dyskryminacji itp.? 
Potencjalny wpływ na dobrostan ludzi Czy system może mieć wpływ (i w jakim kierunku) na dobrostan indywidualnego użytkownika (tj. jakość pracy, edukację, interakcje społeczne, zdrowie psychiczne, tożsamość, środowisko)?  
Potencjał przenoszenia siły roboczej Czy system ma potencjał do automatyzacji zadań lub funkcji wykonywanych przez człowieka? Jeśli tak, jakie są dalsze konsekwencje? 
Potencjał manipulacji tożsamością, wartościami czy wiedzą Czy system jest zaprojektowany lub potencjalnie jest w stanie manipulować tożsamością użytkownika lub ustalonymi wartościami bądź szerzyć dezinformację? Czy istnieje możliwość fałszywych lub niemożliwych do sprawdzenia twierdzeń dotyczących wiedzy specjalistycznej? 
Miary własnej wartości Czy istnieje presja, aby przedstawiać wyidealizowane „ja”? Czy automatyzacja może zastąpić poczucie osobistego spełnienia? Czy w miejscu pracy istnieje presja, aby konkurować z systemem? Czy trudniej jest chronić reputację jednostki przed dezinformacją? 
Polityka prywatności Czy obowiązki w zakresie ochrony prywatności są rozproszone i czy przyjęto jakieś założenia dotyczące sposobu wykorzystania danych osobowych?  
Autonomia Czy system może wpływać na autonomię człowieka, powodując nadmierne poleganie na technologii przez użytkowników końcowych? 
Rozwój człowieka Czy istnieje wpływ na nabywanie umiejętności kluczowych dla rozwoju człowieka, takich jak funkcje wykonawcze, umiejętności interpersonalne, zmiany w czasie uwagi wpływające na uczenie się, rozwój osobowości, problemy ze zdrowiem psychicznym itp.?  
Osobista opieka zdrowotna Czy istnieją roszczenia dotyczące spersonalizowanych rozwiązań w zakresie opieki zdrowotnej? Jeśli tak, czy są one zatwierdzone pod kątem zgodności z normami regulacyjnymi? 
Zdrowie psychiczne Czy istnieje ryzyko zwiększonego lęku, samotności lub innych problemów ze zdrowiem psychicznym, czy też technologia może złagodzić takie skutki? 
Ewolucja człowieka Czy technologia może doprowadzić do zmian w ewolucji człowieka?  
Wymiary oddziaływania kryteria Opis 
Społeczeństwo/życie społeczne Wartości społeczne  Czy system zasadniczo zmienia naturę społeczeństwa lub umożliwia normalizację idei uznawanych wcześniej za antyspołeczne, czy też narusza wartości społeczne kultury, w której jest stosowany?  
Interakcji społecznych Czy ma to wpływ na znaczący kontakt międzyludzki, w tym na relacje emocjonalne?  
Sprawiedliwość Czy aplikacja/technologia może zmniejszyć lub zwiększyć nierówności (tj. gospodarcze, społeczne, edukacyjne, geograficzne)? 
Zdrowie ludności Czy system ma potencjał, aby przyspieszyć lub podważyć zamierzenia populacji w zakresie zdrowia? 
Wyraz kulturowy Czy wzrost przywłaszczenia kultury lub dyskryminacji jest prawdopodobny lub trudniejszy do rozwiązania? Czy poleganie na systemie podejmowania decyzji potencjalnie wyklucza lub marginalizuje części społeczeństwa? 
Edukacja publiczna Czy ma to wpływ na role nauczycieli lub instytucje edukacyjne? Czy system uwypukla lub zmniejsza nierówności wśród studentów i przepaść cyfrową? Czy wewnętrzna wartość wiedzy lub krytycznego zrozumienia jest rozwinięta czy podważona?  
Zniekształcone rzeczywistości Czy metody, których używamy, aby rozpoznać, co jest prawdą, nadal mają zastosowanie? Czy postrzeganie rzeczywistości jest zagrożone?  
Kontekst gospodarczy (handel)         Sektor przemysłowy W jakim sektorze przemysłu wdrożono system (tj. finanse, rolnictwo, opieka zdrowotna, edukacja, obrona)? 
Model biznesowy W jakiej funkcji biznesowej wykorzystywany jest system i w jakim charakterze? Gdzie stosowany jest system (prywatny, publiczny, non-profit)? 
Wpływ na działania krytyczne  Czy zakłócenie funkcji lub działania systemu miałoby wpływ na podstawowe usługi lub infrastrukturę krytyczną?  
Oddech wdrożenia W jaki sposób system jest wdrażany (w wąskiej organizacji czy szeroko rozpowszechniony w kraju/międzynarodowym)? 
Dojrzałość techniczna (TRL) Jak zaawansowany technicznie jest system?  
Suwerenność technologiczna Czy technologia powoduje większą koncentrację suwerenności technologicznej?  
Redystrybucja dochodów i krajowe dźwignie fiskalne Czy podstawowe role suwerennego państwa (tj. banków rezerwowych) mogą zostać zagrożone? Czy zdolność państwa do sprostania oczekiwaniom obywateli i implikacjom (tj. społecznym, gospodarczym, politycznym) ulegnie poprawie, czy zmniejszeniu?  
Wymiary oddziaływania kryteria Opis 
Życie obywatelskie     Zarządzanie i służba publiczna Czy mechanizmy zarządzania i globalne systemy zarządzania mogą mieć pozytywny lub negatywny wpływ? 
Media informacyjne Czy dyskurs publiczny może stać się mniej lub bardziej spolaryzowany i zakorzenić się na poziomie populacji? Czy będzie to miało wpływ na poziom zaufania do mediów? Czy będzie to miało dalszy wpływ na konwencjonalne standardy etyki dziennikarskiej i uczciwości?  
Praworządność Czy będzie to miało wpływ na możliwość zidentyfikowania osób lub organizacji, które należy pociągnąć do odpowiedzialności (tj. jaki rodzaj odpowiedzialności przypisać algorytmowi za niekorzystne skutki)? Czy powoduje to utratę suwerenności (tj. polityki środowiskowej, fiskalnej, społecznej, etycznej)?  
Polityka i spójność społeczna Czy istnieje możliwość bardziej ugruntowanych poglądów politycznych i mniejszych możliwości budowania konsensusu? Czy istnieje możliwość dalszej marginalizacji grup? Czy kontradyktoryjny styl polityki jest bardziej czy mniej prawdopodobny? 
Kontekst geostrategiczny/geopolityczny     Precyzyjny nadzór Czy systemy są szkolone w oparciu o indywidualne dane behawioralne i biologiczne, a jeśli tak, czy można je wykorzystać do wykorzystywania jednostek lub grup? 
Cyfrowa kolonizacja Czy podmioty państwowe lub niepaństwowe są w stanie wykorzystać systemy i dane, aby zrozumieć i kontrolować populacje i ekosystemy innych krajów lub osłabić kontrolę jurysdykcyjną? 
Konkurencja geopolityczna Czy system wpływa na konkurencję między narodami i platformami technologicznymi w zakresie dostępu do danych indywidualnych i zbiorowych do celów gospodarczych lub strategicznych? 
Handel i umowy handlowe Czy system ma wpływ na międzynarodowe umowy handlowe? 
Zmiana światowych mocarstw Czy status państw narodowych jako głównych aktorów geopolitycznych na świecie jest zagrożony? Czy firmy technologiczne przejmą władzę niegdyś zarezerwowaną dla państw narodowych i staną się niezależnymi, suwerennymi podmiotami?  
Dezinformacja Czy podmiotom państwowym i niepaństwowym łatwiej jest wytwarzać i rozpowszechniać dezinformację, która wpływa na spójność społeczną, zaufanie i demokrację?  
Środowiskowy   Zużycie energii i zasobów (ślad węglowy) Czy system i wymagania zwiększają zużycie energii i zasobów w porównaniu z przyrostem wydajności uzyskanym dzięki zastosowaniu?  
Wymiary oddziaływania kryteria Opis 
Dane i dane wejściowe          Wykrywanie i zbieranie  Czy dane i dane wejściowe gromadzone są przez ludzi, czujniki automatyczne, czy jedno i drugie?  
Pochodzenie danych  Czy w odniesieniu do danych są one dostarczane, obserwowane, syntetyczne czy pochodne? Czy istnieją zabezpieczenia znaku wodnego potwierdzające pochodzenie? 
Dynamiczny charakter danych Czy dane są dynamiczne, statyczne, aktualizowane od czasu do czasu czy aktualizowane w czasie rzeczywistym? 
Prawa Czy dane są zastrzeżone, publiczne czy osobiste (tj. powiązane z możliwymi do zidentyfikowania osobami)?  
Identyfikowalność danych osobowych  Jeżeli dane osobowe, to czy są one anonimizowane czy pseudonimizowane?  
Struktura danych Czy dane są ustrukturyzowane, półustrukturyzowane, złożone czy nieustrukturyzowane? 
Format danych  Czy format danych i metadanych jest ustandaryzowany czy niestandaryzowany?  
Skala danych  Jaka jest skala zbioru danych?  
Adekwatność i jakość danych Czy zbiór danych jest odpowiedni do celu? Czy wielkość próbki jest odpowiednia? Czy jest on wystarczająco reprezentatywny i kompletny? Jak zaszumione są dane? Czy jest podatny na błędy?  
Model             Dostępność informacji  Czy dostępna jest informacja o modelu systemu?  
Rodzaj modelu AI  Czy model jest symboliczny (reguły stworzone przez człowieka), statystyczny (wykorzystuje dane) czy hybrydowy?  
Prawa związane z modelem  Czy model jest open source, czy jest zastrzeżony, zarządzany samodzielnie lub przez stronę trzecią? 
Modele pojedyncze lub wielokrotne  Czy system składa się z jednego modelu, czy z kilku powiązanych ze sobą modeli?  
Generatywny lub dyskryminujący Czy model jest generatywny, dyskryminacyjny, czy może oba?  
Budowa modelu  Czy system uczy się w oparciu o zasady pisane przez człowieka, na podstawie danych, w drodze uczenia się pod nadzorem czy poprzez uczenie się przez wzmacnianie?  
Ewolucja modelu (dryf AI) Czy model ewoluuje i/lub nabywa umiejętności w wyniku interakcji z danymi w terenie?  
Uczenie się stowarzyszone lub centralne Czy model jest szkolony centralnie, czy na kilku lokalnych serwerach lub urządzeniach „edge”?  
Rozwój i utrzymanie  Czy model jest uniwersalny, konfigurowalny lub dostosowany do danych aktora AI?  
Deterministyczne lub probabilistyczne  Czy model jest używany w sposób deterministyczny czy probabilistyczny?  
Przezroczystość modelu  Czy użytkownicy mają dostęp do informacji pozwalających im zrozumieć wyniki i ograniczenia modelu lub zastosować ograniczenia?  
Ograniczenie obliczeniowe Czy istnieją ograniczenia obliczeniowe systemu? Czy możemy przewidzieć skoki możliwości lub prawa skalowania? 
Wymiary oddziaływania kryteria Opis 
Zadanie i wynik       Zadania wykonywane przez system Jakie zadania realizuje system (tj. rozpoznawanie, wykrywanie zdarzeń, prognozowanie)?  
Łączenie zadań i działań  Czy system łączy w sobie kilka zadań i działań (tj. systemy generowania treści, systemy autonomiczne, systemy sterowania)?  
Poziom autonomii systemu Na ile autonomiczne jest działanie systemu i jaką rolę odgrywa człowiek?  
Stopień zaangażowania człowieka Czy wymagany jest udział człowieka w nadzorowaniu ogólnej działalności systemu sztucznej inteligencji oraz możliwości decydowania, kiedy i jak korzystać z systemu w dowolnej sytuacji? 
Aplikacja podstawowa Czy system należy do podstawowego obszaru zastosowań, takiego jak technologie języka ludzkiego, wizja komputerowa, automatyzacja i/lub optymalizacja lub robotyka?  
Ocena  Czy dostępne są standardy lub metody oceny wydajności systemu lub radzenia sobie z nieprzewidzianymi, pojawiającymi się właściwościami?  

Klucz do źródła deskryptorów

Zwykły tekst:
Gluckman, P. i Allen, K. 2018. Zrozumienie wellbeingu w kontekście szybkich transformacji cyfrowych i z nimi związanych. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf 

Pogrubiony tekst:
OECD. 2022. Ramy OECD dotyczące klasyfikacji systemów sztucznej inteligencji. Dokumenty OECD dotyczące gospodarki cyfrowej, nr 323, OECD Publishing, Paryż. https://oecd.ai/en/classification 

Tekst kursywą:
Nowe deskryptory (z wielu źródeł) 

Droga naprzód

W zależności od odpowiedzi na niniejszy dokument do dyskusji, ISC utworzy ekspercką grupę roboczą w celu dalszego rozwijania lub zmiany powyższych ram analitycznych, dzięki którym zainteresowane strony mogłyby kompleksowo przyjrzeć się wszelkim znaczącym zmianom w zakresie platform lub wymiarów użytkowania. Grupa robocza byłaby zróżnicowana pod względem dyscyplinarnym, geograficznym i demograficznym, a jej wiedza specjalistyczna obejmowałaby ocenę technologii po politykę publiczną, od rozwoju człowieka po socjologię oraz studia nad przyszłością i technologią. 

Aby wziąć udział w tym dokumencie do dyskusji, odwiedź stronę Council.science/publications/framework-digital-technologies 

Podziękowania

Przy opracowywaniu tego dokumentu, którego autorem jest Sir Peter Gluckman Gluckman, prezes ISC i Hema Sridhar, była główna naukowczyni w Ministerstwie Obrony, a obecnie starsza pracowniczka naukowa Uniwersytetu w Auckland w Nowej Zelandii. 

W szczególności dziękujemy Lordowi Martinowi Reesowi, byłemu prezesowi Towarzystwa Królewskiego i współzałożycielowi Centrum Badań nad Ryzykiem Egzystencjalnym na Uniwersytecie w Cambridge; Profesor Shivaji Sondhi, profesor fizyki, Uniwersytet Oksfordzki; profesor K. Vijay Raghavan, były główny doradca naukowy rządu Indii; Amandeep Singh Gill, wysłannik Sekretarza Generalnego ONZ ds. Technologii; Dr Seán Óh Éigeartaigh, dyrektor wykonawczy, Centrum Badań nad Ryzykiem Egzystencjalnym, Uniwersytet w Cambridge; Amanda-June Brawner, starszy doradca ds. polityki i Ian Wiggins, dyrektor ds. międzynarodowych, Royal Society UK; dr Jerome Duberry, dr Marie-Laure Salles, dyrektor Instytutu Absolwentów w Genewie; Chor Pharn Lee, Centrum Przyszłości Strategicznej, Biuro Premiera, Singapur; Barend Mons i dr Simon Hodson, Komisja ds. Danych (CoDATA); prof. Yuko Harayama, Japonia; profesor Rémi Quirion, prezes INGSA; dr Claire Craig, Uniwersytet Oksfordzki i była dyrektor ds. prognozowania w Rządowym Biurze Naukowym; oraz prof. Yoshua Bengio, Naukowa Rada Doradcza Sekretarza Generalnego ONZ i Université de Montréal. Ogólnie przyjęto podejście oparte na liście kontrolnej i podkreślono terminowość wszelkich działań ISC. 


Dołącz do dyskusji

Włącz obsługę JavaScript w przeglądarce, aby wypełnić ten formularz.
Imię
Płeć
Ochrona danych: Respondenci powinni mieć świadomość, że ISC będzie przechowywać przekazane informacje przez cały czas trwania inicjatywy (patrz: https://council.science/privacy-policy)
Zapraszamy do zapisania się do Newslettera ISC.

Zdjęcie: Adamichi w iStock