29.06.2025
W maju 2025 roku Chiny i Wielka Brytania odbyły spotkanie dotyczące sztucznej inteligencji z udziałem wysokich rangą przedstawicieli obu rządów. Kolejne takie spotkanie od 2023 roku potwierdza wspólne zainteresowanie zarządzaniem i kontrolą bezpieczeństwa AI, a także chęć kształtowania międzynarodowych ram regulacyjnych. W przeciwieństwie do takich obszarów jak handel, finanse czy klimat, w których istnieją rozwinięte reżimy międzynarodowe, zarządzanie AI wciąż nie posiada spójnych instytucji ani jednolitych standardów. Obecny porządek regulacyjny jest fragmentaryczny – kształtowany przez konkurujące modele, interesy geopolityczne oraz asymetryczne zdolności technologiczne. W tej sytuacji Chiny próbują wyjść poza rolę biernego uczestnika i aktywnie angażują się w tworzenie nowych zasad, budując wizerunek lidera w dziedzinie globalnej technologii i regulującego je prawa.
Gdzie kucharek sześć…
Wysiłki na rzecz globalnego uregulowania sztucznej inteligencji pozostają rozproszone i obciążone napięciami światopoglądowymi. Lider sektora nowych technologii, Stany Zjednoczone ograniczają regulacje prawne wokół AI, stawiając na innowacyjność i przewagę konkurencyjną. Mimo pracy ciał takich jak National Security Commission on AI (do 2021 roku) czy Center for AI Standards and Innovation (do niedawna nazywane AI Safety Institute) nie istnieje jedna wyczerpująca ustawa na poziomie federalnym, a obecny zbiór przepisów niektórzy porównują do prawnego „patchworku”. W Kongresie mają trwać prace nad ponad 120 ustawami w różnym zakresie regulującymi sztuczną inteligencję.
Kierunek prawniczego minimalizmu pogłębił się po objęciu urzędu prezydenta przez Donalda Trumpa. Jego rozporządzenie wykonawcze z 2025 roku znacząco zredukowało elementy nadzoru wprowadzone wcześniej przez administrację Bidena, wyraźnie faworyzując deregulację i interes gospodarczy. Podczas szczytu AI w Paryżu na początku 2025 roku amerykański wiceprezydent JD Vance deklarował, że „USA chce rozpocząć rewolucję sztucznej inteligencji w duchu otwartości i współpracy, ale aby stworzyć tego rodzaju zaufanie, potrzebujemy międzynarodowych systemów regulacyjnych, które sprzyjają jej tworzeniu”. W dalszej części swojego wystąpienia przestrzegł Europę przed nadmierną regulacją, która mogłaby „ukręcić łba” innowacyjności.
Jak sugerują komentarze Vance’a, pomiędzy USA a UE w tej dziedzinie występują pewne różnice ideologiczne. Bruksela kieruje się zdecydowanie zasadami normatywnymi; przyjęta przez nią w 2024 roku Ustawa o AI (AI Act) to pierwszy na świecie kompleksowy akt prawny regulujący tę technologię. Dokument wprowadza m.in. klasyfikację ryzyka, pewne zakazy etyczne i odpowiedni obowiązek nadzoru ludzkiego nad technologią wysokiego ryzyka powiązaną ze zdrowiem, bezpieczeństwem czy podstawowymi prawami człowieka. Unormowanie sztucznej inteligencji jest niewątpliwie próbą UE, aby powtórzyć sukces przywódczy ustanowienia porządku prawnego ochrony danych osobowych (RODO).
Poza ramami UE kraje europejskie podejmują również własne działania na rzecz regulacji AI. Na początku 2025 roku Francja wraz z Indiami współorganizowały wspomniany wcześniej szczyt działania na rzecz AI w Paryżu, który zgromadził ponad 1000 uczestników ze 100 państw. W trakcie niego 61 państw podpisało deklarację na rzecz inkluzywnej i zrównoważonej sztucznej inteligencji – lecz wśród nich zabrakło USA, które miały odmówić ze względu na zbyt liczne wzmianki o multilateralizmie i inkluzywności, a także Wielkiej Brytanii, która zwróciła uwagę na brak wystarczających postanowień o globalnym zarządzaniu AI oraz bezpieczeństwie narodowym.
Równolegle organizacje międzynarodowe takie jak OECD czy G7 również podejmują próby koordynacji polityki państw zachodnich. G7 promuje podejście „skupione na człowieku”; inicjatywy takie jak Hiroshima AI Process promują wartości takie jak wzrost gospodarczy, korzyści społeczne i podejmowanie globalnych wyzwań przy jednoczesnym przestrzeganiu wartości demokratycznych, praw człowieka, przejrzystości i odpowiedzialności. Również OECD kładzie nacisk na „ludzki” aspekt; w 2019 roku stworzyło Zasady OECD dotyczące AI, które promują przejrzystość, solidność i odpowiedzialność, wspierając harmonizację standardów i budowę zdolności instytucjonalnych.
Mimo rosnącej liczby inicjatyw, regulacje AI w państwach zachodnich pozostają nieskoordynowane. Zarysowują się różnice instytucjonalne i ideologiczne, które utrudniają wypracowanie wspólnego podejścia.
AI z chińską specyfiką
Również Chiny starają się przedstawić swoją wizję zarządzania AI – opartą na suwerenności państwowej, bezpieczeństwie i rozwoju technologicznym. W odróżnieniu od liberalno-demokratycznych modeli, chiński system zarządzania AI jest ściśle powiązany z interesem państwa i legitymizacją władzy. Oficjalnie jednak władze propagandowo określają swoją koncepcję yi ren wei ben (以人为本) – podejścia skoncentrowanego na człowieku – zgodnie z którym technologie AI mają służyć dobru wspólnemu, choć podkreślana jest również kwestia ładu społecznego i stabilności państwa.
Od 2017 roku, kiedy opublikowano Narodowy Plan Rozwoju AI, Pekin konsekwentnie buduje ramy instytucjonalne mające przyczynić się do zdobycia pozycji globalnego lidera w tej dziedzinie do 2030 roku. Ostatnie lata przyniosły przyspieszenie regulacyjne. Dokumenty takie jak Biała księga o godnej zaufaniu sztucznej inteligencji (2021 rok), Normy etyczne dla nowej generacji AI (2021 rok) czy Środki tymczasowe dotyczące generatywnej AI (2023 rok) wprowadzają coraz bardziej szczegółowe wytyczne dotyczące przejrzystości, odpowiedzialności, uczciwości, bezpieczeństwa i zgodności z „socjalistycznymi wartościami podstawowymi”. Planowana ustawa o AI – zaprezentowana w 2024 roku – rozszerza zakres odpowiedzialności podmiotów rozwijających i wdrażających AI, nadal nie określa konkretnych mechanizmów jej praktycznego wdrożenia.
Chiny akcentują potrzebę „kontroli nad AI” – nie tylko w sensie technologicznym, ale przede wszystkim politycznym i społecznym. Narzędzia takie jak system oceny algorytmów, obowiązek oznaczania treści generowanych przez AI czy ograniczenia dla mediów syntetycznych mają nie tylko przeciwdziałać dezinformacji, ale także zapewnić zgodność z „interesem społecznym” i „wizerunkiem narodowym”. Dla KPCh „kontrola człowieka nad maszyną” oznacza de facto kontrolę partii nad informacją. System jest z założenia ostrożny i centralistyczny z wyraźną dominacją władzy państwowej nad sektorem prywatnym.
Zarządzanie sztuczną inteligencją jest dla Chin szansą na kreowanie miękkiej siły na arenie międzynarodowej. W 2023 roku na trzecim Forum Pasa i Szlaku Xi Jinping zaprezentował Globalną Inicjatywę na rzecz Zarządzania AI promującą globalne i inkluzywne podejście do sztucznej inteligencji. Pekin stara się również inicjować podobne działania na forum ONZ. W 2024 roku Chiny wraz z Organizacją Narodów Zjednoczonych do spraw Rozwoju Przemysłowego współorganizowały Światową Konferencję AI w Szanghaju, kończącą się przyjęciem Deklaracji Szanghajskiej. Również w 2024 roku Chiny wraz z Zambią współorganizowały pierwsze „Spotkanie Przyjaciół na rzecz Międzynarodowej Współpracy Budowy Potencjału AI”, w której miało uczestniczyć ponad 80 przedstawicieli państw i agencji ONZ. Konsekwencją spotkania było jednomyślne przyjęcie rezolucji o współpracy na rzecz budowy potencjału AI, poruszającą tematy transferu technologii i edukacji cyfrowej.
Inicjatywy te mają przede wszystkim podkreślać wizerunek Chin jako odpowiedzialnego gracza i rzecznika Globalnego Południa. Ważną rolę odgrywa też promocja rozwiązań open-source, szczególnie tam, gdzie ograniczony jest dostęp do rozwiązań zachodnich. Jednocześnie pojawiają się wątpliwości co do autentyczności tego przekazu – model Pekinu oparty jest na kontroli, cenzurze i ograniczaniu swobód; przyświecają mu także ukryte cele polityczne, co trudno pogodzić z deklaracjami inkluzywności, równości i współpracy.
Dialog w cieniu rywalizacji
Na tle rosnącej rywalizacji między USA, UE i Chinami, Wielka Brytania podejmuje próbę wypracowania własnego, pragmatycznego podejścia do globalnego zarządzania AI. Dialog z Chinami, zainicjowany w 2023 roku i kontynuowany w maju 2025 roku, odzwierciedla ten kierunek. Majowemu spotkaniu przewodniczyli Sun Xiaobo, dyrektor Departamentu Kontroli Zbrojeń chińskiego Ministerstwa Spraw Zagranicznych oraz Chris Jones, dyrektor Departamentu Nauki i Technologii brytyjskiego Biura Spraw Zagranicznych, Wspólnoty Narodów i Rozwoju. Choć rozmowy miały charakter techniczny, ich wymiar polityczny był również symboliczny. Strony uzgodniły m.in. współdzielenie najlepszych praktyk czy wspólne oceny ryzyka – działania oceniane jako stosunkowo neutralne, a jednocześnie użyteczne z punktu widzenia własnych interesów strategicznych.
Londyn dostrzega, że pomimo głębokich różnic systemowych z Pekinem, istnieje jeden obszar, który może tworzyć podstawy bilateralnej współpracy – bezpieczeństwo sztucznej inteligencji. Obie strony dzielą niepokój związany z utratą kontroli nad systemami AI, ich potencjalnym wykorzystaniem przez aktorów niepaństwowych czy eskalacją zagrożeń dla porządku publicznego. To właśnie brak wystarczających zapisów dotyczących ryzyka technologicznego i mechanizmów zarządzania bezpieczeństwem w końcowej deklaracji szczytu paryskiego w 2025 roku, jak wspomniano wyżej, skłonił Wielką Brytanię do odmowy jej podpisania.
Dla Wielkiej Brytanii zaangażowanie w dialog z Chinami ma także wymiar polityczny – współpracując z jednym z liderów rozwoju sztucznej inteligencji, Londyn może mieć wpływ na kształtowanie przyszłych reguł gry. Przy dynamicznym wzroście chińskiego potencjału technologicznego – liczbie patentów, inwestycji i kadry STEM – ignorowanie Pekinu oznaczałoby rezygnację z roli współtwórcy międzynarodowych standardów. Dialog jest więc próbą zarządzania ryzykiem, ale też instrumentem zachowania podmiotowości i kreowania międzynarodowego prestiżu.
Dla Chin natomiast spotkania z Wielką Brytanią to okazja do wzmocnienia wizerunku odpowiedzialnego aktora, promującego wielobiegunowy porządek technologiczny. Jednocześnie są to także działania sygnalizujące dystans wobec inicjatyw dominowanych przez USA i UE. Choć retoryka obu stron wskazuje na wspólne cele, istotne różnice pozostają – Londyn podkreśla znaczenie przejrzystości i otwartości, Pekin – suwerenności i kontroli. Wypowiedź ambasadora Chin w Londynie, ostrzegająca przed „nadmiernym rozszerzaniem pojęcia bezpieczeństwa narodowego” i „ideologizacją” kwestii AI, dobrze oddaje dyplomatyczną logikę tych spotkań – współpraca z Chinami będzie odbywać się na ich warunkach.
Podsumowanie
Globalna debata o sztucznej inteligencji nie dotyczy wyłącznie technologii, lecz zasad porządku światowego. W tym sensie zarządzanie AI staje się nowym polem rywalizacji strategicznej – o wpływy, prestiż i kształt przyszłych instytucji. Chiny, promując własny model, próbują przesunąć punkt ciężkości z liberalno-demokratycznych wartości ku logice bezwzględnej państwowej kontroli opartej o zasady suwerenności.
Jednak dla technologicznych liderów prawdziwym wyzwaniem będzie nie tyle eksport własnego modelu, ile zdolność do funkcjonowania w środowisku wielobiegunowym – z niejednoznacznymi zasadami, zmiennymi sojuszami i technologią jako narzędziem i przedmiotem władzy.