Sztuczna inteligencja (SI, ang. AI): Prof. Zybertowicz postuluje moratorium technologiczne.

0
1466
[bsa_pro_ad_space id=5]

Od redakcji Polityki Polskiej: Polecamy ten wywiad z ostatniego dodatku „Plus Minus” dziennika Rzeczpospolita. Ukazuje wiele zagrożeń wynikających z postępu technologicznego, którego głównymi motywami są zysk (Vide Myśli P. Maurine’a dla rządu RP) i innowacje (a ileż startupów upadnie, a niewielka najlepszych zostanie przejęta przez korporacje). Zadajemy pytanie: Czy, jako ludzkość utraciliśmy kontrolę nad kierunkami rozwoju technologicznego ??? Czy jako naród w Polsce potrafimy ujarzmić wielkie kapitały ??? Podkr. red.

[bsa_pro_ad_space id=8]

Sztuczna inteligencja (SI, ang. AI): Prof. Zybertowicz postuluje moratorium technologiczne. zybertowicz„Nie wiemy, jaki będzie efekt kolejnego skoku w rozwoju sztucznej inteligencji, czy powstanie dobry „bóg” optymalizujący zasoby ludzkości, czy „szatan” – byt bardzo potężny, ale zupełnie niewrażliwy na sprawy etyczne” – mówi Michałowi Szułdrzyńskiemu socjolog prof. Andrzej Zybertowicz.

Rzeczpospolita: Rozwój sztucznej inteligencji postępuje bardzo szybko. Jedni przed nim ostrzegają – jak Stephen Hawking czy Elon Musk. Inni zachęcają do dalszych badań, mówiąc o pięknym świecie, jaki dzięki temu powstanie. Kto ma rację?

Prof. Zybertowicz: Bliżej mi do pesymistów. Uważam, że rozwój technologii w ogóle wymyka się spod ludzkiej kontroli i dziś przynosi więcej zagrożeń niż pożytków. Dlatego postuluję moratorium technologiczne. Nie podlegamy już tylko ewolucji kulturowej, lecz techno(r)ewolucji, którą coraz słabiej rozumiemy. Jest ona tak wielowarstwowa, że nie tylko nie istnieje żaden człowiek, który byłby w stanie ją ogarnąć, ale nie ma nawet żadnego modelu teoretycznego, za pomocą którego dynamikę zmian można opisać w stopniu umożliwiającym kierowanie tym procesem.

Od momentu powstania internetu zmieniła się odwieczna relacja między człowiekiem a technologią. Przez wieki mieliśmy przewagę nad narzędziami, które wytwarzaliśmy. Choć jeśli weźmie pan kij czy siekierę, może sobie pan nimi sam zrobić krzywdę, źle ich używając, to tego typu narzędzia są słabsze od człowieka. Gdy powstały technologie sieciowe, ta relacja się odwróciła: człowiek staje się niewolnikiem skokowej zmiany cywilizacyjnej, którą słabo pojmuje. Sztuczna inteligencja (SI) zaś najpewniej doprowadzi do kompletnej zmiany reguł już nie tylko gry w społeczeństwo, co gry w rzeczywistość w ogóle.

Ale dlaczego uważa pan to za niebezpieczne?

Byłem na prezentacji koncepcji smart city w jednym z ministerstw. Widać było wyraźnie, że w ekosystemie, jakim jest inteligentne miasto, człowiek to jedno z mniej ważnych ogniw całości. To człowiek będzie się musiał dostosować do technologii, a nie na odwrót; rozmaite procesy będą wymuszały na nas, byśmy się z nimi synchronizowali.

Czy to wyłącznie zagrożenie?

Narkotyki też są wykorzystywane w celach leczniczych. Smart city to struktura skomplikowana, będzie zarządzać nie tylko ruchem samochodów, tramwajów, kolejki podmiejskiej, świateł ulicznych, emisją zanieczyszczeń itp. Tysiące procesów będzie obsługiwanych przez algorytmy kontrolowane przez inne algorytmy. To będzie prawdziwy Wielki Brat, który będzie decydował o tym, co ludzie mogą robić, a czego nie.

Może zysków będzie więcej niż zagrożeń?

Nie, bo to wszystko będzie dla ludzkich umysłów coraz mniej przejrzyste. Narzucić algorytmy to rozwiązanie (pozornie) czysto techniczne, niepolityczne. Określić zaś, jakie są „prawdziwe” potrzeby człowieka, którym technologia powinna służyć – tu już w grę wchodzą spory metafizyczne i ideologiczne. Pod płaszczykiem racjonalności ekonomiczno-technicznej będą, zresztą już są, przesądzane poza horyzontem debaty publicznej fundamentalne dylematy egzystencjalne.

Poza tym sztuczna inteligencja będzie zarządzała tym miastem inaczej, niżby robił to człowiek. Może się inaczej zachować w sytuacjach kryzysowych, przecież np. nie ma empatii. Nie mówiąc już o skutkach, jakie przyniosłoby zhakowanie systemu zarządzającego inteligentnym miastem. Przecież mogliby to uczynić nie tylko ludzie, tajne służby, terroryści, ale także (czy przede wszystkim) jakaś inna sztuczna inteligencja, którą ktoś wrzucił do sieci i która tam sobie buszuje.

Zwolennicy rozwoju sztucznej inteligencji mówią: przecież to tylko kwestia pewnych założeń, wmontowania bezpieczników. Tak będziemy ją programować, by nie mogła pokonać pewnych barier.

To marzenie sprzed kilkudziesięciu lat. W Polsce w 2016 roku ukazała się książka profesora z Oxfordu Nicka Bostroma „Superinteligencja”, w której autor pokazuje, że jeśli sztuczna inteligencja będzie systemem, który sam się uczy, będzie w stanie np. odkrywać prawa przyrody, których ludzkość jeszcze nie zna. Przecież przez tysiąclecia nie znaliśmy prądu. A SI mogłaby odkryć zjawiska, których ze względu na ich złożoność w ogóle nie potrafimy sobie wyobrazić. Takiej sztucznej inteligencji nie będzie można w żaden sposób wyłączyć, ponieważ ona może uniezależnić się np. od zasilania prądem.

Na razie jednak mamy nad komputerami tę przewagę, że to my je programujemy. Nie możemy się zabezpieczyć przed tym, by się te systemy nie wyrodziły w przyszłości przeciwko nam?

Nie.

Dlaczego?

Po pierwsze, mają być zdolne do samodzielnego uczenia się. Po drugie, nie wiemy, co to znaczy, że one zwyrodnieją i kiedy. Proszę sobie wyobrazić sytuację: dziewczynki przeprowadzają się z tatą inżynierem, który ma budować tamę w Nigerii. Pewnego dnia przyprowadzają do domu małego kotka. Wszyscy się nim zachwycają. Później któryś z tubylców ostrzega, że to nie kotek, tylko malutki tygrys, który, gdy podrośnie, może dzieci pożreć. Któregoś dnia po prostu przestanie być miły. Problem z technorewolucją jest taki, że my przypominamy te dziewczynki, które cieszą się atrakcyjną maskotką. Jakież to ekscytujące, że stworzyliśmy maszyny, które same się uczą grać w różne gry, pokonały człowieka w szachy, pokonały w go, pokera…

No dobrze, zatrzymajmy się przy tej metaforze. Tygrysiątko to sztuczna inteligencja, dziewczynki to my.

A kto jest w realnym świecie tubylcem, który przyjdzie i powie: uwaga, to nie jest zwykły kotek?Punkt ciężkości leży w tym, że to „kotek” zupełnie nowej rasy, jakiej jeszcze na Ziemi nie było. Precedens. Być może jedyny podmiot, który zabawę z tygryskiem mógłby przerwać, to jakiś autorytarny władca posiadający instrumenty, by zabrać nam te zabawki – np. wyłączyć cały internet dla naszego dobra. W obecnych systemach politycznych trudno sobie takie powstrzymanie technoentuzjamu wyobrazić.

Jak będzie wyglądało odkrywanie przez SI nowych praw przyrody? Czy tak jak w przypadku wspomnianej gry go? Zaproponowany przez Google’a program w 70 dni stworzył strategie wygrywania, których ludzie nie odkryli przez 4 tysiące lat, od kiedy tę grę wymyślono.

Ciekawy jest jeszcze inny przykład – systemu, który grał w pokera. Sam wpadł na blefowanie i sięgnął po strategię, którą doświadczeni gracze uważali za nieopłacalną i nieintuicyjną: stawianie wysokich stawek na małe wygrane. System to zastosował i wygrał.

Proszę jednak pamiętać, że grą jest życie społeczne, handel, wojna, biznes rozrywkowy, rynek mediów. Skąd mamy pewność, że dziś za niektórymi zdarzeniami na rynkach finansowych nie stoją jakieś szerzej nieznane systemy sztucznej inteligencji? Może niektórzy inwestorzy już dziś wspomagają się SI, która podpowiada nieintuicyjne, ale jednak opłacalne rozwiązania. Gdy komuś zabraknie umiaru, rzecz się wymknie spod kontroli, rynki się posypią, a kryzys 2008 roku będziemy wspominać jako łagodną przestrogę.

Wiele eksperymentów z SI w przypadku gier pokazuje, że ona dość szybko uczy się też zachowań agresywnych.

Pewien wybitny szef zespołu pracującego nad uczeniem maszynowym (tej technologii ostatnio SI zawdzięcza największe sukcesy) zapewniał mnie, że sztuczna inteligencja przyniesie wielkie korzyści dla ludzkości, ponieważ umożliwi niezwykłą optymalizację posiadanych zasobów. Przykładem niech będzie użycie SI do zarządzania ruchem kontenerowców po oceanach albo ciężarówek po drogach. Znikną puste kursy. A samochody osobowe? Przez 80 proc. lub więcej czasu stoją nieużywane. Przykładów niepełnego wykorzystania zasobów jest mnóstwo.

Ale tu dochodzimy do problemu: jeśli dla systemu celem jest optymalizacja, to reszta jest temu podporządkowana. SI się nie waha, człowiek często – dlatego nie przeginamy z konsekwencją działania. Dla systemu ważne jest poprawienie jakiegoś parametru lub zbioru parametrów, na resztę jest ślepy. Człowiek zaś nie myśli po prostu sobą, swym umysłem, myśli kulturą nabytą w trakcie socjalizacji. To bufor chroniący nas przed niektórymi skutkami działań, które na pozór wydają się opłacalne.

Jest jeszcze odrębny problem. Młodzi miliarderzy z Doliny Krzemowej, którzy uważają, że mają misję zmieniania świata. Istnieją tysiące startupów. Większość z nich znika, część utrzymuje się na rynku. Niektórzy twórcy przy sprzyjających warunkach robią fortuny wielomilionowe. Ale nieliczni, poprzez splot różnych warunków, zostają miliarderami – nie zawsze dlatego, że są geniuszami lub że mają wyjątkowe doświadczenie, ale przez zbieg warunków rynkowych i technologicznych. Mając trzydzieści kilka lat i ogromne fortuny, chcą zbawić świat – połączyć wszystkich ludzi na Ziemi, wyleczyć wszystkie choroby, wreszcie dać człowiekowi nieśmiertelność. Czymże innym jest wizja Marka Zuckerberga, by połączyć wszystkich ludzi, jak nie reinkarnacją oświeceniowego marzenia Immanuela Kanta doprowadzenia do wiecznego pokoju między narodami. Marzenie piękne, ale to za sprawą Facebooka powstał ocean dezinformacji, w którym tonie prawda, który wykorzystywany jest przez niektóre rządy do zmasowanej i kłamliwej propagandy, miażdżącej krytykę i obrońców praw człowieka.

Ale ten system Doliny Krzemowej jest niezwykle demokratyczny. W biznesie internetowym bariera wejścia na rynek jest niska, więc każdy kto ma dobry pomysł, może osiągnąć sukces.

Pozornie. Zwolennicy wolnego rynku żyją iluzją, że w e-biznesie kreatywność i ciężka praca gwarantują sukces, bez większych zapór początkowych. Ale jest inaczej. Dziś, jeśli dobry pomysł wykazał poważniejszy potencjał rynkowy, zaraz jest namierzony przez któryś z technogigantów. I firma zostaje wykupiona przez któregoś z nich, by dla niego pracować. I gdy pana firma jest warta 50 mln dolarów, dostaje pan propozycję wykupu za kilkaset…

…byle nie robić konkurencji tym wielkim firmom.

Właśnie. Niska bariera wejścia na rynek, ale nie do przekroczenia bariera konfrontacji z liderami branży. Polityka wielkich koncernów jest taka, by wyłapać wszelkie możliwe alternatywy, wszelkie pomysły, które mogłyby nadgryźć ich monopol. Tworzą specjalne programy, które śledzą, czy nie pojawiło się coś, co może im zagrozić. I potem wchłaniają.

Pomysł na tzw. sharing economy (ekonomię współdzielenia) opiera się na optymalizowaniu zasobów, o którym mówił pan chwilę wcześniej. Nie używamy samochodu 80 proc. czasu, więc ja podjadę na Krakowskie, pan profesor podjedzie gdzieś dalej, potem ktoś inny.

Piękne. Zwłaszcza na początku. Też początkowo byłem zachwycony Uberem – masz samochód, wolny czas i możesz sobie dorobić. Ale oprócz pożytków ekonomia współdzielenia rodzi sporo negatywnych skutków ubocznych. Za sprawą rewolucji, którą w hotelarstwie przyniosła sieć bezpośredniego wynajmu mieszkań Airbnb, np. Barcelona została doprowadzona do kryzysu „overtourismu”, przeciążenia systemu miejskiego przez turystykę i liczbę gości. Początkowo chodziło o podnajem własnego mieszkania, ale okazało się, że w Barcelonie ani studenci, ani pracownicy nie mogli sobie pozwolić na wynajem na dłużej rozsądnego lokum, bo korzystający z Airbnb turyści skokowo zawyżyli ceny.

Każda technologia przynosi ze sobą nieplanowane skutki uboczne. A jeśli jest ona usieciowiona, to następują przerzuty nawet na odległe części tkanki społecznej.

Amerykańscy farmerzy mają kłopot z traktorami John Deere, których oprogramowanie blokuje nawet drobne naprawy bez wezwania autoryzowanego serwisu. Co robią? Nabywają zhakowane oprogramowanie, pochodzące ponoć z Ukrainy i Polski, co pozwala samodzielnie naprawiać usterki. To drobny przykład szerszego trendu, gdy nabywca produktu traci nad nim kontrolę. Technologie mające ułatwiać życie stały się narzędziem przechwytywania przez producentów władzy, jaką konsument dawniej posiadał nad nabytym przez siebie produktem.

Z punktu widzenia wytwórców na tym właśnie polega optymalizacja. A teraz sobie proszę wyobrazić, że sztuczna inteligencja będzie w podobny sposób optymalizowała nie tylko funkcjonowanie sprzętów, ale także instytucji publicznych.

Za to technologie znów dają nam piękne sny. Inny przykład to bitcoin. Dziś jest wart kilkanaście tysięcy złotych, ale ludzie wierzą, że za rok będzie wart 100 tysięcy. Kto by się nie skusił? Spekulacja elektroniczną walutą nikomu nie robi krzywdy.

Nie całkiem wiemy, na czym polega styk między kryptowalutami a walutami tradycyjnymi. Czyli nie wiemy, jakie skutki uboczne mogą zaistnieć. Kryptowaluty też wzięły się z pięknego marzenia, byśmy przekazując sobie pieniądze, nie byli skazani na system pocztowy ani bankowy. Jakże to obywatelskie: sami będziemy emitować pieniądz, sami go będziemy sobie przesyłać, a jedynymi ograniczeniami będą prawa przyrody rządzące informatyką. Ale nagle się okazuje, że ludzie na komunikatorze Messenger rozsyłają sobie linki do filmików, które w tle uruchamiają program do tego, by z pomocą naszych komputerów ktoś inny „wykopywał” kryptowaluty dla siebie. Wolna moc obliczeniowa twego sprzętu może być przechwycona, by ktoś tworzył swe bogactwo. A teraz wyobraźmy sobie, że do takich sztuczek wykorzystywana będzie sztuczna inteligencja kolejnej generacji. Czy ktoś będzie to potrafił zatrzymać?

Powtarza pan wezwanie do wprowadzenia moratorium na rozwój technologii. Bądźmy realistami. Jak miałoby ono wyglądać?

W latach 70. ubiegłego wieku biolodzy w istocie przyjęli moratorium dotyczące pewnych manipulacji genetycznych. I motyw moratorium ponawiano w różnych kontekstach. W biotechnologii jest to dziś znacznie trudniejsze, bo techniki edycji genów są tak tanie, że trudno to dalej kontrolować. Po drugiej wojnie światowej nie brakowało głosów, że zabójczy konflikt jądrowy jest nie do uniknięcia. Dzięki kombinacji różnych działań – prawnych i uzgodnień nieformalnych – wojna jądrowa nie wybuchła. Profesor Uniwersytetu Harvarda i były zastępca sekretarza obrony USA Joseph Nye uważa, że jeśli nie wprowadzimy jakiejś formy kontroli nad rozwojem cyberbroni, to cyfrowy wyścig zbrojeń wykończy ludzkość.

Wcześniej musimy jednak przyznać, że istnieje newralgiczny proces, który wymknął się spod kontroli. Jednym ze skutków technorozwoju jest przywiązanie elit Zachodu do oświeceniowego przesądu, że wiedza jest dobrem bezproblemowym, że możemy poznać świat w sposób obiektywny, a poznawszy jego prawa, racjonalnie urządzić go zgodnie z ludzkimi wartościami. Istnieje wiara, że jeśli odrzucimy religię, tradycję i uprzedzenia to czystym rozumem poznamy zasady, według których będziemy dobrze żyć. Ale to złudzenie.

Dlaczego?

Wśród powodów jest i to, że natura naszego poznania jest taka, iż poznając świat, zarazem – nieuchronnie – zmieniamy go. Tworzymy nowe warstwy rzeczywistości, które wymagają dalszego poznania i tak horyzont ucieka nam w nieskończoność. Niedawno powołaliśmy do życia świat wirtualny, który oddziałuje na nasz świat, a każde odkrycie technologiczne jeszcze bardziej go modyfikuje. Powstają nowe domeny rzeczywistości, które ciągle uciekają naszemu poznaniu. Gdy tylko za pomocą naukowej wiedzy i techniki rozwiązujemy jakiś problem, tworzymy wiele innych, często bardziej złożonych.

Technologia miała ułatwiać życie, tymczasem coraz częściej je komplikuje. Trzeba uczyć się obsługi ciągle nowych sprzętów, nowych procedur bezpieczeństwa, kolejnych gadżetów itd. Miała uczynić życie wygodniejszym, a okazało się, że na wszystko brakuje nam czasu.

To może właśnie sztuczna inteligencja pomoże nam te uciekające horyzonty okiełznać?

Nie wiemy, w co sztuczna inteligencja się wykrystalizuje, co będzie tym lodem. Tak jak istnieje masa krytyczna materiałów radioaktywnych, od której zaczyna się reakcja łańcuchowa, może istnieć masa krytyczna dla sztucznej inteligencji lub innych procesów zmiany technologicznej. Na przykład, nie mamy pojęcia, co się stanie, gdy wynajęty przez bufona miliardera geniusz jakoś zsynchronizuje różne, już istniejące, na razie wąsko wyspecjalizowane systemy SI.

Opowieść: pod koniec lat 60. XX wieku Amerykanie do ogromnego komputera, rozstawionego na płycie nieużywanego lotniska w Teksasie, wprowadzili zawartość całej Biblioteki Kongresu i w ogóle wszystkich książek na świecie. Zebrano komisję najwybitniejszych ekspertów, noblistów itd., która miała zdecydować, jakie będzie pierwsze pytanie zadane maszynie po jej uruchomieniu. Zdecydowano: „Czy istnieje Bóg?”. System zaczął brzęczeć i dygotać. Po pół godzinie padła odpowiedź: „Teraz tak”. Reguły gry się zmieniły.

Nie wiemy, jaki będzie efekt kolejnego skoku w rozwoju SI, czy powstanie dobry „bóg” optymalizujący zasoby ludzkości czy „szatan” – byt bardzo potężny, ale zupełnie niewrażliwy na sprawy etyczne. Tu też powstaje inne pytanie: jeśli powstanie SI, którą będziemy chcieli programować tak, by etyczną wrażliwość miała, to według której z religii należy ją ewangelizować?

Może da się go zaprogramować właśnie do czegoś dobrego?

Problem w tym, że SI nie musi być od nas mądrzejsza, by stać się niebezpieczna. Czy nie zdarzyło się panu, że ktoś mniej inteligentny pana oszukał? Miał mniejszą wiedzę, mniejszą wrażliwość, a wyprowadził pana w pole? Proces ewolucji nie polega na tym, że wygrywa ten, kto zna wszystkie opery. Może się okazać, że sztuczna inteligencja, mając ledwie ułamek zdolności człowieka, ale będąc wyspecjalizowana w aspekcie, który w danej fazie rozwoju technoewolucji jest kluczowy, nas wykiwa. I może nie dlatego, że będzie miała ku temu ambicje, tylko dlatego, że będzie starała się zoptymalizować jakiś parametr.

Stanisław Lem pisał w „Kongresie futurologicznym” o tym, że jeśli roboty będą wystarczająco inteligentne, zamiast wykonywać zadaną im pracę, będą nas oszukiwać, bo bardziej racjonalnie jest udawać pracę, niż się namęczyć.

Jeśli system ma zapisany jeden naczelny wskaźnik, będzie go maksymalizował bez względu na koszty.

Czyli sztuczna inteligencja jest trochę podobna do człowieka. Ale czy można sobie wyobrazić wspieranie naszej inteligencji pracą maszyn?

Przecież to już się dzieje. Ale trochę zmienię to pytanie: jak wyglądałyby losy totalitaryzmu, gdyby ktoś tak demonicznie inteligentny jak Józef Stalin miał wsparcie dzisiejszych technologii? Przy czym nie chodzi wyłącznie o widmo tradycyjnego totalitaryzmu. Proszę sobie wyobrazić, że ktoś mający takie ambicje wpływania na rzeczywistość polityczną jak George Soros oprócz miliardów dolarów do wydania w różnych krajach i sieci organizacji pozarządowych ma do dyspozycji SI dekodującą mu słabe punkty różnych kultur tradycyjnych. Wyobraźmy sobie konsekwentne zaprzęgnięcie nowoczesnej technologii do realizowania czyjejś „postępowej” wizji. Na przykład do monitorowania aktywności w sieci tych wszystkich, którzy kontestują idee progresywne, a następnie automatycznego uruchamiania wyrafinowanych akcji defamacyjnych przeciw takim osobom.

Ludzki umysł dla wielu twórców SI jest wzorem. Wiele modeli sztucznej inteligencji odwzorowuje jego działanie…

Tak było kiedyś. Teraz prace idą w innym kierunku. Zamiast budować sztuczną inteligencję po ludzku skomplikowaną, można sprowadzić ją do rozwiązywania poszczególnych zadań – na przykład samodzielnego parkowania auta, do prowadzenia dialogu terapeutycznego lub przetwarzania danych medycznych. W przypadku gry w go, nie potrzeba, by komputer miał wrażliwość etyczną, lecz jedynie, by umiał uczyć się wygrywać w tę właśnie grę.

Wracając do pańskiego pytania o wspieranie się człowieka tymi technologiami, implanty to już nie jest pieśń przyszłości. Wiemy o udanym stymulowaniu przezczaszkowym wybranych typów zachowań, np. osłabianiu empatii u żołnierzy, którzy mieliby zabijać przeciwników. Psychologia behawioralna pokazała, jak tworzyć warunki, w których człowiek wyrzeka się swoich norm moralnych, byleby tylko osiągnąć zamierzony cel.

Zarówno prawo, moralność, jak i polityka oparte są na pewnym założeniu antropologicznym dotyczącym ludzkiej natury.

A mamy jasność, czym ta natura jest? Zastanawiam się, czy przynajmniej część sporów o nią bierze się stąd, że, jak się uważa, 1 do 2 proc. ludzi wykazuje cechy psychopatyczne. Być może obecność osób o takich właściwościach w kluczowych węzłach życia społecznego sprawia, że niektórzy w ogóle kwestionują istnienie uniwersalnej ludzkiej natury. Myślę jednak, że istnieją podstawowe cechy powtarzalne dla większości jednostek, choć z rozmaitym natężeniem. Ale cechy te nie są zapisane w kamieniu, a raczej gdzieś w sieciach neuronalnych.

Pod wpływem używania technologii następuje zmiana wielu naszych nawyków poznawczych. Opisał to m.in. w książce „Płytki umysł” Nicholas Carr. Nie potrafimy już na wiele godzin skupić się na jednej czynności, czujemy potrzebę nowych bodźców. Ale zmiany idą dalej, ponieważ dziś genetycy wskazują, że umiejętności nabyte w ciągu życia mogą być dziedziczone. A więc nowe nawyki poznawcze (np. unikania autorefleksji) mogą być dziedziczone przez nasze dzieci. Jest jednak i kolejny poziom: neuronauka, dając nam wiedzę o funkcjonowaniu umysłu, jednocześnie dostarcza narzędzia do wpływania na jego pracę, a także do trwałej przebudowy. Tu mamy całą sferę tzw. human enhancement: polepszania cech człowieka potrzebnych do wykonywania pracy (albo grania na komputerze). U żołnierza chodzi o odporność na stres, u chirurga o wyższy poziom koncentracji w czasie wielogodzinnej operacji itp. Pozornie same plusy, ale na poziomie społecznym może to mieć nieplanowane konsekwencje, których dziś nie jesteśmy w stanie przewidzieć.

Ongiś nie istniała żadna rzeczywistość wirtualna. Owszem, już Platon mówił o samoistnym świecie idei, ale to nie wychodziło poza dyskurs filozoficzny czy literacki. Dziś rzeczywistość wirtualna nie tylko jest odrębną rzeczywistością, ale wprost pożera (czy zasysa) tę tradycyjną. Ludzie chodzący po górach z kamerami Google’a, by zdigitalizować wszystko, co widzialne, przyczyniają się do zamiany świata realnego w wirtualny. Stworzyliśmy świat wirtualny, a więc w pewnym sensie pomnożyliśmy rzeczywistość. Ale jaką mamy gwarancję, że jakaś oparta na SI technologia nie odkryje lub nie stworzy kolejnej warstwy rzeczywistości, której w ogóle nie będziemy w stanie sobie wyobrazić? Jak wobec niej będzie się sytuować ludzki umysł, ludzka dusza?

To ma też konsekwencje filozoficzne. Arystoteles mówił, że prawda to zgodność myśli z rzeczywistością. Pytanie z którą – tą realną czy wirtualną?

Właśnie. Formuła Arystotelesa sprawdza się chyba wyłącznie w odniesieniu do kontekstów, które zostały społecznie skonwencjonalizowane (wystandaryzowane) – praktycznie i językowo. Nie obejmuje sytuacji, które nie zostały jeszcze opisane ani językowo, ani praktycznie oswojone. Na tych polach działają inne formy prawdziwości, choć wielu filozofów nie chce tego przyjąć do wiadomości. Pisałem zresztą o tym ponad 20 lat temu w książce „Przemoc i poznanie”.

Ale jak narysować granicę miedzy tym, co wirtualne, a tym, co realne? Jeśli polityk obraża innego na Twitterze, inny się do tego odnosi, tysiące kolejnych osób – wyborców – podaje to dalej. To jeszcze świat wirtualny czy już realna polityka? Jeśli Trump na swym profilu na Twitterze komentuje najważniejsze wydarzenia międzynarodowe, to już nie jest tylko wirtualna rzeczywistość?

Jeśli tysiąc osób obrazi pana w internecie, to czuje się pan mniej upokorzony niż gdy dostanie pan kopniaka od chuligana w parku? Jeśli coś wywołuje reakcje emocjonalne, jest realne, bez względu na to, gdzie się zdarza. To prawda emocji decyduje o tym, czy coś jest faktyczne.

Nie ma polityki bez emocji, ale nie ma też polityki bez informacji. A cała sfera informacji przeniosła się do sieci. Gdy Rosjanie wchodzą ze swoją dezinformacją do sieci, konsekwencje znów są całkiem realne.

Oczywiście. I dlatego wielu wojskowych planistów ma w swoich strategiach dotyczących konfliktów pełnowymiarowych jako jeden z pierwszych celów likwidację rzeczywistości wirtualnej. Przecięcie światłowodów na dnie mórz i oceanów, uderzenie w największe serwerownie, główne węzły sieci oraz klasyczne uderzenie w elektrownie. Pierwszym dostrzeżonym ciosem nowej wojny może być zniknięcie wirtualu.

Czyli tylko wojna jest w stanie zrealizować pański postulat moratorium na rozwój sieciowych technologii…

Oby nie. Chyba że któraś ze stron do tego czasu wykorzysta SI, by wymyśliła inny niż cyfrowy model własnego przetrwania. Może ona odkryje nowe prawa fizyki, które pozwolą jej istnieć bez względu na nas.

Poza znanym nam dzisiaj przepływem elektronów w półprzewodnikach, na których oparta jest dzisiejsza technologia?

Dokładnie tak. Sztuczna inteligencja być może wymyśli sobie inny sposób funkcjonowania i w ogóle nam o tym nie powie. Wtedy atak na rzeczywistość wirtualną nie przyniesie zamierzonego rezultatu. Dlatego cyfrowy wyścig zbrojeń to nie tylko przenośnia.

—rozmawiał Michał Szułdrzyński

Prof. Andrzej Zybertowicz jest socjologiem, doradcą prezydenta Andrzeja Dudy. W 2015 roku wraz z zespołem wydał książkę „Samobójstwo Oświecenia? Jak neuronauka i nowe technologie pustoszą ludzki świat”

[bsa_pro_ad_space id=4]