archiwum tekstów  sieciowych:
teksty on line
 
 
biblioteczka:
PIOTR WYRZYKOWSKI, CYBERSEX; FOTOGRAFIE Z REALIZACJI MULTIMEDIALNEJ, 1999

Czy jesteśmy potrzebni przyszłości?

 Bil Joy


Skrócona wersja eseju Bila Joy'a
opublikowanego w całości
w kwietniowym, 8 nr "Wired" z 2000 roku


Najpotężniejsze technologie XXI wieku - robotyka, inżyniera genetyczna i nanotechnologia - mogą sprawić, że ludzkość będzie gatunkiem zagrożonym.

Od chwili, kiedy zaangażowałem się w tworzenie nowych technologii, zastanawiały mnie związane z nimi kwestie etyczne, ale dopiero jesienią 1998 roku uświadomiłem sobie z niejakim przerażeniem, jak wielkie zagrożenia czekają nas w XXI wieku. Mój niepokój datuje się od dnia, kiedy poznałem Ray'a Kurzweila, wynalazcę pierwszej maszyny czytającej dla ociemniałych, człowieka cieszącego się zasłużoną sławą z racji swoich niezwykłych dokonań.

Obydwaj wygłaszaliśmy referaty na konferencji Telecosm, zorganizowanej przez George'a Gildera. Tego samego dnia wieczorem spotkałem Ray'a w barze naszego hotelu. Siedziałem tam z Johnem Searle'em, filozofem z Berkeley, który zajmuje się świadomością. Dołączył do nas Ray, zaczęła się rozmowa, której temat prześladuje mnie do dziś.

Obradując w innej sekcji nie mogłem wysłuchać tamtego dnia referatu Ray'a, ominął mnie też panel, w którym obaj z Johnem brali udział; teraz wrócili do podejmowanych tam wątków. Ray opowiadał, że tempo udoskonalania technologii ulegnie przyspieszeniu, a my sami staniemy się robotami albo istotami podobnymi robotom. John protestował, twierdził, że to niemożliwe, bo roboty nie mają świadomości.

Przysłuchiwałem się wcześniej podobnym dyskusjom, ale zawsze uważałem, że odczuwające roboty należą do świata s-f. Tym razem było inaczej: ktoś, kogo zdanie ceniłem, utrzymywał, że to nie fantastyka, lecz niedaleka przyszłość. Prognozy Ray'a zmroziły mnie. Co prawda, zdawałem sobie sprawę, jakie możliwości przekształcania świata dają nam inżynieria genetyczna i nanotechnologia, ale dotąd nie zastanawiałem się, jak realistyczna i bliska jest perspektywa pojawienia się inteligentnych robotów.

Codziennie niemal słyszymy o jakichś przełomowych nowinkach technologicznych albo odkryciach naukowych. Tego rodzaju doniesienia stały się wyświechtanym frazesem medialnym. Tym razem nie był to frazes. W barze hotelowym dostałem od Ray'a próbny wydruk jego przygotowywanej do druku książki The Age of Spiritual Machines, w której nakreślał perspektywę nowej utopii - gatunku ludzkiego bliskiego nieśmiertelności dzięki technologii robotycznej. Lektura The Age... nasiliła tylko mój niepokój; autor opowiadał o niebezpieczeństwach i fatalnych skutkach eksperymentów z myślącymi maszynami.

Najbardziej złowrogi wydał mi się fragment, w którym naszkicowany został dystopijny scenariusz przyszłości:

Nowy Luddyta

"Załóżmy, że naukowcom uda się zbudować inteligentne maszyny, zdolne wyręczać ludzi i sprawniejsze od nich. Ludzka praca stanie się zbędna, w jej miejsce pojawi się skomplikowany system wysoko zorganizowanych maszyn. Zdarzenia mogą potoczyć się wtedy w dwóch kierunkach: albo maszyny będą same podejmowały decyzje, bez nadzoru człowieka albo zachowamy kontrolę nad nimi.

Jeśli pozwolimy maszynom podejmować decyzje, nie sposób przewidzieć efekty, bo nie wiemy, jak takie maszyny będą się zachowywać. Jedno jest niemal pewne: los gatunku ludzkiego zostanie wydany na ich łaskę. Można przypuszczać, że człowiek nie będzie tak lekkomyślny, by zrzec się całej swej władzy na rzecz maszyny. Nie twierdzę, że dobrowolnie oddamy władzę, ani że maszyny będą chciały ją rozmyślnie przejąć. Istnieje jednak prawdopodobieństwo, że staniemy się tak bardzo zależni od maszyn, iż nie będziemy mieli innego wyboru, jak godzić się z podejmowanymi przez nie decyzjami. W miarę jak problemy, z którymi musi zmierzyć się społeczeństwo, będą stawać się coraz bardziej skomplikowane, a maszyny coraz bardziej inteligentne, ludzie będą zdawać się na decyzje tych ostatnich, bo decyzje maszynowe będą trafniejsze i efektywniejsze, niż czynione przez człowieka.

W końcu osiągniemy, być może, etap, na którym decyzje konieczne dla funkcjonowania systemu będą tak skomplikowane, że przekroczą możliwości człowieka. Wtedy maszyny przejmą pełną kontrolę. Całkowicie uzależnieni, nie będziemy w stanie ich wyłączyć, gdyż równałoby się to samobójstwu.

Z drugiej strony, może zdarzyć się i tak, że zachowamy kontrolę nad maszynami. W takiej sytuacji przeciętny człowiek będzie mógł panować nad maszynami znajdującymi się w jego prywatnym posiadaniu, takimi jak samochód, czy komputer osobisty. Reszta maszyn będzie jednak kontrolowana przez wąską elitę - podobnie jak dzieje się to dzisiaj, z dwoma wszak różnicami. Dzięki usprawnieniom technicznym elita będzie miała większą władzę nad masami, a że ludzka praca nie będzie już potrzebna, to i masy okażą się zbędnym obciążeniem dla systemu. W takiej sytuacji, o ile elita będzie bezwzględna, może dojść do eksterminacji nadwyżek ludnościowych. Jeśli zaś elita okaże ludzkie uczucia, może odwołać się do propagandy, do technik biologicznych bądź psychologicznych i dotąd obniżać poziom przyrostu naturalnego dopóki gatunek ludzki nie wymrze, i na świecie nie pozostaną sami przedstawiciele elity. A gdyby elita składała się z liberałów o miękkich sercach, być może zechce odgrywać rolę dobrych pasterzy dla reszty ludzkości. Będzie dbała o zaspokajanie potrzeb materialnych całej reszty, będzie zapewniała wszystkim dzieciom wychowanie w warunkach higieny psychicznej, będzie się troszczyła, by każdy miał jakieś zdrowe i pożyteczne hobby, które wypełni mu czas, a kto spróbuje objawiać niezadowolenie, będzie poddawany "kuracji" leczącej indywidualne "problemy". Życie stanie się tak bezcelowe, że poprzez inżynierię biologiczną lub psychologiczną będzie trzeba pozbawiać ludzi potrzeby władzy, bądź też "sublimować" ją, przeistaczając w nieszkodliwe hobby. Tak preparowane istoty ludzkie mogą być nawet szczęśliwe, ale - sprowadzone do roli zwierząt domowych, na pewno nigdy nie będą wolne."

Przytoczony przez Kurzweila fragment pochodzi z Unabomber Manifesto Kaczynskiego, który został opublikowany pod przymusem, jednocześnie w "The New York Times" i "The Washington Post" w przekonaniu, że publikacja położy kres zamachom bombowym. Zgadzam się z Davidem Gelernterem, który tak ocenił decyzję obu redakcji: "To była bardzo trudna sytuacja. Zgoda oznaczała ustępstwa wobec aktów terroryzmu, tym bardziej, i wszyscy zdawali sobie z tego sprawę, że Kaczynskiemu nie można było wierzyć. Istniała jednak szansa, że Unabomber przestanie mordować. Tak jak istniała szansa, że ktoś czytając manifest dojdzie tożsamości autora. Tak się stało w istocie: tekst przeczytał brat Kaczynskiego i zaczął kojarzyć fakty.

Dopiero przewróciwszy stronę, orientujemy się, że autorem przytoczonego fragmentu jest Theodore Kaczynski - Unabomber. Nie zamierzam wygłaszać apologii pod adresem Unabombera. Podczas 17 lat kampanii terroru jego bomby zabiły trzech ludzi, wielu raniły, między innymi mojego przyjaciela, Davida Gelerntera, jednego z najświetniejszych specjalistów od komputerów. Każdy z nas, zajmujących się informatyką, mógł być następnym celem ataku Kaczynskiego.

To morderca, człowiek chory psychicznie, ale w cytowanym fragmencie, muszę to przyznać, jest pewien sens.

Dystopijna wizja Kaczynskiego przedstawia niezamierzone konsekwencje stosowania technologii. To dobrze znany problem. Dość przypomnieć, że nadużywanie antybiotyków doprowadziło do wyhodowania groźnych, odpornych na antybiotyki bakterii. W podobny sposób wyhodowaliśmy moskity odporne na DDT i odporne na leki pasożyty roznoszące malarię.

Każda ingerencja w złożone systemy, o których mowa, powoduje lawinowe i trudne do przewidzenia zamiany.

Zacząłem pokazywać znajomym tekst Kaczynskiego przytoczony w The Age of Spiritual Machines i obserwowałem ich reakcje na wiadomość spod czyjego pióra wyszedł.

Mniej więcej w tym samym czasie natknąłem się na książkę Hansa Moraveca pt.: Robot: Mere Machine to Transcendent Mind, wybitnego specjalisty od robotów, prowadzącego największy program badawczy w tym zakresie na Carnegie Mellon University. Robot dostarczył mi kolejnego materiału, który podsuwałem przyjaciołom i którego wydźwięk był zaskakująco zbliżony do argumentów Kaczynskiego. Na przykład:

 

The Short Run (Early 2000s)

"Gatunki biologiczne niemal zawsze przegrywają w zetknięciu z konkurentami na wyższym stopniu rozwoju. Dziesięć milionów lat temu Południową i Północną Amerykę rozdzielał przesmyk Panamski. Południowa Ameryka, jak dzisiaj Australia, była zamieszkana przez torbacze. Kiedy przesmyk zaniknął, wystarczyło kilka tysięcy lat, by gatunki łożyskowe o nieco lepszym metabolizmie, doskonalszym systemie rozrodczym i nerwowym, wyeliminowały torbacze.

W podobny sposób obecność robotów na całkowicie wolnym rynku odbije się na człowieku. Firmy robotyczne będą konkurowały ze sobą o materiały, przestrzeń, energię... zagrażając gatunkowej egzystencji człowieka.

Nadzieja w tym, że nie mamy całkowicie wolnego rynku. Jest on do pewnego stopnia równoważony przez państwo, z jego polityką podatkową, co oznacza, że nasz gatunek, żyjąc z pracy robotów, długo jeszcze może się utrzymać na Ziemi".

Moravec pisze dalej, że głównym zadaniem XXI wieku będzie "zapewnienie trwałej współpracy ze strony przemysłu robotycznego" przez odpowiednie ustawy, opisuje też, jak niebezpieczny może być człowiek "zamieniony w superinteligentnego robota". Moravec uważa, że ostatecznie roboty nas wyprą - ludzkość stanie się gatunkiem wymierającym.

Uznałem, że pora porozmawiać z moim przyjacielem, Dannym Hillisem, znanym współzałożycielem Thinking Machines Corporation, gdzie powstał superkomputer ogromnej mocy. Mimo że jestem szefem naukowym Sun Microsystems, bardziej uważam się za architekta komputerów niż naukowca, i bardzo szanuję ogromną wiedzę Danny'ego.

Poleciałem do Los Angeles, by zjeść kolację z Dannym i jego żoną, Pati, i zaprezentować niepokojące koncepcje oraz cytaty.

Odpowiedź Danny'ego - dotycząca głównie wizji Kurzweila - zupełnie mnie zaskoczyła. Powiedział, że zmiany będą zachodziły powoli i że się do nich zdążymy przyzwyczaić.

Może nie byłem jednak tak zupełnie zaskoczony, pamiętam bowiem wypowiedź Danny'ego cytowaną przez Kurzweila: "Lubię swoje ciało, ale jeśli z ciałem silikonowym mógłbym dożyć 200 lat, wezmę je". Mój przyjaciel oswoił się z czekającymi nas procesami i ryzykiem, ja nie.

Rozmawiając o Kurzweilu, Kaczynskim i Moravecu, raptem przypomniałem sobie powieść, którą czytałem 20 lat temu -The White Plague, Franka Herberta. Bohater, biolog molekularny, wpada w obłęd po bezsensownym morderstwie w rodzinie. Szukając zemsty produkuje zarazki, które zabijają bezlitośnie acz wybiórczo. (Szczęściem Kaczynski był matematykiem, nie biologiem molekularnym.) Przypomniałem też sobie Borgów ze "Star Trek", destruktywne istoty po części biologiczne, po części roboty. Tego rodzaju tworów pełno jest w utworach s-f, dlaczego więc wcześniej nie dręczyły mnie robotyczne dystopie? Dlaczego nikt się nimi specjalnie nie przejmuje?

Przyzwyczajeni żyć w świecie, gdzie co chwila dokonują się przełomy naukowe, dopiero musimy zrozumieć, że najbardziej znaczące technologie XXI wieku - robotyka, inżynieria genetyczna i nanotechnologia - niosą inne zagrożenie niż dotychczasowe. Szczególnie niebezpieczne wydają się roboty i nanoboty, które są zdolne do samoreplikacji.

Przez ostatnie 25 lat pracowałem głównie nad sieciami komputerowymi, w których przesyłanie informacji stwarza możliwość ich niekontrolowanej replikacji. O ile ta ostatnia jest tylko utrudnieniem, co najwyżej może zawiesić maszynę albo zniszczyć dysk bądź sieć, to niekontrolowana samoreplikacja w nowszych technologiach wiąże się z poważnym ryzykiem: poważnych zniszczeń w świecie fizycznym.

Przy tym nowe technologie, inżynieria genetyczna i nanomedycyna, zawierają w sobie obietnicę przedłużenia życia, leczenia większości znanych chorób lub zapobiegania im. Prawda, obiecują lepsze życie, ale ich zakumulowana potęga może być naprawdę niebezpieczna.

Na ile inaczej było w XX wieku? Broń masowego rażenia (WMD) - nuklearna, biologiczna i chemiczna (NBC) stanowiła ogromne zagrożenie, ale by zbudować bombę nuklearną, trzeba było mieć dostęp do rzadkich, prawie nieosiągalnych surowców i ściśle strzeżonych informacji; podobnie było z bronią biologiczną i chemiczną, wymagała działań na wielką skalę.

Technologie XXI wieku - genetyka, nanotechnologia i robotyka (GNR) - są tak potężne, a przy tym na tyle dostępne, że mogą nieść zupełnie nową klasę wypadków i nadużyć. Tu nie będzie trzeba rzadkich surowców ani ogromnych laboratoriów, wystarczy wiedza.

 

Od broni masowego rażenia do masowej destrukcji poprzez samoreplikację

Nie przesadzę, gdy powiem, że stajemy wobec możliwości skrajnego zła, o wiele groźniejszego niż te, które wiąże się z bronią masowego rażenia.

Zajmując się komputerami, dotąd nie zdawałem sobie sprawy ze skali niebezpieczeństwa.

Przez całe życie odczuwałem głęboką potrzebę zadawania pytania i poszukiwania odpowiedzi. Kiedy miałem 3 lata, już czytałem, wcześniej poszedłem do szkoły, wkrótce potem otoczył mnie świat książek.

Jako nastolatek zacząłem się interesować nauką i technologią. Nie miałem zbyt wielu przyjaciół, ale za to głowę pełną pomysłów. W szkole średniej odkryłem wielkich pisarzy s-f. Szczególnie utkwiły mi w pamięci Heinleina Have Spacesuit Will Travel i Robot Asimowa, z Trzema Prawami Robotyki.

W czwartkowe wieczory rodzice szli na kręgle, my, dzieci, zostawaliśmy sami w domu. Tego dnia w TV nadawali pierwszy "Star Trek" Gene'a Roddenberry'ego. Pamiętam, jakie wrażenie robił na mnie ten serial. Uwierzyłem, że przyszłość człowieka jest w kosmosie: podboje gwiazd, taki kosmiczny western z mnóstwem przygód. Roddenberry'ego wizja następnych stuleci miała silny wymiar moralny, obowiązywał pewien kodeks, którego przykładem niech będzie Główna Dyrektywa: nie ingerować w rozwój mniej rozwiniętych technologicznie cywilizacji. Tak właśnie wyobrażałem sobie przyszłość, w której rządzić mają kierujący się etyką ludzie, nie roboty.

Na uniwersytecie odkryłem komputer: maszynę, w którą wkłada się program usiłujący rozwiązać problem. Komputer wyraźnie rozdziela poprawne i niepoprawne, prawdę i fałsz. Może mi powiedzieć, czy moje pomysły są poprawne. Dałem się uwieść.

Miałem szczęście programować pierwsze superkomputery, byłem zachwycony ich mocą, zdolnością numerycznej symulacji zaawansowanych projektów. Na studiach podyplomowych w Berkeley spędzałem całe noce na wymyślaniu nowych światów komputerowych. Rozwiązywałem problemy. Pisałem kody, które czekały, by ktoś je sformułował.

Nieprzespane noce były naprawdę niewielką ceną za nadawanie ideom konkretnych kształtów.

Pisałem programy, rozdawałem je i rozsyłałem, byłem szczęśliwy i nigdzie wokół siebie nie widziałem robotów. Moja wersja systemu operacyjnego Unix miała takie powodzenie, że stała się rodzajem klęski osobistej - nigdy nie napisałem doktoratu, za to dostałem pracę w Darpa, gdzie dalej zajmowałem się Unixem.

Miałem pieniądze, miałem nawet swój zespół, mogłem pracować, ale jak to w Berkeley, nie mieliśmy gdzie się podziać z naszymi projektami, brakowało miejsca, biur, przestrzeni. Kiedy poznałem założycieli Sun Microsystems, natychmiast się do nich przyłączyłem. Tutaj przygotowywaliśmy pierwsze workstations i pecety, opracowywaliśmy zaawansowane technologie mikroprocesorów i technologie internetowe, takie jak Java i Jini.

To chyba wystarczający dowód, że nie jestem luddytą. Zawsze wierzyłem w wartość badań naukowych, w poszukiwanie prawdy i w postęp. Rewolucja przemysłowa w ogromnym stopniu poprawiła jakość naszego życia, a ja wyobrażałem sobie, że moja praca przyczyni się do rozwiązania kilku choćby realnych problemów.

I rzeczywiście, ludzie korzystają z moich programów w większym stopniu niż mogłem oczekiwać. Byłem świadomy dylematów moralnych związanych z technologią na takim obszarze, jak badania nad nową bronią, ale nie przypuszczałem, że stanę w ich obliczu w swojej dziedzinie.

Naukowcy i technolodzy, porwani nowością własnych odkryć, zwykle nie dostrzegają ich konsekwencji.

Od dawna mam świadomość, że największe postępy w technologii informatycznej są zasługą nie architektów komputerowych, ale fizyków. To fizycy, Stephen Wolfram i Brosl Hasslacher zapoznali mnie na początku lat 80. z teorią chaosu i systemami nielinearnymi. W latach 90. z rozmów z Dannym Hillisem, Stuartem Kauffmanem i Murray'em Gell-Mannem dowiedziałem się o systemach złożonych. Ostatnio Hasslacher i Mark Reed pomogli mi zrozumieć ogromne możliwości, tkwiące w elektronice molekularnej.

Jako współprojektant trzech architektur mikroprocesorowych - SPARC-u, picoJavy i MAJC-a i projektant różnych innych rozwiązań, dobrze poznałem prawo Moore'a, które trafnie wyznaczało tempo rozwoju technologii półprzewodników. Jeszcze niedawno wierzyłem, że utrzyma się ono najwyżej do 2010 roku, kiedy osiągniemy próg możliwości fizycznych, a wtedy powinna pojawić się nowa technologia, która pozwoli na dalszy rozwój.

Z uwagi na ostatnie postępy w elektronice molekularnej i w nanotechnologii - gdzie pojedyncze atomy i cząsteczki zastępują litografowane tranzystory - jesteśmy w stanie zachować tempo przewidywane przez Moore'a przez następnych 30 lat. W 2030 roku będziemy pewnie w stanie budować maszyny milion razy mocniejsze od dzisiejszych pecetów - maszyny z wizji Kurzweila i Moraveca.

Ta olbrzymia moc przeliczeniowa w połączeniu z osiągnięciami fizyki i genetyki oznacza uwolnienie nieznanych dotąd potencjałów, które całkowicie przeobrażą świat, na dobre i złe. Procesy replikacyjne i ewolucyjne przynależne dotąd do świata naturalnego, staną się domeną działań człowieka.

Pisząc programy, projektując mikroprocesory, nigdy nie miałem poczucia, że tworzę inteligentne maszyny. Software i hardware są tak delikatne, a zdolność maszyny do "myślenia" tak nieobecna, że ewentualność taka wydawała mi się zawsze bardzo odległą przyszłością. Teraz rzecz wygląda inaczej: być może pracuję nad narzędziami, które w przyszłości zastąpią nasz gatunek. Jak się czuję? Kiepsko.

Przyszłość rysuje się mniej różowo, niż skłonni jesteśmy przypuszczać. Doświadczenie mówi mi, że przeceniamy nasze umiejętności. Powinniśmy naprawdę uważać, jeśli nie chcemy wymrzeć.

Marzy nam się, że inteligentne maszyny będą wykonywały za nas pracę, a my wrócimy do Raju. W swojej książce Darwin Among the Machines George Dyson ostrzega: "W grze życia i ewolucji bierze udział trzech graczy: człowiek, natura i maszyny. Opowiadam się zdecydowanie po stronie natury, ale ona, podejrzewam, opowiada się po stronie maszyn." Podobnie pisze Moravec: "możemy nie przeżyć spotkania z wyższymi od nas robotami".

Kiedy zaczną powstać? Prawdopodobnie około 2030 roku. Zbudowanie pierwszego, który będzie miał zdolność samopowielania, da początek całemu gatunkowi.

Inne nasze marzenie - nieśmiertelność - ziści się dzięki robotom: powoli będziemy zastępować biologię technologią, aż załadujemy do robotów naszą świadomość; już zaczynamy to robić wszczepiając rozmaite czipy do ciała (por. ilustracja na okładce "Wired" 8.02.)

Jeśli zdownloadujemy się sami w technologię, jaką mamy gwarancję, że pozostaniemy sobą, ludźmi? Jestem prawie pewien, że robotyczna egzystencja w niczym nie będzie podobna do ludzkiej, że roboty w żaden sposób nie będą naszymi dziećmi: to ścieżka, na której możemy zginąć.

Inżynieria genetyczna obiecuje rewolucję w rolnictwie przez podniesienie plonów i zminimalizowanie użycia pestycydów; stworzy tysiące nowych bakterii, roślin, wirusów i zwierząt; reprodukcję zastąpi klonowaniem... To jeszcze jedno źródło głębokich zmian, które zajdą w pojmowaniu życia.

Technologia klonowania istot ludzkich uświadamia nam, przed jak istotnymi problemami etycznymi stajemy. Jeśli, na przykład przy pomocy inżynierii genetycznej podzielimy się na kilka odrębnych gatunków, pod znakiem zapytania stanie pojęcie równości, fundament naszej demokracji.

Mój przyjaciel, Amory Lovins, napisał ostatnio z Hunterem Lovinsem artykuł o zagrożeniach ekologicznych, powodowanych przez inżynierię genetyczną. Po przeczytaniu tekstu Lovinsów natrafiłem na artykuł Gregga Easterbrooka w "New York Times" (19 listopada, 1999) na temat plonów genetycznie sterowanych. Nagłówek: "Żywność przyszłości: ryż z wbudowaną witaminą A. Chyba że zwyciężą luddyci".

Czy Amory i Hunter Lovins są luddytami? Z pewnością nie. Wszyscy pewnie jesteśmy zdania, że złoty ryż z witaminą A to dobra rzecz.

Ludzie ogólnie wiedzą, jakie niebezpieczeństwa łączą się z genetycznie sterowaną żywnością.

Inżynieria genetyczna to przyszłość. Niemniej, jak piszą Lovinsowie, już dziś mamy około 50-ciu genetycznie sterowanych roślin uprawnych; ponad połowa światowych plonów soi i jedna trzecia zbóż zawiera geny pochodzące z innych form życia.

Pamiętam, jak duże wrażenie wywarła na mnie książka Erica Drexlera Engines of Creation, w której autor opisuje, jak manipulowanie materią na poziomie atomowym może dać nam utopię dobrobytu, gdzie za nic właściwie nie musimy płacić i gdzie każda niemal choroba może być zaleczona przy użyciu nanotechnologii.

Kolejna książka: Unbounding the Future: The Nanotechnology Revolution, której Drexler jest współautorem, ukazuje możliwe zmiany w świecie, w którym assemblery mogą dostarczać bardzo taniej energii słonecznej, mogą być lekiem na raka etc.

Z przyjemnością czytałem niegdyś książkę Drexlera Engines of Creation, ale kiedy wróciłem do niej po 10 latach, okazało się, że niewiele pamiętam z rozdziału "Dangers and Hopes," w którym autor pisze, że nanotechnologia może stać się "maszyną zniszczenia". Tak jak w przypadku technologii nuklearnej, łatwiej o jej destruktywne (militarne, terrorystyczne), niż konstruktywne zastosowanie.

Konsekwencje Faustowskiego paktu z nanotechnologią mogą być fatalne: zniszczona biosfera i życie od niej zależne.

Drexler pisze:

"Rośliny" z 'liśćmi' mogą wyprzeć prawdziwe rośliny, zapełniając biosferę niejadalną zieleniną. Wszystkożerne 'bakterie' mogą wyprzeć prawdziwe bakterie, niszcząc biosferę w przeciągu zaledwie dni. Replikatory mogą zbyt szybko się rozprzestrzeniać byśmy zdołali je zastopować, skoro nie potrafimy powstrzymać wirusów czy muszek owocowych."

Te ostatnie zagrożenie znane jest jako "problem szarej mazi" [gray goo problem]. Masa niekontrolowanych replikatorów nie musi być ani szara ani mazista, ale określenie "szara maź" podkreśla, że replikatory są w stanie zniszczyć życie na Ziemi.

Możliwość destruktywnej samoreplikacji w genetyce, nanotechnologii i robotyce (GNR) nakazuje daleko posuniętą ostrożność. Samoreplikacja to modus operandi inżynierii genetycznej. Wszyscy doskonale znamy z książek i filmów s-f opowieści o ogarniętych amokiem samopowielania zbuntowanych robotach. Być może proces samoreplikacji ze względu na jego wagę jest trudniejszy - jeśli w ogóle możliwy - do kontrolowania, niż przypuszczamy. (Stuart Kauffman w artykule opublikowanym w "Nature" i zatytułowanym "Samoreplikacja" stwierdza, że taką umiejętność posiadają już peptydy. (32-aminokwasowe peptydy mogą autokatalizować własną syntezę.)

Technologie nuklearne, biologiczne i chemiczne (NBC) stosowane w XX-wiecznych broniach masowej zagłady, były głównie technologiami militarnymi, rozwijanymi w laboratoriach rządowych. Tymczasem, lukratywne technologie XXI wieku (GNR) mają zastosowanie komercyjne i są wykorzystywane przez wielkie korporacje, działające w ramach globalnego kapitalizmu.

To pierwszy moment w historii naszej planety, kiedy jakiś gatunek poprzez swoje działanie staje się groźny dla samego siebie - a także dla wielu innych.

Jeśli nie będziemy przestrzegali praw natury, jeśli nie okażemy dość pokory, zginiemy. Pisał o tym Carl Sagan w Pale Blue Dot, książce opublikowanej w 1994 roku i opisującej przyszłość człowieka w kosmosie. Teraz uświadamiam sobie, jak głębokie były jego spostrzeżenia, i jak bardzo brakuje mi, i będzie brakować, jego głosu, jego rozsądku, trzeźwości, pokory, których niedostaje wielu adwokatom technologii przyszłości.

Jaką arogancją może się wydawać projektowanie "gatunków zastępczych" - robotów - kiedy nie potrafimy sobie poradzić z samymi sobą i sami siebie zrozumieć.

Powinniśmy pojąć lekcję, jaką dało nam stworzenie pierwszej bomby atomowej i późniejszy wyścig zbrojeń.

Jej konstruktor, znakomity fizyk J. Robert Oppenheimer zdawał sobie sprawę, jakim zagrożeniem dla cywilizacji Zachodu jest III Rzesza i to zagrożenie sprawiło, że zespół znakomitych umysłów pracujący pod jego kierownictwem w Los Alamos, stworzył bombę atomową.

Oppenheimer tak bał się efektów pierwszych prób atomowych, że mówił o możliwości ewakuacji południowozachodnich obszarów stanu Nowy Meksyk, rozumiał też niebezpieczeństwo wyścigu zbrojeń.

W miesiąc po pierwszej udanej próbie dwie bomby atomowe zniszczyły Hiroszimę i Nagasaki. Jak później powiedział fizyk Freeman Dyson: "Bomby zrzucono ponieważ nikt nie miał dość odwagi i wyobraźni, by powiedzieć nie".

W listopadzie 1945 roku, trzy miesiące po zrzuceniu bomb, Oppenheimer opowiedział się zdecydowanie za światopoglądem naukowym: "Nie można być naukowcem, jeśli nie wierzy się, że wiedza o świecie i potęga, jaką ona daje, mają zasadniczą wartość dla ludzkości i że gotowi jesteśmy ponosić związane z tym konsekwencje". W 1948 roku myślał już nieco inaczej, gdy mówił: "fizycy poznali, co to grzech, i nie wolno im o tym zapomnieć".

W następnym roku (1949) Rosjanie zdetonowali swoją pierwszą bombę atomową. Zaczął się wyścig zbrojeń.

20 lat temu w filmie dokumentalnym "The Day After Trinity" Freeman Dyson tak mówił o postawach naukowych, które doprowadziły do wynalezienia broni nuklearnej:

"Sam to odczułem. Olśnienie bronią nuklearną. Trudno się temu oprzeć. Człowiek nagle dostaje do ręki energię, która ożywia gwiazdy, może nią dysponować, dokonywać cudów. To coś, co daje nam złudzenie nieograniczonej potęgi i co, w pewnym sensie, jest przyczyną wszystkich naszych kłopotów, ta techniczna arogancja, która ogarnia ludzi, kiedy widzą, do czego zdolny jest umysł".

A dzisiaj, przed jakimi zagrożeniami stajemy?

Coraz częściej słychać głosy, że powinniśmy jak najszybciej wynosić się z Ziemi i skolonizować galaktykę przy użyciu powielających się sond von Neumanna. Krok ten będzie konieczny za 5 milionów lat (albo wcześniej, jeśli dojdzie do kolizji naszej galaktyki w galaktyką Andromedy). Jeśli jednak brać na serio ostrzeżenia Kurzweila i Moraveca, będziemy musieli uciekać z Ziemi już w połowie nowego wieku.

Jakie implikacje moralne stąd płyną? Kto weźmie odpowiedzialność za los tych, co pozostaną (a będzie to większość z nas)? A nawet jeśli uda się nam umknąć do gwiazd, to czy nie zabierzemy naszych problemów z sobą?

<...>

W Engines of Creation Eric Drexler proponuje budowę aktywnej tarczy nanotechnologicznej - rodzaj systemu odpornościowego dla biosfery - ochronę przeciwko groźnym replikatorom. Ale sama taka tarcza byłaby bardzo niebezpieczna - mogłaby zaatakować biosferę.

Podobne trudności napotyka konstrukcja tarcz przeciwko robotyce i inżynierii genetycznej; ich efekty uboczne mogą być równie groźne jak technologie, przed którymi miałyby nas zabezpieczać.

Jedyne realistyczne rozwiązanie to ograniczyć rozwój niebezpiecznych technologii.

Wiem, wiedza jest cenna, jak cenne jest poszukiwanie nowych prawd. Poszukujemy wiedzy od prawieków. Arystoteles mówi w Metafizyce, że w naturze człowieka leży pragnienie wiedzy. Fundamentalną wartością naszego społeczeństwa jest otwarty dostęp do informacji i szacunek dla wiedzy naukowej.

Jeśli jednak otwarty dostęp i nieograniczony rozwój wiedzy miałby stawiać nas wobec groźby zagłady, powinniśmy skorygować nasze przekonania.

Nietzsche ostrzegał, że wiara w naukę nie mogła narodzić się z rachub użyteczności, ile wbrew bezużyteczności i niebezpieczeństwom "woli prawdy", "prawdy za wszelką cenę". Zaczynamy w pełni dostrzegać konsekwencje poszukiwania prawdy. Prawda naukowa może być groźnym substytutem Boga prowadzącym do wyniszczenia.

Nie jesteśmy z nikim w stanie wojny, nie walczymy z wrogiem, który zagraża naszej cywilizacji: kierują nami nawyki, pragnienia, system gospodarczy, który stymuluje potrzebę wiedzy.

<...>

Wchodzimy w nowy wiek bez planu, bez kontroli, bez hamulców? Czy za daleko zabrnęliśmy, by zmienić kierunek?

Myślę, że nie, ale na razie nie próbujemy przeciwdziałać zagrożeniom. Mamy pierwsze roboty, mamy komercyjne techniki inżynierii genetycznej, a niedługo zaczniemy stosować nanotechnologię. Ani się obejrzymy, jak staniemy w obliczu zjawiska samoreplikacji i będziemy tak zdumieni, jak wówczas, gdy okazało się, że umiemy klonować ssaki.

<...>

A jednak mamy solidne podstawy, by nie tracić nadziei.

Ograniczenia będą trudne, ale możliwe.

Technologie GNR nie dzielą się wyraźnie na militarne i komercyjne, trudno też wyobrazić sobie, by rozwijały się tylko w zamkniętych laboratoriach. Kontrola technologii GNR tak w przestrzeni realnej jak w cyberprzestrzeni będzie oznaczała naruszanie prywatności i swobody działania jednostek, ale jeśli mamy się chronić, kroki takie będą konieczne.

Naukowcy i inżynierowie będą musieli kierować się surowym kodeksem etycznym w rodzaju przysięgi Hipokratesa.

Nie możemy gonić za stanem bliskim nieśmiertelności za każdą cenę, nie biorąc pod uwagę ryzyka zagłady.

Ostatnio miałem szczęście poznać wybitnego naukowca Jacquesa Attali'ego, autora Lignes d'horizons. W swojej ostatniej książce, Fraternites, opisuje on ewolucję utopii:

"Na początku człowiek widział swoje życie na Ziemi jako labirynt bólu, z którego wyjście wiodło, poprzez śmierć, do Bogów i Wieczności. Pośród Żydów, później Greków znaleźli się tacy, którzy uwolniwszy się od teologii, marzyli o Mieście Idealnym, w którym kwitłaby Wolność. Widząc, że w społeczeństwie rynkowym wolność jednych powoduje alienację innych, zaczęliśmy myśleć o Równości".

Dzięki Jacquesowi zrozumiałem, jak te trzy różne utopie współistnieją w dzisiejszym społeczeństwie. Opisuje on jeszcze czwartą, Braterstwo, której podstawą jest altruizm i która łączy szczęście jednostki ze szczęściem innych ludzi.

Gdzie mamy poszukiwać bazy etycznej? Ja znalazłem ją książce Dalai Lamy Ethics for the New Millennium. Dalai Lama pisze, że w życiu musimy kierować się miłością i współczuciem, a nasze społeczeństwa winny wyrobić w sobie silniejsze poczucie odpowiedzialności powszechnej i wzajemnych współzależności; to, co głosi Dalai Lama wydaje się podobne do utopii Braterstwa Attali'ego.

Dalai Lama pisze, że musimy zrozumieć, że ani postęp w obszarze materialnym, ani wiedza nie dają człowiekowi szczęścia i że sama wiedza i osiągnięcia naukowe są ograniczone.

Potrzebne są nam wyzwania nadające sens i treść życiu. Musimy znaleźć ujście dla naszych zdolności twórczych poza kulturą ustawicznego wzrostu gospodarczego...

Minął ponad rok od mojego pierwszego zetknięcia się z Ray'em Kurzweilem i Johnem Searle. Nadzieję budzą głosy nawołujące do ostrożności i umiaru, głosy ludzi zaniepokojonych, podobnie jak ja, naszą kondycją. Czuję osobistą odpowiedzialność nie za to, co dotychczas zrobiłem, ale za to, co jeszcze mogę zrobić.

Niestety wielu z tych, którzy są świadomi zagrożeń, milczy. Przyciśnięci do ściany, mówią: "to nic nowego" - tak jakby sama świadomość niebezpieczeństw była jakąś odpowiedzią. Mówią: bioetycy wałkują do znudzenia te kwestie na uniwersytetach, tomy napisano na ten temat, to nudne.

Wiedzieć to nie znaczy nie działać.

W swojej pracy zajmuję się oprogramowaniem. Program to narzędzie, muszę wiedzieć, w jaki sposób będzie używane. Zawsze wierzyłem, że możliwie niezawodny program o licznych zastosowaniach czyni świat trochę lepszym i bezpieczniejszym miejscem; gdybym myślał inaczej, musiałbym rzucić pracę. Taki dzień może nadejść.

Wierzę, że wywiąże się dyskusja, w której wezmą udział specjaliści z różnych dziedzin, którzy nie będą głosić pochwał technologii dla niej samej.

Sam podejmowałem te kwestie dwukrotnie na spotkaniach organizowanych przez Aspen Institute, proponowałem też, by American Academy of Arts and Sciences podjęła je na konferencjach podobnych konferencjom Pugwash. (Organizowanych od 1957 roku poświęconych metodom kontroli broni nuklearnej).

Niestety, spotkania Pugwash zaczęto organizować o jakieś 15 lat za późno. Teraz też jest trochę za późno - tym bardziej więc nie można zwlekać.

Ciągle szukam; jest tyle rzeczy, które trzeba poznać.
Nie jest jeszcze przesądzone, czy uda się nam przeżyć, czy padniemy ofiarą technologii.
Znowu zawaliłem noc - dochodzi 6 rano.
Próbuję znaleźć lepsze odpowiedzi, odczarować zaklęcie.

Tłumaczenie Ewa Mikina

archiwum_index