Stanisław Lem
"Przejmowanie władzy"

 

1          Przeżywamy obecnie, rozpoczęte kilkanaście lat temu, dość wstrząsające zjawisko, które Thomas Kuhn nazywał zmianą paradygmatu w nauce, zaś przed nim Polak, Ludwik Fleck, opisywał jako "krzepnięcie w ich obiegu między ekspertami innowacji poznawczych" (ani koncepcja Kuhna, ani prekursorska myśl Flecka nie odpowiadają wyrazistej deskrypcji tego, co zachodzi, gdy zmiana podstaw, zmiana sposobu w jaki postrzegamy podwaliny megalo- i mikroświata ulegają diametralnej przemianie). Nie mamy jednak na określenie takiego trzęsienia w nauce lepszych deskrypcji.


2         Według najlepszych wyobrażeń, autorstwa rosyjsko-amerykańskiego (niech padną tylko dwa nazwiska: Guth i Linda), hipotetyczny obraz kosmogenezy uległ jeszcze bardziej hipotetycznemu powikłaniu: nasz Wszechświat ma być tylko jednym z wielu (określiłem to niegdyś jako poliwersum); całość nadwyobrażalnie gigantyczną ma przypominać coś na kształt kiści winogron. Każde poszczególne grono jest suwerennym wszechświatem.  


3          Jakkolwiek ten spotworniały wielkością obraz wywodzi się z najelementarniejszych właściwości mikrofizyki, a w szczególności z niepowtarzalnych laboratoryjnie własności kwantów, czyli między tym co najmniejsze, a tym co największe zachodzi niejako rodzicielskie powiązanie, w niniejszym tekście pragnę zwrócić się wyłącznie w stronę mikroświata, ponieważ ściśle łączy się z obszarem informatyki.


4          Pojawiły się mianowicie, oparte na eksperymentalnych badaniach przeświadczenia, że cząstki elementarne, a w szczególności elektrony obdarzone tak zwanym spinem, który występuje w dwóch postaciach: "up" i "down", nie są ostatecznością egzystencjalną, nie są dnem w rozumieniu poznawczym, lecz bardziej podstawowa od nich jest informacja. Wprawdzie przejawia się ona zawsze jako pewna konfiguracja jej nośników, to jednak badania eksperymentalne wykazują, że pomiędzy nośnikami informacji zachodzą relacje, w których nie obowiązują ani makroskopowe stosunki kazualne, ani nie obowiązują reguły znanej nam makroskopowej logiki. Obecnie status tych odkryć, które postulują istnienie "pod" elementarnymi nośnikami informacji obecność podłoża będącego niejako nośnikiem wszelkiej informacji, ma posmak nie tylko bardzo nowoczesnej, ale też niezbyt powszechnie przyjętej koniektury. Gdyby jednak tak być miało, to okazało by się, że o informacji posiadamy jedynie tyleż wstępne, co niedokładne wiadomości. Zapewne rzecz zgłębi nauka dwudziestego pierwszego wieku.


5           W związku z rozwojem nauki na froncie informatycznym rośnie, zwłaszcza w USA, zapotrzebowanie na superkomputery, lecz rząd federalny gwałtownie redukuje, czy też raczej przemieszcza wielkie inwestycje w obrębie budowy maszyn najszybszych i najpotężniejszych w stronę militarną, to znaczy zbrojeniową. Dlatego w dziedzinach takich jak meteorologia, kosmologia, astrofizyka oraz chemia, o wysokim stopniu złożoności, uczeni wtłaczani są w gorzkie zmagania z badaczami militarnymi i muszą walczyć o środki, które są niezbędne, ażeby badać i opracowywać problemy tak zawiłe, że dostarczyć adekwatnych rozwiązań mogą tylko najszybsze i najpotężniejsze komputery. Jak mówią przedstawiciele nauki świadomi rzeczy, sytuacja w dziedzinie zasobów superkomputerowych staje się krytyczna. Badania ulegają nadrzędnemu sterowaniu w kierunku programów nuklearnych, w szczególności bojowych, co nie jest zdrowe dla panującej w środowisku naukowym atmosfery. Uczeni prowadzący badania podstawowe dla rządu mają najwięcej możliwości korzystania z superkomputerów. Otrzymują prawie dwadzieścia procent superkomputerów zbudowanych w USA każdego roku i sto procent maszyn czołówki dysponujących największą szybkością i mocą przetwarzania danych. W ostatnich miesiącach IBM otrzymał osiemdziesiąt pięć milionów dolarów za najszybszy komputer świata. Będzie on operacyjnie gotowy w roku dwutysięcznym. Modele lat ostatnich kosztują co najmniej dziesięć milionów dolarów. Od zakończenia zimnej wojny rząd utrzymywał równowagę w rozdziale dostępu do superkomputerów, lecz w 1996 roku doszło do dwukrotnej przewagi na rzecz badań militarnych, a będzie ona wynosiła pięć w stosunku do jednego w roku 1999. To przeciąganie, które zachodzi między uczonymi "cywilistami" i "militarystami", wynika ze zmiany budżetu dwu agencji federalnych: Energy Department i National Science Foundation. NSF płaci za superkomputery używane w obszarze pozamilitarnym. Fundacja ta straciła od sześćdziesiątego dziewiątego roku cztery miliony dotacji, lecz ma dojść do siedemdziesięciu czterech milionów dotacji dolarowych u schyłku stulecia.


6           Przez superkomputer rozumie się maszynę, która jest najszybsza w swojej generacji. Takie komputery niezbędne są dla rozwikłania i pokonania naukowo-inżynieryjnych problemów, które dotyczą olbrzymiej ilości zmiennych dynamicznych i interaktywnych, np. badania zmian klimatycznych. Badacze militarni potrzebują komputerów, aby tworzyć coraz dokładniejsze modele eksplozji jądrowych oraz trójwymiarowe modele starzenia się składowych części bomb, a w szczególności materiałów wybuchowych, które stanowią otulinę kulistej postaci bomb nuklidowych. Departament energii jest przekonany, że tego rodzaju pomoc umożliwi utrzymywanie zasobów jądrowej broni bez potrzeby praktycznego testowania tych bomb.


7          Tymczasem w Stanach Zjednoczonych pojawiła się dość kryzysowa sytuacja w zakresie informatycznym. W opublikowanym ostatnio raporcie General Accounting Office oświadcza, iż Ameryka wchodzi w nowy deficyt: niedostatek pracowników kształconych w informatycznej technologii. Stowarzyszenie informatycznej technologii, grupa reprezentująca jedenaście tysięcy pracodawców, podniosło alarm głosząc, że bardzo poważnie fachowców informatycznych. Zapotrzebowanie na takich fachowców jest w Stanach Zjednoczonych wyjątkowo wielkie. Trzeba też powiedzieć, że naturalna dla sfer militarnych skłonność do utajniania danych wnosi w całą tę problematykę dodatkowy kłopot. Udowodnienie braku, czy też niedostatecznej kompetencji fachowców, stanowi poważne zagadnienie dla wysiłków uzupełniania frontu tej pracy, jeżeli zważyć, że rokrocznie, na okres do sześciu lat, przybywa do Stanów sześćdziesiąt pięć tysięcy nieamerykańskich pracowników. Przywódcy przemysłowi oraz znawcy całego frontu tej pracy głoszą, że potrzebne będą tysiące importowanych pracowników, ażeby umożliwić wielkim przedsiębiorcom zachowanie przewagi w obszarze konkurencji globalnej. Przewodniczący komitetu imigracyjnego w ostatnim miesiącu zażądał podniesienia programu imigracyjnego do dziewięćdziesięciu tysięcy wiz rocznie. Krytycy, przede wszystkim związki zawodowe, a także pewni przedstawiciele administracji, twierdzą, że program ten jest przesadny. Z drugiej strony oceanu nazywamy te wysiłki amerykańskie "drenażem mózgów". Przede wszystkim chodzi o angażowanie programistów, ponieważ niestety do dnia dzisiejszego programy, zwłaszcza te najbardziej czołowe, są wytworami pracy ludzkich umysłów. Oczywiście pewną rolę odgrywa także krytyczne domniemanie, że potencjalnym zwolennikom wzmożonej imigracji fachowców zależy na ich nadmiarze, ponieważ tam, gdzie fachowców jest wielu można utrzymać płace na stosunkowo niskim poziomie. Według projekcji sięgających od 1994 do 2005 roku Stany Zjednoczone będą potrzebowały ponad milion programistów, analityków systemowych oraz uczonych inżynierów. Natomiast departament komercjalny zauważa, że stopnie tak zwanego bakałarza otrzymuje mniej niż dwadzieścia pięć tysięcy amerykańskich studentów, to znaczy prawie o czterdzieści procent mniej niż w roku tysiąc dziewięćset osiemdziesiątym szóstym. Krytycy z kolei odpowiadają, że te liczby mówią niewiele i niczego nie dowodzą, ponieważ zaledwie czwarta część osób pracujących w domenie nauk informatycznych i komputerowych posiadała stopnie uniwersyteckie w tych dziedzinach.


8          USA są bez wątpienia światową czołówką informatyczną, ale czują się po trosze osamotnione w swoich wysiłkach, ponieważ wedle mniemania ich specjalistów informatyzacja społeczeństwa europejskiego znajduje się na daleko niższym poziomie. Wizje, jakie przed nimi roztaczają amerykańscy prognostycy informatyczni, powoli zaczynają się już zbliżać do owego dziwnego stanu, jaki zaprezentowałem w książce pod tytułem "Wizja lokalna", mianowicie do społeczeństwa tak owładniętego samoczynną wszechinformatycznością, że z poszczególnych członów, czy też cząstek sprawnie samodziałającej układowej i wszechobecnej informatyki powstaje etykosfera, która stanowi zaprogramowane i wyinstruowane właściwie środowisko życiowe troszczące się o dobry byt każdego obywatela z osobna oraz o bezkolizyjne współistnienie wszystkich. Co prawda mnie w owej fantastycznej powieści, dziejącej się na pozaziemskicm globie, szło przede wszystkim o zagwarantowanie osobistych nietykalności oraz o bezkolizyjne współistnienie, natomiast praktycznym Amerykanom idzie o wszechobecną automatyczną usługowość, która nie wyklucza istnienia kolizji międzyludzkich, ani międzyorganizacyjnej konkurencji. Tak, czy owak, informatycznie stechnicyzowane społeczeństwo zdaje się oczekiwać ludzkość w dwudziestym pierwszym wieku, chociaż znając mniej piękne strony natury ludzkiej, łatwiej będzie uwierzyć we wszechtechnicyzację działalności usługowej, niż we wszechetyfikację.

Pisałem w marcu 1998
e-mail: lem@apple.phils.uj.edu.pl

sssdasdBackUp