Stanisław Lem
"Tertium comparatloms"

 

1          Tytu1 powyższy w obu wydaniach książeczki p. Jędraszka "Łacina na co dzień" znaczy "trzecia rzecz, służąca za miarę porównania dwu innym". Ja też właśnie tak sądziłem - aż przeczytałem w Kopalińskiego "S1owniku wyrazów obcych i zwrotów obcojęzycznych ", że te same słowa 1acińskie znaczą: "podstawa porównania, przedmiot (stan rzeczy), posiadający cechy wspólne dwóch porównywanych ze sobą przedmiotów (stanów rzeczy)". To jednak nie jest to samo. Optuję za definicją Kopalińskiego, ponieważ jest mi potrzebna do szkicu, mającego wskazać propozycję tyleż ważną, co jakoś nie urzeczywistnioną: mianowicie nurt filozofii, zogniskowany na (postulowanych) podobieństwach i (faktycznych) różnicach komputera (jako "automatu skończonego") i mózgu cz1owieka.

Te automaty z kolei zahaczają o teorię funkcji rekurencyjnych oraz algorytmów i już przez to są uwik1ane w sławny dowód Goedla, ale rozwinięcie takiej genealogii komputerów w obrębie prostego jak niniejszy szkicu po prostu się nie da wykonać. Zarazem brak nazwanej dopiero co filozoficznej perspektywy zamyka cały rozwój komputerów i teorii takiej informacji, która im jest podległa, w swego rodzaju - nie waham się użyć może nazbyt silnego sformułowania - getcie techniczno-obliczeniowym. Można by przypuścić atak na moją kategoryczność, powo1ując się na obfitą literaturę, od książek znawcy "computer science", jakim jest Joseph Weizenbaum, po jeszcze bardziej znane diatryby Dreyfusów (być może ukaza1y się też po polsku).

Rzecz jednak cala w tym, że książki tego rodzaju są albo, jak wymienione, mniej lub bardziej umocnioną argumentami "ogólną teorią niemożliwości dorównania przez komputer mózgowi", albo też są, jak nie wymienione przeze mnie książki, pochodzące z obozu "fideistów komputerowych", próbami dowodzenia, iż, owszem Artificial Intelligence (powiedzmy, jednego z "ojców", Marvina Minsky'ego) jest osiągalna i tym samym wnet się nam objawi w realizacjach technicznych. Są wreszcie autorzy jak Douglas Hofstadter, którzy znajdują się - dziełami - w niejakim rozkroku: znajdują zarówno olbrzymie trudności do pokonania na drodze wiodącej ku AI, jak i zarazem wierzą w zasadniczą pokonywalność tych wszystkich przeszkód (tylko nie wiadomo, jak i kiedy).

 

2          Mnie tu jednak ani nie chodzi o rozstrzyganie kwestii urzeczywistnienia "sztucznej inteligencji" w maszynie, ani o zajmowanie się tą kwestią w pierwszej kolejności. Chodzi mi o to, co tytuł zapowiada. Potrzebna jest taka "filozofia stosowania komputerów", która wykracza poza spór o różnice i podobieństwa do mózgu ludzkiego, albowiem w tym odniesieniu mózg figuruje jako ultymatywne wcielenie rozumu, jako urządzenie najbardziej złożone w całym Kosmosie, i tym samym jakoby tak uniwersalne, że ma zostać uznane za wzorzec wręcz znakomity i nieprześcigalny, coś jak dla przedwojennych młodych ludzi prezentował ów "metr wzorcowy" umieszczony jako palladowo-platynowa sztaba (o przekroju X) w Sevres pod Paryżem. To już nie ! jest dziś ultymatywny wzorzec pomiarowy długości, a choć żadnego poza- czy ponadludzkiego mózgu nie znamy, ci właśnie, co się posługują komputerami i obsługują je jako programiści, powinni wykroczyć poza konstruktorskie etalony dla bardziej oderwanej i przez to mającej bardziej "meta-" charakter refleksji: ażeby poprzez widomy, choć nie rozgryziony naukowo model biologicznego mózgu dostrzec przysz1e, a co najmniej możliwe fazy rozwojowe komputerystyki. Prawie wszyscy znani mi eksperci tak intensywnie wdali się w roztrząsanie "być albo nie być" (Artificial Intelligence), że wprost oślepli na sprawę chyba najbardziej zasadniczą, mianowicie na pytanie o to, czy mózg cz1owieka w ogóle zasługuje na miano wzorca "rozumu"; inte1igencji, i tym samym czy może być "całkiem inaczej" z tym mózgiem.

Ja, pozwalając sobie jeszcze (ostatni raz) w tam szkicu na łacinę, powiem, że moim zdaniem "sed tamen potest esse totalitaraliter". Mianowicie co najmniej dwa rodzaje cech dają się w żywym i działającym po swojemu mózgu cz1owieka rozdzielić: te, co są śladami i dziedzictwem jego bardzo długiej drogi rozwojowo-ewolucyjnej (nie tylko dlaboga. w .toku antropogenezy: mózg bowiem jak powiem, jest znacznie starszą paleontologicznie "sk1adanką") oraz te cechy, które stanowią jego osobliwą wyłączność aktualnie, jako już typowo człowieczy nabytek, ten, który nas wyprowadził poza drzewo rozgałęzionych obficie wariacji hominidów i tym samym zrodził (homo sapiens sapiens). Zaraz tu dodam, co kiedyś napisa1em pewnemu filozofowi niemieckiemu w związku z M. Heideggerem, a mianowicie uzna1em za największy błąd Heideggera nie jego po wojnie światowej ostro krytykowaną przynależność (także powinowactwo jego filozofii) do partii hitlerowskiej, lecz to, iż był frlozofem nienawidzącym technologicznego rozwoju naszej cywilizacji i wyobrażał sobie, że jakikolwiek nawrót do przedtechnologicznej kultury jest kierunkiem realnie możliwym. Napisałem wtedy memu korespondentowi, że z chwi1ą, kiedy powstawa1 wie1e milionów lat temu Australopithecus Homo Robustus, a zaraz potem Homo Habilis na południu Afryki, już wówczas był na powolne, lecz podleg1e historycznej akceleracji wynajdywanie technologii (poczynając od eolitu i paleolitu) skazany całą biologią swoją, ponieważ razem z uwolnieniem kończyn górnych od wspierania chodu a mózgu od typowo animalnej i tym samym wy1ącznie przeżyciowej sprawności w czasie dlań teraźniejszym, innej drogi (poza wymarciem gatunku) już nie było.

Tym samym uznałem, że technologia stała się jakieś trzy - lub dwa i pół miliona lat temu taką samą niepozbywalną w1asnością człowieka, jaką stało się cztery miliardy lat temu stałą kosmiczno-planetarną krzepnięcie pow1ok ogniowej kuli, jaką wtedy stanowiła planeta Ziemia. Tym samym na technologię można się z takim samym kiepskim sensem gniewać i technologii zapierać oraz jej rozwojowi wyrzuty robić, w jakim można prawa termodynamiki nienawidzieć, albo mieć cokolwiek za złe grawitacji. Zjawiska, podobne do praw Natury, można w jakiejś mierze oswajać, domestykować, zaprzęgać do naszych prac i spraw. Natomiast wypisywanie przeciwko nim diatryby, czyli branie ich za złe, niesie za sobą tyleż sensu, co karne biczowanie morza za to, że jakiemuś tyranowi pochłonę1o okręty. To nie jest ani racjonalne, ani godne miana filozofii, nieoderwanej w dowolny sposób od fundamentu, jaki nasz byt stanowi.

 

3          Powiedzmy, że tak jest, ale co to może mieć wspólnego z postulowaną przeze mnie filozofią, jako dyskusorem poza strefą sporów "pro-AI" i "kontra-AI"? Otóż należy powiedzieć wstępnie, co następuje. Po pierwsze, do częściowego wysforowania się komputera przed mózg już doszło, i nie należy tego mieszać z jakąkolwiek "antropologizacją" komputerów, niby, że jeszcze parę kroków technicznie dalszych, a poczną się zachowywać po ludzku. Pozwolę sobie przytoczyć to, co pisałem dobrze ponad ćwierć wieku temu w "Sumie Technologicznej".

"Powstaną i będą się rozrastać ośrodki maszynowe, zarządzające produkcją, obrotem towarowym, dystrybucją, a również badaniami (koordynacja wysiłków uczonych, wsparta w fazie wczesnej przez maszyny - tj. komputery pomocnicze). Czy możliwe będą między nimi sytuacje konfliktowe? Jak najbardziej możliwe. Zachodzić będą konflikty w płaszczyźnie decyzji inwestycyjnych, badawczych, energetycznych, bo wszak trzeba będzie określać prymat rozmaitych działań (...) Trzeba będzie konflikty takie rozstrzygać. Oczywiście, powiadamy szybko, to będą robili ludzie. Bardzo dobrze. Otóż decyzje będą dotyczyły problemów ogromnej złożoności i ludzie - kontrolerzy Koordynatora (komputerowego, S.L.) będą musieli, aby rozeznać się w przedstawionym im morzu matematycznym, uciec się do pomocy innych maszyn, mianowicie optymalizujących decyzje. (...) Czy możliwe jest, że maszyny kontrolerów, dublujące pracę maszyn kontynentalnych, dadzą odmienne wyniki ?I to jest zupełnie możliwe, ponieważ maszyna (w toku pracy, S.L.) staje się jakoś "stronnicza". Wiadomo, że człowiek nie może nie być jakoś stronniczy: dlaczego jednak ma być stronniczą maszyna (komputer)? Stronniczość nie musi wynikać z predylekcji (co do wartości), wynika z nadawania rozmaitej wagi kolidującym z sobą członom alternatyw. (Ponieważ maszyny takie, będąc układami probabilistycznymi, nie działają tożsamościowo). Sytuacja staje się bardziej przejrzysta, jeśli wyrazimy ją w języku gier. Maszyna jest jakby graczem, prowadzącym rozgrywkę przeciwko pewnej "koalicji ", na którą składa się olbrzymia ilość rozmaitych zgrupowań produkcyjnych, rynkowych a także transportowych, usługowych itp."

Dłuższy ten wywód zamyka następujące twierdzenie. Wygląda rzecz tak: albo komputery nie umieją uwzględnić większej ilości zmiennych od cz1owieka, a wtedy nie warto w ogóle ich budować, albo umieją, a wtedy człowiek nie może się sam rozeznać w rezultatach, czyli podjąć niezależnej od komputera decyzji... Człowiek nie może już zrobić nic innego, niż stać się gońcem, który przenosi taśmę informacyjną od komputera decydenta do komputera kontrolnego. Jeśli rezultaty komputerów nie są jednakowe, człowiek nie może uczynić nic innego, niż wybrać, rzucając monetą: Z "najwyższego nadzorcy" staje się mechanizmem losowym wyboru!

A więc znów, i to tylko przy komputerach zarządzających, mamy sytuację, kiedy stają się one "bystrzejsze" od człowieka. Dalej zaś napisa1em, że "dziś" (tj. w roku 65) obchodzimy się w ogóle bez takich komputerów w gospodarce i menedżerskim zarządzaniu. Lecz obecnie ( 1994) już sieci komputerowe wsuwają swoje "macki" w takie dziedziny. A ponadto obecnie już okazało się, że są dziedziny matematyki i matematycznej fizyki, w których wynikom pracy komputerów, dysponujących znacznymi mocami obliczeniowymi, każdy matematyk czy fizyk zawierzyć musi, ponieważ pracy tej żaden człowiek nawet w ciągu całego życia nie jest w stanie skontrolować. A jeżeli w tych dziedzinach, logicznie jakby ca1kiem ścis1ych, zespół aksjomatów wyjściowych nie pokrywa się idealnie z takim zespo1em, kiedy prace toczą się w rozmaitych ośrodkach badawczych, to nic prócz "superkomputerów" sprawdzających nie da się wymyślić a takie "superkomputery" nie są przecież Bożym sądem, lecz kolejnym krokiem rozwoju komputerystyki, więc otwiera się nam otch1ań jako regressus ad inBnitum...

 

4          Ale to wszystko, com rzekł, dotyczyło wyłącznie stosunku komputerów do ludzi i ich prac. Po wtóre, założeniem i tematem jednocześnie owej postulowanej tu zaczątkowo "filozofii tertium comparationis" musi stać się ludzki mózg, który, wbrew niejakim pozorom, jest w swej budowie i funkcjach bez porównania gorzej rozpoznany od komputerów, bo je wszak sami budujemy i użytkujemy. Natomiast mózgi użytkujemy, rzecz jasna, aleśmy ich bynajmniej nie zbudowali.

Pozwolę więc sobie w sposób wręcz stenograficzny wyliczyć niektóre, "pozakomputerowe" własności naszego mózgu. Mózg sk1ada się z jeszcze nie przeliczonej, a1e wie1kiej liczby podzespo1ów, przy czym podzespo1y te zasadniczo "winny" wspó1dzia1ać, ale bywa, że są antagonistami i nawzajem sobie przeszkadzają. To dość łatwo można rozpoznać w wielu zjawiskach. Np. można uszkodzić sobie proces przypominania (jakiejś, dajmy na to) deklamacji, jeżeli skupimy na nim zbyt mocno świadomą uwagę - natomiast jeżeli z takiego ogniskowania uwagi zrezygnujemy, automatyzm deklamacji jako (to przyk1ad) nienagannego wyrecytowania tekstu przebiegnie g1adko. (To zresztą stanowi lejtmotyw żartu o postawionym stonodze pytaniu, jak ona organizuje ruchy tylu nóg, a stonogę - od zamyślenia nad tym pytaniem - poraża bezruch). Albo też łatwo dostrzec inne antagonizmy "wewnątrzmózgowe": kiedy rachujemy biegle, i zaczynamy wątpić w sprawność tej bieg1ości, powtórzenia często okazują się obarczone znaczniejszymi błędami: nie należy więc, zdawa1oby się, koncentrować się za mocno... A także z badań (z lat pięćdziesiątych jeszcze) wynikało, iż człowiek poddany hipnozie może przypomnieć sobie wydarzenia sprzed wielu lat, których przy pe1nej świadomości przywołać reminiscencją nie jest w stanie.

Są więc jak gdyby rozmaitej "głębokości" czynnościowe pok1ady funkcji mózgu, a ich penetracja bywa świadomości, jako nasilonej uwadze, wprost niedostępna. Również język nasz, każda jego odmiana, w1aśnie dzięki temu, że swoją składnią, leksykografią i frazeo1ogią oraz idiomatyką wymija zapadnie i zdradzieckie pułapki, których obecność w każdy równoważnym arytmetyce systemie wykry1 wielki Goedel, bywa zawodny, gdy prowadzimy dyskursy oparte na argumentach różnej sprawdzalności i mocy. Język jest bowiem i naszą siłą i zawodną słabością: dlatego nauki ścisłe "wycofują się" w obszary matematyzacji, gdzie jednak czyha na nie Goedlowska pułapka... Zaś lokalizacja mózgowa ośrodków, zawiadujących mową rozumianą, mową od kołyski wyuczoną, mową (językiem) drugiego, tj . po dzieciństwie wyuczonego rzędu, mową pisaną, czytaniem itp., wszystkie te czynnościowe zarodki językowe mózgu u nowo narodzonego wprawdzie są biologicznie prawie że tożsame (niezależnie od tego, czy jest to dziecko chińskie czy polskie), ale stanowią nierozpoznaną zagadkę. Nie jest bowiem ani tak, że języka się nie dziedziczy, ani tak, że się go dziedziczy: cz1owiek dziedziczy tylko "pogotowie funkcjonalne", zdolne do rych1ego przystosowania do środowiska językowego, w jakim się urodził. (To by się komputerom niechybnie przydało: ich bezkontekstowa sztywność musi kiedyś ulec zasadniczej "przeróbce" w stronę antropologiczną...).

 

5          Szczególnym dowodem na wielkość podzespołów, z jakich się mózg składa, mogą być zarówno pewne zjawiska jawy, jak i marzenia senne. Świadomość śniącego może postrzegać zjawiska snu jako najdziwniejsze zaskoczenia, których antycypować nie jest w stanie, jakby naprawdę pochodzi1y spoza obrębu jego umys1u. Sen "śni się sobie" w sposób jakże często nieprzewidywalny i zaskakujący, zwłaszcza jako koszmar: oznacza to, że zawężone pole świadomości śniącego wątki, które się rozwijają, zostają wprowadzone z takich pod-agregatów mózgu (ukoncentrowane takimi podzespołami mózgowymi), o których treści (zawartości fabularyzacyjnej) nic śpiącemu nie wiadomo.

To znów jeszcze jeden dowód na rzecz tezy o przyczynach, sprawiających, że podzielność naszej świadomości uwagi jest nikła. Bardzo trudno mianowicie mieć w polu świadomości więcej, niż kilka (pono najwyżej sześć) problemów. Jeżeli zaś zaprezentować by najsłabszą z licznych potencji mózgu, będzie nią "information retrieval": nieszczęście, zdarzające się nawet osobom pilnym, a właśnie egzaminowanym, sprowadza się do tego, że afekty towarzyszące (jako "nerwowe emocje" pytanego) wyhamowują umiejętność szybkiego "wydobycia" z magazynów pamięci tego, czego egzaminator żąda (nie mam tu na myśli tych, którzy udają się na egzamin po prostu nie przygotowani).

Także zjawiska lęku, paniki, a szerzej emocje, mogą porażać intelektualne sprawności. Największym zaś problemem człowieka są nierozpoznawane "wsobnie" rozmiary indywidualnego ilorazu inteligencji oraz sprawności kreacyjnych (które bez wątpienia są co najmniej w dużej części genotypowo, dziedzicznie zatem, zaprogramowane czyli uwarunkowane). Wariancja wewnątrzgatunkowa jest u cz1owieka największa: boż im gatunek zwierząt na drabinie postępów ewolucyjnych niższy, tym mniej różnic "umysłowych". Wszystkie muchy mają tyle samo zadanych instynktem umiejętności przetwarzania informacji (muchy nigdy nie nauczą się tego, że przez szyby przelecieć nie można), a także "genialny szympans" (a są takie, zdolne do uczenia się pierwocin języka graficznego) różni się daleko mniej od szympansa głupiego, aniżeli różnił się Newton od durnia. Zarazem tu natykamy się na odmienną zagadkę: oto nie wiemy, dlaczego ewolucja ludzkiego mózgu, jako wzrostu jego potencjałów umysłowych, rozpocząwszy się ponad milion lat temu i osiągnąwszy wyjątkowe w naturalnej ewolucji przyspieszenie, przecież zatrzymała się jakieś sto do dwustu tysięcy lat przed naszą erą! Tym samym wszystkie rasy mają mózgi praktycznie biorąc takie same i różnice najwyżej mogą dotyczyć dystrybucji genów w genomach, tych mianowicie, które łącznie decydują o potencjalnie osiągalnej inteligencji (m.in. idzie o prastary spór "nature or nurture", tj. czy dziedziczność, czy raczej środowisko głównie warunkuje poziom umysłowy: wahadło tego sporu dziś wskazuje na oba czynniki, z pewną przewagą dziedziczności, ale różnice, wykrywalne tylko statystycznie są między rasami małe. Gdyby okazały się większe, powstałby jeszcze jeden zbiór przyczyn dla niewolnictwa, szowinizmów, nacjonalizmów, rasizmów itp.

Ale dlaczego "rozpędzony we wzroście ewolucyjnym" mózg "stanął", nie wiemy. Trudno za przyczynę uznać względną ciasnotę żeńskiego kana1u porodowego, choć obwód g1ówki noworodka jest w jego organizmie największy. Tu skrywa się zatem nierozwikłana zagadka mózgu, prawdopodobnie raczej biologicznej aniżeli informatycznej natury.

 

6          Nie zamierzam wkroczyć w dziedzinę psychopatologii, ani z jej psychozami dziedzicznymi i nabywanymi, ani w strefę fobii, psychopatii, wystarczy chyba w tym miejscu rzec, że stabilność czynnościowa ludzkich mózgów jest dość chwiejna i to też może okazało się hamulcem dalszych wzrostów. Dzwonowa krzywa Gaussa, pokazująca dystrybucję normalną ilorazów inteligencji (najwięcej uśrednionych - 120 IQ - najmniej "jeszcze nie anormalnego" minimum fizjologicznego, a na schodzącym prawym ramieniu - najmniej ilorazów powyżej 130 -150 IQ) nie zdaje w ogóle sprawy z wpływu na "oddestylowany" testami IQ, jaki wywierają: charakter, momenty wolicjonalne ( ,napęd" i "popędy"), życie afektywne, główny kierunek uzdolnień (jeśli istnieje) itd.

Życie emocjonalne dziedziczymy po najstarszych kręgowcach (zapewne ponad pó1 miliarda lat trwał rozwój tego żywota), więc jest od życia umys1owego nieporównanie starsze. Nic do tego komputerom, a zarazem nie wiemy, czy to "dla nich" raczej wada czy raczej zaleta. To samo i z dość zagadkową wciąż intuicją.

 

7          Trzeba jednak naruszyć granicę, oddzielającą w jednym miejscu normę od patologii: mam na myśli miejsce w którym sadowi się odmiana tak zwanych genialnych idiotów. Są to wysoce niepełnosprawni umysłowo niesamowicie biegli rachmistrze, zdolni konkurować z kalkulatorami elektronicznymi, są to też niesamowici "zapamiętywacze" raz przejrzanego d1ugiego tekstu (chociaż nie mogą konkurować z megabajtową pamięcią komputerową), są to głupkowaci, odznaczający się bardzo obszernym poliglotyzmem (z nadzwyczajną łatwością przyswajają sobie mnóstwo obcych języków, tyle, że nic rozsądnego w żądnym nie wymyślą), itd. Przypuszczam, że u tych wszystkich "odmieńców" zachodzi jednoczesna atrofia zbioru normalnych podzespołów mózgu oraz "uwolnienie" pewnej grupy takich podzespołów (językowych, ob1iczeniowych wzrokowych pamięci) od działania innych (normalnych), które , jak się już rzekło" poziom zwątpień mogą uszkadzająco wzmocnić.

 

8          Są psychologowie, uważający funkcje mózgu cz1owieka za swego rodzaju "graniówkę", za poruszanie się wzd1uż dość wąskiej ścieżki norma1ności przeciętnej, przy czym po obu stronach zieją przepaście: z jednej strony nadmiernej sztywności a z drugiej nadmiernego uchaotycznienia zamierzeń i myśli, więc zagrażać może cz1owiekowi albo raczej zastyganie w stereotypach albo raczej zamęt prawie bezkierunkowej anarchii.

Oczywiście schemat to gruby i przez to już uproszczony. Lecz warto mieć wszystkie te cechy na uwadze, gdy się poszukuje "tertium comparationis", bo wtedy łatwiej pojąć, jak ma1o sensu zawiera chęć "powtórzenia mózgu" w maszynie. Co biologiczne, należy się biologii ewolucyjnej a co obliczeniowe - mocom obliczeniowym komputerów. Lecz ponadto należy wspomnieć, że mózg po lobotomii (z odciętymi p1atami czołowymi, warunkującymi "strategie życiowe") może przecież działać prawie że (z pozoru) normalnie. Spróbujcie za to działania komputera, któremu odpiłowano sporą część hardware...

Wynika ta fundamentalna różnica i stąd, że mózg nasz zawiera pok1ady pradawnej przesz1ości: że jest w nim "coś" z płaza sprzed milionów lat i gada, i hominidów. Rozum zaś powstaje wtedy, gdy staje się tak przystosowawczo potrzebny, że odmiennym wyjściem z alternatywy jest już zagłada gatunkowa: a gatunków, które uległy zagładzie, by1y miliony na Ziemi...

"Wyścig" mózgów z komputerami odbywa się na razie jako potęgowanie pojemności "martwych" pamięci oraz przyspieszanie obliczeń: to stwarza rosnące moce obliczeniowe. Czy innowacyjne posi1ki przybędą zapożyczane u mózgów biologicznych (i tym samym ewolucja komputerów zbliży się do naturalnej), czy też na odwrót, nożyce rozerwą się jeszcze bardziej niż dziś, i "posiłki" okażą się "ca1kiem nie biologicznie dane", nieludzkie - na razie zawyrokować trudno.

 

9          Od ludzi, a nie od komputerów, będzie zależało, kiedy nazwane posiłki dokonają inwazji w strefę strategii decyzyjnej w gospodarce i może w polityce nawet. Tendencje takie nasilają się pewno w świecie coraz bardziej przeludnionym, "rozregulowanym", w którym bezsilnie patrzymy na szaleństwa ludobójcze i na głosicieli ludobójczych programów jako "panaceum" na chaos. Gdym pisał "Summa Technologiae", największy błąd popełni1em, zakładając jako postać umownego bohatera tej książki racjonalnego cz1owieka-Konstruktora, a nie agresora, zaślepionego szowinizmem i rozkoszującego się topieniem każdej innowacji technologicznej w umysłowym ubóstwie wszechdeprawacji. Nie przewidziałem tego, czego przewidzieć nie chciałem. Czy jednak wo1no by1o mieć prawo na taką stronność - oto jest pytanie.

Pisałem 2 stycznia 1994 roku

sssdasdBackUp