Stanisław Lem | ||||
"Moc obliczeniowa życia" |
1 | Wstępnie muszę powiedzieć, że nie jestem dostatecznie kompetentny dla choćby szkicowego ukazania "horyzontu ewolucji komputerów molekularnych", które zdają się dziś stanowić niedobrze jeszcze rozpoznaną, ale fundamentalną bazę procesów ŻYCIA. Bieda tej mojej niekompetencji w pewnym stopniu ulega wszakże pomniejszeniu przez fakt, że na razie NIKT tak daleko nie jest w stanie ekstrapolować, czyli sięgnąć po owe majaczące nam tylko w oddali czasu molekuły, utworzone z typowych dla kodu dziedziczności nukleotydów, molekuły, powtórzę dla zwiększenia wyrazistości, stanowiące "naturalnie powstałe mikromaszyny Turinga". |
2 | Pierwsze informacje o tym, że były sensowne moje mgławicowe intuicje, wskazujące na KOD genetyczny, jako na przyszłego uniwersalnego projektanta, a zarazem rachmistrza sterującego życiowymi procesami, znaleźć można w amerykańskim periodyku fachowym SCIENCE (tom 266 z 11 listopada 94 roku). Ksera artykułów, demonstrujących zawartą potencjalnie w łańcuszkach nukleotydowych moc obliczeniową, moc, która o bodajże dziesięć porządków przewyższa moc obliczeniową najnowocześniejszych komputerów (jakich używamy i jakie budujemy), pracujących szeregowo, przysłano mi z USA. Uczynił to życzliwy czytelnik, ponieważ dostrzegł, jak mi napisał, niejakie pokrewieństwo moich intuicji, zawartych w książeczce "WIELKOŚĆ UROJONA", a dotyczących właśnie potencjałów sprawczych kodu dziedzicznego, z pierwszymi wynikami prac, w których fragmenty kodu - oligonukleotydowe sekwencje, złożone z ok. 20 polimerów - okazały się zdolne praktycznie pokonać, tj. rozwiązać takie zadanie z zakresu teorii grafów Hamiltonowych, które dla "normalnego" komputera okazuje się bardzo czasochłonne. W TEN problem, który rozwiązały w fazie płynnej oligonukleotydy, wejść tutaj dokładnie z dwu powodów nie zamierzam: po pierwsze, ponieważ na teorii grafów znam się bardzo kiepsko, a po wtóre, ponieważ zadanie, nukleotydowym szturmem rozwiązane, nie ma praktycznie nic wspólnego z przebiegiem procesów ewolucyjnych (biologicznych): rozwiązanie to ukazuje tylko, że w owym środowisku półpłynnym, jakie stanowić mogą kropelki protoplazmy z kodem dziedzicznym, nimi sterującym, u te s takie moce obliczeniowe o jakich dotychczas nie mieliśmy bladego pojęcia. |
3 | W dwu słowach warto może jednak wyjaśnić przynajmniej, o jakie zadania szło. Autorem pracy "Molecular Computation of Solutions to Combinatorial Problem" jest Leonard M. Adelman. W zasadzie chodzi o problem odnalezienia takiej drogi, która przechodzi przez każdy wierzchołek określonego grafu tylko jeden raz, a w praktyce bywał ten z dawien dawna znany problem rozpatrywany jako zadanie komiwojażera, który ma odwiedzać po kolei cały szereg miejscowości i chodzi o to, ażeby żadnej nie pominął na swojej drodze i żeby zarazem droga ta okazała się jak najkrótsza (oszczędna). Problem, który dla malej liczby "miejscowości" nie przedstawia specjalnego kłopotu także dla normalnego komputera, przy wzroście liczby tych miejscowości - punktów (wierzchołków grafów) zaczyna rosnąć wykładniczo. Jeżeli mikrosekunda jest potrzebna dla rozwiązania zadania o dziesięciu punktach, to 3,9 x 1011 wieków trzeba czekać na rozwiązanie dla STU punktów. ( Nie liczyłem - zastrzegam się - lecz polegam w całości na artykule "On the Path to Computation with DNA" Davida K. Gifforda, umieszczonym w nazwanym już numerze SCIENCE). Otóż ten przeraźliwy problem oligonukleotydowe sekwencje potrafią rozwiązać dzięki temu w czasie ani trochę nie tak "nieludzkim", ponieważ działają "szerokim frontem". Inaczej to samo mówiąc, tych łańcuszków molekularnych jest (musi być) bardzo wiele, a i w przyrodzie ich nie brak: przecież np. najprostsze bakterie, więc już organizmy, działają w ilościach rzędu miliardów i bilionów. Inaczej mówiąc, problem zostaje pokonany metodą "brute force" i zarazem metodą paralelną, ponieważ zadanie zostaje zaatakowane przez wszystkie oligonukleotydowe łańcuszki, a rozwiązaniem może się okazać tylko jedną ich sekwencja. Jednak ten problem, w którym matematyka rzuca w bój hamiltoniany, NIE jest główną osią mojej tu wyrażonej nadziei, że TAKIE metody obliczeniowe leżą u podstawy życia. Chodzi tylko o to, że została niejako "zerwana zasłona" z pozornie "chaotycznej gry" nukleotydowej, za którą czai się potęga obliczeniowa, i odkrycie to rzuca jeszcze niezbyt jasne, ale dające już do myślenia światło na te trzy miliardy lat Ziemi, podczas których życie na niej bylo wyłącznie życiem organizmów najprostszych, a potem bakterii. |
4 | W pierwszej połowie naszego stulecia modne bywało obliczanie "całkom tego nieprawdopodobieństwa", jakim miałoby być powstanie życia (biogeneza) w toku procesów chaotyczno losowych. W połowie wieku zaś modne były ponadto dysputy darwinistów-ewolucjonistów z kreacjonistami - sceptykami, którzy domagali się od pierwszych, aby wytłumaczyli ewolucyjne powstawanie gatunków, organów, zachowań zwierzęcych itp. Oczywiście, ewolucjoności, także biologowie pierwszej wody, jakim np. był J.B.S. Haldane, chętny do drobnych utarczek, na ogól przegrywali. Rzecz w tym, że umysł ludzki, choćby to był umysł supermądrego darwinisty, nie jest w stanie wyobrazić sobie i wysłowić w sposób podległy naocznej weryfikacji takich procesów, które przebiegały przez tysiące milionów lat, a choćby "tylko" lat miliony. |
5 | Mając szczególną słabość do dywagacji, wspomnę tutaj, że kiedy osiem lat temu uzyskałem możliwość rozmawiania z noblistą Manfredem Eigenem, kiedy zapoznałem się też z jego teorią "hypercyklów" mających stanowić osnowę powstawania zjawisk życia, przez pewien czas chodziłem mile uspokojony myślą, że biogeneza znalazła wreszcie swe naukowe wytłumaczenie. Potem dopiero naszły mnie takie oto wątpliwości: hypercykle, jako też cały piękny schemat pracy ewolucyjnej opartych na ich replikacji procesach elementarnej ewolucji (tej, o której powiada prawy darwinista "survival of the fittest"), są bardzo ładnym urządzeniem, ale to przecież nie jest coś, co mogło powstać "spadłszy z nieba". Inaczej mówiąc: pytanie o początek życia zostało hipotezą hypercykli niejako przesunięte w nadal ciemną przeszłość, w której coś te hypercykliczne reakcje, kręcące się dzięki stałemu dopływowi energii w kółko, powołało do istnienia .... i tutaj nadal nic nie wiemy. |
6 | Także praca, o jakiej pisałem wyżej, Adelmana, nie wyjaśnia bezpośrednio niczego co do biogenezy. Natomiast zaczyna świtać rozumowa nie, które pozwolę sobie bardzo skrótowo przedstawić. Typowy komputer klasy desktop wykonuje co najmniej 106 operacji na sekundę. Najszybsze komputery potrafią wykonać 1012 operacji na sekundę. Jeżeli powiązanie (Anglicy piszą "concatenation") dwu molekuł DNA uznamy za jedną operację (elementarną) i jeżeli około polowy oligonukleotydów liczy ich 4 x 1014, to właśnie 1014 operacji zostaje wykonanych, gdyż każdy nukleotyd "działa na własną odpowiedzialność". To właśnie jest frontalny atak "brute force", który łatwo można powiększyć do 1020 operacji: nie mówię wcale, że TAK właśnie pracuje aparatura kodu dziedzicznego, która jest niezrównanie bardziej skomplikowana (i w której pracy uczestniczą rozmaite dodatkowe pomoce enzymatyczne, a wszak mój stary słownik genetyki liczy sobie 600 stron, choć w nim brak jednego słowa o mocach obliczeniowych, potencjalnie obecnych w kodzie). Prezentuję jedynie rząd przeraźliwych zgoła wielkości tych mocy, które powstają z chwilą, kiedy się nukleotydy już pojawiają i pracują zorientowane dla rozwiązania określonego problemu. |
7 | Rzecz
jasna, kluczem do następnych wrót, czyli sposobem na
postawienie kolejnego, kto wie czy nie decydującego
kroku, będzie pytanie o to, skąd biorą się zadania,
jakie zostają nukleotydom postawione w Naturze?
Hamiltoniany i grafy nie mają przecież bezpośrednio z
procesami życiowymi NIC wspólnego. Jest
mniej więcej tak, jak
byśmy pokazali potęgę drzemiącą w pewnym urządzeniu
obliczeniowym, i to w takim "urządzeniu",
które w niczym komputera naszej produkcji nie
przypomina. Biochemik powiada: hydroliza jednej molekuły
trójfosforanu adenozyny daje tyle energii, że jeden dżul starczy na 2 1019
operacji. Jest to wydajność zdumiewająca, jeżeli zważyć, że drugie prawo termodynamiki pozwala na teoretyczne maksimum 34 x 1019 operacji na 1 dżula (przy 300° Kelvina). Najlepsze nasze komputery natomiast potrafią wykonać najwyżej 109 operacji na 1 dżula. Jak widać, procesy, jakimi żywią się energetycznie "urządzenia" nukleotydowe, są niezrównanie bardziej wydajne od naszych technicznych wytworów. Na daleką metę można by zatem uznać, że moje próby zawarte w "Summa technologiae", przekonywania i zapewniania, iż przejmiemy potęgę Natury NIE przez imitację ośrodkowych układów nerwowych, NIE przez budowę "sztucznych mózgów", ale poprzez owładnięcie mocami ukrytymi w genomach, były wcale sensowne. Być może, iż, jak pisze Adelman, jedna molekuła DNA może równać się "momentalnej" /"instantaneous"/ deskrypcji maszyny Turinga i że stojące do naszej dyspozycji enzymy i protokoły mogą zostać zastosowane do uruchomienia TAKICH "MASZYN". Badania zmierzające w tym kierunku mogą doprowadzić do rozwoju enzymów, zdolnych do wykonywania prac syntezy projektowej; będzie to era manipulowania makromolekułami, o której pisałem w 1980 roku w "Prognozie rozwoju biologii do roku 2060" - dla Polskiej Akademii Nauk. Ostatecznie - pisze Adelman - "można sobie wyobrazić powstanie uniwersalnego czynnościowo komputera, utworzonego z niczego więcej ponad jedną makromolekułę, podłączoną do zespołu enzymów /podobnych do rybosomów/, które będą na tę makromolekułę 'należycie' oddziaływały". |
8 | Wyznaję, że kiedy czytam takie rzeczy w piśmienie roszczącym sobie, dalipan, najmniejszej pretensji do Science Fiction, i kiedy patrzę w przeszłość na to, co wypisywałem i co bywało uznane za utopijne bajeczki, odczuwam nie tyle nawet satysfakcję, ile zdumienie pełne niepokoju. Jedną rzeczą jest bowiem powiadać, że hen tam, kiedyś, "za grzbietami stuleci" coś zostanie stworzone, że jakieś Moce ulegną wyzwoleniu i zawłaszczeniu przez ludzi, a zarazem uspokajać się wiarą w polepszalność ludzkiej natury (w toku "postępów cywilizacyjnych"), a inną rzeczą całkiem jest dożyć takich, jak cytowane, publikacji, i widzieć, że już za progiem nadciągającego XXI wieku rozpoczną się inwazje ogromnych kapitałów, masywnych inwestycji, rynkowych walk i szaleństw w bitwach o te "biokomputery", o jakich ja tak niefrasobliwie ku mizernemu zainteresowaniu odbiorczemu pisywałem, nie słysząc przy tym najmniejszego odzewu (poza śmiechem). |
9 | Ażeby mnie jeszcze lepiej dobić (czy uwieńczyć?), grudniowy numer Scientific American zawiera artykuł o powstającej projektowej inżynierii genetycznej , która miałaby stworzyć nowy front walki z drobnoustrojami chorobotwórczymi. O tym jednak już nie chcę tu i teraz pisać. Myślą raczej wrócę w najbardziej zamierzchłą przeszłość, w której najprostsze, jeszcze nie komórkowe, raczej bakteryjne życie wegetowało i kotłowało się na powierzchni naszej planety. Czy możemy kiedykolwiek zrekonstruować symulacyjnie procesy tej miary i takiej skali? W zasadzie wydaje mi się to do pewnego stopnia możliwe. Pytanie, na które nie próbowałem dotąd znaleźć choćby i niepewnej odpowiedzi : CO stawia mocom obliczeniowym, powstającym w toku genezy kodu nukleotydowego, ZADANIA? - to pytanie jest zarazem pozornie proste i niezwykle zawile. Oczywiście, musiało być tak, że zadanie "narodziło się samo" , w tym sensie elementarnym, iż "molekularne komputery" tylko wówczas mogły po prostu przetrwać, jeżeli były tak zorientowane procesualnie, ŻE potrafiły same siebie kontynuować. A to dlatego, ponieważ tam, gdzie powstał ten moloch, te armie molekularne, utworzone z trylionów uporządkowanych nukleinowych kwasów, równocześnie w temperaturze Praziemi działał chaos ruchów Browna: tam wciąż trwały ataki atomowego bezładu, dyktowane przez II zasadę termodynamiki, tam się musiały toczyć bitwy ze wzrostem entropii. A to, co przegrywało te starcia, przestawało istnieć. I tym samym zaczynamy już rozumieć, jak to może być, że bakterie po czasie stosunkowo krótkich tryumfów medycyny, bombardującej je antybiotykami, uzyskują odporność. Zadanie jest dla tych drobnoustrojów wciąż takie samo, jak przed czterema miliardami lat: należy przeżyć! "Należy" już w tym sensie, w jakim "należy" się spodziewać trafiania Ziemi upadkiem meteorów czy też czekać na zmiany klimatu, ponieważ zarówno biogeneza była zjawiskiem uwarunkowanym PROBABILISTYCZNIE, jak probabilizmy wyznaczają też częstość kosmicznych zajść w rodzaju zderzenia z meteorem czy wejścia w epokę lodowcową. Byl czas, w którym teoria prawdopodobieństwa uchodziła za ubogiego krewnego, wręcz za podrzutka, który przez badaczy hazardowych gier został matematyce niecnie podłożony. Otóż dziś jest już probabilistyka w pełni honorów i dowiadujemy się po trosze, jaką rolę jej właściwa dzielność odegrała przy stworzeniu życia na Ziemi... i nadała temu życiu w jego najprostszych formach bakteryjnych taką sprawność, która z każdej wynalezionej medycznie opresji wyjdzie cało... co zmusi nas do toczenia z chorobami następnych bitew. |
10 | Przy
tym wszystkim, kiedy już roztacza się przed nami
mepospolicie zaskakująca panorama przyszłych prac,
tych, które niemal maniakalnie opatrzyłem hasłem
"dogonić i przegonić Naturę w jej
sprawnościach", trzeba też zważyć, że prosta
rzetelność i rzeczowość nadal musi nas obowiązywać,
a to znaczy, iż obawy, jakie w "Sumie
Technologicznej" (w
przypisach do niej) wyraziłem, pozostają w mocy.
Mianowicie zastanawiałem się tam nad tym, czy i w jaki
sposób ludzie będą w stanie znaleźć drogę na
niesamowite wręcz, pierwsze w ich dziejach, niesłychane
SKRÓTY ku realizacji wymienionego hasła. Jeżeli bowiem sprawa miałaby się tak, że przed trzema miliardami lat powstało życie, a potem przez trzy miliardy samopowtarzało się w permutacjach i rekombinacjach, nie zmieniając własnej postaci, to jak właściwie mogło potem - znienacka bodajże - dojść do "kambryjskiego skoku", który rozplenił życie, powiększając je wielokomórkowo, który zasiedlił oceany, a potem lądy, skąd "molekularnie rozczłonkowany moloch nukleotydowego kodu" wynalazł, w jaki sposób on stworzył sobie dalsze zadania, polegające na samokomplikacji życia, na jego rozszerzaniu się na gatunki, skąd wziął się zarazem ów trend akceleracji, przyspieszenia, dzięki któremu raz powstałe organizmy zajęły się gorączkową produkcją nowych gatunków? A jednocześnie wiemy, że z tych gatunków roślin i zwierząt, które powstały w przeszłości, 99 % wyginęło, i tylko nadzwyczajna prężność... znów trzeba rzec po prostu: OBLICZENIOWA, rekombinująca, rekombinacyjna, z nukleotydowych cegiełek umiała wykrzesać dalsze miriady następnych gatunków, cale fontanny specjacji... Czy to wszystko było też "po prostu efektywnością największej okołosłonecznie loterii trafów" - czy może być, że nic, oprócz Przypadku, chytrze skomplikowanego w kształt łańcuchów Markowskich i pól-Markowskich, nie działało jako ta siła, która na schyłku holocenu wyrzuciła na powierzchnię południowej Afryki przedmałpy razem z przed ludźmi... i wchodząc w okrutnie dziesiątkujące sita doboru naturalnego, tamte gatunki ulegały jeden po drugim zagładzie, aż pozostały tylko dwa konary: na jednym usadowiły się małpy, a na drugim - my: ludzie, Homo sapiens. Najbezwględniejszy - niestety - pasożyt biosfery. To nie podlega już dziś zakwestionowaniu: być może zdołamy opanować moce obliczeniowe molekularnego komputera ŻYCIA i on dopomoże nam w przeżyciu cywilizacji... albo też sami zrujnujemy tę szansę, ponieważ okaże się, że i tę skradzioną prometejską moc Natury sami przeciw sobie obrócimy... w walce, którą tylko bakterie na koniec zdołają przeżyć. |
Pisałem w grudniu 94
sssdasd![]() ![]() |