Jesteśmy chaotyczni i przezroczyści

2011-03-03 00:00:00 +0000


Wczoraj w ramach Radiowej Akademii Naukowej leciał bardzo ciekawy wywiad z dr Anną Ochab-Marcinek z Instytutu Chemii fizycznej PAN. Opowiadała ona o probabilistycznym sterowaniu produkcją białek w komórkach. To koncepcja ciężkostrawna dla inżynierii dwudziestowiecznej, przyzwyczajonej do myślenia w kategoriach deterministycznej maszyny Turinga. W podobny sposób myślimy też o większości procesów przemysłowych, gdzie można rozrysować ładny diagram - na wejściu surowiec X, potem mieszadło A, przenośnik B, podgrzewacz C, rura D, suszarka E a na wyjściu produkt B.

Proces probabilistyczny polega - o ile dobrze rozumiem - na tym, że po włączeniu jakiegoś sygnału na wejściu stan układu zmienia się w sposób niekoniecznie możliwy do opisania w sposób analityczny, ale możliwy do opisania statystycznego. Czyli włączenie sygnału X z dużym prawdopodobieństwem spowoduje, że układ zaczyna produkować Y.

Ale prawdopodobieństwo mówi, że raczej zaczyna, a nie że na pewno zacznie. W skali jednostki produkcyjnej to za mało, by uzyskać działanie zgodne z oczekiwaniami, ale w skali całego układu statystyka robi swoje i układ działa w sposób praktycznie deterministyczny.

Do projektowania systemów probabilistycznych dopiero się przyzwyczajamy (bramki bayesowskie) i chyba trochę się boimy systemu działającego na zasadzie “czarnej skrzynki”, nawet jeśli robi to co trzeba. Wśród informatyków nadal pewną rezerwę budzi myśl, że obliczenia mogą dawać wynik, który jest prawie dokładny, bo jak to tak, na przykład w systemie finansowo-księgowym?

Tymczasem w praktyce wynik prawie dokładny jest bardzo często wystarczający (patrz Księgowość rozmyta czyli NoSQL). Tak właśnie działa niezwykle szybkie wyszukiwanie we współczesnych serwisach rozproszonych, jak Google czy Facebook. Rezygnacja z gwarantowanej determinizmem dokładności tam, gdzie ona nie jest potrzebna, pozwoliła na skokowy wzrost wydajności przetwarzania danych. Co ciekawe, łatwiej tolerowana jest w środowisku informatycznym świadomość, że cała siła współczesnej kryptografii też jest głównie oparta o statystykę, która daje praktyczną pewność, a nie pewność dowiedzioną.

Warto posłuchać całego wywiadu z dr Ochab-Marcinek bo wygląda na to, że działanie genów ma wiele wspólnego z kodem samomodyfikującym się. Biochemicy mogą się czegoś nauczyć od autorów komputerowych wirusów polimorficznych i projektantów nowoczesnych procesorów wielordzeniowych (i na odwrót).

Gdzieś koło 9 minuty prowadzący pyta czy to wszystko oznacza, że “w takim razie jesteśmy zbiorem komórek, które postępują całkowicie chaotycznie i przypadkowo”. Jak widać, od sterowania probabilistycznego jest już tylko krok do polityki i filozofii, które mogą być zaczątkiem uroczych flejmów na temat ekonomii behawioralnej czy socjobiologii :)

Odkrycia naukowe zawsze inspirowały filozofów, nie zawsze sensownie. Žižek powoływał się na zasadę nieoznaczoności Heisenberga, Lacan pisał o związku pożądania i “organu erekcyjnego” z pierwiastkiem z -1, teoria względności Einsteina miała być naukowym uzasadnieniem relatywizmu. Sporo takich przypadków udokumentowali Gross i Levitt oraz Bricmont i Sokal (ci ostatni napisali książkę jako krzyk rozpaczy przeciwko intelektualnemu cofaniu się bliskich sobie ruchów lewicowych do czasów paleolitu).

Niedościgniony bełkot Trockiego z 1939 czyli Abecadło materialistycznej dialektyki był zarówno jednym z powodów, jak i środków, którymi w krajach komunistycznych walczono z nauką, jeśli jej wnioski były sprzeczne z ideologią marksistowską (genetyka czy ekonomia).

Postmodernistyczni filozofowie, bazując zwykle na infantylnym wyobrażeniu o tych teoriach, nie potrafili dostrzec tego, że to chaotyczne w skali kwantowej, w skali makro można często opisać za pomocą statystyki. Np. chaotyczne i niemierzalne w skali mikro drgania cząsteczek wody pod wpływem energii termodynamika statystyczna odzwierciedla w postaci łatwej do zmierzenia wzrastającej temperatury przedmiotu.