Metoda naukowa

metoda naukowa

Ludzkość, to prymitywny i głupi gatunek. Czasami można odnieść wrażenie, że także beznadziejny gatunek.

Ludzkość, jak dotąd myliła się prawie we wszystkim, co narodziło się w jej jaźni. Pomimo tego, że niektórzy starali się wyjść z intelektualnego chaosu, spisując to, czego byli pewni, wiedza ludzkości zawsze była ograniczona, odtwórcza i niepełna.

Człowiek XXI wieku już jest lepszy. Unosi się intelektualnie ponad dawno zmarłymi ludźmi, tylko dlatego, że wie, iż ludzkość to gatunek prymitywny i głupi. To jest jedyny i najważniejszy postęp jakiego udało nam się w dziejach ludzkości dokonać. Jeśli o tym zapomnimy, znowu będzie jak kiedyś.

Kiedyś człowiek był z siebie dumny. Uważał, że może być mądry. Początki rozumowania, które prowadzić mogło do poprawnych wniosków, rozpoczęło się od budowy spójności pojęć. Bowiem na początku było słowo. Pierwszym wynalazkiem metody naukowej była definicja.

„Słowo”, rozumiane tak samo przez każdego, czyli posiadające określoną definicję, pozwalało budować konstrukty intelektualne, prawie jak domy budowane z cegieł. Odporność takiej konstrukcji zawsze wiązała się z wytrzymałością jego elementów składowych. Dlatego podkopywanie tożsamości pojęć zawsze prowadziło do podważania cywilizacji. Nic dziwnego więc, ze Konfucjusz stwierdził:

Naprawę państwa należy rozpocząć od naprawy pojęć.

W starożytności uważano, że do poszerzenia zakresu mądrości ludzkiej służy, pozbawiona emocji, dyskusja. Rozmowa na argumenty. Rozmowa, która potrafi sformułować wnioski, w rozumianych tak samo przez wszystkich słowach. Rozmowa na tym samym poziomie ogólności, która przez spójnię rozumienia słów, poszerzy zakres wiedzy wszystkich. Rozmowa bez sztuczek erystycznych, bez obrażania się i argumentów ad personam. Rozmowa, w której ważne było, „co” się mówi, a nie, „kto” mówi, i jak bardzo niskim, czy mocnym głosem.

Rozmowy i rozważania tego typu następnie spisywano, ponieważ ludzie zauważyli, że nieważne są tylko końcowe wnioski, które z reguły łatwo zapamiętać, lecz również „droga” dochodzenia do rezultatów – musi być sprawdzalna przez innych.

Dziedziną nauki, która wycisnęła z idei spójności pojęć najwięcej, jest matematyka. Matematyka „zrozumiała”, jak ważne są te wszystkie cegiełki składowe, dlatego opracowała specjalne języki formalne.

Języki niezrozumiałe dla przeciętnego człowieka stały się dobrem elity. Ponieważ nie mieli do nich dostępu przeciętni ludzie, bardzo łatwo było bronić je przed zepsuciem (rozproszeniem znaczenia pojęć).

Było to szczególnie istotne w czasach upadku obyczajów intelektualnych i zatracenia celu – jaki postawiła sobie ludzkość. Ostatecznym celem życia, jak i jakichkolwiek jego przedstawicieli, jest „życie”, czyli przeciwdziałanie rozpadowi (brak śmierci) za pomocą komplikacji układów (rozwój – wielkość organizmu – zwiększa szansę przetrwania katastrof), co sprowadza się do pokonania chaosu, a więc lokalnego odwrócenia entropii.

Drugim i równie ważnym odkryciem, jest prosta konstatacja, że łatwiej jest bronić przed rozmyciem – pojęcia prostsze. Dlatego główną cechą języków formalnych jest prostota, oprócz specjalnego nacisku kładzionego na trudność ich zrozumienia. Krótkość zapisu danych wymusza z kolei zapis symboliczny. Przez to ostateczny efekt w postaci rozbudowanego wzoru matematycznego przypomina niezrozumiałe dla gawiedzi egipskie hieroglify. I bardzo dobrze – dzięki temu większość z tej wiedzy jest odporna na rozpuszczenie w „kwasie niejednoznaczności”, jakim jest pop-kultura.

Kolejnym osiągnięciem ludzkości było stworzenie zasad łączenia pojęć za pośrednictwem logiki. Logika obejmuje zaledwie drobny wycinek rzeczywistości, lecz ułatwia prawie każdy aspekt wyrażania treści, formalizując zasady budowania opisów większych zjawisk (program). Logika w praktyce używa tylko trzech pojęć: pierwsze dwa, to językowe spójniki „i”, „lub”, trzecią – jest zaprzeczenie, czyli „nieprawda, że”. Za pomocą tych trzech bramek logicznych AND, OR oraz NOT, można zbudować układ realizujący dowolną funkcję logiczną (kiedy argumenty i funkcja wynikowa przyjmują postać zerojedynkową).

Kiedy podejdziemy do matematyka, bądź logika, albo po prostu do kogoś, kto przed drugą wojną zdawał maturę, i zaproponujemy: „czekoladę lub cukierki”, wtedy prawie na pewno zostaniemy pozbawieniu obu przedmiotów. Powodem nie jest „brak wychowania”, lecz zwykłe, najnormalniejsze w świecie pełne zrozumienie, że „lub” jest prawdziwe także wtedy, gdy obie strony alternatywy są prawdą. Propozycja „lub” oznacza: weź jedno, weź drugie, weź oba na raz. Propozycja „i” jest lepiej rozumiana, bo oznacza: weź oba na raz. Weź jedno, weź drugie, ale nie bierz obu na raz, to: „albo”.

Logika indukcyjna (niepełna), to wyciąganie wniosków, które są zwykle prawdziwe. To narzędzie Sherlocka Holmesa z powieści Artura Conan Doyle’a – „musiało padać, bo ulice są mokre” – chociaż mogła właśnie przejechać polewaczka. Jednak autor tej powieści detektywistycznej słabo znał się na logice, bo nie znajdziemy w tej książce tego pojęcia. Zastąpił on je błędnie słowem pokrewnym, lecz innym – dedukcją, która w logice oznacza wynikanie będące na pewno prawdziwe.

Zaraz po stworzeniu logiki, która łączy łatwe do zdefiniowania pojęcia, nastąpił rozkwit nauk dedukcyjnych, czyli takich, które wiedzą na pewno, co z czego wynika (dla których punktem początkowym są niedefiniowane aksjomaty) oraz indukcyjnych, które opierać się musiały na pomiarach rzeczywistości, czyli na naukowym doświadczeniu.

Z początku rozumowanie dedukcyjne nie było zbytnio przydatne cywilizacji w codziennym rozwoju i życiu. Pomimo tego, że w XIX wieku drastycznie się to zmieniło, bardzo wiele praktycznych zastosowań działania „czystego rozumu” nie rozwiązywało jednak podstawowego problemu ludzkości, czyli niezdolności do „zrozumienia” otaczającego go świata. Inaczej było z indukcją. Dowód w postaci eksperymentu pozwalał odpływać ludzkiemu poznaniu na nieznane wody. Człowiek wysnuwał bowiem z powtarzalności niektórych zjawisk buńczuczne tezy o wszystkim i wszystkich, zaspokajając w ten sposób swoją potrzebę odpowiedzi na pytanie, „dlaczego”…

Człowiek jest istotą łapczywą.

Nie jest on zainteresowany jedynie tym, aby wiedzieć: „jak coś działa”, jak i „wiedzieć na pewno, że działa”. Człowiek chce również zrozumieć, „dlaczego coś działa tak, a nie inaczej”. To ostatnie pytanie – ta pra-czysta ciekawość, unikalna przywara ludzkości – pchała ją do działania: eksploracji, podboju, i rozwoju. Bez niej nie byłoby nie tylko metody naukowej; bez niej bylibyśmy zaledwie „integralną”, bo siedzącą na drzewach, częścią przyrody – pięknej, głupiej, śmiesznej, biernej i fałszywej.

Próba odpowiedzi na pytanie, „dlaczego”, nosi miano „teorii naukowej”.

Pierwszym krokiem na drodze jest wyznaczenie celu.

Co osiągnęliśmy w starożytności. Chcąc zrzucić okowy, wywołującego odwieczny strach i niepewność, chaosu – zaczęliśmy rozmawiać. Kiedy doszliśmy do tego, dlaczego w tych rozmowach się nie rozumiemy, zaczęliśmy definiować, upraszczać, symbolizować i formalizować w logicznych związkach pojęcia. Uważaliśmy, że osiągnęliśmy wiele. Byliśmy dumni z siebie, ale staliśmy nadal w miejscu. Wyglądaliśmy nieco śmiesznie, byliśmy chwiejni, z przesadnie wysuniętą jedną nogą do przodu. A nawet dziecko wie, że dopiero drugi krok pozwala przesunąć ciężar ciała – dalej.

Drugim ważnym krokiem na drodze jest poznanie siebie.

Nauka dowiedziała się dopiero w XX wieku jaka jest; i dopiero teraz w początkach XXI zaczynamy rozumieć jaka jest, podsumowując jej dokonania ze schyłku poprzedniego tysiąclecia.

Nauka jest narzędziem śmierci i zniszczenia.

Stała się odzwierciedleniem wad naszego beznadziejnego gatunku – dowiedziała się, że jest niemoralna. To naukowcy opracowali cyklon B, system oznaczania tatuowanymi numerami ludzi w obozach, żeby przyspieszyć i uszczelnić eksterminację oraz bombę atomową. Luminarze nauk nie mogą więc stanowić elity naturalnej. Aspirować mogą co najwyżej do elity intelektualnej – tutaj i tylko w umyśle jest jej miejsce. Naukowcy nie mogą zawłaszczać prawa do chodzenia w gronostajach – bycia „wzorcem” społecznym, bo po prostu na to nie zasługują, samo profesorstwo ich do tego nie predestynuje. Naukowcy mentalnie znajdujący się w XXI to wiedzą. Ci, którzy nie wyciągnęli wniosków z tych lekcji „bezmyślnie” podtrzymują „tradycję”. Nauka ma tworzyć wiedzę – aż oraz tylko i wyłącznie, w XX wieku przestała być źródłem prestiżu.

Nauka w XX wieku dowiedziała się, że każda istniejąca obecnie teoria naukowa jest błędna.

W XIX wieku wiedziano, że każda teoria naukowa jest zaledwie teorią indukcyjną, ale zamiatano ten problem pod dywan. Brak cech rozumowania nieomylnego, czyli dedukcyjnego, uważano za problem przejściowy. Wiedziano, że bez spójnej, dedukcyjnie wynikającej z aksjomatów „teorii wszystkiego” mylimy się prawie na pewno. Ale „przejściowe trudności” zamiatano pod dywan.

XX wiek uderzył w „okres przejściowy”, i w „niedługo, prawie za chwilę” twierdzeniem Godla z pełną siłą. Teraz wiemy, że mylimy się na pewno. Wiemy, że dowolny skończony zbiór aksjomatów (a tylko taki jesteśmy w stanie wytworzyć) będzie prowadził do oceanu niewiedzy. Każde ze zdań niedowiedlnych, czyli takich, o których prawdziwości nic nie możemy powiedzieć, to kolejna kropla w oceanie naszej ignorancji. Niewiedzy, o której wiemy na pewno, że będzie ona nieskończenie wielka.

W każdym skończonym zbiorze aksjomatów istnieje nieskończenie wiele zdań niedowiedlnych. Zdania niedowiedlne, to twierdzenia których nie potrafimy udowodnić i jednocześnie nie możemy im zaprzeczyć (sic!).

Oczywiście prawdziwość wielu twierdzeń udowodniliśmy dedukcyjnie – na pewno. Ale nie mamy jak potwierdzić fundamentalności i kompletności zbioru naszych aksjomatów, z których wynika dowód. Tych podstawowych pojęć – takich jak punkt czy prosta.

Nie wiemy, czy punkt jest pojęciem pierwotnym, nie wiemy, czy musi on nie posiadać żadnej definicji, tak jak jest teraz. Nie wiemy, czy nasze obecne aksjomaty nie można wyprowadzić (zdefiniować) z jeszcze prostszych pojęć podstawowych, np. sformułowanych w jakimś nowym, nieznanym jeszcze uogólnionym języku. Nie wiemy, jak głęboko wniknęliśmy w naturę rzeczywistości. Nie wiemy, czy odkryliśmy cały fundament świata, czy przypadkiem nie istnieją jeszcze inne pojęcia pierwotne, które poszerzą zakres tego fundamentu.

Nauka XX wieku dowiedziała się, że za naukowe trzeba uznawać rywalizujące, sprzeczne ze sobą teorie.

Możliwe jest dualne, czasami wielorakie spojrzenie na dany problem i każde z nich posiada pewne wymierne, realne korzyści. Kiedyś, gdyby istniały dwa poglądy na dany temat, przyjęto by tylko jedną wersję. Teraz zmądrzeliśmy. Przestaliśmy dyskutować. Już nie dochodzi do wielkich sympozjów, po których zgadzamy się na jedną, jedyną wersję. Konferencje naukowe to dyskusyjne pustynie, podczas których publiczność zgadza się prawie na wszystko. Teraz już wiemy, że czasami pogrążenie tez rywala jest niemożliwe. Wiemy, np.: że fizyka kwantów wyklucza teorię względności i vice versa, bo oba tak różne spojrzenia nie mogą być prawdziwe. Jednak akceptujemy obie teorie, dopóki nie powstanie teoria unifikująca, falsyfikująca je…

Te same fakty można wyjaśniać na inne sposoby w zależności od teorii, na której określone wyjaśnienie oprzemy. Rywalizujące ze sobą teorie tak samo dobrze i dokładnie objaśniają nawet skomplikowane fakty. Jedynym rozróżnieniem pomiędzy nimi jest ich wielkość, czyli ilość zjawisk, które potrafią objaśnić.

Grawitację działającą na przedmioty na Ziemi możemy wyjaśniać wedle siły przyciągania, wytwarzanej przez każde skupisko masy albo poprzez zakrzywienie czasoprzestrzeni wytwarzane przez każde skupisko masy. Oba wyjaśnienia są dla naszej codzienności tak samo dobre. Tylko, że osoba, która zastosuje wyjaśnienie w postaci siły nie przewidzi właściwie ruchu Księżyca wokół Ziemi – pomyli się raptem o kilka metrów. Jest to wystarczająco dużo, aby twierdzić, że wyjaśnienie w postaci siły jest błędne. Z kolei wyjaśnienie w postaci zakrzywienia czasoprzestrzeni nie przewidzi tego, co się dzieje we wnętrzu czarnej dziury. Jest to wystarczająco dużo, aby twierdzić, że wyjaśnienie w postaci zakrzywienia czasoprzestrzeni jest błędne.

Nauka XX wieku dowiedziała się, że błędne były jej założenia konstrukcyjne.

W poprzednich wiekach naukowcy z dumą dążyli do prawdy. Najpierw przekonywali siebie, dyskutując. Potem zbudowali system wzajemnego przekonywania eksperymentem, doświadczeniem. Logika, język naukowy, łączność wiedzy, definicje – miały zbudować pewien gmach.

Dlatego często w historii spotykaliśmy się z tak zwanym przewrotem naukowym, czyli zastąpieniem starej teorii – nową, lepszą. Największym osiągnięciem nauki, jako dziedziny aktywności ludzkiej, było to, że w ogromnej większości nowa teoria była ogólniejsza. Tłumaczyła ona przez to lepiej nie tylko zjawiska opisywane przez poprzednią teorię, lecz również poszerzała horyzont myśli ludzkiej – tłumaczyła szerzej.

Gmach miał być ciągle poprawiany, ulepszany i z każdym wiekiem piękniejszy. Kiedyś wyobrażano sobie, że wyjaśnianie i dochodzenie do konsensusu (na podstawie eksperymentów) na temat faktów, będzie codziennością naukowca. Codzienność ta miała prowadzić do kompletnego systemu automatyzującego odpowiedzi na pytanie: „dlaczego?”. Jednak rzeczywistość okazała się bardziej skomplikowana. Wręcz inna…

Kiedy na początku XX wieku nauka wyzwalała się z ostatnich dogmatów religijnych, wyróżnikiem naukowości teorii od teologicznych tez, był warunek falsyfikalności. Teologia, to omówienia zdań wewnątrz danej teorii, np.: pytanie o to, „czy istnieje bóg?” – jest pozbawione sensu, bez poznania własności tworu o nazwie „bóg”. Lecz teologia ma też swoją jasną stronę, są nią ćwiczenia intelektualne, gdyż teologią jest również wyciąganie naukowych wniosków z kompletnie niesprawdzalnych (górnolotnych i poszerzających ludzką perspektywę) hipotez albo z błędnych aksjomatów (co by było, gdyby było inaczej, niż jest?). Warunek falsyfikalności obalał nie tylko teologiczne teorie; był on odpowiedzialny za uśmiercenie teorii marksistowskiej walki klas i wyrzucenie z kręgów naukowych teorii psychoanalizy Freuda.

Kiedyś uważano, że jeśli danej teorii naukowej nie jesteśmy w stanie doświadczalnie sprawdzić, to znaczy, że nie warto się nią zajmować, bo jest nienaukowa, bo nie różni się niczym od religijnych pseudo-faktów. Jednak falsyfikalność także upadła w XX wieku, kiedy teorię strun (dla której nie można było przeprowadzić żadnego eksperymentu) uznano za naukową. Falsyfikalność odeszła w zapomnienie, kiedy teorię wszechświatów równoległych zaczęto traktować poważnie…

Nikt z naukowców nie mówi, że te teorie są błędne, lecz na tym właśnie polega problem, że nikt nie może doprowadzić do ich zaprzeczenia. Wedle standardów naukowych z początku ubiegłego wieku, te teorie powinny więc stanowić kulturowy „intelektualny folklor” i nie być częścią nauki. Pomiędzy teologią a nauką ponownie jest cienka granica, bo nauka (na plus) różni się zaledwie faktem odrzucenia wszystkich jawnie fałszywych założeń początkowych. Chociaż nagrodzony ekonomicznym Noblem nurt kliometrii, czyli historiografii alternatywnej – kontrfaktycznej (naukowe: co by, było gdyby?) usunie i ten ostatni listek figowy.

Okazuje się, że na razie od kompletnego „zidiocenia”, które panuje wokół, naukę wyróżnia jedynie intencja. Naukowcy, w przeciwieństwie do „poszukujących acz nie znajdujących mądrości” zwykłych ludzi, są na etapie ciągłego przypominania każdemu, jak bardzo jesteśmy głupi.

Błędne teorie zastępują kolejne błędne teorie (o których z góry wiemy, że są błędne), które są nieco lepiej uzasadnione albo poszerzają ogólną liczbę wniosków. Teorię naukową i formułującego ją naukowca wyróżnia głównie i przede wszystkim otwarta, zapraszająca do falsyfikalności postawa.

Naukowiec nikomu nie powie, co jest prawdą; nie powie, że dana teoria jest na pewno prawdziwa. Prawdziwy naukowiec sam zrobi wszystko, żeby obalić obowiązującą, główną teorię jego własnej dziedziny wiedzy. Będzie zachęcał do „kopania” i obalania innych pomników, do „intelektualnego bełkotu”…

Prawdziwy naukowiec nie obrazi się, że tabuny „inteligentnych inaczej” starają się zaprzeczyć teorii ewolucji, czy efektowi cieplarnianemu, bo tylko w ten sposób możemy być pewni trwałości tych teorii. Bez odpierania merytorycznych oraz pozamerytorycznych zarzutów – byłyby to tylko teologiczne tezy.

Metoda naukowa przeszła długą drogę. Przełomy naszych dokonań były sumą klęsk: „naukowcy mylili się – są ludźmi, więc mylili się – jak zawsze, jak zwykle” – na szczęście…

Zaczęło się od okrywania prawd o świecie – od wzajemnego informowania siebie o odkryciach za pośrednictwem rozmowy. Potem dowiedzieliśmy się, że znacznie więcej przewidzimy i dowiemy się o świecie ze spójnych teorii aspirujących do miana „teorii wszystkiego”. Stworzyliśmy ich tyle, że teraz nauka jest na etapie wojny. Po dokonaniu hekatomby wszystkich teorii religijnych (co było łatwe, jak podbój dzikich intelektualnie krajów przez cywilizację Zachodu), naukowcy przystąpili do pierwszej wielkiej wojny świata cywilizowanego. Zamiast coś budować, starają się głównie zaprzeczać. Zamiast udowadniać, konstruują wymyślne eksperymenty mające unicestwić teorie zajmujące największy areał myśli ludzkiej. Im większe zwierzę ustrzelą, tym słynniejszymi naukowcami. Tylko w ogniu krytyki wykuwa się prawda. Tylko nieustannie, próbując go przewrócić, o stabilność monolitu jesteśmy spokojni.

Ten najważniejszy krok?

Jaki będzie kolejny krok ludzkości na drodze rozwoju jej metody naukowej?

Czy możemy wyciągnąć z klęsk XX wieku i obecnej wojny konkurencyjnych teorii jakieś nowe wnioski?

W ciągu ostatnich 400. pokoleń ludzkość zaczęła się zmieniać. To bardzo dobrze. Byłoby bardzo głupio pozostać tam, gdzie tkwiliśmy przez prawie 2 miliony lat, czyli w mrokach kilku pokoleniowego zapomnienia. Zaczęliśmy się rozwijać, pisząc; zaczęliśmy pamiętać całe tysiąclecia. Dzięki nauce mamy gdzie zmierzać – idziemy jak po sznurku tam, gdzie upadły nasze wnioski. Już prawie nie rzucamy nimi (bo dowiedzieliśmy się ostatnio, jak bardzo jesteśmy głupi) – natomiast czekamy, by zobaczyć, gdzie się samoistnie potoczą.

Ponownie wzbiera w nas ciekawość, pomimo tego, że dzicy euforycznie odciągają i zachęcają do chocholego tańca przy ognisku, w najatrakcyjniejszym genetycznie centrum grupy. Sukcesy na polu nauki nie owocują władzą, pieniędzmi, czy społeczną popularnością.

Nauka prowadzi – nieśmiało proponuje, budzi mądrość człowieka. Od równego marszu ku nowym, obcym brzegom, dzieli nas już tylko jeden, jeszcze nieco chwiejny, krok. Krok, po którym będziemy niepowstrzymani. Jest to nasz trzeci, i najważniejszy krok.

Ale czy oprzemy się pokusom codzienności, czy starczy nam determinacji, odwagi i siły?

Zbigniew Galar

B
Co myślisz o tym artykule? Wyraź swoją opinię - zgrilluj tosta!
  • bardzo ciekawy-wypieczony tost (0)
  • w porządku-niezła grzanka (0)
  • potrzebny-smaczny tost (0)
  • średni-przeciętny tost (0)
  • nie podoba mi się-spalony tost (0)

2 komentarze

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *