Kosmologia współczesna ma status nauki interdyscyplinarnej w tym sensie, że łączy dwie teorie, na bazie których wypracowywany jest model – standardowy model cząstek elementarnych i standardowy model kosmologiczny. Ta metodologiczna ewolucja dokonuje się dzięki doskonalonym narzędziom obserwacji (nowoczesne teleskopy, detektory, misje satelitarne). Efekty obserwacji naziemnych i satelitarnych dają się przedstawić między innymi w postaci map wielkoskalowej struktury Wszechświata, co pozwala na poznawczą rekonstrukcję najwcześniejszych etapów jego ewolucji. Teoretyczny opis tej ewolucji opiera się na klasycznej teorii grawitacji Alberta Einsteina. Ewolucja wczesnego Wszechświata jest traktowana jako laboratorium dla fizyki cząstek elementarnych, ponieważ panujących wtedy warunków fizycznych nie da się odtworzyć w laboratorium. W ten sposób, także dzięki wykorzystaniu całego widma promieniowania elektromagnetycznego, następuje wzbogacanie bazy empirycznej. Badanie empiryczne dokonuje się naturalnie w teoretycznym kontekście przyjętego modelu (geometrii w pojęciach metryki przestrzeni).
Dla uproszczenia badania ewolucji Wszechświata, tzw. obserwabli kosmologicznych, zakłada się, że w dużej skali cechuje go jednorodność i izotropowość. Przyjęta zasada, nazywana uogólnioną zasadą kopernikańską, sprowadza się do stwierdzenia, że obraz Wszechświata, widziany przez obserwatora fundamentalnego z dowolnego punktu i w dowolnym kierunku, jest taki sam. Matematyczną konsekwencją tego założenia staje się fakt, że opis ewolucji Wszechświata okazuje się możliwy w pojęciach równań różniczkowych zwyczajnych (układu dynamicznego).
Różnie określany jest także przedmiot kosmologii: Wszechświat obserwowalny/widzialny, Wszechświat fizyczny, Wszechświat astronomiczny, Wszechświat astrofizyczny [5]. Każda z tych kategorii rodzi inne problemy, interesujące także pod względem filozoficznym, na przykład: w jakim sensie przedmiotem kosmologii jest świat obserwowalny?
Kosmologię czasami porównuje się metodologicznie do nauk historycznych, takich jak: geologia, paleontologia, biologia ewolucyjna czy archeologia. Z jednej strony jest to trafne zestawienie w tym sensie, że przedmiotem obserwacji jest przeszłość Wszechświata. Z drugiej strony przedmiot kosmologii – inaczej niż przedmioty odkrywane przez historyków lub archeologów – ma naturę dynamiczną [16]. Szczególną konsekwencją kosmologii jako nauki o przeszłości jest to, że kosmologiczna predykcja dotyczy właśnie stanów przeszłych, testowane są zatem hipotezy dotyczące przeszłości, a nie przyszłości. Skala czasowa predykcji odnoszącej się do przyszłości Wszechświata jest liczona w miliardach lat, więc wymyka się możliwościom lokalnych eksperymentów.
Szczególny status metodologiczny kosmologii wiąże się z tym, że obiekt jej badań jest jednostkowy: brakuje możliwości wykonania na nim eksperymentu. W konsekwencji trudno mówić o prawach kosmologicznych w tym sensie, w jakim je tradycyjnie rozumiemy w fizyce, gdzie dokonujemy kwantyfikacji ogólnej na zbiorze obiektów o podobnej naturze. Z drugiej strony unikalność Wszechświata nie implikuje tego, że modele kosmologiczne, czyli hipotezy naukowe, są niefalsyfikowalne. Pojawia się intrygująca rzeczywistość kosmologii, która może być nazwana „zmatematyzowaną nauką historyczną” odniesioną do ewolucji Wszechświata jako całości.
Kolejny problem typowy dla metodologii kosmologii współczesnej dotyczy rozróżnienia między kosmologią a kosmogenezą. Dziedziny te są istotnie różne, bo pierwsza dotyczy struktury i ewolucji Wszechświata, druga zaś jego powstania. Czy obserwacje danej fazy rozwoju Wszechświata pozwalają na ustalenie – choćby w przybliżeniu – warunków początkowych, które stanowiły o jego fizycznej genezie? Wydaje się to możliwe, oczywiście nie bez oderwania od teorii. Z drugiej strony, biorąc pod uwagę tak prosty układ fizyczny jak Układ Słoneczny, spróbujmy ustalić warunki początkowe jego powstania.
Standardowy model kosmologiczny. Studium metodologiczne
Paweł Tambor
- ISBN: 978-83-8061-883-1
Stron: 272
Rok wydania: 2020 - Wydawnictwo KUL, Lublin
[tabs]
[tab title=”Spis tresci”]
Spis treści
Wstep
Rozdział 1. Kosmologia – nauka specyficzna metodologicznie
- 1.1. Ogólna charakterystyka kosmologii
- 1.2. Swoistosc metodologiczna kosmologii współczesnej
- 1.2.1. Przedmiot kosmologii
- 1.2.2. Ograniczenia obserwacyjne kosmologii
- 1.3. Kosmologia nauka interdyscyplinarna
Rozdział 2. Modele w nauce a modele kosmologiczne
- 2.1. Modele naukowe w ogólnosci
- 2.2. Funkcje modeli naukowych
- 2.2.1. Róznorodnosc funkcji modeli
- 2.2.2. Modele w funkcji eksploracyjnej
- 2.2.3. Modele w funkcji posredniczacej
- 2.2.4. Teorie i modele naukowe według Basa van Fraassena
- 2.3. Modele kosmologiczne
Rozdział 3. Standardowy model kosmologiczny
- 3.1. Budowa SMK
- 3.2. Status metodologiczny SMK
- 3.3. Krzywizna – najprostszy sposób wyjścia poza paradygmat SMK
- 3.4. Czynniki teoretyczny i empiryczny w SMK
- 3.5. Rola czynnika empirycznego i teoretycznego w kontekście odkrycia przyspieszającej ekspansji Wszechświata
- 3.6. SMK jako efektywna teoria Wszechświata
Rozdział 4. Ontologiczne aspekty standardowego modelu kosmologicznego
- 4.1. Ogólna charakterystyka debaty realizm – antyrealizm
- 4.2. Modele w kosmologii
- 4.3. Implikacje ontologiczne SMK
- 4.3.1. Wszechświat zależny od modelu SMK (model-dependent realism)
- 4.3.2. SMK maszyna nomologiczna w rozumieniu Nancy Cartwright
Rozdział 5. Studium przypadku idei Wszechświata przyspieszającego
- 5.1. Dynamiczna natura nauki, jej determinanty i sposoby opisu
- 5.2. Modele rekonstrukcji zmian w nauce
- 5.3. Metodologiczny charakter dążenia do prawdy w rozwijającej się nauce
- 5.4. Filozofia nauki Nancy Cartwright jako epistemiczny układ pojęciowy dla badania statusu SMK
- 5.5. \”Emergencja\” Wszechświata dynamicznego w schemacie pojęciowym Nancy Cartwright
- 5.5.1. Wszechświat dynamiczny
- 5.5.2. Dynamiczny Wszechświat przyspieszający
- 5.6. Podsumowanie
Rozdział 6. Wyjaśnianie w nauce i kosmologii
- 6.1. Spór o wyjaśniający charakter nauki
- 6.2. Typologie wyjaśnień w naukach przyrodniczych
- 6.3. Wyjaśnianie przez prawa
- 6.4. Wyjaśnianie kauzalne
- 6.5. Wyjaśnianie jako rozumienie
- 6.6. Funkcja wyjaśniająca SMK
Rozdział 7. Próba rekonstrukcji kosmologii obserwacyjnej w metodologii bayesowskiej
- 7.1. Założenia wyjaśniania w podejściu bayesowskim
- 7.2. Teorie formułowania i uzasadniania hipotez naukowych – indukcjonizm i antyindukcjonizm
- 7.3. Metodologia bayesowska
- 7.4. Bayesowska (współczesna) definicja prawdopodobieństwa
- 7.5. Statystyczne metody selekcji modeli (kryteria informacyjne i metody bayesowskie) w praktyce badawczej kosmologii współczesnej
- 7.6. Wnioski metodologiczne
Zakończenie
Summary
Spis rysunków
Spis tabel
Bibliografia
[/tab]
[tab title=”Standardowy Model Kosmologiczny. Studium metodologiczne”]
Standardowy Model Kosmologiczny. Studium metodologiczne
Paweł Tambor
Przedmiotem badań w niniejszej rozprawie jest standardowy model kosmologiczny (w skrócie SMK). Główny problem badawczy zawiera się w pytaniu dotyczącym statusu metodologicznego SMK. Metodologicznych i konceptualnych narzędzi badawczych na poziomie metanaukowym dostarcza debata nad realizmem i antyrealizmem naukowym.
Termin „metodologia” w niniejszej monografii będzie rozumiany odpowiednio do zakresu rozważań, to jest szeroko. W pracy są bowiem nie tylko analizy metodologiczne pojmowane tradycyjnie, czyli skupione na metodach stosowanych w kosmologii, ale także – i to w przeważającej mierze – zagadnienia związane z założeniami ontologicznymi modeli i teorii naukowych oraz ich statusem poznawczym (kwestie epistemologiczne). „Metodologia nauki/kosmologii” jest więc tu rozumiana jako „filozofia nauki/kosmologii”, ponieważ tylko wtedy da się w studium „metodologicznym” uwzględniać zagadnienia umieszczane dzisiaj zwykle pod nazwą „filozofii nauki”.
Jedno z zasadniczych pytań nauki, a raczej pytań stawianych wobec nauki, dotyczy tego, jak jej wytwory (modele, teorie) odzwierciedlają świat. Obrazowo mówi się, że dostarcza ona obrazu świata, to znaczy między innymi, że tworzy modele. Inną związaną z tym kwestią jest problem zmienności tych obrazów świata. Istnieje wiele celów działalności naukowej. Spośród najważniejszych wymienia się opis i wyjaśnianie procesów oraz zjawisk fizycznych, dokonywanie predykcji w obu kierunkach (retrognozy i prognozy), wykorzystywanie wyników naukowych w technice i wdrażaniu nowych technologii, tworzenie pewnego obrazu rzeczywistości, który pozwala ją lepiej zrozumieć. Jakkolwiek opis, wyjaśnianie, predykcja, technologia są oczywistymi „produktami” działalności naukowej, to zrozumienie natury świata wprowadza do nauki element intersubiektywny albo raczej podmiotowy.
Lata 60. XX wieku są w metodologii nauk swoistym przełomem w kwestii postrzegania samego zjawiska nauki. Oczywiście pierwsze skojarzenie dotyczy roku 1962 – daty publikacji jednej z najczęściej cytowanych prac z filozofii nauki, czyli Struktury rewolucji naukowych Tomasza Kuhna [17]. Niemniej jednak nie chodzi wyłącznie o rekonstrukcje dynamiki nauki w kategoriach socjologicznych, ale o zasadniczy zwrot zainteresowania filozofów nauki od tego, w jaki sposób jej wytwory dadzą się formalizować i rekonstruować przy użyciu narzędzi logiki i matematyki. To w dużej mierze sprawia, że wzrasta zainteresowanie modelami naukowymi.
Promotorem demarkacji funkcji wyjaśniania i rozumienia w nauce był Carl Hempel [14]. Dla niego podstawowym celem nauki jest wyjaśnienie, szczególnie w oparciu o prawa naukowe i kontekst empiryczny. Prace Michaela Scrivena [25], Michaela Friedmana, Philipa Kitchera [15], a zwłaszcza Wesleya Salmona [24], krytycznie odnosząc się do poglądu Hempela, powiązały wyjaśnianie z rozumieniem. To ostatnie jest w ich ujęciu pochodną zasadniczo dwóch elementów: 1) zidentyfikowania w modelu zjawiska struktury kauzalnej, 2) poszukiwania teorii fundamentalnych.
Każda filozofia nauki powinna podjąć dwie fundamentalne kwestie, pytając o to, czym są teoria i model naukowy oraz jaka jest ich funkcja. Historia nauki pokazuje, że wartościowe wyniki w badaniach naukowych uzyskuje się raczej najpierw metodą prób i błędów, eksperymentów myślowych, modeli konceptualnych i fenomenologicznych, a nie konstruowaniem bardzo ogólnej teorii. Ona jest przeważnie efektem długiego procesu operowania, w mniej lub bardziej ścisłym sensie, modelami. Naturalnie w porządku uzasadnienia, rekonstrukcji całego procesu emergencji lub redukcji danych praw nauki będziemy zaczynać od teorii naukowej. Niemniej jednak to modele naukowe są pewnymi użytecznymi narzędziami pomiarowymi (measuring devices) lub heurystycznymi „mapami orientacyjnymi”, którymi kieruje się powszednia praktyka badawcza, szczególnie na gruncie fizyki [13].
We współczesnej praktyce badawczej zmienia się interpretacja trójczłonowej relacji między teorią naukową, modelem a układem fizycznym [21]. Co więcej, zaciera się charakterystyczne rozróżnienie na kontekst odkrycia i kontekst uzasadnienia. Historia nauki unaocznia, że istotne jest badanie tego, w jaki sposób dochodzi się do ważnych odkryć w różnych dziedzinach wiedzy. Zasadna w każdym przypadku jest zarówno ścisła teoretyczna rekonstrukcja relacji między teoriami, modelami a danymi empirycznymi, jak też różnorakie sposoby używania pojęcia modelu, hipotezy, analogii i teorii, nie zawsze konsekwentne metodologicznie, ale nierzadko prowadzące do twórczego rozbudowania wiedzy. Istnieje zatem potrzeba uporządkowania tej dyskusji i wyjaśnienia roli oraz funkcji modeli w kosmologii. Z jednej strony utrudnia to rekonstrukcję metodologiczną procesów naukotwórczych, z drugiej zaś samą naukę czyni jeszcze bardziej fascynującą, ponieważ w istocie jest ona jakby żywym organizmem. Szczególnie ciekawa okazuje się ewolucja samego stosunku do pojęcia modelu w nauce, jaka miała miejsce w XX wieku, począwszy od dość krytycznego traktowania modeli w pierwszego połowie XX wieku, co zawdzięczamy po pierwsze dziewiętnastowiecznej tradycji modelowania, które kojarzyło się przede wszystkim z mechanicznymi modelami zjawisk fizycznych, a po drugie – z dorobkiem logicznego empiryzmu.
Elementarny problem związany z modelowaniem w nauce wyraża się w pytaniu: w jaki sposób modele, które z definicji nie są wiernym odwzorowaniem rzeczywistości, stają się tak dobrym sposobem poznawania świata fizycznego? Pełnione przez nie funkcje nie są ekskluzywne wobec siebie, często zaś się pokrywają. Tak jest w przypadku funkcji wyjaśniających i opisujących. Podstawową funkcją modelu, który stanowi kooperację deskrypcji i wyjaśnienia, jest rozumienie.
Historycy nauki przełomu XVII i XVIII wieku wskazują ten okres jako kluczowy dla zmiany paradygmatu w modelowaniu naukowym. Prace Johannesa Keplera, a później Isaaca Newtona wnosiły w kontekst modeli mechanicznych czy ikonicznych modele matematyczne. Związane to było oczywiście z rozwojem technik matematycznych szczególnie istotnych w modelowaniu, zwłaszcza rachunku różniczkowego. Istotnymi zabiegami w konstruowaniu modeli stały się abstrakcja i idealizacja. Powróciły pojęcia pełniące rolę użytecznych przybliżeń, takie jak: przestrzeń absolutna, punkt materialny, powierzchnia gładka, linie sił. Zauważmy, że te „użyteczne fikcje” nie znajdują bezpośredniego odniesienia w świecie fizycznym, można je także utożsamiać z obiektami nieobserwowalny- mi w teorii. Niewątpliwie inspirującym na owe czasy kształtowania się metody naukowej w nowożytnym sensie był paradygmat mechanistyczny promowany przez prace Pierre’a Gassendiego, Francisa Bacona czy Kartezjusza. Poszczególne układy fizyczne, zasadniczo postrzegane jako maszyny na poziomie wyjaśniania, zrywały z paradygmatem metafizyki czterech przyczyn (zwłaszcza przyczyny celowej).
Poznawanie w naukach przyrodniczych ściśle związane jest nie tylko z fizycznym eksperymentem, ale także z teoretycznym badaniem konsekwencji teorii przyrodniczych w modelach, które stanowią ich realizacje. Pojawia się na przykład w tym kontekście nowe rozumienie analogii na bazie podobieństwa równań matematycznych. Szczególnie uderzające jest to w porównaniu formy równań Newtona dla oddziaływania grawitacyjnego między dwoma masami a sformułowaniem na siłę Coulomba między dwoma ładunkami elektrycznymi. Niezwykle ciekawe wydaje się w tym okresie przenikanie pojęć z dziedziny mechaniki do języka sformalizowanego matematycznie, jak stało się to w przypadku strumienia ciepła i generalnie jego dynamiki rozchodzenia się, a także prądu elektrycznego.
Zwraca się również uwagę, że słynne równania Maxwella nie były postulowane, ale wyraźnie inspirowane fizyką mechanistyczną [11, s. 17-18]. Podobnie było z kinetyczną teorią gazów, wyraźnie nawiązującą do mechaniki, a przez to traktującą cząstki gazu jako sztywne kulki, których rozkład prędkości da się teoretycznie powiązać z pojęciem temperatury. Philip Garlee i Torbjorn Lundh cytują powiedzenie Lorda Kelwina, które jest bardzo adekwatnym podsumowaniem tego okresu w modelowaniu fizycznym: „Wydaje się, że testem dla problemu: «Czy potrafimy zrozumieć dane zagadnienie fizyczne», jest zdanie «Czy potrafimy skonstruować jego mechaniczny model»” [11, s. 18].
Wiek XX ograniczył ten schemat mechaniczno-analogiczny w toku ciągłej eksploracji fizyki przez matematykę, co znalazło swój wyraz szczególnie w powstaniu i rozwoju mechaniki kwantowej, i równolegle nowej teorii grawitacji. Philip Frank w swojej znanej pracy z 1937 roku sformułował to bardzo sugestywnie: „Świat przestał być maszyną, stał się matematyczną formułą” [6]. Tak radykalna diagnoza jest nieuprawniona. Formuły matematyczne opisujące Wszechświat przedstawiają przecież, jak on działa, wskazują na pewien mechanizm. Szczególnie istotne okazuje się to, że w tym czasie zmienia się sposób postrzegania analogii w fizyce. Zaczynają być one traktowane raczej jako narzędzia heurystyczne, pochodne ze stosunku do głównej praktyki badawczej fizyków teoretyków, którą jest przede wszystkim badanie abstrakcyjnych struktur matematycznych, czyli teorii i zbudowanych na ich bazie modeli.
W bardzo różny sposób uczeni i filozofowie nauki definiują modele naukowe [7]. Są one rozumiane jako fizyczne lub myślowe struktury/układy, których zadaniem jest odzwierciedlanie istoty własności rzeczywistych układów lub zjawisk fizycznych. Może do nich należeć także odpowiednio zinterpretowany opis zjawiska, który umożliwia do niego dostęp poznawczy [3]. Bardzo często model traktuje się w ogólności jako pewien typ reprezentacji zjawiska. Gerlee i Lundh proponują następującą definicję: „Modele są opisami, abstrakcyjnymi lub materialnymi, które odzwierciedlają lub reprezentują i w ten sposób dostarczają dostępu do wybranych części rzeczywistości” [11, s. 28].
Jeśli dokonujemy podziału modeli ze względu na ich relację do teorii naukowej, możemy wyróżnić: 1) modele jako uproszczenia teorii, 2) modele jako dopełnienia teorii. Standardowy model kosmologiczny stanowi funkcjonalne uproszczenie teorii, która jest zbyt złożona operacyjnie. Model może być dopełnieniem teorii w tym sensie, że na jej bazie stosuje się nie tylko zabiegi idealizacyjne, ale także nadaje się elementom modelu interpretację empiryczną, określając tzw. obserwable. Model może być też rodzajem „teorii przedwstępnej” [12, s. 63]. Taki sposób tworzenia i operowania modelami jest charakterystyczny w fazie konstruowania teorii naukowej.
Dość ważny okazuje się podział modeli ze względu na charakter relacji między nimi a zjawiskami fizycznymi. Wyróżniamy modele formalne, kiedy rzeczową relację charakteryzuje określony izomorfizm między częścią struktury zjawiska a empiryczną częścią struktury modelu, oraz modele nieformalne, gdy taka odpowiedniość nie jest wymagana. Za podstawowe kryterium podziału uznaje się sposób reprezentowania zjawiska fizycznego. Wyróżniamy na przykład modele pojęciowe (konceptualne). Składają się na nie pewne schematy pojęciowe, przy pomocy których opisujemy własności modelowanego przedmiotu, zjawiska lub procesu. Są one zwykle prostymi opisami, które mogą mieć także funkcje wyjaśniające. Służą jako postawa do różnych formalizacji matematycznych. Czasem ten typ modeli nazywany jest fenomenologicznym. Zaniedbuje się w nich detekcję mechanizmów przyczynowych.
Modele ikoniczne, podobnie jak pojęciowe, należą do klasy najprostszych modeli, które pozwalają na niejako naoczną prezentację modelowanego układu poprzez modele skalowe, schematy, miniatury. Modele analogiczne charakteryzuje z kolei nie tyle struktura, co sposób tworzenia. Odwołują się do typowego w filozofii, a także w nauce rozumowania opartego na wyjaśnieniu tego, co nieznane, przez to, co znane. Przykładami są planetarny lub kroplowy model struktury atomu bądź model oscylatora harmonicznego.
Analogicznie dzieli modele Tadeusz Gospodarek, kierując się kryterium użyteczności, na te oparte na podobieństwie budowy obiektów, podobieństwie właściwości, relacji (zachowań) i oddziaływań [12, s. 68-69]. Przykładem pierwszego typu podobieństwa jest między innymi badanie gwiazd i ich katalogowanie. Jako przykład wykorzystania podobieństwa właściwości można zaś wskazać sformułowanie termodynamiczne własności entropii w języku pojęć teorii informacji. Podobieństwo relacji widoczne jest chociażby w typie zależności proporcjonalności siły elektrostatycznej i siły grawitacji (między dwoma masami) do kwadratu odległości między ładunkami lub masami. Właściwie ten sam przykład odpowiada analogii opartej na podobieństwie oddziaływań.
Szczególnie ważną kategorią modeli są modele danych. Łączą one trzy istotne funkcje: prezentowania faktycznych danych empirycznych, predykcji nieznanych danych (w przeszłości i przyszłości modelowanego układu) oraz interpretację danych. Dwie pierwsze mają charakter przedmiotowy, trzecia – filozoficzny. Metodologia konstruowania tych modeli obejmuje takie procedury, jak: dopasowanie krzywych, analizę błędów pomiarowych, symulację danych, która pozwala na ekstrapolację, obranie kryteriów przy wyborze krzywych najlepszego dopasowania. Matematyczne modele zjawisk fizycznych można zaliczyć do kategorii modeli symbolicznych. Własności układu są reprezentowane przez strukturę matematyczną, często wyrażoną w postaci równań różniczkowych, układów dynamicznych, które są szczególnie użyteczne w badaniu możliwego zachowania modelowanego układu. W przypadku SMK jest on symboliczny, ponieważ relacja tempa ekspansji Wszechświata w relacji do redshiftu – H(z) to funkcja reprezentująca ewolucję Wszechświata.
Naukowym kontekstem do badania struktur naukowych i szukania odpowiedzi na pytania o naturę, rolę i funkcje modelu naukowego będzie kosmologia współczesna. Oczywiście wymaga to koniecznego zawężenia. Ostatnie trzydzieści lat rozwoju kosmologii pokazuje, że staje się ona w rzeczy samej pełnoprawną dyscypliną fizyczną, która bada wielkoskalowy Wszechświat, wykorzystując całą znaną nam fizykę[1]. Dojrzałość kosmologii przejawia się w zwiększającej się precyzji pomiarów danych astronomicznych, ale także możliwości testowania fizyki fundamentalnej.
Kosmologia współczesna ma status nauki interdyscyplinarnej w tym sensie, że łączy dwie teorie, na bazie których wypracowywany jest model – standardowy model cząstek elementarnych i standardowy model kosmologiczny. Ta metodologiczna ewolucja dokonuje się dzięki doskonalonym narzędziom obserwacji (nowoczesne teleskopy, detektory, misje satelitarne). Efekty obserwacji naziemnych i satelitarnych dają się przedstawić między innymi w postaci map wielkoskalowej struktury Wszechświata, co pozwala na poznawczą rekonstrukcję najwcześniejszych etapów jego ewolucji. Teoretyczny opis tej ewolucji opiera się na klasycznej teorii grawitacji Alberta Einsteina. Ewolucja wczesnego Wszechświata jest traktowana jako laboratorium dla fizyki cząstek elementarnych, ponieważ panujących wtedy warunków fizycznych nie da się odtworzyć w laboratorium. W ten sposób, także dzięki wykorzystaniu całego widma promieniowania elektromagnetycznego, następuje wzbogacanie bazy empirycznej. Badanie empiryczne dokonuje się naturalnie w teoretycznym kontekście przyjętego modelu (geometrii w pojęciach metryki przestrzeni).
Dla uproszczenia badania ewolucji Wszechświata, tzw. obserwabli kosmologicznych, zakłada się, że w dużej skali cechuje go jednorodność i izotropowość. Przyjęta zasada, nazywana uogólnioną zasadą kopernikańską, sprowadza się do stwierdzenia, że obraz Wszechświata, widziany przez obserwatora fundamentalnego z dowolnego punktu i w dowolnym kierunku, jest taki sam. Matematyczną konsekwencją tego założenia staje się fakt, że opis ewolucji Wszechświata okazuje się możliwy w pojęciach równań różniczkowych zwyczajnych (układu dynamicznego).
Różnie określany jest także przedmiot kosmologii: Wszechświat obserwowalny/widzialny, Wszechświat fizyczny, Wszechświat astronomiczny, Wszechświat astrofizyczny [5]. Każda z tych kategorii rodzi inne problemy, interesujące także pod względem filozoficznym, na przykład: w jakim sensie przedmiotem kosmologii jest świat obserwowalny?
Kosmologię czasami porównuje się metodologicznie do nauk historycznych, takich jak: geologia, paleontologia, biologia ewolucyjna czy archeologia. Z jednej strony jest to trafne zestawienie w tym sensie, że przedmiotem obserwacji jest przeszłość Wszechświata. Z drugiej strony przedmiot kosmologii – inaczej niż przedmioty odkrywane przez historyków lub archeologów – ma naturę dynamiczną [16]. Szczególną konsekwencją kosmologii jako nauki o przeszłości jest to, że kosmologiczna predykcja dotyczy właśnie stanów przeszłych, testowane są zatem hipotezy dotyczące przeszłości, a nie przyszłości. Skala czasowa predykcji odnoszącej się do przyszłości Wszechświata jest liczona w miliardach lat, więc wymyka się możliwościom lokalnych eksperymentów.
Szczególny status metodologiczny kosmologii wiąże się z tym, że obiekt jej badań jest jednostkowy: brakuje możliwości wykonania na nim eksperymentu. W konsekwencji trudno mówić o prawach kosmologicznych w tym sensie, w jakim je tradycyjnie rozumiemy w fizyce, gdzie dokonujemy kwantyfikacji ogólnej na zbiorze obiektów o podobnej naturze. Z drugiej strony unikalność Wszechświata nie implikuje tego, że modele kosmologiczne, czyli hipotezy naukowe, są niefalsyfikowalne. Pojawia się intrygująca rzeczywistość kosmologii, która może być nazwana „zmatematyzowaną nauką historyczną” odniesioną do ewolucji Wszechświata jako całości.
Kolejny problem typowy dla metodologii kosmologii współczesnej dotyczy rozróżnienia między kosmologią a kosmogenezą. Dziedziny te są istotnie różne, bo pierwsza dotyczy struktury i ewolucji Wszechświata, druga zaś jego powstania. Czy obserwacje danej fazy rozwoju Wszechświata pozwalają na ustalenie – choćby w przybliżeniu – warunków początkowych, które stanowiły o jego fizycznej genezie? Wydaje się to możliwe, oczywiście nie bez oderwania od teorii. Z drugiej strony, biorąc pod uwagę tak prosty układ fizyczny jak Układ Słoneczny, spróbujmy ustalić warunki początkowe jego powstania.
W kosmologii współczesnej, począwszy od powstania ogólnej teorii względności (OTW), głównym zadaniem kosmologów jest konstruowanie modeli kosmologicznych Wszechświata. Teoria grawitacji została sformułowana w listopadzie 1915 roku, z kolei w roku 1917 Einstein użył równań OTW do konstrukcji modelu kosmologicznego – modelu Wszechświata. Aleksandr Friedmann pokazał, że równania modelu Einsteina bez stałej kosmologicznej opisywały Wszechświat, którego ewolucja miała charakter oscylacyjny. Chcąc zachować statyczność, twórca OTW dodał do równań dodatkowy człon – stałą kosmologiczną.
W latach 20. Friedmann i Georges Lemaitre uzyskali rozwiązania równań Einsteina dla Wszechświata izotropowego (izotropowego w każdym punkcie, czyli jednorodnego i izotropowego), które zawierając stałą kosmologiczną, dopuszczały zmienność czynnika skali w czasie kosmologicznym. Koniec lat 20. XX wieku przyniósł istotne obserwacje astronomiczne Edwina Hubble’a wykorzystującego wcześniejsze badania odległych galaktyk (traktowanych ówcześnie jako mgławice), dokonane przez Vesto Sliphera, i próbującego ustalić rodzaj zależności między odległościami a prędkościami tych obiektów. Jego wyniki obserwacyjne łącznie z teoretycznymi badaniami Georgesa Lemaitre’a stanowiły fundament teorii Wielkiego Wybuchu, która w kosmologii stanowi współczesny paradygmat [18, 19].
Prace George’a Gamowa, Ralpha Alphera i Roberta Hermana w latach 40. i 50. miały istotny wkład w kosmologię fizyczną. Gamow sformułował na bazie teorii Wielkiego Wybuchu scenariusz tworzenia się lekkich pierwiastków w pierwszych minutach gwałtownie rozszerzającego się i stygnącego Wszechświata [9, 8, 10]. Pokazał, że we wczesnym Wszechświecie była dostateczna temperatura konieczna dla wystąpienia reakcji termojądrowych (pierwotna nukleosynteza). Alpher i Herman określili model termicznej historii Wszechświata i przewidzieli istnienie kosmicznego promieniowania tła (CMB) [2, 1]. W latach 60. na bazie obserwacji oszacowano wkład we Wszechświecie masy helu na około 23%. Prace Freda Hoyle’a, Williama Fowlera i Roberta Wagonera pokazały, że taka ilość helu, a także innych lekkich pierwiastków, zgadzała się z przewidywaniami teoretycznymi wyników nukleosyntezy we wczesnych stadiach po Wielkim Wybuchu [26]. Poparciem dla tej teorii w 1964 roku było odkrycie przez Arna Penziasa i Roberta Wilsona promieniowania tła [22].
Od lat 60. jednym z głównych problemów kosmologii były próby zrozumienia, w jaki sposób w trakcie ewolucji Wszechświata ukształtowały się jego wielkoskalowe struktury – galaktyki i ich gromady. Coraz dokładniejsze pomiary danych astronomicznych zrodziły z jednej strony sceptycyzm co do teorii Wielkiego Wybuchu, z drugiej postulaty istnienia nowej formy materii, która oddziałuje z materią barionową tylko grawitacyjnie. Na istnienie ciemnej materii wskazywały obserwacje i analizy krzywych rotacji galaktyk spiralnych przeprowadzone przez Verę Rubin i Kenta Forda [23]. Parametry tych krzywych różniły się istotnie od przewidywań opartych na istnieniu tylko materii barionowej.
Wyniki te potwierdzały na poziomie empirycznym wcześniejsze spekulacje Lemaitre’a, Richarda Tolmana i Jewgienija Lifshitza dotyczące scenariusza formowania struktur wielkoskalowych (galaktyk) w drodze ewolucji kosmologicznych z pierwotnych fluktuacji gęstości wczesnego Wszechświata. Według tych szacunków, bazując tylko na materii barionowej, galaktyki nie zdążyłyby się uformować do współczesnej epoki. Obserwacje satelity COBE (Cosmic Background Explorer) wykryły anizotropię promieniowania mikrofalowego tła zgodnie z przewidywaniami modelu ciemnej zimnej materii (CDM).
Pierwsze lata XXI wieku w misjach satelitów WMAP (Wilkinson Microwave Anisotropy Probe w latach 2002-2009) i Planck (w latach 2009-2013) zwiększyły dokładność szacunków anizotropii CMB, stanowiąc wciąż silne poparcie dla modelu CDM[2].
Ostatnie 20 lat badań teoretycznych i obserwacji empirycznych wniosło do obrazu kosmologii współczesnej nowy element. Obserwacje temperatury i anizotropii promieniowania mikrofalowego oraz gwiazd supernowych typu 1a, uznawanych za świece standardowe w kosmologii obserwacyjnej, wskazały, że Wszech-| świat w obecnej epoce nie tylko się rozszerza, ale jego ekspansja przyśpiesza[3]. Dane obserwacyjne wskazują, że przejście od fazy deceleracji do akceleracji nastąpiło mniej więcej w połowie czasu ewolucji Wszechświata. Rezultat był zaskakujący, ponieważ spodziewano się raczej deceleracji w związku z dominacją oddziaływania grawitacyjnego we Wszechświecie. Wyjaśnienie efektu przyśpieszenia ekspansji doprowadziło do postulatu istnienia dodatkowego składnika Wszechświata – ciemnej energii, która wywoływałaby efekt ujemnego ciśnienia. Najprostszą „kandydatką” na teoretyczną reprezentację ciemnej energii okazała się stała kosmologiczna wprowadzona do równań OTW, a następnie usunięta z nich przez Einsteina.
Mimo że współczesna kosmologia opiera się na modelu standardowym faworyzowanym przez dane i w związku z tym nazywana concordance cosmology, napotyka na istotne trudności i problemy, które są inspiracją do wyjścia poza ten model. Niewątpliwie szczególnym wyzwaniem jest nieznana natura ciemnej materii i ciemnej energii. Drugim problemem jest status OTW, jako teorii efektywnej, która „nie działa” w bardzo wczesnych fazach historii Wszechświata (w tym sensie, że rozwiązania napotykają na osobliwości), przez to fizyka samego
Wielkiego Wybuchu pozostaje wciąż przedmiotem spekulacji i czeka na swoją teorię. W związku z tym istotne okazuje się pytanie, czy hipoteza inflacji, która przewiduje, że Wszechświat tuż po Wielkim Wybuchu przeszedł krótką fazę gwałtownej eksponencjalnej ekspansji (zwiększając rozmiary o czynnik 1027 w czasie 10~33s), powinna być włączona w model standardowy.
Przyjęcie takiej hipotezy tłumaczy problemy SMK jak problem płaskości, izotropii, monopoli itd. [20]. Inflacja jest dokładnie hipotezą pomocniczą w pasie ochronnym teorii, w celu ratowania SMK. Teoria inflacji zaproponowana przez Alana Gutha, Andrieja Lindego i Alexeja Starobisky’ego w latach 80. XX wieku z jednej strony rozwiązuje problem jednorodności i izotropii Wszechświata, z drugiej ma swoje zawiłości (problem warunków początkowych dla inflacji). Ważne jest to, że trudności standardowego modelu kosmologicznego prowadzą kosmologię współczesną do sytuacji, w której poszukuje się propozycji alternatywnych. Praktyką badawczą jest dziś zatem nie tylko testowanie modeli kosmologicznych, ale także ich selekcja. Trzeba jednak zaznaczyć, że tę ostatnią stosuje się do modeli po to, aby odpowiedzieć na pytanie, jak dobrze model wyjaśnia dane obserwacyjne. Nie rozwiązuje ona jednak trudności SMK, które są w samym modelu.
Warto wspomnieć także, że współcześnie obok praktyki konstruowania, testowania i selekcji modeli kosmologicznych można zauważyć pojawiające się nowe typy uzasadniania, dlaczego obserwowalny Wszechświat posiada takie, a nie inne własności. W tym kontekście proponowane jest wyjaśnianie o charakterze antropicznym (własności Wszechświata są dostrojone do życia biologicznego obserwowalnej jego postaci) [4]. Formułowane są wręcz rozumowania nazywane wyjaśnianiem antropicznym, które próbują dać odpowiedź na problem wyrażony w pytaniu: dlaczego Wszechświat ma taką naturę, takie własności, które są wymagane do zaistnienia w nim życia biologicznego? Celem tych teorii są, po pierwsze próba rozwiązania trudności standardowego modelu kosmologicznego, po drugie – poszukiwanie wyjaśnienia problemu antropicznego. Sami zwolennicy tego rodzaju wyjaśniania pozostają świadomi jego zasadniczych słabości: nie jest wyjaśnianiem o charakterze ani przyczynowym, ani nomologicznym, nie ma struktury wyjaśniania generalizującego (od szczegółu do ogółu), cechuje go tautologiczny charakter.
Z metodologicznego punktu widzenia sytuacja w kosmologii współczesnej jest bardzo specyficzna. Z jednej strony jej niewątpliwe osiągnięcie stanowi to, że dysponujemy modelem, który w zadowalający sposób okazuje się adekwatny deskryptywnie i predykcyjnie; jest poza tym dość prosty. Z drugiej strony można tę sytuację interpretować jako kryzysową przede wszystkim z powodu tego, że standardowy model kosmologiczny posługuje się pojęciami ciemnej energii i ciemnej materii, których natury nie wyjaśnia. Faktem jest, że mimo ciągłego rozwoju kosmologii (szczególnie w zakresie poszerzania możliwości obserwacyjnych), od przeszło 20 lat model ciemnej zimnej materii ze stałą kosmologiczną – Lambda Cold Dark Matter (ACDM[4]) wciąż pozostaje modelem najlepiej opisującym dane. Chcemy zrozumieć dlaczego tak się dzieje, że modele alternatywne przegrywają konkurencję z SMK. Twierdzimy, że dochodzi do tego, bo model ACDM jest najprostszy, strukturalnie stabilny i ma własność elastycznego wkomponowywania się w dane.
Być może z punktu widzenia klasycznej filozofii nauki, bazującej na metodologii popperowskiej, sytuacja wydaje się zadowalająca, a przez to nazwiemy SMK hipotezą dobrze skoroborowaną, która wytrzymuje próby wyrafinowanej falsyfikacji wśród wielości propozycji alternatywnych. Także w kontekście podejścia Kuhna istnieje pokusa, by uznać ten sukces standardowego modelu kosmologicznego za wyznacznik tzw. stanu normalnego w nauce.
Stan, w jakim jest kosmologia współczesna przypomina stan badań nad modelem standardowym cząstek elementarnych w latach 70. XX wieku. Podobnie jak dziś SMK, tak wtedy SMCE był w wysokim stopniu potwierdzony empirycznie, chociaż bez odpowiedzi pozostawał szereg pytań natury fundamentalnej, na przykład: jaka jest geneza masy? Dzisiaj z kolei model ACDM nie daje odpowiedzi na pytania: czym jest ciemna energia?, jakie cząstki są składnikami ciemnej materii?, jaki jest model bardzo wczesnego Wszechświata? Są jednak podstawy, aby traktować aktualną sytuację w kosmologii współczesnej jako niekomfortową zarówno z metodologicznego, jak i filozoficznego punktu widzenia. Analizy zawarte w książce będą po pierwsze obejmowały tę paradoksalną sytuację sukcesu i problemów w modelowaniu kosmologicznym (na przykład problemu degeneracji), po drugie staną się wskazaniem, jak z tymi problemami radzi sobie metodologiczna ciągła rewizja SMK.
Przedmiotem analiz w rozprawie będzie standardowy model kosmologiczny. Podstawę teoretyczną dla budowy SMK tworzą: ogólna teoria względności, standardowy model cząstek elementarnych (SMCE) oraz hipoteza inflacyjna. Spróbujemy udzielić odpowiedzi na kilka pytań: jaka jest relacja modelu do teorii?, jaka jest relacja modelu do rzeczywistości?, w jaki sposób mogę badać model kosmologiczny z punktu widzenia filozofii i metodologii nauki? Standardowy model kosmologiczny może pełnić w kosmologii rolę paradygmatu, który jest podstawą programu badawczego w sensie Imre Lakatosa.
Stawiam tezę, że filozofia i metodologia nauki zawiera narzędzia, które są adekwatne do studium tego, czym jest i jakie funkcje pełni standardowy model kosmologiczny. Narzędzi tych dostarcza w ogólności debata między realizmem a antyrealizmem naukowym, która wypracowała: 1) koncepcję autonomicznych modeli naukowych pośredniczących między teorią a światem zjawisk, 2) pojęcie teorii efektywnej dostarczającej funkcjonalnego wyjaśniania bez wnikania w naturę fizycznych komponentów rzeczywistości i wreszcie 3) taką koncepcję praw fenomenologicznych, które pozwalają obronić stanowisko połowicznego realizmu w kontekście kosmologii.
Wielość i różnorodność modeli kosmologicznych oraz porównywalny stopnień ich zgodności z danymi empirycznymi rodzą problem niedookreślenia modelu przez dane empiryczne (undetermination of empirical evidence). Z epistemologicznego punktu widzenia istotne są zatem pytania o to, który model jest najlepszy z punktu widzenia danych empirycznych. Standardowy model kosmologiczny jest maszyną nomologiczną w rozumieniu Nancy Cartwright, pełni funkcje eksplanacyjne jako wyjaśnianie fenomenologiczne, płytkie (w zdefiniowanym w książce sensie), a pod względem operacyjnym pozostaje mocnym wyjaśnieniem. Metody bayesowskie są w kosmologii obserwacyjnej stosowane jako narzędzie pozwalające porównywać SMK z modelami z nim rywalizującymi z punktu widzenia ich zgodności z danymi. Pozwalają rozwiązać problem niedookreślenia modelu przez dane empiryczne na gruncie zdefiniowanej równoważności empirycznej modelu według Basa van Fraassena.
Książkę podzielono w następujący sposób. W rozdziale pierwszym przedstawiono charakterystykę kosmologii współczesnej, która jest nazwana nauką specyficzną (swoistą metodologicznie). Ponadto wskazano elementy tej swoistości w porównaniu z innymi typami nauk. Analizy przedstawione w rozdziale stanowią także potwierdzenie tezy, że kosmologia jest nauką z natury interdyscyplinarną.
Rozdział drugi poświęcony został prezentacji modeli naukowych z punktu widzenia ich różnorodności w budowie i funkcjach. Na tym tle ukazano modele kosmologiczne. Rozdział kolejny stanowi przedstawienie standardowego modelu kosmologicznego, jego elementów oraz cech szczególnych, odróżniających go od innych modeli kosmologicznych. Rozdział czwarty i piąty stanowią analizę odpowiednio ontologicznych i epistemologicznych implikacji SMK. W części ontologicznej odwołujemy się do koncepcji, które traktują modele naukowe jako autonomiczne wobec teorii i pośredniczące między nią a światem zjawisk fizycznych. Próbujemy też obronić interpretację SMK w kategoriach połowicznego realizmu naukowego, a przede wszystkim pokazujemy, że model ten jest maszyną nomologiczną w rozumieniu Cartwright. Dokonujemy również krytyki stanowiska model-dependent realism zaproponowanego przez Stephena Hawkinga i Leonarda Mlodinowa.
Elementy epistemologiczne w SMK zostaną zaprezentowane jako wnioski ze studium przypadków emergencji idei Wszechświata dynamicznego i akcelerującego zrekonstruowanych na poziomie metodologicznym przy użyciu narzędzi pojęciowych filozofii nauki Cartwright. Wszechświat poznawany jest w kosmologii przez SMK, będący teorią efektywną, zbudowaną na OTW, ale posiadającą niezależność od teorii w sensie operacyjnym. SMK pośredniczy między teorią a Wszechświatem.
Rozdziały szósty i siódmy są rozszerzeniem analizy epistemologicznych funkcji SMK – eksplanacyjnej i pragmatycznej. Celem pierwszego z nich jest wskazanie na to, jaki typ wyjaśniania uzyskujemy przy pomocy standardowego modelu kosmologicznego. Ostatni rozdział monografii stanowi próbę rekonstrukcji kosmologii współczesnej w kategoriach metodologii bayesowskiej, którą odróżniamy i separujemy od filozofii bayesianizmu. Metody statystyki współczesnej pozwalają ocenić, jaki model okazuje się lepszy z punktu widzenia przesłanek empirycznych. W oparciu o obecne dane astronomiczne nie jesteśmy w stanie rozstrzygnąć, czy efekty ciemnej energii są związane z istnieniem nieznanej substancji, cząstek czy też stanowią wynik modyfikacji teorii grawitacji. W kosmologii stosujemy warunkowanie bayesowskie i poprawiamy wartości estymowanych parametrów w oparciu o nowe obserwacje, co pozwala wyróżnić SMK jako w najlepszym stopniu zgodny z danymi. Jest to zatem model, który w najbardziej ekonomiczny sposób (minimalna liczba parametrów) opisuje obserwowalny Wszechświat.
Chciałbym wyrazić moją wdzięczność prof. Adamowi Krawcowi za uwagi dotyczące części merytorycznej tekstu książki oraz bardzo pomocne sugestie dotyczące niektórych aspektów składu tekstu w formacie LTEjK. Jestem także bardzo wdzięczny panu prof. Adamowi Jonkiszowi za wnikliwą recenzję wydawniczą, która przyczyniła się do bardziej klarownego wyrażenia głównych tez monografii. W sposób szczególny dziękuję śp. prof. Markowi Szydłowskiemu, mojemu nauczycielowi, promotorowi pracy doktorskiej i przyjacielowi za wprowadzenie mnie w fascynujący świat kosmologii, zarażenie pasją poznawania otaczającej nas rzeczywistości i radością z dzielenia się jej owocami. Jemu tę książkę dedykuję.
Literatura
- Alpher, G. Gamow, and R. Herman, Thermal Cosmic Radiation and the Formation of Protogalaxies, Proceedings of the National Academy of Sciences of the United States of America, 58 (1967), pp. 2179-2186.
- A. Alpher, H. A. Bethe, and G. Gamow, The Origin of Chemical Elements, Physical Review, 73 (1948), pp. 803-804.
- M. Bailer-Jones, Scientific Models in Philosophy of Science, University of Pittsburgh Press, Pittsburgh, 2009.
- Carter and W. H. McCrea, The Anthropic Principle and its Implications for Biological Evolution, Philosophical Transactions of the Royal Society of London. Series A. Mathematical and Physical Sciences, 310 (1983), pp. 347-363.
- F. R. Ellis and T. Buchert, The universe seen at different scales, Physics Letters A, 347 (2005), pp. 38-46.
- Frank and P. Shorr, The Mechanical versus the Mathematical Conception of Nature, Philosophy of Science, 4 (1937), pp. 41-74.
- Frigg and S. Hartmann, Models in Science, in The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., Metaphysics Research Lab, Stanford University, spring 2020 ed., 2020.
- Gamow, Concerning the Origin of Chemical Elements, Journal of the Washington Academy of Science, 32 (1942), p. 353.
- Gamow, Expanding Universe and the Origin of Elements, Physical Review, 70 (1946), pp. 572-573.
- Gamow, The Physics of the Expanding Universe, Vistas in Astronomy, 2 (1956), pp. 1726-1732.
- Gerlee and T. Lundh, Scientific Models. Red Atoms, White Lies and Black Boxes in a Yellow Book, Cham Springer International Publishing, Cham, 2016.
- Gospodarek, Modelowanie w naukach o zarządzaniu oparte na metodzie programów badawczych i formalizmie reprezentatywnym, Monografie i Opracowania, nr 187, Wydawnictwo Uniwersytetu Ekonomicznego, Wrocław, 2009.
- Hajduk, Pojęcie i funkcja modelu, Roczniki Filozoficzne, 20 (1972), pp. 77-124.
- G. Hempel, Aspects of Scientific Explanation, The Free Press, New York, 1965.
- Kitcher, The Advancement of Science, Oxford University Press, New York, 1993.
- Kragh, Conceptions of Cosmos: From Myths to the Accelerating Universe: A History of Cosmology, Oxford University Press, New York, 2007.
- S. Kuhn, The Structure of Scientific Revolutions, University of Chicago Press, Chicago, 1962.
- Lemaitre, Un Univers homogene de masse constante et de rayon croissant rendant compte de la vitesse radiale des nebuleuses extra-galactiques, Annales de la Societe Scientifique de Bruxelles, A47 (1927), p. 49-59.
- Lemaitre, Republication of: The beginning of the world from the point of view of quantum theory, General Relativity and Gravitation, 43 (2011), pp. 2929-2930.
- D. Linde, Chaotic inflation, Physical Letters B, 129 (1983), pp. 177181.
- Morrison and M. S. Morgan, Models as mediating instruments, in Models as Mediators. Perspectives on Natural and Social Science, M. S. Morgan and M. Morrison, eds., Cambridge University Press, Cambridge, 1999, pp. 10-37.
- A. Penzias and R. W. Wilson, A Measurement of Excess Antenna Temperature at 4080 mc/s, Astrophysical Journal, 142 (1965), pp. 419-421.
- Rubin and W. Kent Ford, Rotation of the Andromeda Nebula from a Spectroscopic Survey of Emission Regions, Astrophysical Journal, 159 (1970), pp. 379-403.
- C. Salmon, The Appraisal of Theories: Kuhn Meets Bayes, in PSA: Proceedings of the Biennial Meeting of the Philosophy of Science Association, 1990, pp. 325-332.
- Scriven, The Key Property of Physical Laws Inaccuracy, in Current Numbers in the Philosophy of Science – Proceedings of Section L of the American Association for the Advancement of Sciences, H. Feigl and G. Maxwell, eds., Holt Rinehart and Winston, New York, 1961.
- V. Wagoner, W. A. Fowler, and F. Hoyle, Nucleosynthesis in the Early Stages of an Expanding Universe, Science, 152 (1966), p. 667.
[1] Za przełomowe odkrycie w tym kontekście uważa się rezultat misji satelity COBE (Cosmic Background Explorer) wysłanego w celu zbadania temperatury mikrofalowego promieniowania tła. Anizotropię promieniowania badał satelita WMAP (Wilkinson Microwave Anisotropy Probe).
[2] Strony www trzech wiodących projektów obserwacyjno-badawczych kosmologii współczesnej to odpowiednio: COBE: https://lambda.gsfc.nasa.gov/product/cobe/; WMAP: https://map.gsfc.nasa.gov; Planck: http://planck.caltech.edu
[3] Obserwacje przyśpieszającej ekspansji Wszechświata zostały nagrodzone nagrodą Nobla, którą otrzymali: Saul Perlmutter (The Supernova Cosmology Project, Lawrence Berkeley National Laboratory and University of California,), Brian P. Schmidt (The High-Z Super- nova Search Team, Australian National University) i Adam G. Riess (The High-z Super- nova Search Team, Johns Hopkins University and Space Telescope Science Institute). Por. https://www.nobelprize.org/prizes/physics/2011
[4] Jest to nazwa modelu SMK wskazująca na jego główne składowe.
[/tab]
[/tabs]
- Fizyka a doświadczenie potoczne – Andrzej Łukasik - 16 grudnia 2024
- Koncepcja nauki Philipa Kitchera – Anna Starościc - 6 grudnia 2024
- Od Kopernika do kwantowej grawitacji. Debata Kopernikańska w Toruniu - 5 grudnia 2024