Standardowy model kosmologiczny. Studium metodologiczne

Kosmologia współczesna ma status nauki interdyscyplinarnej w tym sensie, że łączy dwie teorie, na bazie których wypracowywany jest model – standardowy model cząstek elementarnych i standardowy model kosmologiczny. Ta metodo­logiczna ewolucja dokonuje się dzięki doskonalonym narzędziom obserwacji (no­woczesne teleskopy, detektory, misje satelitarne). Efekty obserwacji naziemnych i satelitarnych dają się przedstawić między innymi w postaci map wielkoskalowej struktury Wszechświata, co pozwala na poznawczą rekonstrukcję najwcześniej­szych etapów jego ewolucji. Teoretyczny opis tej ewolucji opiera się na klasycz­nej teorii grawitacji Alberta Einsteina. Ewolucja wczesnego Wszechświata jest traktowana jako laboratorium dla fizyki cząstek elementarnych, ponieważ panu­jących wtedy warunków fizycznych nie da się odtworzyć w laboratorium. W ten sposób, także dzięki wykorzystaniu całego widma promieniowania elektroma­gnetycznego, następuje wzbogacanie bazy empirycznej. Badanie empiryczne do­konuje się naturalnie w teoretycznym kontekście przyjętego modelu (geometrii w pojęciach metryki przestrzeni).

Dla uproszczenia badania ewolucji Wszechświata, tzw. obserwabli kosmolo­gicznych, zakłada się, że w dużej skali cechuje go jednorodność i izotropowość. Przyjęta zasada, nazywana uogólnioną zasadą kopernikańską, sprowadza się do stwierdzenia, że obraz Wszechświata, widziany przez obserwatora fundamental­nego z dowolnego punktu i w dowolnym kierunku, jest taki sam. Matematycz­ną konsekwencją tego założenia staje się fakt, że opis ewolucji Wszechświata okazuje się możliwy w pojęciach równań różniczkowych zwyczajnych (układu dynamicznego).

Różnie określany jest także przedmiot kosmologii: Wszechświat obserwowalny/widzialny, Wszechświat fizyczny, Wszechświat astronomiczny, Wszechświat astrofizyczny [5]. Każda z tych kategorii rodzi inne problemy, interesujące także pod względem filozoficznym, na przykład: w jakim sensie przedmiotem kosmo­logii jest świat obserwowalny?

Kosmologię czasami porównuje się metodologicznie do nauk historycznych, takich jak: geologia, paleontologia, biologia ewolucyjna czy archeologia. Z jed­nej strony jest to trafne zestawienie w tym sensie, że przedmiotem obserwacji jest przeszłość Wszechświata. Z drugiej strony przedmiot kosmologii – inaczej niż przedmioty odkrywane przez historyków lub archeologów – ma naturę dy­namiczną [16]. Szczególną konsekwencją kosmologii jako nauki o przeszłości jest to, że kosmologiczna predykcja dotyczy właśnie stanów przeszłych, testowane są zatem hipotezy dotyczące przeszłości, a nie przyszłości. Skala czasowa predykcji odnoszącej się do przyszłości Wszechświata jest liczona w miliardach lat, więc wymyka się możliwościom lokalnych eksperymentów.

Szczególny status metodologiczny kosmologii wiąże się z tym, że obiekt jej badań jest jednostkowy: brakuje możliwości wykonania na nim eksperymentu. W konsekwencji trudno mówić o prawach kosmologicznych w tym sensie, w ja­kim je tradycyjnie rozumiemy w fizyce, gdzie dokonujemy kwantyfikacji ogólnej na zbiorze obiektów o podobnej naturze. Z drugiej strony unikalność Wszech­świata nie implikuje tego, że modele kosmologiczne, czyli hipotezy naukowe, są niefalsyfikowalne. Pojawia się intrygująca rzeczywistość kosmologii, która mo­że być nazwana „zmatematyzowaną nauką historyczną” odniesioną do ewolucji Wszechświata jako całości.

Kolejny problem typowy dla metodologii kosmologii współczesnej dotyczy rozróżnienia między kosmologią a kosmogenezą. Dziedziny te są istotnie różne, bo pierwsza dotyczy struktury i ewolucji Wszechświata, druga zaś jego powsta­nia. Czy obserwacje danej fazy rozwoju Wszechświata pozwalają na ustalenie – choćby w przybliżeniu – warunków początkowych, które stanowiły o jego fizycz­nej genezie? Wydaje się to możliwe, oczywiście nie bez oderwania od teorii. Z drugiej strony, biorąc pod uwagę tak prosty układ fizyczny jak Układ Słoneczny, spróbujmy ustalić warunki początkowe jego powstania.

 

Standardowy model kosmologiczny. Studium metodologiczne

Paweł Tambor

  • ISBN: 978-83-8061-883-1
    Stron: 272
    Rok wydania: 2020
  • Wydawnictwo KUL, Lublin

[tabs]
[tab title=”Spis tresci”]

Spis treści

Wstep

Rozdział 1. Kosmologia – nauka specyficzna metodologicznie

  • 1.1. Ogólna charakterystyka kosmologii
  • 1.2. Swoistosc metodologiczna kosmologii współczesnej
  • 1.2.1. Przedmiot kosmologii
  • 1.2.2. Ograniczenia obserwacyjne kosmologii
  • 1.3. Kosmologia nauka interdyscyplinarna

Rozdział 2. Modele w nauce a modele kosmologiczne

  • 2.1. Modele naukowe w ogólnosci
  • 2.2. Funkcje modeli naukowych
  • 2.2.1. Róznorodnosc funkcji modeli
  • 2.2.2. Modele w funkcji eksploracyjnej
  • 2.2.3. Modele w funkcji posredniczacej
  • 2.2.4. Teorie i modele naukowe według Basa van Fraassena
  • 2.3. Modele kosmologiczne

Rozdział 3. Standardowy model kosmologiczny

  • 3.1. Budowa SMK
  • 3.2. Status metodologiczny SMK
  • 3.3. Krzywizna – najprostszy sposób wyjścia poza paradygmat SMK
  • 3.4. Czynniki teoretyczny i empiryczny w SMK
  • 3.5. Rola czynnika empirycznego i teoretycznego w kontekście odkrycia przyspieszającej ekspansji Wszechświata
  • 3.6. SMK jako efektywna teoria Wszechświata

Rozdział 4. Ontologiczne aspekty standardowego modelu kosmologicznego

  • 4.1. Ogólna charakterystyka debaty realizm – antyrealizm
  • 4.2. Modele w kosmologii
  • 4.3. Implikacje ontologiczne SMK
  • 4.3.1. Wszechświat zależny od modelu SMK (model-dependent realism)
  • 4.3.2. SMK maszyna nomologiczna w rozumieniu Nancy Cartwright

Rozdział 5. Studium przypadku idei Wszechświata przyspieszającego

  • 5.1. Dynamiczna natura nauki, jej determinanty i sposoby opisu
  • 5.2. Modele rekonstrukcji zmian w nauce
  • 5.3. Metodologiczny charakter dążenia do prawdy w rozwijającej się nauce
  • 5.4. Filozofia nauki Nancy Cartwright jako epistemiczny układ pojęciowy dla badania statusu SMK
  • 5.5. \”Emergencja\” Wszechświata dynamicznego w schemacie pojęciowym Nancy Cartwright
  • 5.5.1. Wszechświat dynamiczny
  • 5.5.2. Dynamiczny Wszechświat przyspieszający
  • 5.6. Podsumowanie

Rozdział 6. Wyjaśnianie w nauce i kosmologii

  • 6.1. Spór o wyjaśniający charakter nauki
  • 6.2. Typologie wyjaśnień w naukach przyrodniczych
  • 6.3. Wyjaśnianie przez prawa
  • 6.4. Wyjaśnianie kauzalne
  • 6.5. Wyjaśnianie jako rozumienie
  • 6.6. Funkcja wyjaśniająca SMK

Rozdział 7. Próba rekonstrukcji kosmologii obserwacyjnej w metodologii bayesowskiej

  • 7.1. Założenia wyjaśniania w podejściu bayesowskim
  • 7.2. Teorie formułowania i uzasadniania hipotez naukowych – indukcjonizm i antyindukcjonizm
  • 7.3. Metodologia bayesowska
  • 7.4. Bayesowska (współczesna) definicja prawdopodobieństwa
  • 7.5. Statystyczne metody selekcji modeli (kryteria informacyjne i metody bayesowskie) w praktyce badawczej kosmologii współczesnej
  • 7.6. Wnioski metodologiczne

Zakończenie

Summary

Spis rysunków

Spis tabel

Bibliografia

 

[/tab]
[tab title=”Standardowy Model Kosmologiczny. Studium metodologiczne”]

Standardowy Model Kosmologiczny. Studium metodologiczne

Paweł Tambor

Przedmiotem badań w niniejszej rozprawie jest standardowy model kosmo­logiczny (w skrócie SMK). Główny problem badawczy zawiera się w pytaniu dotyczącym statusu metodologicznego SMK. Metodologicznych i konceptual­nych narzędzi badawczych na poziomie metanaukowym dostarcza debata nad realizmem i antyrealizmem naukowym.

Termin „metodologia” w niniejszej monografii będzie rozumiany odpowied­nio do zakresu rozważań, to jest szeroko. W pracy są bowiem nie tylko analizy metodologiczne pojmowane tradycyjnie, czyli skupione na metodach stosowa­nych w kosmologii, ale także – i to w przeważającej mierze – zagadnienia zwią­zane z założeniami ontologicznymi modeli i teorii naukowych oraz ich statusem poznawczym (kwestie epistemologiczne). „Metodologia nauki/kosmologii” jest więc tu rozumiana jako „filozofia nauki/kosmologii”, ponieważ tylko wtedy da się w studium „metodologicznym” uwzględniać zagadnienia umieszczane dzisiaj zwykle pod nazwą „filozofii nauki”.

Jedno z zasadniczych pytań nauki, a raczej pytań stawianych wobec nauki, dotyczy tego, jak jej wytwory (modele, teorie) odzwierciedlają świat. Obrazowo mówi się, że dostarcza ona obrazu świata, to znaczy między innymi, że tworzy modele. Inną związaną z tym kwestią jest problem zmienności tych obrazów świata. Istnieje wiele celów działalności naukowej. Spośród najważniejszych wy­mienia się opis i wyjaśnianie procesów oraz zjawisk fizycznych, dokonywanie pre­dykcji w obu kierunkach (retrognozy i prognozy), wykorzystywanie wyników na­ukowych w technice i wdrażaniu nowych technologii, tworzenie pewnego obrazu rzeczywistości, który pozwala ją lepiej zrozumieć. Jakkolwiek opis, wyjaśnianie, predykcja, technologia są oczywistymi „produktami” działalności naukowej, to zrozumienie natury świata wprowadza do nauki element intersubiektywny albo raczej podmiotowy.

Lata 60. XX wieku są w metodologii nauk swoistym przełomem w kwestii postrzegania samego zjawiska nauki. Oczywiście pierwsze skojarzenie dotyczy roku 1962 – daty publikacji jednej z najczęściej cytowanych prac z filozofii nauki, czyli Struktury rewolucji naukowych Tomasza Kuhna [17]. Niemniej jednak nie chodzi wyłącznie o rekonstrukcje dynamiki nauki w kategoriach socjologicznych, ale o zasadniczy zwrot zainteresowania filozofów nauki od tego, w jaki sposób jej wytwory dadzą się formalizować i rekonstruować przy użyciu narzędzi logiki i matematyki. To w dużej mierze sprawia, że wzrasta zainteresowanie modelami naukowymi.

Promotorem demarkacji funkcji wyjaśniania i rozumienia w nauce był Carl Hempel [14]. Dla niego podstawowym celem nauki jest wyjaśnienie, szczególnie w oparciu o prawa naukowe i kontekst empiryczny. Prace Michaela Scrivena [25], Michaela Friedmana, Philipa Kitchera [15], a zwłaszcza Wesleya Salmona [24], krytycznie odnosząc się do poglądu Hempela, powiązały wyjaśnianie z rozumie­niem. To ostatnie jest w ich ujęciu pochodną zasadniczo dwóch elementów: 1) zidentyfikowania w modelu zjawiska struktury kauzalnej, 2) poszukiwania teorii fundamentalnych.

Każda filozofia nauki powinna podjąć dwie fundamentalne kwestie, pyta­jąc o to, czym są teoria i model naukowy oraz jaka jest ich funkcja. Historia nauki pokazuje, że wartościowe wyniki w badaniach naukowych uzyskuje się raczej najpierw metodą prób i błędów, eksperymentów myślowych, modeli kon­ceptualnych i fenomenologicznych, a nie konstruowaniem bardzo ogólnej teorii. Ona jest przeważnie efektem długiego procesu operowania, w mniej lub bardziej ścisłym sensie, modelami. Naturalnie w porządku uzasadnienia, rekonstrukcji całego procesu emergencji lub redukcji danych praw nauki będziemy zaczynać od teorii naukowej. Niemniej jednak to modele naukowe są pewnymi użyteczny­mi narzędziami pomiarowymi (measuring devices) lub heurystycznymi „mapami orientacyjnymi”, którymi kieruje się powszednia praktyka badawcza, szczególnie na gruncie fizyki [13].

We współczesnej praktyce badawczej zmienia się interpretacja trójczłonowej relacji między teorią naukową, modelem a układem fizycznym [21]. Co więcej, zaciera się charakterystyczne rozróżnienie na kontekst odkrycia i kontekst uza­sadnienia. Historia nauki unaocznia, że istotne jest badanie tego, w jaki sposób dochodzi się do ważnych odkryć w różnych dziedzinach wiedzy. Zasadna w każ­dym przypadku jest zarówno ścisła teoretyczna rekonstrukcja relacji między teo­riami, modelami a danymi empirycznymi, jak też różnorakie sposoby używania pojęcia modelu, hipotezy, analogii i teorii, nie zawsze konsekwentne metodolo­gicznie, ale nierzadko prowadzące do twórczego rozbudowania wiedzy. Istnieje zatem potrzeba uporządkowania tej dyskusji i wyjaśnienia roli oraz funkcji mo­deli w kosmologii. Z jednej strony utrudnia to rekonstrukcję metodologiczną procesów naukotwórczych, z drugiej zaś samą naukę czyni jeszcze bardziej fa­scynującą, ponieważ w istocie jest ona jakby żywym organizmem. Szczególnie ciekawa okazuje się ewolucja samego stosunku do pojęcia modelu w nauce, jaka miała miejsce w XX wieku, począwszy od dość krytycznego traktowania modeli w pierwszego połowie XX wieku, co zawdzięczamy po pierwsze dziewiętnasto­wiecznej tradycji modelowania, które kojarzyło się przede wszystkim z mecha­nicznymi modelami zjawisk fizycznych, a po drugie – z dorobkiem logicznego empiryzmu.

Elementarny problem związany z modelowaniem w nauce wyraża się w py­taniu: w jaki sposób modele, które z definicji nie są wiernym odwzorowaniem rzeczywistości, stają się tak dobrym sposobem poznawania świata fizycznego? Pełnione przez nie funkcje nie są ekskluzywne wobec siebie, często zaś się pokry­wają. Tak jest w przypadku funkcji wyjaśniających i opisujących. Podstawową funkcją modelu, który stanowi kooperację deskrypcji i wyjaśnienia, jest rozu­mienie.

Historycy nauki przełomu XVII i XVIII wieku wskazują ten okres jako klu­czowy dla zmiany paradygmatu w modelowaniu naukowym. Prace Johannesa Keplera, a później Isaaca Newtona wnosiły w kontekst modeli mechanicznych czy ikonicznych modele matematyczne. Związane to było oczywiście z rozwo­jem technik matematycznych szczególnie istotnych w modelowaniu, zwłaszcza rachunku różniczkowego. Istotnymi zabiegami w konstruowaniu modeli stały się abstrakcja i idealizacja. Powróciły pojęcia pełniące rolę użytecznych przybliżeń, takie jak: przestrzeń absolutna, punkt materialny, powierzchnia gładka, linie sił. Zauważmy, że te „użyteczne fikcje” nie znajdują bezpośredniego odniesienia w świecie fizycznym, można je także utożsamiać z obiektami nieobserwowalny- mi w teorii. Niewątpliwie inspirującym na owe czasy kształtowania się metody naukowej w nowożytnym sensie był paradygmat mechanistyczny promowany przez prace Pierre’a Gassendiego, Francisa Bacona czy Kartezjusza. Poszcze­gólne układy fizyczne, zasadniczo postrzegane jako maszyny na poziomie wy­jaśniania, zrywały z paradygmatem metafizyki czterech przyczyn (zwłaszcza przyczyny celowej).

Poznawanie w naukach przyrodniczych ściśle związane jest nie tylko z fizycz­nym eksperymentem, ale także z teoretycznym badaniem konsekwencji teorii przyrodniczych w modelach, które stanowią ich realizacje. Pojawia się na przy­kład w tym kontekście nowe rozumienie analogii na bazie podobieństwa równań matematycznych. Szczególnie uderzające jest to w porównaniu formy równań Newtona dla oddziaływania grawitacyjnego między dwoma masami a sformuło­waniem na siłę Coulomba między dwoma ładunkami elektrycznymi. Niezwykle ciekawe wydaje się w tym okresie przenikanie pojęć z dziedziny mechaniki do ję­zyka sformalizowanego matematycznie, jak stało się to w przypadku strumienia ciepła i generalnie jego dynamiki rozchodzenia się, a także prądu elektrycznego.

Zwraca się również uwagę, że słynne równania Maxwella nie były postulo­wane, ale wyraźnie inspirowane fizyką mechanistyczną [11, s. 17-18]. Podobnie było z kinetyczną teorią gazów, wyraźnie nawiązującą do mechaniki, a przez to traktującą cząstki gazu jako sztywne kulki, których rozkład prędkości da się teoretycznie powiązać z pojęciem temperatury. Philip Garlee i Torbjorn Lundh cytują powiedzenie Lorda Kelwina, które jest bardzo adekwatnym podsumowa­niem tego okresu w modelowaniu fizycznym: „Wydaje się, że testem dla pro­blemu: «Czy potrafimy zrozumieć dane zagadnienie fizyczne», jest zdanie «Czy potrafimy skonstruować jego mechaniczny model»” [11, s. 18].

Wiek XX ograniczył ten schemat mechaniczno-analogiczny w toku ciągłej eksploracji fizyki przez matematykę, co znalazło swój wyraz szczególnie w po­wstaniu i rozwoju mechaniki kwantowej, i równolegle nowej teorii grawitacji. Philip Frank w swojej znanej pracy z 1937 roku sformułował to bardzo su­gestywnie: „Świat przestał być maszyną, stał się matematyczną formułą” [6]. Tak radykalna diagnoza jest nieuprawniona. Formuły matematyczne opisujące Wszechświat przedstawiają przecież, jak on działa, wskazują na pewien mecha­nizm. Szczególnie istotne okazuje się to, że w tym czasie zmienia się sposób postrzegania analogii w fizyce. Zaczynają być one traktowane raczej jako narzę­dzia heurystyczne, pochodne ze stosunku do głównej praktyki badawczej fizyków teoretyków, którą jest przede wszystkim badanie abstrakcyjnych struktur ma­tematycznych, czyli teorii i zbudowanych na ich bazie modeli.

W bardzo różny sposób uczeni i filozofowie nauki definiują modele nauko­we [7]. Są one rozumiane jako fizyczne lub myślowe struktury/układy, których zadaniem jest odzwierciedlanie istoty własności rzeczywistych układów lub zja­wisk fizycznych. Może do nich należeć także odpowiednio zinterpretowany opis zjawiska, który umożliwia do niego dostęp poznawczy [3]. Bardzo często model traktuje się w ogólności jako pewien typ reprezentacji zjawiska. Gerlee i Lundh proponują następującą definicję: „Modele są opisami, abstrakcyjnymi lub ma­terialnymi, które odzwierciedlają lub reprezentują i w ten sposób dostarczają dostępu do wybranych części rzeczywistości” [11, s. 28].

Jeśli dokonujemy podziału modeli ze względu na ich relację do teorii nauko­wej, możemy wyróżnić: 1) modele jako uproszczenia teorii, 2) modele jako dopeł­nienia teorii. Standardowy model kosmologiczny stanowi funkcjonalne uprosz­czenie teorii, która jest zbyt złożona operacyjnie. Model może być dopełnieniem teorii w tym sensie, że na jej bazie stosuje się nie tylko zabiegi idealizacyjne, ale także nadaje się elementom modelu interpretację empiryczną, określając tzw. obserwable. Model może być też rodzajem „teorii przedwstępnej” [12, s. 63]. Taki sposób tworzenia i operowania modelami jest charakterystyczny w fazie konstruowania teorii naukowej.

Dość ważny okazuje się podział modeli ze względu na charakter relacji mię­dzy nimi a zjawiskami fizycznymi. Wyróżniamy modele formalne, kiedy rzeczową relację charakteryzuje określony izomorfizm między częścią struktury zjawiska a empiryczną częścią struktury modelu, oraz modele nieformalne, gdy taka odpowiedniość nie jest wymagana. Za podstawowe kryterium podziału uznaje się sposób reprezentowania zjawiska fizycznego. Wyróżniamy na przykład modele pojęciowe (konceptualne). Składają się na nie pewne schematy pojęciowe, przy pomocy których opisujemy własności modelowanego przedmiotu, zjawiska lub procesu. Są one zwykle prostymi opisami, które mogą mieć także funkcje wyja­śniające. Służą jako postawa do różnych formalizacji matematycznych. Czasem ten typ modeli nazywany jest fenomenologicznym. Zaniedbuje się w nich detek­cję mechanizmów przyczynowych.

Modele ikoniczne, podobnie jak pojęciowe, należą do klasy najprostszych modeli, które pozwalają na niejako naoczną prezentację modelowanego układu poprzez modele skalowe, schematy, miniatury. Modele analogiczne charaktery­zuje z kolei nie tyle struktura, co sposób tworzenia. Odwołują się do typowe­go w filozofii, a także w nauce rozumowania opartego na wyjaśnieniu tego, co nieznane, przez to, co znane. Przykładami są planetarny lub kroplowy model struktury atomu bądź model oscylatora harmonicznego.

Analogicznie dzieli modele Tadeusz Gospodarek, kierując się kryterium uży­teczności, na te oparte na podobieństwie budowy obiektów, podobieństwie wła­ściwości, relacji (zachowań) i oddziaływań [12, s. 68-69]. Przykładem pierwszego typu podobieństwa jest między innymi badanie gwiazd i ich katalogowanie. Jako przykład wykorzystania podobieństwa właściwości można zaś wskazać sformu­łowanie termodynamiczne własności entropii w języku pojęć teorii informacji. Podobieństwo relacji widoczne jest chociażby w typie zależności proporcjonalno­ści siły elektrostatycznej i siły grawitacji (między dwoma masami) do kwadratu odległości między ładunkami lub masami. Właściwie ten sam przykład odpo­wiada analogii opartej na podobieństwie oddziaływań.

Szczególnie ważną kategorią modeli są modele danych. Łączą one trzy istotne funkcje: prezentowania faktycznych danych empirycznych, predykcji nieznanych danych (w przeszłości i przyszłości modelowanego układu) oraz interpretację danych. Dwie pierwsze mają charakter przedmiotowy, trzecia – filozoficzny. Me­todologia konstruowania tych modeli obejmuje takie procedury, jak: dopasowa­nie krzywych, analizę błędów pomiarowych, symulację danych, która pozwala na ekstrapolację, obranie kryteriów przy wyborze krzywych najlepszego dopa­sowania. Matematyczne modele zjawisk fizycznych można zaliczyć do katego­rii modeli symbolicznych. Własności układu są reprezentowane przez strukturę matematyczną, często wyrażoną w postaci równań różniczkowych, układów dy­namicznych, które są szczególnie użyteczne w badaniu możliwego zachowania modelowanego układu. W przypadku SMK jest on symboliczny, ponieważ re­lacja tempa ekspansji Wszechświata w relacji do redshiftu – H(z) to funkcja reprezentująca ewolucję Wszechświata.

Naukowym kontekstem do badania struktur naukowych i szukania odpowie­dzi na pytania o naturę, rolę i funkcje modelu naukowego będzie kosmologia współczesna. Oczywiście wymaga to koniecznego zawężenia. Ostatnie trzydzie­ści lat rozwoju kosmologii pokazuje, że staje się ona w rzeczy samej pełnoprawną dyscypliną fizyczną, która bada wielkoskalowy Wszechświat, wykorzystując całą znaną nam fizykę[1]. Dojrzałość kosmologii przejawia się w zwiększającej się pre­cyzji pomiarów danych astronomicznych, ale także możliwości testowania fizyki fundamentalnej.

Kosmologia współczesna ma status nauki interdyscyplinarnej w tym sensie, że łączy dwie teorie, na bazie których wypracowywany jest model – standardowy model cząstek elementarnych i standardowy model kosmologiczny. Ta metodo­logiczna ewolucja dokonuje się dzięki doskonalonym narzędziom obserwacji (no­woczesne teleskopy, detektory, misje satelitarne). Efekty obserwacji naziemnych i satelitarnych dają się przedstawić między innymi w postaci map wielkoskalowej struktury Wszechświata, co pozwala na poznawczą rekonstrukcję najwcześniej­szych etapów jego ewolucji. Teoretyczny opis tej ewolucji opiera się na klasycz­nej teorii grawitacji Alberta Einsteina. Ewolucja wczesnego Wszechświata jest traktowana jako laboratorium dla fizyki cząstek elementarnych, ponieważ panu­jących wtedy warunków fizycznych nie da się odtworzyć w laboratorium. W ten sposób, także dzięki wykorzystaniu całego widma promieniowania elektroma­gnetycznego, następuje wzbogacanie bazy empirycznej. Badanie empiryczne do­konuje się naturalnie w teoretycznym kontekście przyjętego modelu (geometrii w pojęciach metryki przestrzeni).

Dla uproszczenia badania ewolucji Wszechświata, tzw. obserwabli kosmolo­gicznych, zakłada się, że w dużej skali cechuje go jednorodność i izotropowość. Przyjęta zasada, nazywana uogólnioną zasadą kopernikańską, sprowadza się do stwierdzenia, że obraz Wszechświata, widziany przez obserwatora fundamental­nego z dowolnego punktu i w dowolnym kierunku, jest taki sam. Matematycz­ną konsekwencją tego założenia staje się fakt, że opis ewolucji Wszechświata okazuje się możliwy w pojęciach równań różniczkowych zwyczajnych (układu dynamicznego).

Różnie określany jest także przedmiot kosmologii: Wszechświat obserwowalny/widzialny, Wszechświat fizyczny, Wszechświat astronomiczny, Wszechświat astrofizyczny [5]. Każda z tych kategorii rodzi inne problemy, interesujące także pod względem filozoficznym, na przykład: w jakim sensie przedmiotem kosmo­logii jest świat obserwowalny?

Kosmologię czasami porównuje się metodologicznie do nauk historycznych, takich jak: geologia, paleontologia, biologia ewolucyjna czy archeologia. Z jed­nej strony jest to trafne zestawienie w tym sensie, że przedmiotem obserwacji jest przeszłość Wszechświata. Z drugiej strony przedmiot kosmologii – inaczej niż przedmioty odkrywane przez historyków lub archeologów – ma naturę dy­namiczną [16]. Szczególną konsekwencją kosmologii jako nauki o przeszłości jest to, że kosmologiczna predykcja dotyczy właśnie stanów przeszłych, testowane są zatem hipotezy dotyczące przeszłości, a nie przyszłości. Skala czasowa predykcji odnoszącej się do przyszłości Wszechświata jest liczona w miliardach lat, więc wymyka się możliwościom lokalnych eksperymentów.

Szczególny status metodologiczny kosmologii wiąże się z tym, że obiekt jej badań jest jednostkowy: brakuje możliwości wykonania na nim eksperymentu. W konsekwencji trudno mówić o prawach kosmologicznych w tym sensie, w ja­kim je tradycyjnie rozumiemy w fizyce, gdzie dokonujemy kwantyfikacji ogólnej na zbiorze obiektów o podobnej naturze. Z drugiej strony unikalność Wszech­świata nie implikuje tego, że modele kosmologiczne, czyli hipotezy naukowe, są niefalsyfikowalne. Pojawia się intrygująca rzeczywistość kosmologii, która mo­że być nazwana „zmatematyzowaną nauką historyczną” odniesioną do ewolucji Wszechświata jako całości.

Kolejny problem typowy dla metodologii kosmologii współczesnej dotyczy rozróżnienia między kosmologią a kosmogenezą. Dziedziny te są istotnie różne, bo pierwsza dotyczy struktury i ewolucji Wszechświata, druga zaś jego powsta­nia. Czy obserwacje danej fazy rozwoju Wszechświata pozwalają na ustalenie – choćby w przybliżeniu – warunków początkowych, które stanowiły o jego fizycz­nej genezie? Wydaje się to możliwe, oczywiście nie bez oderwania od teorii. Z drugiej strony, biorąc pod uwagę tak prosty układ fizyczny jak Układ Słoneczny, spróbujmy ustalić warunki początkowe jego powstania.

W kosmologii współczesnej, począwszy od powstania ogólnej teorii względ­ności (OTW), głównym zadaniem kosmologów jest konstruowanie modeli ko­smologicznych Wszechświata. Teoria grawitacji została sformułowana w listopa­dzie 1915 roku, z kolei w roku 1917 Einstein użył równań OTW do konstrukcji modelu kosmologicznego – modelu Wszechświata. Aleksandr Friedmann poka­zał, że równania modelu Einsteina bez stałej kosmologicznej opisywały Wszech­świat, którego ewolucja miała charakter oscylacyjny. Chcąc zachować statycz­ność, twórca OTW dodał do równań dodatkowy człon – stałą kosmologiczną.

W latach 20. Friedmann i Georges Lemaitre uzyskali rozwiązania równań Einsteina dla Wszechświata izotropowego (izotropowego w każdym punkcie, czyli jednorodnego i izotropowego), które zawierając stałą kosmologiczną, do­puszczały zmienność czynnika skali w czasie kosmologicznym. Koniec lat 20. XX wieku przyniósł istotne obserwacje astronomiczne Edwina Hubble’a wyko­rzystującego wcześniejsze badania odległych galaktyk (traktowanych ówcześnie jako mgławice), dokonane przez Vesto Sliphera, i próbującego ustalić rodzaj zależności między odległościami a prędkościami tych obiektów. Jego wyniki ob­serwacyjne łącznie z teoretycznymi badaniami Georgesa Lemaitre’a stanowiły fundament teorii Wielkiego Wybuchu, która w kosmologii stanowi współczesny paradygmat [18, 19].

Prace George’a Gamowa, Ralpha Alphera i Roberta Hermana w latach 40. i 50. miały istotny wkład w kosmologię fizyczną. Gamow sformułował na ba­zie teorii Wielkiego Wybuchu scenariusz tworzenia się lekkich pierwiastków w pierwszych minutach gwałtownie rozszerzającego się i stygnącego Wszech­świata [9, 8, 10]. Pokazał, że we wczesnym Wszechświecie była dostateczna temperatura konieczna dla wystąpienia reakcji termojądrowych (pierwotna nukleosynteza). Alpher i Herman określili model termicznej historii Wszechświata i przewidzieli istnienie kosmicznego promieniowania tła (CMB) [2, 1]. W latach 60. na bazie obserwacji oszacowano wkład we Wszechświecie masy helu na około 23%. Prace Freda Hoyle’a, Williama Fowlera i Roberta Wagonera pokazały, że taka ilość helu, a także innych lekkich pierwiastków, zgadzała się z przewidywa­niami teoretycznymi wyników nukleosyntezy we wczesnych stadiach po Wielkim Wybuchu [26]. Poparciem dla tej teorii w 1964 roku było odkrycie przez Arna Penziasa i Roberta Wilsona promieniowania tła [22].

Od lat 60. jednym z głównych problemów kosmologii były próby zrozumienia, w jaki sposób w trakcie ewolucji Wszechświata ukształtowały się jego wielkoskalowe struktury – galaktyki i ich gromady. Coraz dokładniejsze pomiary danych astronomicznych zrodziły z jednej strony sceptycyzm co do teorii Wielkiego Wybuchu, z drugiej postulaty istnienia nowej formy materii, która oddziałuje z materią barionową tylko grawitacyjnie. Na istnienie ciemnej materii wskazy­wały obserwacje i analizy krzywych rotacji galaktyk spiralnych przeprowadzone przez Verę Rubin i Kenta Forda [23]. Parametry tych krzywych różniły się istot­nie od przewidywań opartych na istnieniu tylko materii barionowej.

Wyniki te potwierdzały na poziomie empirycznym wcześniejsze spekulacje Lemaitre’a, Richarda Tolmana i Jewgienija Lifshitza dotyczące scenariusza for­mowania struktur wielkoskalowych (galaktyk) w drodze ewolucji kosmologicz­nych z pierwotnych fluktuacji gęstości wczesnego Wszechświata. Według tych szacunków, bazując tylko na materii barionowej, galaktyki nie zdążyłyby się uformować do współczesnej epoki. Obserwacje satelity COBE (Cosmic Background Explorer) wykryły anizotropię promieniowania mikrofalowego tła zgodnie z przewidywaniami modelu ciemnej zimnej materii (CDM).

Pierwsze lata XXI wieku w misjach satelitów WMAP (Wilkinson Microwave Anisotropy Probe w latach 2002-2009) i Planck (w latach 2009-2013) zwiększy­ły dokładność szacunków anizotropii CMB, stanowiąc wciąż silne poparcie dla modelu CDM[2].

Ostatnie 20 lat badań teoretycznych i obserwacji empirycznych wniosło do obrazu kosmologii współczesnej nowy element. Obserwacje temperatury i ani­zotropii promieniowania mikrofalowego oraz gwiazd supernowych typu 1a, uzna­wanych za świece standardowe w kosmologii obserwacyjnej, wskazały, że Wszech-| świat w obecnej epoce nie tylko się rozszerza, ale jego ekspansja przyśpiesza[3]. Dane obserwacyjne wskazują, że przejście od fazy deceleracji do akceleracji na­stąpiło mniej więcej w połowie czasu ewolucji Wszechświata. Rezultat był za­skakujący, ponieważ spodziewano się raczej deceleracji w związku z domina­cją oddziaływania grawitacyjnego we Wszechświecie. Wyjaśnienie efektu przy­śpieszenia ekspansji doprowadziło do postulatu istnienia dodatkowego składnika Wszechświata – ciemnej energii, która wywoływałaby efekt ujemnego ciśnienia. Najprostszą „kandydatką” na teoretyczną reprezentację ciemnej energii okazała się stała kosmologiczna wprowadzona do równań OTW, a następnie usunięta z nich przez Einsteina.

Mimo że współczesna kosmologia opiera się na modelu standardowym fa­woryzowanym przez dane i w związku z tym nazywana concordance cosmology, napotyka na istotne trudności i problemy, które są inspiracją do wyjścia poza ten model. Niewątpliwie szczególnym wyzwaniem jest nieznana natura ciemnej materii i ciemnej energii. Drugim problemem jest status OTW, jako teorii efek­tywnej, która „nie działa” w bardzo wczesnych fazach historii Wszechświata (w tym sensie, że rozwiązania napotykają na osobliwości), przez to fizyka samego

Wielkiego Wybuchu pozostaje wciąż przedmiotem spekulacji i czeka na swo­ją teorię. W związku z tym istotne okazuje się pytanie, czy hipoteza inflacji, która przewiduje, że Wszechświat tuż po Wielkim Wybuchu przeszedł krótką fazę gwałtownej eksponencjalnej ekspansji (zwiększając rozmiary o czynnik 1027 w czasie 10~33s), powinna być włączona w model standardowy.

Przyjęcie takiej hipotezy tłumaczy problemy SMK jak problem płaskości, izotropii, monopoli itd. [20]. Inflacja jest dokładnie hipotezą pomocniczą w pa­sie ochronnym teorii, w celu ratowania SMK. Teoria inflacji zaproponowana przez Alana Gutha, Andrieja Lindego i Alexeja Starobisky’ego w latach 80. XX wieku z jednej strony rozwiązuje problem jednorodności i izotropii Wszechświa­ta, z drugiej ma swoje zawiłości (problem warunków początkowych dla inflacji). Ważne jest to, że trudności standardowego modelu kosmologicznego prowadzą kosmologię współczesną do sytuacji, w której poszukuje się propozycji alterna­tywnych. Praktyką badawczą jest dziś zatem nie tylko testowanie modeli ko­smologicznych, ale także ich selekcja. Trzeba jednak zaznaczyć, że tę ostatnią stosuje się do modeli po to, aby odpowiedzieć na pytanie, jak dobrze model wyjaśnia dane obserwacyjne. Nie rozwiązuje ona jednak trudności SMK, które są w samym modelu.

Warto wspomnieć także, że współcześnie obok praktyki konstruowania, te­stowania i selekcji modeli kosmologicznych można zauważyć pojawiające się no­we typy uzasadniania, dlaczego obserwowalny Wszechświat posiada takie, a nie inne własności. W tym kontekście proponowane jest wyjaśnianie o charakterze antropicznym (własności Wszechświata są dostrojone do życia biologicznego obserwowalnej jego postaci) [4]. Formułowane są wręcz rozumowania nazywane wyjaśnianiem antropicznym, które próbują dać odpowiedź na problem wyrażo­ny w pytaniu: dlaczego Wszechświat ma taką naturę, takie własności, które są wymagane do zaistnienia w nim życia biologicznego? Celem tych teorii są, po pierwsze próba rozwiązania trudności standardowego modelu kosmologicznego, po drugie – poszukiwanie wyjaśnienia problemu antropicznego. Sami zwolen­nicy tego rodzaju wyjaśniania pozostają świadomi jego zasadniczych słabości: nie jest wyjaśnianiem o charakterze ani przyczynowym, ani nomologicznym, nie ma struktury wyjaśniania generalizującego (od szczegółu do ogółu), cechuje go tautologiczny charakter.

Z metodologicznego punktu widzenia sytuacja w kosmologii współczesnej jest bardzo specyficzna. Z jednej strony jej niewątpliwe osiągnięcie stanowi to, że dysponujemy modelem, który w zadowalający sposób okazuje się adekwatny deskryptywnie i predykcyjnie; jest poza tym dość prosty. Z drugiej strony moż­na tę sytuację interpretować jako kryzysową przede wszystkim z powodu tego, że standardowy model kosmologiczny posługuje się pojęciami ciemnej energii i ciemnej materii, których natury nie wyjaśnia. Faktem jest, że mimo ciągłego rozwoju kosmologii (szczególnie w zakresie poszerzania możliwości obserwacyj­nych), od przeszło 20 lat model ciemnej zimnej materii ze stałą kosmologiczną – Lambda Cold Dark Matter (ACDM[4]) wciąż pozostaje modelem najlepiej opisu­jącym dane. Chcemy zrozumieć dlaczego tak się dzieje, że modele alternatywne przegrywają konkurencję z SMK. Twierdzimy, że dochodzi do tego, bo mo­del ACDM jest najprostszy, strukturalnie stabilny i ma własność elastycznego wkomponowywania się w dane.

Być może z punktu widzenia klasycznej filozofii nauki, bazującej na meto­dologii popperowskiej, sytuacja wydaje się zadowalająca, a przez to nazwiemy SMK hipotezą dobrze skoroborowaną, która wytrzymuje próby wyrafinowanej falsyfikacji wśród wielości propozycji alternatywnych. Także w kontekście po­dejścia Kuhna istnieje pokusa, by uznać ten sukces standardowego modelu ko­smologicznego za wyznacznik tzw. stanu normalnego w nauce.

Stan, w jakim jest kosmologia współczesna przypomina stan badań nad mo­delem standardowym cząstek elementarnych w latach 70. XX wieku. Podobnie jak dziś SMK, tak wtedy SMCE był w wysokim stopniu potwierdzony empirycz­nie, chociaż bez odpowiedzi pozostawał szereg pytań natury fundamentalnej, na przykład: jaka jest geneza masy? Dzisiaj z kolei model ACDM nie daje odpowie­dzi na pytania: czym jest ciemna energia?, jakie cząstki są składnikami ciemnej materii?, jaki jest model bardzo wczesnego Wszechświata? Są jednak podstawy, aby traktować aktualną sytuację w kosmologii współczesnej jako niekomfortową zarówno z metodologicznego, jak i filozoficznego punktu widzenia. Analizy zawarte w książce będą po pierwsze obejmowały tę paradoksalną sytuację suk­cesu i problemów w modelowaniu kosmologicznym (na przykład problemu de­generacji), po drugie staną się wskazaniem, jak z tymi problemami radzi sobie metodologiczna ciągła rewizja SMK.

Przedmiotem analiz w rozprawie będzie standardowy model kosmologicz­ny. Podstawę teoretyczną dla budowy SMK tworzą: ogólna teoria względności, standardowy model cząstek elementarnych (SMCE) oraz hipoteza inflacyjna. Spróbujemy udzielić odpowiedzi na kilka pytań: jaka jest relacja modelu do teorii?, jaka jest relacja modelu do rzeczywistości?, w jaki sposób mogę badać model kosmologiczny z punktu widzenia filozofii i metodologii nauki? Standar­dowy model kosmologiczny może pełnić w kosmologii rolę paradygmatu, który jest podstawą programu badawczego w sensie Imre Lakatosa.

Stawiam tezę, że filozofia i metodologia nauki zawiera narzędzia, które są adekwatne do studium tego, czym jest i jakie funkcje pełni standardowy model kosmologiczny. Narzędzi tych dostarcza w ogólności debata między realizmem a antyrealizmem naukowym, która wypracowała: 1) koncepcję autonomicznych modeli naukowych pośredniczących między teorią a światem zjawisk, 2) pojęcie teorii efektywnej dostarczającej funkcjonalnego wyjaśniania bez wnikania w na­turę fizycznych komponentów rzeczywistości i wreszcie 3) taką koncepcję praw fenomenologicznych, które pozwalają obronić stanowisko połowicznego realizmu w kontekście kosmologii.

Wielość i różnorodność modeli kosmologicznych oraz porównywalny stopnień ich zgodności z danymi empirycznymi rodzą problem niedookreślenia modelu przez dane empiryczne (undetermination of empirical evidence). Z epistemologicznego punktu widzenia istotne są zatem pytania o to, który model jest naj­lepszy z punktu widzenia danych empirycznych. Standardowy model kosmolo­giczny jest maszyną nomologiczną w rozumieniu Nancy Cartwright, pełni funk­cje eksplanacyjne jako wyjaśnianie fenomenologiczne, płytkie (w zdefiniowanym w książce sensie), a pod względem operacyjnym pozostaje mocnym wyjaśnie­niem. Metody bayesowskie są w kosmologii obserwacyjnej stosowane jako narzę­dzie pozwalające porównywać SMK z modelami z nim rywalizującymi z punktu widzenia ich zgodności z danymi. Pozwalają rozwiązać problem niedookreślenia modelu przez dane empiryczne na gruncie zdefiniowanej równoważności empi­rycznej modelu według Basa van Fraassena.

Książkę podzielono w następujący sposób. W rozdziale pierwszym przed­stawiono charakterystykę kosmologii współczesnej, która jest nazwana nauką specyficzną (swoistą metodologicznie). Ponadto wskazano elementy tej swoisto­ści w porównaniu z innymi typami nauk. Analizy przedstawione w rozdziale stanowią także potwierdzenie tezy, że kosmologia jest nauką z natury interdy­scyplinarną.

Rozdział drugi poświęcony został prezentacji modeli naukowych z punktu widzenia ich różnorodności w budowie i funkcjach. Na tym tle ukazano modele kosmologiczne. Rozdział kolejny stanowi przedstawienie standardowego mode­lu kosmologicznego, jego elementów oraz cech szczególnych, odróżniających go od innych modeli kosmologicznych. Rozdział czwarty i piąty stanowią anali­zę odpowiednio ontologicznych i epistemologicznych implikacji SMK. W części ontologicznej odwołujemy się do koncepcji, które traktują modele naukowe ja­ko autonomiczne wobec teorii i pośredniczące między nią a światem zjawisk fizycznych. Próbujemy też obronić interpretację SMK w kategoriach połowicz­nego realizmu naukowego, a przede wszystkim pokazujemy, że model ten jest maszyną nomologiczną w rozumieniu Cartwright. Dokonujemy również krytyki stanowiska model-dependent realism zaproponowanego przez Stephena Hawkinga i Leonarda Mlodinowa.

Elementy epistemologiczne w SMK zostaną zaprezentowane jako wnioski ze studium przypadków emergencji idei Wszechświata dynamicznego i akcelerującego zrekonstruowanych na poziomie metodologicznym przy użyciu narzędzi pojęciowych filozofii nauki Cartwright. Wszechświat poznawany jest w kosmolo­gii przez SMK, będący teorią efektywną, zbudowaną na OTW, ale posiadającą niezależność od teorii w sensie operacyjnym. SMK pośredniczy między teorią a Wszechświatem.

Rozdziały szósty i siódmy są rozszerzeniem analizy epistemologicznych funk­cji SMK – eksplanacyjnej i pragmatycznej. Celem pierwszego z nich jest wska­zanie na to, jaki typ wyjaśniania uzyskujemy przy pomocy standardowego mo­delu kosmologicznego. Ostatni rozdział monografii stanowi próbę rekonstrukcji kosmologii współczesnej w kategoriach metodologii bayesowskiej, którą odróż­niamy i separujemy od filozofii bayesianizmu. Metody statystyki współczesnej pozwalają ocenić, jaki model okazuje się lepszy z punktu widzenia przesłanek empirycznych. W oparciu o obecne dane astronomiczne nie jesteśmy w stanie rozstrzygnąć, czy efekty ciemnej energii są związane z istnieniem nieznanej sub­stancji, cząstek czy też stanowią wynik modyfikacji teorii grawitacji. W kosmo­logii stosujemy warunkowanie bayesowskie i poprawiamy wartości estymowanych parametrów w oparciu o nowe obserwacje, co pozwala wyróżnić SMK jako w najlepszym stopniu zgodny z danymi. Jest to zatem model, który w najbar­dziej ekonomiczny sposób (minimalna liczba parametrów) opisuje obserwowalny Wszechświat.

Chciałbym wyrazić moją wdzięczność prof. Adamowi Krawcowi za uwagi dotyczące części merytorycznej tekstu książki oraz bardzo pomocne sugestie dotyczące niektórych aspektów składu tekstu w formacie LTEjK. Jestem także bardzo wdzięczny panu prof. Adamowi Jonkiszowi za wnikliwą recenzję wy­dawniczą, która przyczyniła się do bardziej klarownego wyrażenia głównych tez monografii. W sposób szczególny dziękuję śp. prof. Markowi Szydłowskie­mu, mojemu nauczycielowi, promotorowi pracy doktorskiej i przyjacielowi za wprowadzenie mnie w fascynujący świat kosmologii, zarażenie pasją poznawa­nia otaczającej nas rzeczywistości i radością z dzielenia się jej owocami. Jemu tę książkę dedykuję.

Literatura

  • Alpher, G. Gamow, and R. Herman, Thermal Cosmic Radiation and the Formation of Protogalaxies, Proceedings of the National Academy of Sciences of the United States of America, 58 (1967), pp. 2179-2186.
  • A. Alpher, H. A. Bethe, and G. Gamow, The Origin of Chemical Elements, Physical Review, 73 (1948), pp. 803-804.
  • M. Bailer-Jones, Scientific Models in Philosophy of Science, University of Pittsburgh Press, Pittsburgh, 2009.
  • Carter and W. H. McCrea, The Anthropic Principle and its Implications for Biological Evolution, Philosophical Transactions of the Royal Society of London. Series A. Mathematical and Physical Sciences, 310 (1983), pp. 347-363.
  • F. R. Ellis and T. Buchert, The universe seen at different scales, Physics Letters A, 347 (2005), pp. 38-46.
  • Frank and P. Shorr, The Mechanical versus the Mathematical Conception of Nature, Philosophy of Science, 4 (1937), pp. 41-74.
  • Frigg and S. Hartmann, Models in Science, in The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., Metaphysics Research Lab, Stanford University, spring 2020 ed., 2020.
  • Gamow, Concerning the Origin of Chemical Elements, Journal of the Washington Academy of Science, 32 (1942), p. 353.
  • Gamow, Expanding Universe and the Origin of Elements, Physical Review, 70 (1946), pp. 572-573.
  • Gamow, The Physics of the Expanding Universe, Vistas in Astronomy, 2 (1956), pp. 1726-1732.
  • Gerlee and T. Lundh, Scientific Models. Red Atoms, White Lies and Black Boxes in a Yellow Book, Cham Springer International Publishing, Cham, 2016.
  • Gospodarek, Modelowanie w naukach o zarządzaniu oparte na me­todzie programów badawczych i formalizmie reprezentatywnym, Monografie i Opracowania, nr 187, Wydawnictwo Uniwersytetu Ekonomicznego, Wro­cław, 2009.
  • Hajduk, Pojęcie i funkcja modelu, Roczniki Filozoficzne, 20 (1972), pp. 77-124.
  • G. Hempel, Aspects of Scientific Explanation, The Free Press, New York, 1965.
  • Kitcher, The Advancement of Science, Oxford University Press, New York, 1993.
  • Kragh, Conceptions of Cosmos: From Myths to the Accelerating Universe: A History of Cosmology, Oxford University Press, New York, 2007.
  • S. Kuhn, The Structure of Scientific Revolutions, University of Chicago Press, Chicago, 1962.
  • Lemaitre, Un Univers homogene de masse constante et de rayon croissant rendant compte de la vitesse radiale des nebuleuses extra-galactiques, Annales de la Societe Scientifique de Bruxelles, A47 (1927), p. 49-59.
  • Lemaitre, Republication of: The beginning of the world from the point of view of quantum theory, General Relativity and Gravitation, 43 (2011), pp. 2929-2930.
  • D. Linde, Chaotic inflation, Physical Letters B, 129 (1983), pp. 177­181.
  • Morrison and M. S. Morgan, Models as mediating instruments, in Models as Mediators. Perspectives on Natural and Social Science, M. S. Morgan and M. Morrison, eds., Cambridge University Press, Cambridge, 1999, pp. 10-37.
  • A. Penzias and R. W. Wilson, A Measurement of Excess Antenna Temperature at 4080 mc/s, Astrophysical Journal, 142 (1965), pp. 419-421.
  • Rubin and W. Kent Ford, Rotation of the Andromeda Nebula from a Spectroscopic Survey of Emission Regions, Astrophysical Journal, 159 (1970), pp. 379-403.
  • C. Salmon, The Appraisal of Theories: Kuhn Meets Bayes, in PSA: Proceedings of the Biennial Meeting of the Philosophy of Science Association, 1990, pp. 325-332.
  • Scriven, The Key Property of Physical Laws Inaccuracy, in Current Numbers in the Philosophy of Science – Proceedings of Section L of the American Association for the Advancement of Sciences, H. Feigl and G. Maxwell, eds., Holt Rinehart and Winston, New York, 1961.
  • V. Wagoner, W. A. Fowler, and F. Hoyle, Nucleosynthesis in the Early Stages of an Expanding Universe, Science, 152 (1966), p. 667.

 

[1]        Za przełomowe odkrycie w tym kontekście uważa się rezultat misji satelity COBE (Cosmic Background Explorer) wysłanego w celu zbadania temperatury mikrofalowego promieniowania tła. Anizotropię promieniowania badał satelita WMAP (Wilkinson Microwave Anisotropy Probe).

[2] Strony www trzech wiodących projektów obserwacyjno-badawczych kosmologii współ­czesnej to odpowiednio: COBE: https://lambda.gsfc.nasa.gov/product/cobe/; WMAP: https://map.gsfc.nasa.gov; Planck: http://planck.caltech.edu

[3] Obserwacje przyśpieszającej ekspansji Wszechświata zostały nagrodzone nagrodą Nobla, którą otrzymali: Saul Perlmutter (The Supernova Cosmology Project, Lawrence Berkeley National Laboratory and University of California,), Brian P. Schmidt (The High-Z Super- nova Search Team, Australian National University) i Adam G. Riess (The High-z Super- nova Search Team, Johns Hopkins University and Space Telescope Science Institute). Por. https://www.nobelprize.org/prizes/physics/2011

[4] Jest to nazwa modelu SMK wskazująca na jego główne składowe.

[/tab]
[/tabs]

Andrzej Zykubek
Zapraszam na

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.