VIII Polski Zjazd Filozoficzny

Obrady Sekcji Filozofii Przyrody

Program wystąpień i streszczenia referatów wygłoszonych podczas obrad Sekcji Filozofii Przyrody podczas VIII Polskiego Zjazdu Filozoficznego. Warszawa 2008

  • Przewodniczący: prof. Krzysztof Łastowski
  • Sekretarz: mgr Magdalena Reuter

[tabs]
[tab title=”Wtorek, 16 września 2008″]

Sala nr IX

Ścieżka ogólnofilozoficzna

Godz. Prelegent Tytuł referatu
Sesja przedpołudniowa
11.00-11.40 Adam Świeżyński Kategoria początku w kosmologicznych modelach genezy Wszechświata
11.40-12.20 Andrzej Łukasik Ewolucja pojęcia atomu
12.20-12.40 Przerwa
12.40-13.20 Krzysztof Kościuszko Mikołaj Kopernik a problem geometryzacji fizyki (kosmologii)
13.20-14.00 Anna Lemańska Przestrzeń jako rzeczywistość obiektywno-subiektywna
Sesja popołudniowa
15.30-16.10 Krzysztof Łastowski Miejsce człowieka we współczesnej filozofii przyrody
16.10-16.50 Piotr Bylica O zmienności relacji między naukami przyrodniczymi a religią
16.50-17.30 Adam Barcikowski Unifikacja procesów a różnicowanie struktur ewolucji biologicznej

[/tab]
[tab title=”Środa, 17 września 2008″]

Sala nr IX

Ścieżka ogólnofilozoficzna

Godz. Prelegent Tytuł referatu
Sesja przedpołudniowa
11.00-11.40 JózefTurek Możliwość filozoficznych wyjaśnień faktów naukowych
11.40-12.20 Dariusz Sagan Filtr eksplanacyjny: wykrywanie projektu na gruncie nauk przyrodniczych
12.20-12.40 Przerwa
12.40-13.20 Sławomir Leciejewski Specyfika wspomaganych komputerowo badań eksperymentalnych w naukach przyrodniczych
13.20-14.00 Radosław Kazibut Specyfika praktyki badawczej współczesnych nauk laboratoryjnych a zasada intersubiektywnej powtarzalności warunków i wyników eksperymentów
Sesja popołudniowa
15.30-16.10 Maria Weker Komputacyjny obraz świata
16.10-16.50 Józef Zon Umysł i świadomość — wielopoziomowe ich uwarunkowania
16.50-17.30 Zbigniew Wróblewski Natura — cele naturalne — wartości i normy. Analiza argumentu teleologicznego w ujęciu praktycznej filozofii przyrody

[/tab]
[tab title=”Czwartek, 18 września 2008″]

Sala nr IX

Ścieżka fizykalno-kosmologiczna

Godz. Prelegent Tytuł referatu
Sesja przedpołudniowa
11.00-11.40 Dariusz Dąbek Czynnik empiryczny w kosmologiach globalnych
11.40-12.20 Jarosław Kukowski Maxa Plancka ontologiczne dylematy wokół kwantowo-falowej natury zjawisk elektromagnetycznych
12.20-12.40 Przerwa
12.40-13.20 Marek Szydłowski & Paweł Tambor Efektywne modele Wszechświata — case study modelu LambdaCDM
13.20-14.00 Jacek Golbiak Kwantowa emergencja Wszechświata
Sesja popołudniowa
15.30-16.10 Kazimierz Turzyniecki Nowe wyjaśnienie poczerwienienia widma światła galaktyk
16.10-16.50 Piotr Lipski O demokratycznych modelach branching-time (BT)
16.50-17.30 Jacek Wawer Niektóre własności demokratycznych modeli branching space-time (BST)

[/tab]
[tab title=”Piątek, 19 września 2008″]

Sala nr IX

Ścieżka biologiczno-przyrodoznawcza

Godz. Prelegent Tytuł referatu
Sesja przedpołudniowa
11.00-11.40 Paweł Zeidler Metafory i ich funkcje w naukach przyrodniczych
11.40-12.20 Danuta Ługowska O istocie życia
12.20-12.40 Przerwa
12.40-13.20 Tomasz Rzepiński Modele w medycynie
13.20-14.00 Anna Marek-Bieniasz Genocentryczny paradygmat rozumienia przyrody i jego zasadność w R. Dawkinsa interpretacji ewolucji
Sesja popołudniowa
15.30-16.10 Leszek Pyra Holistyczna filozofia środowiskowa: J. Muir, A. Leopold, J. B. Callicot
16.10-16.50 Jerzy Warczewski Autonomia nauki (fizyki) i religii (wiary). Czym jest fizyka?
16.50-17.30 Marcin Grzegorz Goc Podejście systemowe w polskiej biologii

 

[/tab]
[/tabs]

 

Streszczenia referatów

[accordion]
[toggle title=”Adam Barcikowski, Unifikacja procesów a różnicowanie struktur ewolucji biologicznej”]

Wspólnymi cechami wszystkich organizmów powstałych na drodze ewolucji jest metabolizm (pobieranie składników z otoczenia, przekształcanie ich w energię i usuwanie produktów przemiany materii) oraz umiejętność reprodukcji; w efekcie mają podobną biochemię i wykorzystują niemal jednakowy kod genetyczny. Prowadzi to do podstawowej jedności w ich budowie i funkcjonowaniu. Natomiast konieczność przystosowania do zmieniającego się środowiska jest przyczyną olbrzymiego zróżnicowania cech strukturalnych i strategii życiowych. Próba opisania i wyjaśnienia procesów ewolucji i jego efektów podzieliła nauki biologiczne na szereg dyscyplin, od biochemii i biofizyki, poprzez genetykę, taksonomię, ekologię i wiele innych dyscyplin, do astrobiologii włącznie. Dyscypliny te różnicuje podejście do zagadnienia jedności funkcji i bogactwa odmienności struktur. Chociaż oba sposoby widzenia są komplementarne, to próby ich łączenia nierzadko wywołują emocje. Referat jest próbą przedstawienia wybranych koncepcji łączących jedność i różnorodność życia, które nie są sprzeczne z poglądami Darwina, a swoim uniwersalizmem wykraczają poza teorię ewolucji. Wśród prezentowanych koncepcji szczególne znaczenie mają metodologiczna oraz uproszczona fizykalna interpretacja procesu ewolucji. Wymienione podejścia prezentują szersze ujęcie, czyli zasady, które nie tylko interpretują darwinowską koncepcję ewolucji gatunku, ale każdą zmianę o podłożu adaptacyjnym, na przykład zmiany w ontogenezie czy zmiany w procesie sukcesji ekologicznej.

[/toggle]
[toggle title=”Piotr Bylica, O zmienności relacji między naukami przyrodniczymi a religią”]

W wystąpieniu dokonam historycznej analizy relacji między naukami przyrodniczymi i religią (teizmem chrześcijańskim). Zamierzam wykazać zasadniczą różnicę między założeniami wynikającymi z wpływu doktryny religijnej, kryjącymi się w koncepcji nauki, jak i przedmiotu badań nauk przyrodniczych, akceptowanymi przez pionierów rewolucji naukowej, a założeniami, które przyjmuje się we współczesnym rozumieniu nauki. W pierwszym ujęciu doktryna o stworzeniu świata i człowieka przez Boga uzasadniać miała przekonanie o porządku panującym w przyrodzie; możliwość odkrywania praw natury i matematyczne ich wyrażenie uznawano za świadectwo na rzecz podobieństwa umysłu ludzkiego z boskim; istnienie praw przyrody wiązano z istnieniem Prawodawcy itp. Według autora Matematycznych zasad filozofii naturalnej częścią filozofii naturalnej miałyby być dyskusje nad takimi sprawami, jak atrybuty Boga czy Jego relacja ze światem fizycznym. W ujęciu współczesnym na mocy zasady naturalizmu metodologicznego przyjmuje się, że nauki przyrodnicze ograniczają zakres swoich badań jedynie do obiektów i zjawisk przyrodniczych oraz że wyjaśnienia naukowe nie mogą odwoływać się do czynników nadprzyrodzonych. Można wskazać też na silne związki naturalizmu metodologicznego z metafizycznym.

Przeprowadzone analizy wskazują na: (1) nieadekwatność tezy J. W. Dra- pera i A. D. Whitea o wynikającym z natury tych dwóch dziedzin konflikcie między nauką i religią; (2) zmienność linii demarkacyjnej między naukami przyrodniczymi a religią, w tym sposobu rozumienia przez uczonych ontologicznego statusu przedmiotu ich badań; (3) opozycyjność religijnego i naukowego ujęcia rzeczywistości we współczesnej kulturze Zachodu.

[/toggle]
[toggle title=”Dariusz Dąbek, Czynnik empiryczny w kosmologiach globalnych”]

W filozoficznej refleksji nad uprawianiem nauki dyskutowana jest rola czynnika empirycznego i teoretycznego. W dyscyplinach pretendujących do budowania globalnego obrazu rzeczywistości fizycznej czynnik teoretyczny wydaje się tak mocno dominować, że panuje przekonanie o możliwości konstruowania obrazów całkowicie pomijających dane obserwacyjne. Bezpośrednie jednak analizy tych dyscyplin, głównie kosmologii, pokazują, że przekonanie takie nie jest słuszne.

Celem referatu będzie potwierdzenie tej tezy w oparciu o materiał historyczny dotyczący tworzenia kosmologii dedukcyjnej Przeprowadzone w tym względzie analizy pokazują, że w przypadku np. teorii Milnea, która obok teorii stanu stacjonarnego jest najczęściej przytaczanym przykładem tego typu kosmologii, czynnik empiryczny odgrywał bardzo istotną rolę.

Badania nad kontekstem odkrycia kinematycznej teorii względności pokazują, że to dane empiryczne (ucieczka galaktyk i prawo Hubblea) skłoniły jej autora do podjęcia kosmologicznego problemu ekspansji Wszechświata i miały decydujący wpływ na sformułowanie podstawowych hipotez: jednostajnych prędkości cząstek fundamentalnych, zasady kosmologicznej i transformacji Lorentza. Również w procedurze testowania teoretycznych modeli kosmologicznych decydującą rolę odgrywa czynnik empiryczny, gdyż ostatecznym kryterium wyboru są dane obserwacyjne.

Przeprowadzone analizy pokazują, że Milne doceniał wartość czynnika empirycznego zarówno w początkowej fazie konstruowania teorii (formułowanie hipotez), jak również na jej etapie końcowym (testowanie, weryfikacja). Na tej podstawie wyraźnie widać, że choć wybrał hipotetyczno-dedukcyjną metodę konstruowania kosmologii, a także bardzo podkreślał swój racjonalizm i wyraźnie deklarował antyindukcjonizm, to jednak swoją teorię budował w ścisłej łączności z danymi empirycznymi i wynikami badań faktycznie uprawianej ówcześnie nauki.

Przypadek ten pokazuje doniosłość tzw. uhistorycznionej filozofii nauki, w której konkretne wydarzenia z dziejów nauki pozwalają na sformułowanie bardziej adekwatnych tez odnośnie do jej rozwoju i faktycznego funkcjonowania.

[/toggle]
[toggle title=”Marcin Grzegorz Goc, Podejście systemowe w polskiej biologii”]

W Polsce początki teorii systemów wiążą się z osobą Joachima Metallmanna (1889-1942), żyjącego współcześnie z L. von Bertalanffym, autorem Ogólnej teorii systemów. Metallmann odnosił się do niej w swej pracy pt. Determinizm nauk przyrodniczych. Krytykuje w niej doszukiwanie się wszędzie przyczynowości mechanistycznej, bezrefleksyjne posługiwanie się metodą redukcyjną oraz epistemologiczny strach przed pomnażaniem bytów, wszechobecny w filozofii przyrody. Zdaniem autora, w świecie przyrody możliwe jest pogodzenie praw deterministycznych z emergencją układów żywych. Teoria systemów w jego zamyśle ma być alternatywą dla mechanicyzmu i witalizmu. Korzystając z walorów obydwu konkurencyjnych podejść, chce uniknąć odwoływania się do nadprzyrodzonych sił, a jednocześnie stworzyć teorię adekwatną empirycznie. Metallmann postuluje złagodzenie absolutystycznych, unifikujących zapędów mechanicyzmu i uznanie organizmów żywych za odrębny fenomen, któremu winna przysługiwać właściwa metoda badawcza.

Po okresie ustalania metodologicznych ram teorii systemowej przechodzi ona w stadium systematycznego rozwoju i poszerzania zakresu zjawisk, które chce ujmować. Poglądy Teresy Ścibor-Rylskiej zawarte w jej pracy pt. Problemy życia i organizacji stanowią przykład próby opracowania biologicznej teorii systemów, możliwie jak najbardziej uniwersalnej. W idei systemowego traktowania organizmów żywych, zauważa sposobność uchwycenia istotowego charakteru życia, jego cech i własności nierejestrowanych w innych perspektywach badawczych. Tak jak w humanistyce, w ujęciu Ścibor-Rylskiej życie należy zrozumieć, a nie tylko wyjaśnić zasady jego funkcjonowania. Jej zamiarem było stworzenie uniwersalnego stricte biologicznego systemu wyjaśniającego, badającego hierarchiczną budowę świata, w której organizmy żywe, jako najbardziej skomplikowane, zajmują najwyższe wyróżnione miejsce w uniwersum, z człowiekiem na szczycie tej piramidy.

Lata osiemdziesiąte to okres osłabienia pretensji poznawczych paradygmatu systemowego, w którym następuje odejście od wątków ogólnych i spekulatywnych w kierunku rozważań bardziej szczegółowych. Stan ten trwa do końca XX wieku; obrazują to poglądy Władysława Kunickiego-Goldfingera, dotyczące biopoezy.

Współcześnie myślenie systemowe w biologii jest podstawowym paradygmatem. Całe zaplecze metodologiczne, aparatura pojęciowa i sposób myślenia o obiekcie badań wywodzące się wprost z teorii systemów są z powodzeniem stosowane od genetyki po ekologię.

[/toggle]
[toggle title=”Jacek Golbiak, Kwantowa emergencją Wszechświata”]

W referacie omawiany jest ontologiczny status modeli kwantowej kosmogenezy Wszechświata. Poszczególne modele ilustrują różne kwantowe mechanizmy, które prowadzą do powstania Wszechświata klasycznego rządzonego przez einsteinowskie równania grawitacji. Omówione są najbardziej znane modele, takie jak:

  • model Hawkinga-Hartlea funkcji falowej dla Wszechświata;
  • model Vilenkina powstania Wszechświata w wyniku efektu tunelowego;
  • koncepcja Ambjorna-Loll-Jurkiewicza kauzalnej dynamicznej trangulacji — teoria CDT.

Właściwą kategorią opisującą naturę mechanizmów kwantowej kosmogenezy jest tzw. emergencją silna (ontologiczna). Zasadniczą tezą referatu jest wskazanie na to, iż najbardziej fundamentalnym poziomem emergencji jest pojęcie czasoprzestrzeni, co w konsekwencji prowadzi do wniosku, że nie jest możliwa emergencją Wszechświata ex nihilo.

W prezentacji omawiana jest również emergencją teorii Hawkinga-Hartle’a z bardziej fundamentalnej teorii CDT. W tym wypadku mamy do czynienia z emergencją słabą (epistemologiczną), charakterystyczną dla współczesnych dyskusji naukowych. Niezwykła żywotność idei emergencji w fizyce współczesnej ukazana jest również na przykładzie tzw. pętlowej teorii grawitacji (loop quantum gravity), mianowicie mechanizmu emergencji czasu w z pola skalarnego.

[/toggle]
[toggle title=”Radosław Kazibut, Specyfika praktyki badawczej współczesnych nauk laboratoryjnych a zasada intersubiektywnej powtarzalności warunkowi wyników eksperymentów”]

Praktyka badawcza współczesnych nauk laboratoryjnych jest złożoną strukturą działań o charakterze teoretycznym oraz procedur określonych przez szeroko rozumiane zasady sztuki badań eksperymentalnych. Przykładem nauk laboratoryjnych jest współczesna chemia, której paradygmat ukonstytuowany został w ten sposób, iż dyscyplina ta wyróżnia się swoistym stylem prowadzenia prac laboratoryjno-eksperymentalnych. Specyfika ta wynika z tego, iż chemicy używają dwóch komplementarnych narzędzi poznawczych: syntezy i analizy. W przekonaniu wielu filozofów chemii o specyfice tej decyduje przede wszystkim to, iż głównym zadaniem chemików jest wytwarzanie nowych jakościowo związków, które nie występują w naturalny sposób w przyrodzie. Badania analityczne o charakterze ilościowym podążają „o krok” za badaniami ukierunkowanymi na syntetyzowanie nowych związków chemicznych, które zostaną wykorzystane np. w farmacji.

„Dogmatem” nowożytnego paradygmatu poznania naukowego jest dyrektywa intersubiektywnej sprawdzalności wyników eksperymentów, w skład której wchodzi zasada intersubiektywnej powtarzalności warunków i wyników eksperymentów. Peter Plesch zwraca uwagę, iż analizując rzeczywistą praktykę badawczą chemii możemy dokonać dychotomicznego rozróżnienia na powtarzalność i odtwarzalność warunków oraz wyników eksperymentów. Zgodnie z ideą tego podziału „powtórzenie” eksperymentu jest procedurą skoncentrowaną na wydobyciu jakościowego aspektu badanego zjawiska; natomiast „odtworzenie” warunków i wyników eksperymentu — skupione jest na aspekcie ilościowym.

Jeżeli istotą praktyki badawczej chemii jest kreowanie nowych jakościowo związków chemicznych, można przyjąć, iż procedury o charakterze pomiarowym, których celem jest określenie ilościowej charakterystyki syntetyzowanego związku, nie decydują o specyfice tych badań. Ponadto analizy pracy laboratoryjnej chemików dostarczają wielu przykładów badań, w których zadaniem niemożliwym do zrealizowania było odtwarzanie warunków, w jakich przebiegła opracowana synteza. Z tej perspektywy można postawić tezę, iż zasada intersubiektywnej powtarzalności i odtwarzalności powinna być odpowiednio zmodyfikowana — tak, aby dyrektywa ta nie pozostawała w sprzeczności ze sztuką badań eksperymentalnych.

[/toggle]
[toggle title=”Krzysztof Kościuszko, Mikołaj Kopernik a problem geometryzacji fizyki (kosmologii)”]

W referacie pokazuję, że nie tylko Platon i Kartezjusz geometryzowali fizykę. Także Kopernik wyprowadzał fizyczne własności substancji materialnej z jej właściwości geometrycznych, wyprowadzał charakter wzajemnych oddziaływań między zjawiskami fizycznymi z topologicznych własności przestrzeni i brył w niej zawartych — i jako taki jawi nam się jako prekursor zarówno teorii Einsteinowskich (Einstein jak wiadomo zredukował grawitację do zakrzywienia czasoprzestrzeni), jak i geometrodynamiki Wheelera.

Z drugiej strony nie popadł w jednostronność geometryzowania fizyki, przypisał bowiem taki sam status ontologiczny zarówno materii, jak i przestrzeni: przestrzeń może (w pewnych kontekstach) strukturować materię, ale i materia może (w pewnych kontekstach) strukturować przestrzeń.

[/toggle]
[toggle title=”Jarosław Kurowski, Maxa Plancka ontologiczne dylematy wokół kwantowo-falowej natury zjawisk elektromagnetycznych”]

W latach 1915-1933 M. Planck oceniał stan ówczesnej fizyki w dość dramatycznych słowach. Z jednej strony kwant działania (stała h) pozwalał na rozwiązywanie kolejnych ciekawych zagadnień; z drugiej — był nie do pogodzenia z teoriami klasycznymi: mechaniką Newtona i elektromagnetyzmem Maxwella. Nadal pozostawało niejasne, co dzieje się z energią kwantu świetlnego po dokonanej emisji. Czy podczas dalszego ruchu rozchodzi się ona w duchu teorii falowej Huygensa, zajmując coraz większą przestrzeń wraz z nieskończenie postępującym rozrzedzaniem się (zgodnie z przewidywaniami teorii Maxwella)? Czy też nie rozchodzi się całkowicie równomiernie we wszystkich kierunkach, w postępującym bez końca rozrzedzaniu się, lecz zawsze pozostaje skoncentrowana w pewnych określonych, zależnych tylko od barwy kwantach rozbiegaj ących się we wszystkie strony z prędkością światła? Planck nie mógł pojąć, dlaczego w pierwszym przypadku kwant światła miałby ponownie skoncentrować swoją energię w jednym miejscu przestrzeni, tak by móc uwolnić elektron z wiązania atomowego, a w drugim przypadku — dlaczego mielibyśmy zrezygnować z teorii Maxwella (głównym jej tryumfem było poprawne opisanie ciągłości między polem statycznym i dynamicznym oraz pełne zrozumienie zjawisk interferencyjnych), która w żaden sposób nie jest podatna na włączenie nowej stałej fizycznej h.

Rozważanie tego dylematu zrodziło w nim intuicję, że każdy ruch korpuskularny ma w sobie coś z ruchu falowego, a każdy ruch falowy coś z ruchu korpuskularnego, i że w takim modelu heurystycznym należałoby szukać teorii dającej rozwiązania dla przypadku ogólnego.

Epistemologiczna teza N. Bohra o komplementarności opisów prowadząca do tzw. dualizmu korpuskularno-falowego jest raczej zamrożeniem dyskusji tego problemu niż jego rozwiązaniem. Referat rozważa kwestię, czy po stu latach rozwoju fizyki mamy nowe przesłanki usprawiedliwiające powrót do pytania o zagadkową naturę kwantów światła.

[/toggle]
[toggle title=”Sławomir Leciejewski, Specyfika wspomaganych komputerowo badań eksperymentalnych w naukach przyrodniczych”]

Zastosowanie komputera w laboratoryjnych układach badawczych prowadzi na ogół do znacznego zwiększenia możliwości pomiarowych. Komputer pozwala na prowadzenie pomiarów w sposób nieprzerwany przez długi czas, analizę dowolnej liczby danych doświadczalnych napływających z dużą szybkością i jednocześnie kontrolę wielu urządzeń laboratoryjnych. Dane wprowadzone do pamięci komputera poddawać można dowolnemu przetwarzaniu, między innymi cyfrowej redukcji szumów, filtracji czy uśrednianiu. Ułatwiony jest proces znajdowania widma sygnału, dopasowania rezultatów pomiarowych do przewidywań teoretycznych, analizy statystycznej. Analizę danych doświadczalnych można przeprowadzić w trakcie pomiaru i na bieżąco wpływać na warunki doświadczenia.

W przypadku eksperymentu wykorzystującego współczesne techniki informatyczne mamy do czynienia z trzema wzajemnie na siebie oddziałującymi czynnikami: eksperymentatorem (P), projektującym eksperyment i interpretującym jego wyniki; badanym obiektem (O), tj. przedmiotem badań doświadczalnych; tym, co pośredniczy pomiędzy P i O, tj. z systemem automatyzacji badań doświadczalnych (abd), którego częścią może być tzw. komputerowe wspomaganie badań doświadczalnych (kwbd).

W swoim referacie omówię specyfikę współczesnego sposobu eksperymentowania, która wynika z coraz powszechniejszego stosowania technik informatycznych. Wpływa ono na zmianę relacji pomiędzy podmiotem eksperymentu (P) a jego przedmiotem (O), co wywiera wpływ na wyniki badań przeprowadzanych z użyciem komputerów.

W referacie spróbuję odpowiedzieć na następujące pytania: Czy zastosowanie komputerowego wspomagania badań doświadczalnych wprowadza do eksperymentów tylko niepodlegające dyskusji zmiany ilościowe, czy także mamy tu do czynienia ze mianami jakościowymi? Czy interpretacja wyników eksperymentów z kwbd różni się od interpretacji wyników klasycznych badań empirycznych? Czy zastosowanie metod numerycznych wprowadza inny rodzaj uzasadniania hipotez naukowych (uzasadnianie numeryczne)? Czy zatem status eksperymentatora w naukach empirycznych zmienia się w sposób jakościowy w przypadku, gdy eksperyment czy teoretyczne badanie naukowe jest wspomagane przez współczesne techniki informatyczne?

[/toggle]
[toggle title=”Anna Lemańska, Przestrzeń jako rzeczywistość obiektywno-subiektywna”]

Jedną z podstawowych kategorii badanych w filozofii przyrody jest przestrzeń. Przedmioty materialne są bowiem przez człowieka postrzegane jako posiadające trzy wymiary, a rozpoznawanie wzajemnego położenia ciał jest istotne dla przeżycia człowieka jako gatunku. Z jednej strony zatem przestrzeń jest czymś naturalnym, zrośniętym z doświadczaniem przez człowieka otaczającego go świata. Z drugiej strony odpowiedź na pytanie o naturę przestrzeni nie jest łatwa i ciągle poszukuje się adekwatnego ujęcia tego, czym jest przestrzeń.

Przestrzeń jest jednym z przedmiotów badania matematyki, fizyki i kosmologii. Trzeba jednak pamiętać, że geometria może dostarczać odpowiedzi tylko na pytania o własności przestrzeni i obiektów geometrycznych w niej zawartych. Również fizyka i kosmologia, tworząca modele kosmologiczne, jak na razie, nie rozstrzygają problemów dotyczących natury przestrzeni.

W filozofii w ciągu wieków wypracowano wiele koncepcji przestrzeni. Koncepcje te można różnie klasyfikować, ale każda z nich budzi rozmaite wątpliwości. W referacie chcę wskazać dwie kwestie, które należy uwzględniać przy tworzeniu koncepcji przestrzeni. Pierwsza dotyczy tego, że warto odróżniać pojęcie przestrzeni od przestrzeni rozumianej jako przyczyna takiego, a nie innego spostrzegania świata otaczającego człowieka. Druga kwestia jest związana z wykorzystywaniem geometrii i nauk przyrodniczych przy tworzeniu koncepcji przestrzeni. Trzeba pamiętać, że własności, które w tych naukach są przypisywane przestrzeni, odnoszą się przede wszystkim do pojęcia przestrzeni jako naszego wytworu, a dopiero pośrednio do samej przestrzeni. Toteż wydaje się, że kierunek poszukiwania odpowiedzi na pytanie o naturę przestrzeni powinien uwzględniać to, że pojęcie przestrzeni jest abstrakcją i idealizacją ze spostrzeżeń. Jego treść jest kształtowana przez doświadczenie bezpośrednie, matematykę oraz nauki przyrodnicze. Dlatego pojęcie przestrzeni jest w pewnym stopniu subiektywne. Natomiast sama przestrzeń jest rzeczywistością obiektywną. Przyjmując taki punkt wyjścia, spróbuję odpowiedzieć na pytanie, czy można przestrzeń potraktować jako istniejącą niezależnie od przedmiotów, czy też jest to rzeczywistość zależna w swym istnieniu od relacji między rzeczami oraz od czasu.

[/toggle]
[toggle title=”Piotr Lipski, o demokratycznych modelach branching-time (BT)”]

Celem referatu będzie przebadanie klasy specjalnych modeli branching-time (BT) zwanych „demokratycznymi modelami BT”. Modele te dostarczają formalnego zaplecza do wyeksplikowania dwóch pojęć możliwości, a mianowicie możliwości realnej i, jak to nazywam, możliwości demokratycznej. Pierwsze z tych pojęć odpowiada naszym intuicjom związanym z wypowiedziami języka naturalnego typu: „Po rzucie monetą wypadła reszka, ale naprawdę mógł wypaść orzeł”. W tymże samym języku naturalnym możemy jednak usłyszeć także takie sformułowania: „Dokonałem tego wyboru wtedy i wtedy, ale równie dobrze mogłem go dokonać nieco wcześniej/później” mimo iż niekiedy kontekst wyklucza realną możliwość wcześniejszego/późniejszego podjęcia odnośnej decyzji. Chodzi tu raczej o podkreślenie równego statusu każdego momentu, tzn. tego, że żaden moment nie jest wyróżniony, gdyż każdy jest równie dobry do podejmowania decyzji. Stąd nazwa — „możliwość demokratyczna”.

Zwykłe modele BT nie dostarczają formalnych narzędzi potrzebnych do prezentacji możliwości demokratycznej. Niedeterministyczne punkty (punkty wyboru) takich modeli dobrze wyrażają intuicje związane z możliwością realną, ale są bezużyteczne w przypadku demokratycznej. Sprawa przedstawia się nawet gorzej. Ponieważ punkty wyboru mają w modelach BT wyróżniony status (są jedynymi punktami indeterministycznymi), podkopują one demokrację momentów. Co więcej, ich wyróżniony status wydaje się stać w konflikcie ze współczesną fizyką i jej prawami zachowania oraz symetrii.

T. Placek i T. Müller przedstawili ostatnio propozycję pogodzenia omawianych dwóch pojęć możliwości. Ich pomysł polega na skonstruowaniu demokratycznych modeli BT, tj. modeli BT spełniających następujące warunki:

  • każdy instant (moment) zawiera co najmniej jeden punkt wyboru;
  • każda historia zawiera najwyżej skończenie wiele punktów wyboru.

W ten sposób punkty wyboru pozostają dobrą formalizacją realnej możliwości, podczas gdy fakt, iż w każdym instancie (momencie) znajduje się przynajmniej jeden punkt wyboru, odpowiada naszym intuicjom związanym z możliwością demokratyczną. Warunek (b) wyraża przekonanie, iż zdarzenia indeterministyczne powinny być relatywnie rzadkie.

W referacie omówię następujące fakty dotyczące demokratycznych modeli BT, które udowodniłem ostatnio wraz z J. Wawrem:

  • Każdy demokratyczny model BT ma element najmniejszy i jest on punktem wyboru.
  • Każdy demokratyczny model BT zawiera co najmniej jeden punkt mul- ti-wyboru (punkt multi-wyboru to punkt posiadający nieskończenie wiele możliwych przyszłości).
  • Jeśli porządek instantów (momentów) w demokratycznym modelu BT jest gęsty, wówczas najmniejszy punkt modelu jest punktem multiwyboru.

[/toggle]
[toggle title=”Krzysztof Łastowski, Miejsce człowieka we współczesnej filozofii przyrody”]

Istotą referatu jest ukazanie, że współcześnie pojęta filozofia przyrody nie tylko analizuje przyrodnicze, a więc naturalne, biologiczne uwarunkowania działań kulturowych oraz społecznych gatunku ludzkiego, ale zarazem coraz wyraźniej uwzględnia jego biologiczne oraz kulturowe uposażenia i ograniczenia.

W kwestii, czym jest współczesna filozofia przyrody, powiada się, że jest to rodzaj filozoficznego namysłu nad przyrodą w ogóle, nad jej granicami, jak również — że jest refleksją nad przesłankami określającymi ogólne zasady budowy i funkcjonowania świata przyrody ożywionej i nieożywionej. Niezbędne jest więc przekroczenie ram scjentystycznego ujęcia treści filozofii przyrody. Świat przyrody nie powinien więc być charakteryzowany w sposób taki, jak to się czyni do tej pory w nauce, tj. poprzez drobiazgowe dzielenie przyrody na „części” — i opisywany w terminach fizyki, geografii, chemii czy biologii. Świat przyrody z filozoficznego punktu widzenia, i w znacznej mierze w opozycji do nauki, stanowi bowiem swoistą całość „martwych”, „żywych” i „ludzkich” powiązań, i dlatego powinno się go pojmować jako obiekt naturalny, zwarty, spojony silnym działaniem kulturowym człowieka.

Inne ważne problemy współczesnej filozofii przyrody to pytania: czym jest świat materialny i jakie są jego formy; jak wygląda struktura świata przyrody; jakim zasadom rozwoju podlega świat przyrody (nieożywionej i ożywionej); jak powstało życie — a także: jak powstał gatunek ludzki; na ile istnienie gatunku ludzkiego zależy od jego historii naturalnej (przyrodniczej) i kulturowej; jak głęboko dzisiaj manipulujemy biologicznymi mechanizmami istnienia homo sapiens; czy istnieją obecnie nieprzekraczalne granice ingerencji w biologiczne podłoże świata żywego. Te ostatnie pytania zbliżają problematykę przyrodniczą do humanistycznej, w której kultura ludzka oddziałuje zwrotnie na niemal cały świat przyrody przez to, że współkształtuje zasady działania i rozwoju przyrody ożywionej. Pytań takich jest znacznie więcej; wymieniliśmy tylko wybrane. Odpowiedzi na nie pokazują bowiem, że filozofia przyrody dzisiaj to już nie wyłącznie spekulatywna refleksja nad otaczającym nas światem, ale zespół problemów graniczący, a nawet zazębiający się z humanistyką. Albowiem — o ile filozofia przyrody zastanawia się nad ogólnymi zasadami jej działania, to humanistyka odkrywa naczelne zasady ingerencji kulturowej w naturę działania ludzkiego, zarówno indywidualnego, jak i zbiorowego.

Prezentowane podejście oferuje zatem: (1) głębsze rozumienie świata przyrody; (2) ugruntowanie na nowych zasadach statusu filozofii przyrody; (3) ściślejsze powiązanie przedmiotowe i argumentacyjne nauk przyrodniczych z humanistycznymi. W konsekwencji ukazuje też, że istotnej zmianie ulega pojęcie natury ludzkiej.

[/toggle]
[toggle title=”Danuta Ługowska, o istocie życia”]

Referat we wstępnej części będzie stanowić próbę odpowiedzi na pytanie, czy uzasadnione, w świetle dzisiejszych nauk szczegółowych, jest wskazywanie na specyfikę bytów ożywionych — na istotę życia. Czy cechy organizmów, takie jak: rozwój, rozród, metabolizm, zdolność do ewoluowania itd. nie są sprowadzalne do poziomu fizyko-chemicznego. Jak widać, analiza zostanie rozpoczęta od tradycyjnego problemu redukcji zjawiska życia do tego, co nieożywione. Hipotezą roboczą stanie się stwierdzenie słuszności traktowania życia jedynie w kategoriach paradygmatu obowiązującego we współczesnej biologii — paradygmatu przydatnego w sensie praktycznym jedynie jako wzorzec interpretacyjny, a nie treść sięgająca do rzeczywistości zjawisk. W celu uzasadnienia czy też odrzucenia przyjętej ad hoc hipotezy, zarysowane zostaną podstawowe założenia koncepcji paradygmatów w nauce, elementy matrycy dyscyplinarnej, jak i etapy powstawania paradygmatów. Analiza faz powstawania wzorca w omawianej nauce może pomóc w odnalezieniu pewnych wskazówek do odpowiedzi na pytanie o to, czy treść pojęcia „życie” jest li tylko treścią pewnego założenia, czy też wyłania się z kontaktu badacza z rzeczywistością. W podobny sposób będzie podjęta próba analizy elementów matrycy dyscyplinarnej biologii. Niezależnie od rezultatów rozumowania na tym etapie, zostanie przywołany fenomen człowieka z jego świadomością jako najsubtelniejszym przejawem życia. Na bazie wspomnianego zjawiska, odwołując się do autorów podkreślających rozwój biosu w kierunku coraz wyższych form rozwoju m.in. świadomościowego, postawię kolejne pytanie: pytanie o możliwość wykazania na poziomie świadomościowym tego, iż treść pojęcia „życie” jest jedynie treścią pewnego przyjętego założenia. W celu rozstrzygnięcia powyższego problemu zostanie przedstawiona analiza dotycząca wzorca interpretacyjnego, tak jak w odniesieniu do opisu przejawów życia, będącego przedmiotem biologii. Podobnie zostaną przywołane fazy powstawania paradygmatów oraz elementy matrycy dyscyplinarnej. Tym razem zostanie postawione pytanie o to, czy treść pojęcia „świadomości” jest tylko treścią pewnego przedzałożenia przyjmowanego wzorca, czy też jest treścią wyłaniającą się z kontaktu z rzeczywistością.

Zestawienie wyników analizy dotyczącej statusu treści pojęcia „życia” we współczesnej biologii oraz treści pojęcia „świadomości” (świadomość jest tu traktowana jako najwyższy przejaw życia) w nauce, powinno doprowadzić do odpowiedzi na pytanie, czy w świetle osiągnięć współczesnych nauk przyrodniczych mówienie o istocie życia, sięganie do pewnych idei metafizyki klasycznej, ma sens. Rozumowanie będzie oparte na schemacie dowodzenia nie wprost. Próbując potwierdzić zasadność tezy w swej istocie redukcjonistycznej — sprowadzenia treści pojęcia „życie” do treści przedzałożenia wzorca interpretacyjnego — będę dążyła do wykazania niemożliwości dokonania takiej redukcji.

[/toggle]
[toggle title=”Andrzej Łukasik, Ewolucja pojęcia atomu”]

Celem referatu jest analiza historycznego rozwoju pojęcia atomu, czy szerzej, pojęcia elementarnych składników materii — od starożytnej filozofii przyrody do współczesnej fizyki atomowej i fizyki cząstek elementarnych oraz dyskusja zagadnienia aktualności programu filozofii atomizmu w związku z rezultatami fizyki XX wieku.

Rezultatem przeprowadzonych analiz jest teza, że ontologiczny model świata filozofii atomizmu, według którego fundamentalny poziom rzeczywistości fizycznej stanowią trwałe indywidua czasoprzestrzenne, a istnienie i własności wszystkich układów złożonych są całkowicie redukowalne do istnienia i własności elementarnych składników i ich ruchu przestrzennego, nie jest już współcześnie adekwatnym modelem świata. Jest pewnym paradoksem dziejów atomizmu, że chociaż hipoteza atomistyczna uzyskała spektakularne potwierdzenie w fizyce XX wieku, to jednak rozwój fizyki atomowej i fizyki cząstek elementarnych doprowadził do tak radykalnych zmian pojęciowych, że wszystkie atrybuty przypisywane dotąd elementarnym składnikom materii stały się całkowicie nieadekwatne w odniesieniu do mikroobiektów. Pomijając już fakt, że charakterystykę elementarnych składników materii w kategoriach mechanistycznych zastąpiono znacznie bardziej abstrakcyjnymi pojęciami fizyki teoretycznej, to — wbrew podstawowym założeniom filozofii atomizmu — okazało się, że na poziomie cząstek elementarnych nie ma absolutnie niezmiennych, trwałych, substancjalnych elementów. Cząstki elementarne, chociaż są w pewnym sensie niepodzielne, to jednak okazują się obiektami dynamicznymi, które ulegają ciągłym transformacjom (przemiany cząstek, procesy kreacji i anihilacji), ich ruch nie podlega deterministycznym prawidłowościom (zasada nieoznaczoności Heisenberga), nie przysługuje im indywidualność (statystyki kwantowe) oraz połączone są ze sobą siecią nielokalnych powiązań (paradoks EPR i nierówność Bella). Ponadto układy złożone z tych cząstek uzyskują nowe własności, nieredukowalne do własności części, a w wielu wypadkach całość okazuje się nadrzędna wobec części (holizm). Wydaje się zatem, że z całego programu filozofii atomizmu aktualna pozostała jedynie teza o dyskretnej strukturze materii, ale z uwagi na charakterystyczny dla mikroobiektów dualizm korpuskułarno-falowy w pewnej mierze zaciera się również opozycja między ciągłym polem a dyskretnymi, dobrze zlokalizowanymi czasoprzestrzennie cząstkami. Zjawiska takie, jak polaryzacja próżni oraz cząstki wirtualne, prowadzą natomiast do wniosku, że również fundamentalny dla ontologii atomizmu podział na materię korpuskularną i pustą przestrzeń nie jest już możliwy do utrzymania.

[/toggle]
[toggle title=”Anna Marek-Bieniasz, Genocentryczny paradygmat rozumienia przyrody i jego zasadność w R. Dawkinsa interpretacji ewolucji”]

Referat będzie poruszał następujące kwestie:

  • Źródła genocentrycznych poglądów R. Dawkinsa — wskazanie i krótki komentarz.
  • Genocentryzm jako paradygmat rozumienia przyrody — omówienie i komentarz.

Konsekwencje genocentrycznych założeń w interpretacji ewolucji dokonanej przez R. Dawkinsa: (a) odidealizowanie świata przyrody (koncepcja maszyny przetrwania i inne propozycje Dawkinsa zrównujące to, co ożywione, z tym, co techniczne); (b) redukcjonistyczny obraz człowieka w interpretacji Dawkinsa i problem usytuowania człowieka w świecie przyrody; (c) genocentryzm a degradacja roli organizmu i osobnika w przyrodzie; (d) zasada egoizmu genów Dawkinsa i niemożliwe do przyjęcia konsekwencje jej absolutyzacji; (e) genocentryzm Dawkinsa jako przyczyna jego pesymistycznej wizji przyrody; (f) genocentryzm Dawkinsa a problem odrzucenia holizmu, jako współcześnie obowiązującego na gruncie biologii sposobu rozumienia przyrody; (h) metaforyka walki i egoizmu w Dawkinsa genocentrycznej interpretacji ewolucji a kwestia symbiozy i altruizmu w przyrodzie; (i) konsekwencje genocentryzmu dla rozumienia poziomu działania doboru naturalnego; (j) inne konsekwencje genocentrycznych założeń Dawkinsa.

  • Konkluzja, w której wskazywać się będzie brak zasadności przyjęcia genocentryzmu jako paradygmatu rozumienia przyrody.

[/toggle]
[toggle title=”Leszek Pyra, Holistyczna filozofia środowiskowa: J. Muir, A. Leopold, J. B. Callico”]

Referat dotyczy filozofii środowiskowej, zwanej także filozofią ekologiczną lub ekofilozofią. Ukazuje, w jaki sposób kształtowała się filozoficzna refleksja nad środowiskiem naturalnym prowadząca do powstania ekofilozofii, której korzenie tkwią w tradycji amerykańskiej. W tym kontekście zaprezentowane zostaną, a następnie poddane analizie i rekonstrukcji, a w konsekwencji ocenie, poglądy trzech wymienionych w tytule wystąpienia myślicieli.

John Muir, wnikliwy obserwator przyrody dzikiej, ukazany został jako jej entuzjasta i prorok głoszący konieczność powrotu do natury. Muir, leśnik pozostający pod przemożnym wpływem reprezentantów transcendentalizmu, takich jak: William Wordsworth, Ralph Waldo Emmerson i Henry David Thoreau, jako praktyk zakładał parki narodowe służące zachowaniu dziewiczych terenów, a jako pisarz niezmordowanie popularyzował koncepcję ochrony obszarów dzikich.

Poglądy Aida Leopolda, wyrażone w znanej pracy A sand county almanac, stanowią dla wielu przedstawicieli ekofilozofii wzór nowego myślenia o przyrodzie dzikiej, sama zaś książka uznawana jest niemal powszechnie za biblię filozofii środowiskowej. Leopold, leśnik z wykształcenia, interesujący się hobbystycznie filozofią, tworzy zręby holistycznej filozofii środowiskowej, przy czym teoria przezeń rozwijana nie jest pozbawiona pewnych mankamentów, o których jest mowa w referacie.

Poglądy J. Bairda Callicota prezentują podejście akademickiego filozofa do przyrody dzikiej — podejście w pełni profesjonalne pod względem stosowanej metody, które między innymi umożliwia autorowi uniknięcie popełnienia tzw. błędu naturalistycznego. Callicot dokonuje ponownej interpretacji problematyki faktów i wartości, gdyż uważa, iż odkrycia dynamicznie rozwijającej się ekologii umożliwiają przeformułowanie tradycyjnego podejścia do problematyki faktów i wartości w duchu aprobaty dla możliwości przechodzenia od is do ought to be.

[/toggle]
[toggle title=”Tomasz Rzepiński, Modele w medycynie”]

Tradycyjnie w metodologii nauk empirycznych uznawano, że podstawowym nośnikiem wiedzy o świecie są teorie. Wyłącznie one pełnią funkcje eksplanacyjne i prewidystyczne. Jednakże zastosowanie pojęcia „teorii” w analizie wytworów poznawczych nauk biologiczno-chemicznych wydaje się bardzo problematyczne. Równie problematyczne jest wykorzystanie tego pojęcia w odniesieniu do medycyny. Pomocne w analizie procedur podejmowanych w tej dyscyplinie badań może być pojęcie „modelu”.

We współczesnej filozofii nauki modele stanowią niewątpliwie jeden z najczęstszych przedmiotów przeprowadzanych analiz. Pomimo znacznego zainteresowania filozofów nauki, pojęcie „modelu” pozostaje jednak cały czas niesprecyzowane. Nie jest jasny nie tylko status ontologiczny modeli oraz ich powiązanie z teorią, ale również funkcje, jakie pełnią one w nauce. W obszernej literaturze przedmiotu formułuje się wiele odmiennych charakterystyk modeli konstruowanych w różnych dyscyplinach badawczych.

Zasadniczym celem referatu jest dokonanie wstępnych ustaleń dotyczących modeli wykorzystywanych w praktyce medycznej. Najogólniej, w praktyce medycznej modele stanowią podstawę dla podejmowania decyzji dotyczących diagnostyki, terapii oraz profilaktyki zdrowotnej. Czy można jednak uznać, że modele te są konstruowane w medycynie i stanowią swoisty wkład tej dyscypliny do naszej wiedzy o świecie? Czy też modele te są konstruowane wyłącznie w ramach nauk pomocniczych medycyny, takich jak biochemia, genetyka, immunologia i wielu innych? Odpowiedzi na te pytania wydają się szczególnie istotne z uwagi na prowadzone współcześnie dyskusje dotyczące statusu poznawczego medycyny. Klinicyści bardzo często posługują się terminem „medycyna” na oznaczenie dyscypliny badawczej realizującej pewne cele poznawcze. Czy takie określenie statusu medycyny jest jednak trafne? Starając się odpowiedzieć na to pytanie, należy rozstrzygnąć kilka ważnych kwestii:

  • Co jest przedmiotem modelowanym w medycynie?
  • Jaka jest struktura modeli konstruowanych dla potrzeb praktyki medycznej?
  • Jaka jest funkcja poznawcza tych modeli?

Odpowiedzi na te pytania pozwolą ustalić, na czym — o ile w ogóle — miałaby polegać metodologiczna specyfika modeli tworzonych w medycynie.

[/toggle]
[toggle title=”Dariusz Sagan, Filtr eksplanacyjny: wykrywanie projektu na gruncie nauk przyrodniczych”]

W latach dziewięćdziesiątych ubiegłego wieku sformułowano tzw. teorię inteligentnego projektu, która głosi, że pewne struktury i zjawiska przyrodnicze najlepiej wyjaśnić jako rezultaty inteligentnego zaprojektowania. Jednym z fundamentów tej teorii jest rozwinięta przez Williama A. Dembskiego koncepcja filtru eksplanacyjnego. Filtr eksplanacyjny to opis i normatywna podstawa ogólnej metody rozstrzygania czy dana struktura lub zjawisko powstałe na skutek konieczności (czyli działania praw przyrody), przypadku czy projektu.

Dembski w sposób ścisły sformułował metody wykrywania projektu stosowane już w niektórych dziedzinach wiedzy. Archeolodzy na przykład muszą niekiedy rozstrzygnąć, czy dany przedmiot wykopaliskowy jest wytworem człowieka czy przyrody; kryptolodzy starają się odróżnić zakodowaną wiadomość od szumu, który ma charakter przypadkowy; w kryminalistyce rutynowo podejmuje się decyzje, czy czyjaś śmierć została zaplanowana (morderstwo), czy też była dziełem przypadku (nieszczęśliwy wypadek). Biura strzegące praw autorskich i patentów stosują wnioskowanie o projekcie, gdy identyfikują kradzież własności intelektualnej; towarzystwa ubezpieczeniowe używają go, gdy zabezpieczają się przed oszustwem; sceptycy — demaskując zjawiska paranormalne. Naukowcy uczestniczący w projekcie badawczym SETI (poszukiwanie inteligencji pozaziemskiej) przeszukują przestrzeń kosmiczną w celu wykrycia fal radiowych, które mogły zostać wysłane przez kosmitów — twierdzą oni, że potrafią odróżnić zaprojektowaną falę radiową (niosącą jakąś wiadomość) od radiowego szumu tła kosmicznego. Dembski stara się wykazać, że identyczny schemat wnioskowania o projekcie można przenieść na grunt nauk przyrodniczych, takich jak biologia czy kosmologia, czemu sprzeciwia się większość współczesnych naukowców.

W referacie przedstawię koncepcję filtru eksplanacyjnego oraz przeanalizuję argumenty za możliwością zastosowania filtru eksplanacyjnego w naukach przyrodniczych i przeciw niemu, wysuwane zarówno przez zwolenników, jak i przeciwników tej koncepcji.

[/toggle]
[toggle title=”Marek Szydłowski & Paweł Tambor, Efektywne modele Wszechświata — case study modelu LambdaCDM”]

Argumentujemy, że standardowy model Wszechświata — jednorodnego i izotropowego przestrzennie, wypełnionego materią barionową, ciemną materią (nierelatywistyczną) oraz ciemną energią (stałą kosmologiczną) — posiada status efektywnej teorii Wszechświata. Wykazujemy, że jest to teoria emergentna, a nie fundamentalna, od której nie oczekuje się elegancji czy prostoty konceptualnej, lecz głównie zgodności z danymi obserwacyjnymi. W tym kontekście badamy ogólną rolę teorii efektywnych w fizyce współczesnej i podkreślamy ich rolę w skutecznym przewidywaniu nowych zjawisk. Pokazujemy, że modele efektywne służą przede wszystkim rozwiązywaniu sytuacji problemowej, a ich użycie jest dyktowane przez pragmatyzm.

[/toggle]
[toggle title=”Adam Świeżyński, Kategoria początku w kosmologicznych modelach genezy Wszechświata”]

Zasadniczo można wyróżnić dwa słownikowe znaczenia terminu „początek”:

  1. „brać początek od czegoś, z czegoś, pochodzić skądś, od czegoś” — „dać początek czemuś, spowodować powstanie czegoś, zapoczątkować coś”;
  2. „to, od czego coś się zaczyna, rozpoczęcie się czegoś, pierwszy moment, pierwszy punkt”.

W obu podanych znaczeniach „początek” wydaje się powiązany z faktem pojawienia się danej rzeczywistości. Jednak przez powstanie czegoś można rozumieć fakt jego zaistnienia lub zmianę w obrębie już istniejącej rzeczywistości. Można więc zaproponować rozróżnienie dotyczące rozumienia początku Wszechświata:

  1. początek fizyczny czyli początek określonego stanu Wszechświata;
  2. początek ontologiczny (bytowy) Wszechświata.

Inaczej mówiąc, można wyróżnić początek względny Wszechświata lub po prostu początek „naszego” wszechświata — naturalny, fizyczny („było coś — jest coś innego”) oraz początek absolutny Wszechświata — rzeczywisty, ontologiczny („nie było niczego — jest coś”). Pierwszym zajmuje się kosmologia rozumiana jako nauka przyrodnicza, a drugim filozofia i teologia, jako dziedziny poszukujące zrozumienia istoty i genezy całej rzeczywistości. Mamy więc do czynienia z różnie rozumianymi początkami Wszechświata, które nie muszą, a nawet nie powinny być ze sobą utożsamiane. Ich analizowanie odbywa się bowiem na innych płaszczyznach poznawczych (naukowej i filozoficzno-teologicznej). Dotyczą one jednak tej samej rzeczywistości materialnej — faktu jej zaistnienia. Należy także zauważyć, że początek wszechświata rozumiany jako początek określonego stanu Wszechświata można rozumieć na sposób ewolucyjny jako zmianę i przekształcenie jego stanu uprzedniego. Natomiast początek ontologiczny pozostaje otwarty na interpretację w duchu teologicznej koncepcji kreacji.

W wystąpieniu zostanie podjęta próba oceny, w jaki sposób rozumiany jest początek Wszechświata we współczesnym modelach kosmologicznych. Należy w związku z tym zapytać, czy ów „początek” odnosi się do wszechświata materialnego (Wszechświata), czy jedynie wszechświata fizycznego („naszego”)? Czy było coś przed „Wielkim Wybuchem”? Czy początek czasu oznacza również początek materii Wszechświata? Czy czas pojawia się na pewnym etapie istnienia materii, czy też wraz z materią? Przykładowo, w tzw. standardowym modelu kosmologicznym Wszechświat istnieje najpierw jako osobliwość. W związku z tym teoria „Wielkiego Wybuchu”, od którego następuje ekspansja Wszechświata (t = 0), wskazuje, że Wszechświat istniał „przedtem” tyle że o jego poprzednim istnieniu nic nie wiemy. A zatem można mówić jedynie o względnym początku Wszechświata, tzn. początku, który odnosi się jedynie do jego obecnego stanu.

Początek absolutny oznaczałby pierwszą zmianę, czyli dotyczyłby samego faktu zaistnienia, przejścia z nie-bytu do bytu. Początek Wszechświata w rozumieniu kosmologii dotyczy więc jedynie powstania „naszego” Wszechświata (ewentualnie powstania jego uprzednich stanów) i jest przejściem ze stanu A materii do stanu B materii, czyli zmianą w znaczeniu fizycznym. W przypadku kosmologii przyrodniczej możemy więc mówić raczej o ewolucyjnej niż kreacjonistycznej wizji początku. Przy założeniu, że ewolucję potraktujemy szeroko, jako ukierunkowany proces zmian przynoszący nowość, różnorodność i wyższe szczeble organizacji materii, początek byłby, z punktu widzenia kosmologii, ewolucyjną zmianą, która pozwoliła na pojawienie się Wszechświata z obowiązującymi w nim aktualnie prawami fizycznymi. Nasz Wszechświat „wyewoluował” ze stanu pierwotnego lub innych „wcześniejszych stanów” stając się ewolucyjną nowością genetycznie związaną z uprzednią formą istnienia. Zainicjowany w ten sposób proces zmian znalazł potem swoją kontynuację w ewolucji fizyko-chemicznej prowadzącej do powstania życia, a następnie w ewolucji biologicznej oraz kulturowej.

[/toggle]
[toggle title=”Józef Turek, Możliwość filozoficznych wyjaśnień faktów naukowych”]

Bezpośrednie badania wzajemnych relacji nauki i filozofii, a także dostępna w tym względzie literatura, pokazują, że istnieje dosyć rozpowszechniona praktyka badawcza polegająca na proponowaniu różnego rodzaju wyjaśnień filozoficznych dla tzw. faktów naukowych — czyli z reguły dobrze uzasadnionych i powszechnie przyjmowanych twierdzeń naukowych, głównie przyrodniczych. Istotą tego wyjaśniania jest to, że człon wyjaśniający czyli eksplanans jest jakąś tezą filozoficzną, a samo wyjaśnienie chce odpowiedzieć na typowo filozoficzne pytanie.

Dokonując jednak tego rodzaju wyjaśnień filozoficznych, stajemy przed problemem ich zasadności i racjonalności. Przyjmując bowiem epistemologiczno-metodologiczną odrębność nauk szczegółowych i filozofii, czyli dopuszczając możliwość przeprowadzenia w miarę jednoznacznej linii demarkacyjnej pomiędzy tymi dwoma dziedzinami wiedzy ludzkiej, uznajemy ich wzajemne autonomie, czyli niezależności od siebie, również w procedurach eksplanacyjnych. Z drugiej strony procedury te muszą także spełniać pewne wymogi poprawności, wśród których jest żądanie pewnej jednorodności epistemologiczno-metodologicznej eksplanandum i eksplanansa. Oznacza to, że oba człony wyjaśniania winny należeć do tej samej płaszczyzny poznawczej.

Jak widać, wyjaśnianie filozoficzne faktów naukowych wymogów tych nie spełnia i powstaje realne pytanie o jego poznawczą wiarygodność. Wydaje się, że wyjściem z tych trudności może być z jednej strony poluzowanie rygorów metodologicznych i rezygnacja, przynajmniej w pewnym zakresie, ze ścisłej autonomiczności nauk szczegółowych i filozofii. Inną możliwością jest dokonanie tzw. filozoficznej interpretacji danego faktu naukowego, czyli ukazanie jego filozoficznych odniesień w postaci tzw. faktu filozoficznego i dopiero potem poddawanie tego faktu procedurom filozoficznego wyjaśniania. Problemem jest jednak wtedy zasadność dokonywania filozoficznych interpretacji faktów naukowych.

Dodatkową kwestią, która pojawia się w tym kontekście, jest wybór najlepszego wyjaśnienia. Okazuje się bowiem, że ten sam fakt naukowy może być wyjaśniany przez różne, a nawet wykluczające się tezy filozoficzne. Powstaje wtedy konieczność wskazania na w miarę racjonalne kryteria wyboru najlepszego wyjaśnienia, co jednak budzi wiele kontrowersji i w efekcie jest bardzo trudne do jednoznacznego, a tym bardziej obiektywnego rozstrzygnięcia.

[/toggle]
[toggle title=”Kazimierz Turzyniecki, Nowe wyjaśnienie poczerwienienia widma światła galaktyk”]

Powszechnie uważa się, że poczerwienienie widma światła odległych galaktyk wywołane jest ich oddalaniem się od układu słonecznego. Taka interpretacja oparta jest na zjawisku Dopplera dla światła. W referacie zostanie omówiony nowy klasyczny model zjawiska Dopplera dla światła (inny niż klasyczny model eterowy Christiana Dopplera z roku 1842 [1]), który pozwala na nowe wyjaśnienie przesunięcia prążków ku czerwieni w widmie światła pochodzącego z odległych galaktyk.

Nowy model zbudowany w oparciu o zasadę dodawania prędkości Galileusza przewiduje — podobnie jak model relatywistyczny [2] — efekt poprzeczny. Poprzeczny efekt w zjawisku Dopplera dla światła został jednoznacznie potwierdzony przez eksperyment z 1979 roku, wykonany przez niemieckich fizyków D. Hasselkampa, E. Mondrego i A. Scharmanna [3].

Fakt otrzymania takiego samego wyniku na dwóch różnych drogach wymaga wyjaśnienia. Dlatego dokonuję krytycznej analizy drogi dojścia do modelu relatywistycznego, zwracając szczególną uwagę na zasadność postulatu o absolutnym charakterze prędkości światła i na zagadnienie równoczesności zdarzeń. Ponadto przeprowadzam analizę porównawczą obu modeli, koncentrując się na efektach poprzecznym i kwadratowym. Wyniki analizy porówunję z wynikami wcześniejszych eksperymentów laboratoryjnych badających to zjawisko [4], Efekty porównania są zaskakujące.

Literatura: [1] Ch. Doppler, „Über das farbige Light der Doppelsterne und einiger anderer Gestirne des Himmels”, Abh. Königl. Böhm. Gesellsch. Wissen. 2, Prag (1842), 465-482; [2] Einstein A„ „Zur Elektrodynamik Bewegter Korper”, Ann. Phys. 17, 891-921 (1905); [3] D. Hasselkamp, E. Mondry & A. Scharmann, Z Physik A, 289, 151-155 (1979); [4] Ives H. Stilwell G„ /. Opt. Soc. Am., 28, (1938), 215; Mandelberg H., Witten L.,/. Opt. Soc. Am. 52, (1962) 529; A. Olin, T. Aleksander, O. Haeuser, A. McDonald & G. Evan, Phys. Rev., D8 (1973), 1633.

[/toggle]
[toggle title=”Jerzy Warczewski, Autonomia nauki (fizyki) i religii (wiary). Czym jest fizyka ?”]

W referacie definiuję przedmiot fizyki, którym jest, po pierwsze, formułowanie określonych pytań, a po drugie, szukanie odpowiedzi na te pytania. Chodzi tu o pytania „gdzie”, „kiedy” „jak” i „dlaczego” w odniesieniu do zjawisk przyrody oraz o pytanie „ile” w odniesieniu do wartości wielkości fizycznych opisujących te zjawiska. Należy tu dodać, że odpowiedzi na pytania „gdzie” i „kiedy” mają ograniczenia wynikające z własności przyrody opisanych przez zasadę nieoznaczoności Heisenberga oraz przez szczególną i ogólną teorię względności

Einsteina. Pytania „dlaczego” pojawiające się w dziedzinie fizyki mają — wbrew panującej powszechnie opinii — jedynie charakter pomocniczy i ich rola w fizyce jest związana z hierarchią praw fizyki, a także z ich formą. Przedstawiam hierarchię praw fizyki, fundamentalne prawa i teorie fizyki oraz pewne ogólne jej charakterystyki jako nauki. Stwierdzam, że wszystkie wspomniane wyżej pojęcia tworzą razem przybliżenie tego, co można by nazwać kanonem współczesnej wiedzy fizycznej. Kanon ten jest przedmiotem ewolucji historycznej. Przypominam cechy charakterystyczne teologii. Omawiam potencjalną relację fizyka-wiara. Podkreślam, że w rzeczywistości nie ma (jak dotąd) żadnej ścisłej relacji między fizyką a wiarą, poza subiektywną przecież, ale bardzo silną sferą emocjonalną, a także sferą hipotez i przypuszczeń. Poddaję dyskusji rolę praw fundamentalnych jako granicy fizyki oraz to, co ewentualnie znajduje się poza tą granicą. Ukazuję niezwykłą zbieżność między pięknem a głębią poznawczą doświadczeń fizycznych. Przedstawiam i podkreślam autonomię zarówno nauki, jak i religii. Zwracam uwagę na skłonność człowieka do antropomorfizacji, polegającej na rozwijaniu teorii poznania oraz na podejściu do każdego aktu poznania w „ludzkich” (właściwie kantowskich) kategoriach poznania, które zresztą służą człowiekowi do opisu i poznania przyrody, ale bez możliwości ostatecznego wyjaśnienia mechanizmu zjawisk. Wyjaśniam tę skłonność.

[/toggle]
[toggle title=”Jacek Wawer, Niektóre własności demokratycznych model branching space-time (BST)”]

Głównym zadaniem referatu jest próba przeniesienia pojęcia demokratycznego modelu branching time (BT) (pojęcie demokratycznego modelu BT wprowadza Piotr Lipski w swoim referacie) na grunt teorii branching space-time (BST) i zbadania pewnych właściwości takich modeli. BST („Branching space-time” N. Belnap, Synthese, vol. 92 (1992)) wzbogaca teorię BT, wprowadzając modalność przestrzeni oprócz modalności czasu obecnej w BT. Ponadto BST bierze pod uwagę pewne efekty szczególnej teorii względności. Sprawia to, że twierdzenia BST różnią się pod pewnymi względami od twierdzeń osiągniętych dla BT.

Muller i Placek postawili problem skonstruowania modelu BST, który jest zarówno (1) „demokratyczny” z uwagi na występowanie przypadkowości w świecie, jak i (2) nie jest przepełniony zdarzeniami przypadkowymi. Warunek (1) ma uchwycić ideę, że żaden punkt czasoprzestrzenny nie jest wyróżniony przez indeterminizm. Warunek (2) natomiast ogranicza ilość indeterminizmu w świecie.

Punktem wyjścia dla formalizacji tych warunków w ramach BST jest modyfikacja pojęcia instantu używanego w BT w taki sposób, żeby było ono odpowiednie dla teorii, która zajmuje się konkretnymi czasoprzestrzennymi zdarzeniami, a nie tylko temporalnymi („globalnymi”) zdarzeniami. Używam pojęcia punktu czasoprzestrzennego wprowadzonego przez Mullera („Pro- babability theory and causation. A branching space-times analysis”, British

Journal for the Philosophy of Science, vol. 56 (2005)). Przy użyciu tego pojęcia przeformułowuję postulaty (1) i (2):

  1. Punkt wyboru jest w każdym punkcie czasoprzestrzennym modelu.
  2.  Liczność punktów wyboru w każdej historii jest skończona.

Modele BST spełniające warunki (1) i (2) nazywam demokratycznymi modelami BST. Następnie prezentuję twierdzenia dotyczące demokratycznych modeli BST, których dowiodłem wraz z Piotrem Lipskim:

  • W każdym demokratycznym modelu BST jest skończenie wiele elementów minimalnych i każdy element modelu BST jest nad którymś z tych elementów.
  • W każdym demokratycznym modelu BST jest punkt multi-wyboru (w punkcie multi-wyboru jest nieskończenie wiele otwartych przyszłych możliwości).
  • Każdy z minimalnych elementów demokratycznego modelu BST jest punktem multi-wyboru.

Demokratycznym modelom BST można nadać kosmologiczną interpretację. W szczególnym przypadku świat zaczyna się pojedynczym, konkretnym zdarzeniem. Ponadto w miejscu i czasie tego początkowego zdarzenia świat jest ekstremalnie nieokreślony i może potoczyć się na nieskończenie wiele różnych sposobów. Można to zinterpretować jako pewną wizję wielkiego wybuchu. Fakt, że doszliśmy do tak istotnych kosmologicznych wniosków na kilku stronach dowodu i to tylko na podstawie postulatów (1) i (2), sugeruje, że powinno się odrzucić, a przynajmniej zmodyfikować choć jeden z tych postulatów.

[/toggle]

[toggle title=”Maria Weker, Komputacyjny obraz świata”]

Potrzeba posiadania pewnego obrazu świata jest jednym z elementów inspirujących intelektualną aktywność człowieka. Obrazem świata może być pewnego rodzaju ogląd świata w perspektywie aparatury pojęciowej danej teorii, przy czym ogląd świata to wielopłaszczyznowe badanie pewnej rzeczywistości lub wynik tego procesu, tj. uzyskana wiedza.

Z komputacyjnego ujęcia procesów percepcji, których przykładem jest teoria widzenia Davida Marra, wydaje się wyłaniać oryginalny komputacyjny obraz świata (KOŚ). Zawarte w tym ujęciu poglądy dotyczące istoty badanych obiektów wydają się tworzyć pewien ogólny układ przekonań odnośnie do ich natury, własności i wzajemnych powiązań. Obraz świata oparty na obliczeniowym schemacie wydaje się mieć następujące cechy.

Do zbioru hipotez tworzących KOŚ należy przekonanie o zasadności warstwowego ujęcia świata oraz konstruujących go obiektów. Każda z warstw obdarzona jest pewnymi własnościami, działaniami oraz funkcjami specyficznymi i objawiającymi się tylko na określonym poziomie. Takie ujęcie rzeczywistości wywiera szczególny wpływ na sposób prowadzenia badań i analiz naukowych.

Szczególnym przypadkiem tego ujęcia jest wizja człowieka jako układu kilku poziomów i podejmowane na tej podstawie próby opisania jego funkcjonowania poznawczego za pomocą tzw. trójkąta poznawczego.

Immanentną cechą KOŚ i konstruujących go obiektów jest własność bycia komputacyjnym. Oznacza to, że pewnym układom i strukturom można przypisać cechę, według której możliwe jest opisanie ich za pomocą pewnego schematu. Zarazem jednak okazuje się, że niektóre z opisywanych struktur mogą faktycznie być same z siebie obdarzone własnością wykonywania czy realizowania pewnego programu.

KOŚ zdaje się otwierać nową perspektywę badawczą, która umożliwia określenie miejsca podmiotu w stosunku do rzeczywistości oraz pozwoli na jej dokładniejsze badanie i zrozumienie.

[/toggle]

[toggle title=”Zbigniew Wróblewski, Natura — cele naturalne — wartości i normy. Analiza argumentu teleologicznego w ujęciu praktycznej filozofii przyrody”]

Referat dotyczy analizy argumentu teleologicznego (AT) występującego w obszarze praktycznej filozofii przyrody i etyki ekologicznej, szczególnie jego elementów ontologicznych, które tradycyjnie są badane w ramach filozofii przyrody i antropologii filozoficznej (Hans Jonas, Robert Spaemann, Reinchard Low).

AT jest sformułowany na podstawie teleologicznej interpretacji przyrody w następujący sposób: jeśli w przyrodzie istnieją cele, które człowiek rekonstruuje jako roszczenie jakiegoś dobra samego w sobie, to ta teleologiczna struktura bytu zobowiązuje człowieka do bezwarunkowej afirmacji wszystkiego, co żyje (w tych bowiem bytach naturalnych najwyraźniej manifestuje się celowość).

Elementami składowymi AT są: (1) teza o samocelowości przyrody (rozumianej bądź jako całość wszystkich bytów naturalnych, bądź jako niektóre byty naturalne, np. byty ożywione); (2) przesłanka historyczna głosząca wpływ ateleologicznego pojęcia natury (naukowo-techniczne pojęcie natury) na kryzys ekologiczny; (3) teza o związku celu z wartością (celowość bytów naturalnych jest wartością samą w sobie); (4) teza o jedności człowieka z przyrodą (rozumiana antynaturalistycznie, tj. z uwzględnieniem dualnej struktury człowieka); (5) konkluzja przyjmująca normatywny charakter natury.

AT jest wykorzystywany przy rozstrzygnięciach problemów, które pojawiają się w ujęciu relacji natura-norma: Czy można ugruntować na teleologii naturalnej wewnętrzną wartość natury i normy postępowania względem niej? Czy można przypisać przyrodzie celowość jako dobro samo w sobie? Czy teleologiczna interpretacja natury implikuje normatywny charakter natury?

Argument AT będzie dyskutowany w kontekście pozornie analogicznego i alternatywnego argumentu występującego w etyce ekologicznej, mianowicie argumentu teleonomicznego (At). Podobieństwo ich jest pozorne, mają bowiem inną przesłankę wyjściową (teleonomiczna interpretacja natury) i prowadzą do różnych rozstrzygnięć antropologicznych i aksjologicznych kwalifikowanych jako naturalistyczne.

[/toggle]

[toggle title=”Paweł Zeidler, Metafory i ich funkcje w naukach przyrodniczych”]

W powszechnym przekonaniu przedstawicieli nauk przyrodniczych język opisu świata przyrody jest językiem interpretowanym literalnie, a w przypadku zmatematyzowanego przyrodoznawstwa jego interpretacja jest wyznaczona przez odpowiednie procedury pomiarowe. Jednakże dla metodologów i filozofów nauki nie ulega żadnej wątpliwości, że w naukach przyrodniczych na szeroką skalę stosuje się metafory, bez których nie mogłyby one pełnić funkcji wyjaśniającej i prognostycznej, a przede wszystkim nie byłoby możliwe zrozumienie wielu zjawisk badanych przez te nauki. W literaturze metodologicznej analizowano przede wszystkim metaforyczną funkcję modeli teoretycznych, którą tłumaczono albo za pomocą relacji podobieństwa, zachodzącej między modelem a modelowanym układem, albo jako interakcję między pierwotną a wtórną dziedziną relacji metaforycznej. W kontekście procedury wyjaśniania eksplanans był ujmowany jako metaforyczna redeskrypcja eksplanandum dokonana w języku systemu wtórnego. Powyższe koncepcje znacznie zawężały — w moim przekonaniu — rolę metafor w przyrodoznawstwie.

W referacie analizuję odmienne podejście do metafory w naukach przyrodniczych, które odwołuje się do tzw. koncepcji metafory pojęciowej (konceptualnej). Zakłada ona, że przyrodoznawcy posługują się w swojej praktyce badawczej językiem zawierającym bardzo wiele wyrażeń, których znaczenie ukonstytuowała praktyka życia codziennego. Wyrażenia te, użyte do opisu dziedziny docelowej — przedmiotu badania przyrodoznawcy — pełnią funkcję metafor. Przedmiotem analizy będą metafory budowane w chemii i biologii molekularnej w celu konceptualizacji obiektów i zjawisk z zakresu mikroświata, które są formułowane w języku stosowanym do opisu zjawisk makroświata lub posiadają charakter przedstawień ikonicznych. Będę zmierzał do wykazania, że bez metafor rozumianych w powyższy sposób nie można sobie wyobrazić skutecznej praktyki laboratoryjnej nauk przyrodniczych. W wymiarze filozoficznym będę argumentował na rzecz rezygnacji z przypisywania metaforom konceptualnym funkcji poznawczych. Mówienie o prawdziwości metaforycznych przedstawień zjawisk mikroświata nie znajduje zadowalającego ujęcia na gruncie semantyki. Metafory te należy uznać przede wszystkim za skuteczne narzędzia umożliwiające projektowanie działań laboratoryjnych i wyjaśnianie uzyskiwanych rezultatów.

[/toggle]

[toggle title=”Józef Zon, Umysł i świadomość — wielopoziomowe ich uwarunkowanie”]

Często spotykany jest pogląd, że umysł i świadomość zależą od struktur i związanych z nimi procesów na określonym poziomie organizacji. Skrajne elementy takich poglądów stanowią: uznawanie poszczególnych „obszarów” mózgu za „siedzibę” i materialowo-funkcjonalne uwarunkowanie świadomości i umysłu oraz procesy kwantowo-mechaniczne (powiązane z przetwarzaniem sygnałów), zachodzące w mikrotubularnych substrukturach neuronów. Są to uproszczenia wynikające najczęściej z potrzeb modelowania określonych funkcji mózgu lub jego części.

Zadaniem referatu będzie pokazanie w perspektywie rozwoju filogenetycznego oraz odnoszących się do układu nerwowego danych biofizyki, biochemii i fizjologii, uzależnienia wspomnianych najwyższych przejawów funkcji mózgu od stanu struktur i procesów na kolejnych piętrach jego organizacji: poczynając od poziomu submolekularnego, poprzez poziom molekularny i komórkowy, a kończąc na mózgu jako całości. Szczególna uwaga poświęcona zostanie tezie, iż umysł i świadomość są bezpośrednią pochodną składowych, ich własności, procesów i powiązań zachodzących na najniższych poziomach organizacyjnych rzeczywistości, podczas gdy to, co nazywa się poziomami wyższymi organizacji układu nerwowego istot żywych, wzmacnia zdolności poznawcze. Podstawową funkcją tych poziomów jest zwiększanie szans bioukładu w walce o przerwanie. W miarę wzrostu komplikacji bioukładu coraz bardziej znaczącą rolę odgrywa świadomość i w końcu samoświadomość — „skierowane do wewnątrz” poznanie. Powoduje ono, że bioukład — pomimo iż musi odpowiadać na różnorodne wyzwania środowiska zewnętrznego — samozestraja się. Poziom tego zestrojenia wpływa na jego szanse przeżycia i pozostawienia potomstwa.

[/toggle]
[/accordion]

 

Opracowanie na podstawie:

VIII Polski Zjazd Filozoficzny. Księga streszczeń

red. nauk. Anna Brożek i Jacek J. Jadacki
Wydawnictwo Naukowe Semper, Warszawa 2008, s. 278-299
ISBN 978-837507-04-15
[format B5, diagramy, tabele, s. 656]
Andrzej Zykubek
Zapraszam na