Wprowadzenie do filozofii techniki

Wprowadzenie do filozofii techniki Wyd. WAM
Val Dusek / Wyd. WAM

Ponieważ filozofia techniki narodziła się stosunkowo niedawno, a obszary wiedzy wchodzące w jej zakres wzajemnie się przenikają, początkowo trudno zorientować się w tej dziedzinie. Z jednej strony zagadnienie "technika i człowiek" doczekało się wielu komentarzy.

Powstała na ten temat obszerna, choć w znacznej mierze powierzchowna literatura tak zwanych after-dinner speeches, którą tworzą głównie specjaliści od techniki i politycy. Z drugiej strony istnieje wysoce zagmatwana i niejasna literatura europejska rozwijająca się w oparciu o poglądy najtrudniejszych i najmniej przystępnych filozofów (jak Hegel, Marks czy Heidegger).

(Prof. Val Dusek)

DEON.PL POLECA

1. FILOZOFIA NAUKI A TECHNIKA

Dążenie do precyzji i rygoru doprowadziło pozytywistów do krytyki ich własnego kryterium sensowności, które opierało się na doświadczeniu i obserwacji. W konsekwencji kryterium to (zasada weryfikowalności) zostało odrzucone, ale pozytywistom należy się uznanie za uczciwość i konsekwencję, które kazały im poddać krytyce własny program i uznać jego zawodność. Rezygnacja ze sztywnej zasady weryfikowalności doprowadziła do wykształcenia się stanowiska, które nazwano empiryzmem logicznym.

Zwolennicy tego kierunku złagodzili zasadę weryfikacji zdań, zastępując ją kryterium sprawdzalności lub stopniowego potwierdzenia. Empiryczne kryteria znaczenia były jednak albo tak wąskie, że nie obejmowały teoretycznych elementów nauki, albo na tyle szerokie, że wprawdzie brały pod uwagę aspekty teoretyczne, ale tylko za cenę ponownego włączenia zdań metafizycznych i teologicznych w zakres twierdzeń posiadających znaczenie. W swojej pierwotnej wersji zasada weryfikacji kazała odrzucać także takie teoretyczne pojęcia z zakresu fizyki jak „elektron". Uznawano je bowiem za pozbawione sensu. Nowa wersja tej zasady pozwalała natomiast uznać, że zdanie „Albo ten przedmiot jest czerwony, albo Bóg jest leniwy" można sprawdzić, odnosząc jego treść do danego czerwonego przedmiotu. To, z kolei, prowadziło do uznania zdania „Bóg jest leniwy" za sensowne (pełne znaczenia).

Kolejnym wiedeńskim filozofem, który osobiście znał pozytywistów logicznych i prowadził z nimi dyskusję, był Karl Popper. Jego poglądy różniły się jednak od poglądów pozytywistów pod paroma ważnymi względami. Popper był zdania, że nie weryfikowalność, a falsyfikowalność, czyli możliwość dowiedzenia fałszywości (obalenia) danej teorii wyznacza granicę pomiędzy naukowością a nienaukowością. Na tym właśnie opiera się Popperowskie kryterium falsyfikowalności (demarkacji), pozwalające odróżnić naukę od tego, co nauką nie jest. Popper twierdził również, że naukowość danej teorii jest tym większa, im większy jest stopień jej falsyfikowalności. Prowadzi to do poglądu, że nie zdania dotyczące jednostkowych faktów, a prawa naukowe mają najbardziej naukowy charakter. (Zdaniem pozytywistów to właśnie zdania dotyczące jednostkowych faktów są w pełni weryfikowalne, a zatem najbardziej zasługują na miano naukowych). Poszczególne fakty można weryfikować, co oznacza, że osiągają one najwyższy stopień prawdopodobieństwa, podczas gdy prawa naukowe obejmują nieograniczoną liczbę przypadków i w związku z tym nigdy nie mogą zostać zweryfikowane. Zdaniem Poppera teorie naukowe są zawsze nieskończenie nieprawdopodobne, ponieważ nieskończony jest zakres ich zastosowania, ale sprawdzianowi poddaje się jedynie niewielką część płynących z nich wniosków. Dla pozytywistów nauka była przede wszystkim zbiorem faktów, a prawa naukowe służyły jedynie do ich organizowania i podsumowywania w pomocny sposób. Popper natomiast uważał, że nauka jest przede wszystkim zbiorem praw, a jednostkowe fakty pełnią jedynie rolę testu, czyli są próbą falsyfikacji tychże praw. Jego zdaniem naukę tworzą śmiałe teorie i hipotezy oraz próby rozstrzygającego obalenia czy negatywne surowe sprawdziany tychże teorii. Na tym właśnie polega jego falsyfikacjonistyczna metoda naukowa. Popper przyjmuje twierdzenie HuME׳a o niemożności uzasadnienia indukcji, uznaje więc rozumowanie indukcyjne za mit i odrzuca je (zob. aneks 1.1). Hipotezy naukowe nie wynikają logicznie z obserwacji jednostkowych przypadków. Formułuje się je w oparciu o domysły i przypuszczenia. Dopóki dana hipoteza wytrzymuje sprawdziany, dopóty uznaje się ją za naukową: nie ma znaczenia, czy poprzedzały ją obserwacje, czy też narodziła się z marzeń lub przekonań religijnych. Słynna historia chemika Friedricha Augusta Kekulego (1829-1896), którego sen o wężu połykającym własny ogon natchnął do sformułowania hipotezy o pierścieniowej budowie cząsteczki benzenu (Beveridge, 1957, s. 56, 76), dowodzi, że nawet wysoce nieracjonalne źródła mogą mimo wszystko rodzić sprawdzalne rezultaty.

W przeciwieństwie do pozytywistów Popper nie uważał, że to, co niefalsyfikowalne, czyli nienaukowe, jest pozbawione sensu. Zdaniem Poppera metafizyka może mieć znaczenie i może odgrywać pozytywną rolę w procesie formułowania teorii naukowych. Na pierwszy rzut oka poglądy Poppera wydają się sprzeczne z intuicją, jednak płynące z nich wnioski doskonale pasują do roli, jaką w działalności naukowej odgrywa przeprowadzanie testów i przyjmowanie krytycznej postawy. Koncepcja Poppera zgodna jest również z naczelnym miejscem, jakie w nauce zajmują prawa uniwersalne.

Stanowisko Poppera ma także implikacje polityczne. Przyjęcie krytycznej postawy (ogólniejsze zastosowanie metody obalania teorii) ma kluczowe znaczenie dla wolności myśli i odgrywa podstawową rolę w demokracji, czyli w „społeczeństwie otwartym" (Popper, 1945). Uznanie doraźnego charakteru prezentowanych poglądów pozwala uniknąć dogmatyzmu. Akceptowanie postaw krytycznych zachęca do otwartości umysłu i swobody wypowiedzi. Przez pojęcie „zreifikowanego dogmatyzmu" Popper rozumiał zamknięty system myśli, który dysponuje mechanizmem pozwalającym na lekceważenie lub odrzucenie sprzeciwu i krytyki. Według Poppera przykładami takich zamkniętych systemów są zarówno religijny fundamentalizm, jak i marksistowski totalitaryzm. Popper uważa jednak, że również szkoły naukowe mogą wykształcić pewne strategie chroniące je przed jakąkolwiek krytyką. W ten sposób stają się - w sensie logicznym - nienaukowe, chociaż instytucje edukacyjne i finansujące mogą błędnie uważać je za element „nauki".

Za skrajny przykład naukowca w sensie instytucjonalnym można uznać Cyrila Burta (1883-1971) - psychologa zajmującego się ludzką inteligencją. BuRT był wydawcą uznanego i bardzo rygorystycznego pisma „Journal of Statistical Psychology"; doradzał władzom Londynu podjęcie polityki edukacyjnej wprowadzającej podział na uczniów mniej i bardziej uzdolnionych; zainicjował założenie Mensy - stowarzyszenia osób z wysokim ilorazem inteligencji, a nawet otrzymał tytuł szlachecki za prace nad dziedziczeniem inteligencji. Jednak wkrótce po jego śmierci większość psychologów doszła do przekonania, że dane, które przedstawiał w późniejszych latach swojej działalności, były sfałszowane. BuRT najprawdopodobniej wymyślił sobie nieistniejących asystentów. Pod różnymi pseudonimami pisał listy i artykuły, w których w sposób niekompetentny krytykowano jego prace. Dzięki temu zyskiwał sposobność udzielania błyskotliwych odpowiedzi (Hearnshaw, 1979). Jeśli to prawda, Burt z pewnością nie odpowiadał Popperowskiemu ideałowi naukowca w sensie normatywnym, to znaczy nie był człowiekiem uczciwym intelektualnie, otwartym na krytykę i gotowym odrzucić własne teorie.

Poglądy Poppera mają sensacyjne implikacje zarówno dla krytycyzmu społecznego, jak i dla oceny programów naukowych. Jednak ich słabą stroną z punktu widzenia filozofii techniki jest wbijanie ostrego klina pomiędzy naukę i technikę. Formułowanie i obalanie śmiałych i nieprawdopodobnych teorii jest dopuszczalne w nauce, technika jednak wymaga rzetelnych i użytecznych narzędzi. Zawalenie się mostu pociąga za sobą inne koszty niż intelektualne odrzucenie jakiejś teorii w ramach fizyki cząstek elementarnych. Uczniowie Poppera i kontynuatorzy jego myśli, jak Joseph Agassi (1985) i Mario Bunge (1967, rozdział 11, 1979), wnieśli istotny wkład w rozwój filozofii techniki, ale sama Popperowska teoria nauki, jakkolwiek bardzo interesująca, oderwana jest od pragmatycznych rozważań nad techniką. Niemniej jednak podejście Poppera do nauki otwiera drogę do badań nad wpływem stanowisk filozoficznych i koncepcji metafizycznych na proces powstawania teorii naukowych. To z kolei dowodzi, że poglądy kulturowe mogą być przynajmniej tak samo ważnym źródłem teorii jak dane obserwacyjne, a poprzez zastosowanie tychże teorii mogą również pośrednio wpływać na rozwój techniki.

Jeden z najważniejszych sporów w ramach filozofii nauki dotyczy teoretycznych terminów naukowych. Toczy się on pomiędzy zwolennikami naukowego realizmu i antyrealizmu, a w szczególności, jak to ujął Popper (1962, rozdział 3), pomiędzy zwolennikami esencjalizmu i instrumentalizmu. Niektóre elementy teorii naukowych są wyraźnie związane z prowadzeniem obserwacji i wykonywaniem doświadczeń. Inne wiążą się z nimi jedynie pośrednio, poprzez długie łańcuchy logicznej dedukcji - przykładem może być stosowany w fizyce termin „elektron". Przedstawiciele naukowego realizmu twierdzą, że terminy stosowane w teoriach naukowych odnoszą się do obiektywnie realnych bytów, nawet jeżeli bytów tych nie możemy obserwować. Natomiast zdaniem antyrealistów nie można traktować terminów teoretycznych w taki sposób, jakby dosłownie odnosiły się do faktycznie istniejących obiektów czy bytów. Zwolennicy instrumentalizmu traktują teorie naukowe wyłącznie jako narzędzia służące do przewidywania zdarzeń. Teorie nie opisują realnych, nieobserwowalnych struktur, ale są mniej lub bardziej przydatne do przewidywania faktów, które można bezpośrednio obserwować.

Metafory używane przez realistów i instrumentalistów stanowią odpowiednio podstawy podejścia teoretycznego i podejścia technicznego, które były historycznymi komponentami procesu narodzin nowożytnej nauki w epoce renesansu. Realiści często opisują teorie naukowe jako „obrazy" świata, natomiast instrumentaliści widzą w nich jedynie „narzędzia" do przewidywania. Nowożytna nauka mogła narodzić się w wyniku połączenia wiedzy światłych uczonych, którzy znali dzieła greckich klasyków i filozoficzne „obrazy świata", ale nie mieli pojęcia o praktycznym rzemiośle, z umiejętnościami niewykształconych, ale wyszkolonych technicznie rzemieślników, którzy byli wyposażeni w odpowiednie narzędzia. Ciężkie pod względem ekonomicznym czasy renesansu połączyły zubożałych wędrownych uczonych i rzemieślników, przyczyniając się do „mariażu metafizyki i techniki" (Agassi, 1981), czyli do powstania nauki. Pogląd, zgodnie z którym zniesienie barier klasowych doprowadziło do komunikacji pomiędzy humanistami i rzemieślnikami (Zilsel, 2000), nazywany jest „tezą Zilsela". Zilsel lokował ten proces w XVII wieku, jednak bardziej przekonujące jest datowanie go na epokę renesansu, czyli na XV wiek (Rossi, 1970). „Człowiek renesansu", jak Leone Batista Alberti (14041472), twórca teorii perspektywy geometrycznej, architekt i społeczny filozof rodziny, czy Leonardo da Vinci (1452-1519), artysta, filozof, naukowiec i inżynier, łączył wirtuozerię techniczną w dziedzinach mechaniki

i architektury ze znajomością filozoficznych i teorii naukowych. „Narzędzia" w postaci malarskiego pędzla czy dłuta rzeźbiarza były środkami do tworzenia „obrazu" w postaci renesansowego malowidła lub rzeźby. Te komponenty procesu narodzin nowożytnej nauki i techniki obecnie występują jako jedna z ulubionych metafor instrumentalizmu i realizmu, czyli dwóch różnych poglądów na relacje między nauką a rzeczywistością.

Interesujące aspekty Popperowskiego podejścia do nauki, które sprzeciwiały się zdroworozsądkowemu sposobowi myślenia, zyskały szerokie uznanie dopiero po ujawnieniu trudności pojęciowych pozytywizmu logicznego. W latach pięćdziesiątych i sześćdziesiątych XX wieku empiryzm logiczny spotkał się ze znaczną krytyką. Przedstawiciele tego kierunku byli jednak na tyle rygorystyczni i uczciwi, że niejednokrotnie uściślali i ograniczali własne twierdzenia. Historia empiryzmu logicznego jest historią stopniowego odchodzenia od pierwotnych, prostych i prowokacyjnych tez członków Koła Wiedeńskiego. Sukcesywna redukcja empiryzmu logicznego doprowadziła do znacznego wzrostu zainteresowania alternatywnym stanowiskiem Poppera i przysporzyła mu wielu lojalnych zwolenników.

Jednak najbardziej znaną i najbardziej wpływową teorią alternatywną była Struktura rewolucji naukowych (1962) Thomasa Kuhna (1922-1996), który spojrzał na naukę z historycznego punktu widzenia. Kuhn posiadał tytuł doktora fizyki i wykładał historię nauki dla studentów kierunków humanistycznych. Czytał teksty źródłowe w oryginale. W zakłopotanie wprawiła go Fizyka Arystotelesa, która współczesnemu fizykowi wydawała się kompletnym nonsensem. Pewnego popołudnia, kiedy z okna swojego pokoju przyglądał się drzewom na dziedzińcu uniwersytetu Harwardzkiego, dostał nagłego olśnienia i uświadomił sobie, że twierdzenia Arystotelesa były absolutnie sensowne w ramach struktury, która całkowicie różniła się od współczesnej.

Dla pozytywistów teorie naukowe były strukturami statycznymi. Dokonywali więc własnych, formalnych rekonstrukcji tych teorii, zamiast opisywać je w taki sposób, w jaki postrzegali je ich twórcy i ludzie im współcześni. Kuhn zamierzał prezentować teorie naukowe w inny sposób, niż przedstawiano je we współczesnych podręcznikach i w formalnych rekonstrukcjach empiryzmu logicznego. Chciał mianowicie opisywać teorie w kategoriach struktur, w których rozumiano je pierwotnie. Centralne miejsce w Kuhnowskim opisie nauki zajmowało pojęcie paradygmatu. Paradygmat Kuhna nie jest wyłącznie jednoznacznie określoną strukturą formalną ani wyrażoną explicite teorią, lecz sposobem postrzegania świata. Paradygmaty Kuhna obejmują zatem: (a) teorie naukowe; (b) niewyrażone bezpośrednio umiejętności prowadzenia badań, których się nie zapisuje, a które nabywa się poprzez naśladowanie doświadczonego praktyka; (c) idealne wyobrażenie dobrej teorii naukowej oraz (d) koncepcje metafizyczne dotyczące istnienia podstawowych bytów. Kuhn wiązał również paradygmat ze strukturą społeczności naukowej. Paradygmat łączy naukowców zajmujących się daną specjalnością, nadając określony kierunek ich teoretycznej i eksperymentalnej działalności oraz definiując dobrą naukową teorię i praktykę. W późniejszym okresie swojej działalności Kuhn dokonał rozróżnienia paradygmatu rozumianego jako wzorzec (exemplar), czyli model dobrej praktyki i teorii naukowej, jak prace Galileusza, Newtona czy Einsteina, i paradygmatu w rozumieniu macierzy dyscyplinarnej, czyli systemu przekonań podzielanego przez członków społeczności naukowej.

Kuhnowska koncepcja rozwoju paradygmatów naukowych różni się od opisów nauki, które proponowali pozytywiści czy Popper. Zdaniem Kuhna ani indukcjonizm, ani Popperowski falsyfikacjonizm nie opisują procesu powstawania i upadku paradygmatów. Na ogół nowy paradygmat powstaje bowiem bez silnej podstawy indukcyjnej. Obalenia poszczególnych teorii można natomiast ominąć poprzez zmodyfikowanie jednej lub więcej hipotez zawartych w jej ramach. Można, na przykład, ograniczyć pierwotny zakres teorii bądź dodać do niej pomocnicze założenia. Wynika z powyższego, że żadnej teorii nie da się „obalić" w sposób rozstrzygający i ostateczny. Delikatnie zmodyfikowana wersja „obalonej" teorii może przetrwać w ramach danego paradygmatu. Logikę tej sytuacji opisuje tak zwana teza Duhema (zob. aneks 1.2).

Paradygmaty upadają w wyniku nagromadzenia zjawisk, które Kuhn nazywa anomaliami. Anomalie nie stanowią wyraźnych przeciwieństw paradygmatów ani ich nie obalają. Naukowcy przyjmują po prostu, że anomalie najwidoczniej nie odpowiadają aktualnie obowiązującym kategoriom lub uznają je za wyjątki i ignorują. Paradygmat zostaje odrzucony tylko wówczas, gdy pojawia się nowy paradygmat i następuje zmiana wspólnoty naukowców. (W pewnym miejscu Kuhn cytuje fizyka Maksa Plancka, który pisał, że jest to kwestia wymierania starszego pokolenia; Kuhn, 1962, s. 151).

Stanowisko Kuhna sprawiło, że powszechnie zaczęto doceniać rolę, jaką w procesie tworzenia i przyjmowania teorii naukowych odgrywają poglądy filozoficzne i ideologie społeczne. Sam Kuhn nie podkreślał znaczenia filozoficznych ram teorii naukowych ani wpływu, jaki na przyjęcie nowego paradygmatu mogą mieć zewnętrzne oddziaływania społeczne, ale mimochodem sugerował fakt istnienia takich zjawisk. Jednak od momentu pojawienia się teorii Kuhna wielu filozofów, historyków i socjologów nauki próbowało odpowiedzieć na pytanie, jaką rolę w narodzinach i rozpowszechnianiu się teorii naukowych odgrywają poglądy filozoficzne, przekonania religijne oraz ideologie społeczne. Wzmocniło to również argumenty przemawiające za wpływami kultury na rozwój techniki. Skoro bowiem naukowe paradygmaty, leżące u podstaw różnych technicznych rozwiązań, zawierają elementy religijne i polityczne, to znaczy, że religia i polityka mogą wpływać na technikę, i to nie tylko w związku z uzyskaniem społecznej akceptacji, ale także w odniesieniu do samej struktury teorii naukowych wykorzystywanych w technice. Takie stanowisko, czerpiąc inspirację z teorii Kuhna, przeciwstawia się koncepcji determinizmu technicznego (zob. rozdział 6).

Tworzymy DEON.pl dla Ciebie
Tu możesz nas wesprzeć.

Skomentuj artykuł

Wprowadzenie do filozofii techniki
Komentarze (2)
M
~M
26 marca 2011, 23:20
do ~R w pewnym sensie masz rację. Gdy chodzi jednak o rynek polski to jedno z niewielu dzieł na ten temat. Dlaczego więc się nie ucieszyć? :) pozdrawiam
R
R
26 marca 2011, 19:43
Ale mundre.... W Berkeley podobne krytyczne teksty powstawały w latach 70-tych (Np. Theodore Roszak) i nie były to bynajmniej żadne "after-dinner speeches". Tekst spóźniony o jakieś 30 lat.