MENÜ English Ukrainian Russisch Startseite

Kostenlose technische Bibliothek für Bastler und Profis Kostenlose technische Bibliothek


Wissenschafts- und Technikphilosophie. Vorlesungsskript: kurz das Wichtigste

Vorlesungsunterlagen, Spickzettel

Verzeichnis / Vorlesungsunterlagen, Spickzettel

Kommentare zum Artikel Kommentare zum Artikel

Teil I. Wissenschaftsphilosophie

Thema 1. Gegenstand und Methodik der Wissenschaftstheorie

Das Problem der Korrelation zwischen dem Rationalen und dem Irrationalen in der Erkenntnis. Jede Wissenschaft hat ihren eigenen Forschungsgegenstand und -gegenstand. Es gibt einen Unterschied zwischen diesen Konzepten: Ein Objekt kann mehreren Wissenschaften gemeinsam sein, während ein Thema spezifisch sein kann. Was ist Gegenstand und Subjekt der Philosophie? Wie sind sie miteinander verbunden? Welchen Platz nimmt die Philosophie im System der Wissenschaften ein? Und lässt sich philosophisches Wissen auf wissenschaftliches Wissen reduzieren, wenn die Philosophie Schwierigkeiten hat, ihren Gegenstand zu spezifizieren und den Anspruch erhebt, universell zu sein? Alle diese Fragen erfordern eine detaillierte Betrachtung.

Gegenstand der Spezialwissenschaften sind bekanntlich die individuellen spezifischen Bedürfnisse der Gesellschaft – in Technik, Wirtschaft, Kunst etc. – und jede von ihnen hat ihren eigenen Existenzgegenstand. Wissenschaftliches Denken durch Gedanken G. W. F. Hegel (1770-1831), eingetaucht in das finale Material und begrenzt durch das rationale Verständnis des Finales. Die Philosophie interessiert sich für die Welt als Ganzes, sie strebt nach einer ganzheitlichen Erfassung des Universums. Sie sucht nach dem Anfang und der Grundursache, während sich die Privatwissenschaften Phänomenen zuwenden, die objektiv, außerhalb des Menschen, unabhängig von ihm existieren. Sie formulieren Theorien, Gesetze und Formeln unter Berücksichtigung der persönlichen, emotionalen Einstellung zu den untersuchten Phänomenen und der gesellschaftlichen Folgen, die diese oder jene Entdeckung nach sich ziehen kann.

Ein Mann, der denkt, wie er schrieb Immanuel Kant (1724-1804) ist in der Lage, Einheit im Erfahrungsbereich zu formulieren. Kant unterschied zwei Ebenen dieses Denkprozesses: die Vernunft, die durch Erfahrung eine Einheit schafft, und die Vernunft, die nach Prinzipien eine Einheit der Regeln der Vernunft schafft. Mit anderen Worten: Der Geist organisiert nicht Sinnesmaterial, keine Erfahrung, sondern der Geist selbst. Die Vernunft strebt also danach, die Vielfalt des Verstandeswissens auf die kleinste Anzahl von Prinzipien zu reduzieren oder deren höchste Einheit zu erreichen. Die Vernunft vermag nur die Einheit der Ursache herbeizuführen, d.h. natürliches Muster. Aber die höchste Aufgabe der Wissenschaft besteht darin, in die Tiefen der Natur vorzudringen, zu den Urursachen, Urquellen, Urprinzipien!

Das Hauptprinzip der Einheit ist die Einheit der Ziele. Philosophie ist eine Wissenschaft, die das Ziel erkennt, um dessentwillen sich alles entwickelt und bewegt, und daher das Gute (moralische Kriterien). Philosophie ist also zunächst einmal eine Weltanschauung. Aus dieser Eigenschaft der Philosophie ergibt sich ein Problem im Zusammenhang mit der Beziehung zwischen dem Rationalen und dem Irrationalen im Wissen, d.h. mit dem Verhältnis von Philosophie und Wissenschaft.

Wissenschaft ist rational, sie ist logisches Denken; theoretisch bewusste, universelle Kenntnis des Subjekts in seinem erkenntnistheoretischen Aspekt. Wissenschaft ist aber auch ein Gegenstand, ein Phänomen, eine Handlung, deren Existenz ein Gesetz zugrunde liegt: Bildung, Regel, Ordnung, Zweckmäßigkeit. Gleichzeitig gibt es auch das Phänomen des Irrationalen, d.h. ein mächtiger, unbekannter Impuls; ein gewisser Wunsch, der noch keinen Grund hat; unbewusste Kraft. Die höchste Stufe in der Reihe der Objektivierung des Willens ist der Mensch: ein mit rationalem Wissen ausgestattetes Wesen. Jeder unwissende Mensch ist sich seiner selbst durch seinen Lebenswillen bewusst. Alle anderen Individuen existieren in seinem Geist als etwas, das von seiner Existenz abhängt, die als Quelle des grenzenlosen Egoismus des Menschen dient. Die soziale Organisation, die nur ein System ausgeglichener Teilwillen ist, zerstört den Egoismus nicht: Die Überwindung des egoistischen Impulses erfolgt im Bereich der Kunst und Moral.

Arthur Schopenhauer (1788-1860) definierte das Irrationale als den Willen zum Leben. Nach Schopenhauer ist die Grundlage der Moral ein Gefühl des Mitgefühls, irrational. Ein Mensch kann sowohl Leiden als auch Glück erfahren, die im Willen zum Leben verwurzelt sind.

Das Irrationale ist unerkennbar. Mystik ist ein Versuch, dorthin einzudringen, wo weder Wissen noch Kontemplation noch Konzept eindringen. Aber der Mystiker kann nichts anderes als seine Gefühle mitteilen. Man muss ihn beim Wort nehmen, er kann niemanden überzeugen: Dieses Wissen wird grundsätzlich nicht kommuniziert. Die Philosophie muss von einem allen gemeinsamen objektiven Wissen ausgehen, von der Tatsache des Selbstbewusstseins. Sie liegt nach Schopenhauer zwischen Rationalismus und Irrationalismus und muss Wissen vermittelt werden, d.h. rational. Um Allgemeinwissen auszudrücken, verwendet die Philosophie Konzepte und Kategorien. Seine Hauptaufgabe besteht darin, ein einheitliches Bild der Welt zu schaffen, in der alles voneinander abhängt. Das Irrationale ist jedoch objektiv! Blinder Glaube an den Kult der wissenschaftlichen und technischen Vernunft (Positivismus), an logisch-deduktive Mittel zur Wahrheitserfassung im XNUMX.-XNUMX. Jahrhundert. führte zu einer Unterschätzung des irrationalen Prinzips. Und das spielte eine fatale Rolle in der Geschichte der Menschheit: Die Tendenz zum Rationalen brachte der Menschheit weder Glück noch Frieden.

Es ist allgemein anerkannt, dass das Problem der Korrelation zwischen dem Rationalen und dem Irrationalen in der Neuzeit geboren wurde und mit dem Namen verbunden ist René Descartes (1596-1650). Die Hauptthese von Descartes läuft auf Folgendes hinaus: „Ich denke, also existiere ich“ [1]. Daher die Unterschätzung der Rolle des Irrationalen und die Übertreibung der Rolle des Vernünftigen. Es entstand auch eine Art Stereotyp: Wenn es irrational ist, bedeutet es negativ. Aber so einfach ist es nicht. Die Vernunft steht oft an der Grenze zur Moral: Man kann einem Menschen ein Stück Brot wegnehmen, um sich zu sättigen und nicht zu verhungern. Die Aktion ist vernünftig, aber unmoralisch.

Was ist die Besonderheit philosophischen Wissens? Im Nachdenken! Unter Reflexion versteht man das auf sich selbst gerichtete Denken und Bewusstsein, auf die Wahrnehmung der eigenen Formen und Prämissen. Philosophische Reflexion unterscheidet sich von wissenschaftlicher Reflexion. Letzteres ist in sich geschlossen und geht oft von der Position der Wissenschaftlichkeit als einziger Leitlinie für die menschliche Existenz aus (dies war besonders charakteristisch für das XNUMX.-XNUMX. Jahrhundert).

Österreichischer Philosoph Ludwig Wittgenstein (1889-1951) sprach von der Unzulänglichkeit einer rein kognitiven Erkundung der Welt. Der Wissensbereich über die Welt sind Fakten und ihre logischen Transformationen. Aber es gibt Aspekte der Welt, die sich nicht für kognitive Aussagen eignen. Hier wird die Welt ganzheitlich erfasst, es entsteht ein Gefühl der gemeinsamen Verbundenheit mit der Welt und dem Leben, die Probleme Gottes, Glück, Sinn des Lebens usw. werden bedeutsam. Wittgenstein sah das Ziel philosophischer Studien in der Erlangung von Klarheit, die für ihn die Bedeutung eines ethischen Prinzips als Voraussetzung für Ehrlichkeit und Aufrichtigkeit in Gedanken und Aussagen hatte, ein ehrliches Bewusstsein für den eigenen Platz und Zweck in der Welt. Nach Wittgenstein muss alles Wissen wie in der Mathematik auf eine Reihe elementarer Aussagen reduziert werden. Auf diesem Prinzip baut seine Lehre vom logischen Atomismus auf, die eine Projektion der durch das logisch-strukturelle Modell vorgeschriebenen Wissensstruktur auf die Struktur der Welt darstellt. Daher setzt philosophische Reflexion Zweifel und kreatives Denken voraus.

Das Problem der Methodik der philosophischen Erkenntnis. Die Methode ist eine Form der praktischen und theoretischen Beherrschung der Realität, basierend auf den Bewegungsmustern des untersuchten Objekts. Methodik – die Lehre oder Wissenschaft über die Methode (Methoden) und Prinzipien des Wissens – besteht aus zwei Teilen: a) der Lehre von den anfänglichen Grundlagen, Prinzipien des Wissens (dieser Teil steht in direktem Zusammenhang mit Philosophie, Weltanschauung) und b) die Lehre von Techniken und Methoden der Forschung (Hier werden bestimmte Erkenntnismethoden betrachtet und eine allgemeine Forschungsmethodik entwickelt). Es besteht jedoch das Problem der Kluft zwischen philosophischer und wissenschaftlicher Methodik. Der Positivismus glaubte beispielsweise, dass die Wissenschaft eine Philosophie für sich sei, und zwar nicht nur im Bereich der Untersuchung der objektiven Realität, sondern auch im Bereich der Selbsterkenntnis ihrer Bedingungen und Voraussetzungen. Mit anderen Worten: Der klassische Positivismus des XNUMX. Jahrhunderts ersetzte die Philosophie durch konkrete wissenschaftliche Erkenntnisse über die Welt. Der logische Positivismus ersetzt die philosophische Methode durch konkrete wissenschaftliche Methoden und die philosophische Reflexion der Wissenschaft durch konkrete wissenschaftliche Reflexion. Was leugnet der Positivismus? Erstens die objektive Realität als Gegenstand der philosophischen Analyse und zweitens die wissenschaftliche Erkenntnis als Gegenstand der philosophischen Forschung. Wir sprechen also von der völligen Abschaffung des Faches Philosophie im Allgemeinen.

Wissenschaft als Gegenstand philosophischer Forschung wird in vielen Wissenszweigen untersucht, was jedoch die Notwendigkeit ihrer philosophischen Betrachtung nicht negiert. Die Wissenschaft wird von der Philosophie aus zwei Perspektiven analysiert – methodisch und ideologisch. Die methodische Analyse der Wissenschaft berührt solche Probleme wie die Dialektik der Beziehung zwischen Objekt und Subjekt der Wissenschaft; innere Logik, Kontinuität, Entwicklungsmuster der Wissenschaft; das Verhältnis zwischen empirischer und theoretischer Ebene, Kategorien und Gesetzen, Formen und Methoden der Erkenntnis (besonders, allgemein, universell); wissenschaftliches Weltbild, Denkstil; Objektivität des Wissens (Theorie, wissenschaftliche Wahrheit). Die weltanschauliche Analyse der Wissenschaft konzentriert sich auf Probleme, die mit den Faktoren der soziokulturellen Bestimmung der Wissenschaft verbunden sind – materielle Produktion, Technologie, Technologie, wissenschaftlicher und technologischer Fortschritt; Wirtschaftsbeziehungen; gesellschaftspolitische, philosophische, moralisch-ästhetische, ideologische Faktoren.

Unhaltbar sind Versuche, die Philosophie in eine „besondere“ Wissenschaft zu verwandeln, eine „Wissenschaft der Wissenschaften“, die über alles andere Wissen hinausgeht. Grundlage für solche Ansichten ist der menschliche Wunsch nach ganzheitlichem Wissen. Mangels entwickelter wissenschaftlicher Erkenntnisse wird dieser Tendenz durch das Erfinden fehlender Zusammenhänge und der spekulativen Konstruktion eines Weltbildes entsprochen. So schrieb sogar G. W. F. Hegel, dass jede Wissenschaft nur angewandte Logik sei. Aber über den positiven Wissenschaften eine besondere Wissenschaft über den universellen Zusammenhang der Dinge zu errichten, ist eine nutzlose Aufgabe. Dadurch würden sie zu Lasten auf den Beinen der Wissenschaft werden und die Wissenschaft daran hindern, voranzukommen.

Die Philosophie hat ihre eigene Hauptfrage – nach der Beziehung des Bewusstseins zum Sein, die ihre Annäherung an die Welt bestimmt und den Methoden und der Logik der Erkenntnis zugrunde liegt, die sie entwickelt. Die Philosophie sollte sich der wissenschaftlichen Erkenntnis nicht widersetzen. Sie setzt ideologische Haltungen zusammen mit allen anderen Wissenschaften (Natur- und Sozialwissenschaften) um.

Wissenschaft als Gegenstand philosophischer Reflexion. Wissenschaft ist ein Grundbegriff, für den es keine erschöpfende formale Definition gibt. Unter Wissenschaft wird also einerseits die Entwicklung und Systematisierung objektiven Wissens verstanden. Andererseits ist Wissenschaft ein institutionalisiertes (gesellschaftliches) rationales Prinzip (gesunder Menschenverstand). Gleichzeitig ist Wissenschaft eine Gemeinschaft, innerhalb derer eine vollständige (ohne individuelle Differenzen) und freiwillige, auf Überzeugungen basierende Einigung verschiedener Menschen zu einem bestimmten Thema möglich ist. Quasi-Wissenschaft ist die Form, die die Wissenschaft in einer hierarchisch organisierten wissenschaftlichen Gemeinschaft annimmt; eine bestimmte wissenschaftliche Theorie, die eine ähnliche Weltwissenschaft leugnet. Ein solcher Widerspruch ist ein charakteristisches diagnostisches Merkmal der Wissenschaftsanalyse. Quasi-Wissenschaft umfasst sowohl wissenschaftliche Theorien als auch die Beziehung zwischen Wissenschaftlern, d. h. Es ist ein Werkzeug, das es jeder Gruppe von Wissenschaftlern ermöglicht, die Macht in der wissenschaftlichen Gemeinschaft zu behalten oder zu übernehmen. Schließlich gibt es noch die Pseudowissenschaft – eine bestimmte Doktrin, die sich in gegenseitiger Ablehnung mit der gleichnamigen Weltwissenschaft befindet (zum Beispiel die Michurin-Biologie, die sich von 1948 bis 1964 der Weltwissenschaft widersetzte). Quasiwissenschaft ist ein soziales, kollektives Phänomen, das in der wissenschaftlichen Gemeinschaft existiert. Pseudowissenschaft ist ein individuelles Phänomen, der Fehler eines Individuums, der durch sein niedriges Bildungsniveau, seine Intelligenz und seine Geisteskrankheit verursacht wird. Aus historischer Sicht hat der Begriff „Wissenschaft“ zwei Bedeutungen: Erstens ist dies das, was in der modernen wissenschaftlichen Methodik mit Wissenschaft gemeint ist; und zweitens wurde dies in verschiedenen Perioden der Menschheitsgeschichte als Wissenschaft bezeichnet.

Die Wissenschaftskonzepte haben sich im Laufe der Zeit verändert. Ursprünglich bedeutete dieses Wort Wissen im Allgemeinen oder einfach Wissen über etwas. Der Begriff „Wissenschaft“ wurde lange Zeit auf eine durch diskursives Denken (rational, begrifflich, logisch, im Gegensatz zu sinnlich, kontemplativ) geprägte Erkenntnismethode angewandt. Aber auch Astrologie und Alchemie sind von diskursivem Denken geprägt und galten daher viele Jahrhunderte lang als Wissenschaften. Im Mittelalter war die Theologie die „Königin“ der Wissenschaften, und in der Ära von Descartes und Leibniz galt die Metaphysik als „Grundlage“ der Wissenschaften und als erste der Wissenschaften.

Wie erforscht man Wissenschaft? Wenn wir für Wissenschaft halten, was Wissenschaftler verschiedener Epochen als Wissenschaft ausgaben, verlieren wir das Thema der Wissenschaftsgeschichte. So Pierre Ramus im XNUMX. Jahrhundert. definierte das Fach Physik als das Studium zunächst des Himmels, dann der Meteoriten, Mineralien, Pflanzen, Tiere und Menschen. Und das sogar noch im XNUMX. Jahrhundert. Die Physik blieb immer noch eine einzige Wissenschaft, in der es keine klare Trennung zwischen anorganischem und organischem Bereich gab. Welches Kriterium zur Abgrenzung von Epochen lässt sich in der Wissenschaftsgeschichte identifizieren? Als solches Kriterium kann die Art der Rationalität dienen. Wir können die Art der Rationalität betrachten, indem wir die verschiedenen Überlegungen von Aristoteles, Platon, Bacon, Descartes usw. beschreiben. Aber die meisten dieser Überlegungen sind Ideologeme (d. h. falsche Vorstellungen über echte Wissenschaft). Das heißt, wenn wir diesem Weg folgen, wird sich unsere Arbeit auf die Beschreibung dieser Art von Ideologien beschränken. Es ist besser, sich auf den folgenden Aspekt zu konzentrieren: wie bestimmte Merkmale der Wissenschaft, der wissenschaftlichen Tätigkeit und ihrer Ergebnisse (Wahrheiten) im Rahmen philosophischer und metaphysischer Konzepte rational reflektiert wurden. Dann bedeutet die Art der Rationalität eine gewisse Form und einen gewissen Grad der Übereinstimmung des philosophischen und erkenntnistheoretischen Ideologems mit der realen historischen Situation in der Wissenschaft. Man kann zum Beispiel das Ideal der Konstruktion der Geometrie, das Platon und Aristoteles im Sinn hatten, mit der verwirklichten Praxis der Geometer vergleichen – Euklids „Elemente“. Wir können jene rationalen Aspekte kritisch analysieren, die in den Konzepten der Vergangenheit verankert sind, und diese Konzepte können nicht nur mit der Wissenschaft, sondern auch mit der Kultur als Ganzes, mit den Problemen des Beginns (der Entstehung) einer bestimmten Wissenschaft, in Zusammenhang gebracht werden. die Voraussetzungen für seine Entstehung (Mythos, Religion, Magie, Philosophie usw.). Wenn wir also die Entstehung der Arithmetik oder Geometrie studieren, können wir nicht darauf verzichten, die vorrationalen Formen dieser Wissenschaften zu studieren – die Praxis, Grundstücke zu vermessen, an den Fingern zu zählen usw. Das Problem besteht darin, die historischen Rationalitätstypen in der Wissenschaft zu verstehen, und dies wird oft in Begriffen einer wissenschaftlichen oder intellektuellen Revolution ausgedrückt. In diesem Fall sprechen wir von einem Wandel globaler Annahmen und Paradigmen (T. Kuhn), einer „intellektuellen Reform“ (A. Koyré) und einem völligen Wandel der „intellektuellen Garderobe“ (S. Toulmin). Wie äußern sich diese Prozesse? In der Regel führt der plötzliche Sieg einer der konkurrierenden Theorien zu ihrer schnellen und unerwarteten Akzeptanz durch die wissenschaftliche Gemeinschaft und die öffentliche Meinung.

Wie wird irrationales Wissen rational? Hierzu gibt es mehrere Standpunkte bzw. Ansätze. Vertreter des ersten (O. Comte, G. Spencer, E. Taylor, J. Thompson usw.) glaubten, dass Philosophie und Wissenschaft aus Mythen entstanden seien. Nach dem zweiten Ansatz (an dem insbesondere A.F. Losev festhielt) hatte die Wissenschaft bereits in der ersten Entwicklungsstufe nichts mit der Mythologie zu tun [2]. Eine dritte Option ist ebenfalls möglich: Der Mythos diente als Knotenpunkt für die beiden historisch ersten Rationalitätstypen – die formale Logik der Eleaten[3] und die dialektische Logik des Heraklit.

Unser Fokus liegt also auf dem Problem der Rationalität. Was hat ein solches Interesse an ihr geweckt? Tatsache ist, dass die Frage der Rationalität nicht nur theoretisch, sondern auch äußerst praktisch ist. Die industrielle Zivilisation ist eine rationale Zivilisation; die Wissenschaft spielt dabei eine Schlüsselrolle und stimuliert die Entwicklung neuer Technologien. Die Relevanz des Rationalitätsproblems ergibt sich aus der wachsenden Besorgnis über das Schicksal der modernen Zivilisation insgesamt, ganz zu schweigen von den weiteren Aussichten für die Entwicklung von Wissenschaft und Technologie. Die Grundlage des Interesses am Problem der Rationalität sind daher die Krisen, die durch die technotronische Zivilisation verursacht werden.

Die Philosophie erforscht die historischen Formen wissenschaftlichen Wissens und stellt dabei deren Fragmentierung fest, während menschliches Wissen Einheit braucht. Aber auf welcher Grundlage ist es möglich? Es wird angenommen, dass die Denkweise für Europa die Hermeneutik ist. Gerade diese muss als „Universalwissenschaft“ (scientia universalis) an die Stelle der Metaphysik treten. Hermeneutik (von griech. hermeneuo – interpretieren, interpretieren, interpretieren) - es ist die Kunst und Theorie der Interpretation. Ziel ist es, die Bedeutung des Textes auf der Grundlage seiner objektiven (die Bedeutung der Wörter) und subjektiven (die Absichten der Autoren) Gründe aufzudecken. Interesse an der Hermeneutik entsteht dort, wo es Missverständnisse, Meinungsverschiedenheiten, Missverständnisse gibt. In der hellenistischen Zeit waren Hermeneuten Interpreten von Botschaften, deren Bedeutung dem Uneingeweihten verschlossen blieb, seien es die Gedichte Homers oder die Aussprüche von Orakeln. Im Mittelalter wurde die Hermeneutik aufgrund der Notwendigkeit, die Bedeutung des Wortes Gottes zu interpretieren, wiederbelebt. Die Ursprünge ihrer Entstehung als Spezialdisziplin – der Interpretationsmethodenlehre – lassen sich bis in die Mitte des XNUMX. Jahrhunderts zurückverfolgen, als die „profane“ Hermeneutik aufkam, die Texte unterschiedlicher Art untersucht. Das Verdienst, die Hermeneutik als Wissenschaft zu begründen, gehört dazu Friedrich Schleiermacher (1768-1834), der es als eine Lehre „über den Zusammenhang der Regeln des Verstehens“ definierte, und es spielt keine Rolle, um welchen Text es sich handelt – „heilig“, „klassisch“ oder einfach „maßgeblich“. Schleermacher schlug vor, sich in das Thema Wissen einzufühlen und dabei den Text und die Psychologie des Autors zu berücksichtigen. Dies ermöglicht seiner Meinung nach, den Autor, die bewussten und unbewussten Seiten seines Werkes besser zu verstehen. Das Verständnis des Textes hängt also vom Wissen des Autors ab, d. h. Der Philosoph reduziert im Wesentlichen die Wissenschaftsphilosophie auf Grammatologie und Psychologie und entmannt damit die Philosophie selbst. Geboren ein Jahr vor Schleiermachers Tod Wilhelm Dilthey (1833-1911) forschte weiter auf diesem Gebiet. Sein Credo: Wir erklären die Natur, aber wir verstehen das geistige Leben. Dilthey verstand das Leben als Zusammenspiel von Persönlichkeiten: Die Fülle des Lebens manifestiert sich in der ihnen von Anfang an geschenkten Erfahrung und Empathie von Persönlichkeiten.

Zeitalter des Jahrhunderts Hans Georg Gadamer (1900–2002) entwickelte in seinem Buch „Wahrheit und Methode“ (M.: Fortschritt, 1988) das Konzept der Hermeneutik nicht nur als Methode der Geisteswissenschaften, sondern auch als eine Art Sammelband „unter dem Dach“ zu sammeln Hermeneutik alle wichtigen Meilensteine: Praxis, Leben, Kunst, Wort, Dialog, die hermeneutische Erfahrung zum Grundprinzip aller Philosophie erklären. Die Kunst, so der Philosoph, ist ein Organon: Nachdem sie sie aufgegeben hat, zahlt die Philosophie mit ihrer inneren Verwüstung. Das Wesen der Hermeneutik offenbart sich im Studium der Wissenschaft im System der Kultur, obwohl es problematisch ist, es direkt aus der Kultur abzuleiten.

Philosophie und Wissenschaft sind als wissenschaftliche und dialektische Arten der Rationalität miteinander verbunden. Wenn die Dialektik – die Kunst des Argumentierens – als Methode zur Konzeptualisierung der Entwicklungsprinzipien verwendet wird, dann basiert die wissenschaftliche Art der Rationalität auf der Anerkennung von: a) dem Gesetz der Erhaltung; b) das Prinzip der Korrespondenz, das Kontinuität im Wissen behauptet; c) das Prinzip der Zyklizität, Rhythmizität von Entwicklungsprozessen; d) das Prinzip der Relativität und Symmetrie, Identität usw. Als Rationalitätstypus wird die Dialektik nicht auf den wissenschaftlichen Rationalitätstypus reduziert und durch ihn auch nicht ersetzt. Die Dialektik als Wissenschaft der Entwicklungsgesetze verfügt über heuristische Ressourcen, die es ihr ermöglichen, eine Vorstellung von den Quellen und Mechanismen der Entwicklung zu formulieren und die Prinzipien der Bewegung der Realität auf der Grundlage ihrer eigenen Gesetze und Kategorien zu modellieren. Natürlich können die Gesetze der Dialektik ihren Mangel an Inhalt in der Physik offenbaren, wie der Schöpfer der klassischen Elektrodynamik und der Theorie des elektromagnetischen Feldes feststellte James Maxwell (1831-1879). Aber die heuristischen Ressourcen der Dialektik sind ungleich höher als die der Physik! Als Wissenschaft der Entwicklungsgesetze zielt die Dialektik darauf ab, solche heuristischen Ressourcen zu schaffen, die es auf theoretischer Ebene ermöglichen, die Idee, Quelle und den Mechanismus der Entwicklung herauszuarbeiten, die Bewegungsprinzipien der "aktuellen", "werdenden" Realität zu modellieren mit seiner Vielfalt und Nicht-Formalisierbarkeit. Alle Gesetze und Kategorien der Dialektik unterliegen ihr.

Spezialwissenschaften richten sich an Phänomene, die objektiv existieren, d.h. außerhalb des Menschen, unabhängig vom Menschen oder der Menschheit. Die Wissenschaft bildet Theorien und Formeln und berücksichtigt dabei die persönliche, emotionale Einstellung des Wissenschaftlers zu den untersuchten Phänomenen und den sozialen Konsequenzen, zu denen diese oder jene Entdeckung führen kann. Die Figur des Wissenschaftlers, die Struktur seiner Gedanken und seines Temperaments, die Art seiner Geständnisse und Lebenspräferenzen im Kontext wissenschaftlicher Forschung sind nicht von besonderer Bedeutung. Das Gesetz der Schwerkraft, quadratische Gleichungen, das Mendelejew-System und die Gesetze der Thermodynamik sind objektiv. Ihr Handeln ist real, es hängt nicht von den Wünschen, Stimmungen und der Persönlichkeit des Wissenschaftlers ab. Die Ideenwelt des Philosophen ist nicht nur eine statische Schicht der Realität, sondern ein lebendiges dynamisches Ganzes, eine Vielzahl von Interaktionen, in denen Zyklizität und Spontaneität, Ordnung und Zerstörung, die Kräfte von Gut und Böse, Harmonie und Chaos miteinander verflochten sind. Der philosophierende Geist muss sein Verhältnis zur Welt bestimmen. Daher wird die Hauptfrage der Philosophie als Frage nach dem Verhältnis des Denkens zum Sein, des Menschen zur Welt formuliert. Dialektik ist also eine Art Heuristik, ein Weg, um neue Ergebnisse zu erzielen.

Wissenschaftszweige gehen von bestimmten Ideen aus, die als etwas Gegebenes akzeptiert werden, das keiner Rechtfertigung bedarf. Keiner der engen Spezialisten im Prozess der direkten Forschungstätigkeit stellt sich die Frage, wie seine Disziplin entstanden ist, was ihre Besonderheit und ihr Unterschied zu anderen Disziplinen ist. Wenn diese Probleme berührt werden, betritt der Naturwissenschaftler den Bereich der Wissenschaftsgeschichte und -philosophie.

Merkmale des philosophischen Wissens. Philosophie basiert auf der theoretisch-reflexiven und spirituell-praktischen Beziehung des Subjekts zum Objekt. Sie wirkt durch neue Ideale, Normen und kulturelle Werte aktiv auf das gesellschaftliche Leben ein. Seine historisch gewachsenen Hauptbereiche sind Anthologie, Erkenntnistheorie, Logik, Ethik, Ästhetik, Anthropologie, Sozialphilosophie, Philosophiegeschichte, Religionsphilosophie, Methodik, Wissenschaftsphilosophie usw. Die Hauptrichtungen in der Entwicklung der Philosophie sind mit dem Verstehen verbunden solche Probleme wie die Welt und der Ort im Menschen, das Schicksal der modernen Zivilisation, die Einheit und Vielfalt der Kulturen, die Natur des menschlichen Wissens, Seins und der Sprache.

Die Besonderheit des begrifflichen Apparats in der Wissenschaftsphilosophie liegt darin, dass die Philosophie danach strebt, die letzten Grundlagen und Regulatoren jeder bewussten Einstellung zur Realität zu finden. Daher ist philosophisches Wissen kein rational geordnetes Schema, sondern eine detaillierte Diskussion, eine detaillierte Formulierung aller Schwierigkeiten der Analyse, ein kritischer Vergleich und eine Bewertung möglicher Lösungswege. Daher die bekannte Maxime: Für die Philosophie ist nicht nur das erzielte Ergebnis wichtig, sondern auch der Weg, der zu diesem Ergebnis führt.

"Physik, fürchte dich vor der Metaphysik!" - Diese Aussage wird Isaac Newton zugeschrieben. Dies ist sein ursprünglicher Protest gegen die Mehrdeutigkeit der Begriffsdefinition in der Philosophie. Die Wissenschaft wendet eine ziemlich strenge Organisationsform der Äußerung an. Aber die Philosophie ist jedes Mal damit konfrontiert, eine Vielzahl von Rechtfertigungs- und Widerlegungsmöglichkeiten aufzubauen, geleitet von dem Spruch: „Stelle alles in Frage“.

Für die Wissenschaft ist traditionell eine kumulative Vorwärtsbewegung, d.h. Bewegung, die auf der Akkumulation bereits erzielter Ergebnisse basiert (der Wissenschaftler wird das Einmaleins oder die Gesetze der klassischen Mechanik nicht wiederentdecken!). Es kann mit einem Sparschwein verglichen werden, in dem sich wie Münzen Körner wahren Wissens ansammeln. Die Philosophie hingegen kann sich nicht damit begnügen, bereits erzielte Ergebnisse zu übernehmen. So kann man sich beispielsweise nicht mit der Antwort eines mittelalterlichen Denkers auf die Frage nach dem Sinn des Lebens zufrieden geben: Jede Epoche löst diese Frage auf ihre eigene Weise.

Die Besonderheit der Philosophie manifestiert sich darin, dass sie sich ihrer eigenen speziellen Reflexionsmethode bedient: der Methode der Selbstwende, der Shuttle-Bewegung, die eine Rückkehr zu den ursprünglichen Prämissen und eine Anreicherung mit neuen Inhalten beinhaltet. Die Philosophie zeichnet sich durch ein Überdenken der Hauptprobleme der Menschheitsgeschichte aus, und dies ist ein Beweis für ihre Reflexivität. Die Philosophie distanziert sich gewissermaßen vom Alltag und begibt sich in die Welt der intellektuellen, vorstellbaren Entitäten. Wie geschrieben Bertrand Russell (1872-1970) ist die Philosophie etwas, das zwischen Theologie und Wissenschaft liegt; es ist ein „Niemandsland“ zwischen Wissenschaft und Theologie, aber auf beiden Seiten für Kritik offen. Unlösbare Fragen aus theologischer und wissenschaftlicher Sicht erweisen sich als Gegenstand der Philosophie. Die Sprache der Philosophie ist etwas zwischen der mit Kategorien ausgestatteten Alltagssprache und der Sprache der Poesie.

Philosophie ist keine Wissenschaft! Sie behauptet jedoch, in jeder Wissenschaft präsent zu sein – mit eigenen Konzepten, Objektivität, der Idee der Kausalität, Entwicklungsgesetzen, einer Reihe von Konzepten über Muster usw. Ihr wissenschaftlicher Charakter wird in den Hintergrund gedrängt. Das ist nicht der Punkt! Es bestimmt Werte, die sozialen Folgen von Ursache-Wirkungs-Beziehungen und bestimmt den Platz eines Menschen in der Welt.

Die Philosophie ist eine Art intellektueller Aktivität, die eine ständige Kommunikation mit den großen Geistern der Vergangenheit und Gegenwart erfordert, eine nationale Gewissheit hat, durch weltphilosophische Erfahrungen bereichert wird und daher wie jede Wissenschaft international ist und eine universelle Einheit hat.

Thema 2. Die Entstehung der Wissenschaft und die Hauptstadien ihrer historischen Entwicklung

2.1. Vorwissenschaft und Wissenschaft. Die Entstehung der ersten Formen des theoretischen Denkens

Das Hauptproblem dieses Themas ist das Problem der Genese des rationalen Denkens. Ganz gleich, wie Rationalität interpretiert wird, es ist offensichtlich, dass sie in den frühen Stadien der Menschheitsgeschichte und in der Zukunft den tiefen Stempel des mythologischen Denkens trug. Dies führt zu einer natürlichen Frage: Was ist das Kriterium der Rationalität? Vielleicht die Anzahl der mythologischen Elemente, Assoziationen, Bilder usw., die diese oder jene Lehre enthält? Nein. Wichtig ist hier die sehr tiefe Denkweise, die ein Indikator für den Rationalitätsgrad einer bestimmten Lehre ist. Mit anderen Worten, wir müssen nicht vom Inhalt, sondern von der logischen Form (Struktur) des untersuchten historischen Textes ausgehen. Uns interessiert dabei das Problem des Übergangs vom Mythos zum Logos.

Der griechische Mythos (Mythos) bedeutet Rede, Wort, Gespräch, Konversation, Plan, Plan. Mythos und Wort sind jedoch nicht identisch. Mythen gehen weit über verbale Ausdrücke, Erzählungen und Handlungen hinaus. Der Mythos, wie er in einer primitiven Gemeinschaft existierte, ist keine erzählte Geschichte, sondern eine gelebte Realität; Es handelt sich nicht um eine intellektuelle Übung oder eine Vorstellung künstlerischer Fantasie, sondern um einen praktischen Leitfaden für primitive Überzeugungen und Verhaltensweisen. Es kann nicht außerhalb des Kontextes des gesamten Lebens einer primitiven Gemeinschaft verstanden werden.

Primitives Denken kennt keine Abstraktion. Als „Hüter“ der kollektiven Erfahrung der Stammesgemeinschaft fungierte der Mythos als Regulator des Verhaltens. Er war organisch mit dem Ritual verbunden und sie führten es oft gemeinsam durch. Rituale und Mythen, die von Generation zu Generation weitergegeben wurden, wurden bedingungslos befolgt. In diesem Sinne ist der Glaube des Urmenschen kein religiöser Glaube, sondern Vertrauen durch Suggestion. Daher das Zugehörigkeitsgefühl des Einzelnen zur kollektiven Gemeinschaft und die Selbstwahrnehmung durch „Wir“ und damit die Möglichkeit, „sich beim Wort zu verlassen“, Missverständnisse und Absurditäten. Kollektive Macht in Mythen und Ritualen wurde in symbolisch autoritärer Form über den Einzelnen ausgeübt. Dies bestimmte die wichtige Rolle des Vorfahren – des Totems. Die Funktion des Mythos bestand darin, die Kräfte des Kollektivs für den Zusammenhalt zu mobilisieren, von dem das Überleben der Gemeinschaft und des Clans abhing. Der Mythos sollte das Leben des Einzelnen so weit wie möglich den Interessen der Einheit unterordnen. Die Worte des Mythos sind identisch mit Verhaltensweisen: Jede Veränderung der Worte führt zum Chaos.

Die primitive Mythologie hat ihre eigenen historischen Perioden: 1) die totemistische Periode (der Akt des Essens eines Tieres steht im Mittelpunkt der mythologischen Aufmerksamkeit); 2) die Geburtsperiode (das vorherrschende Motiv ist der produktive Akt: Aussaat, Ernte usw.). Aber sowohl im ersten als auch im zweiten Fall ist die Verehrung von Fetischen, Totems und Gottheiten noch keine religiöse Verehrung. Götter erfüllen im mythologischen Bewusstsein andere Funktionen als in der Religion. Fetische, Totems, Tabugegenstände sind Zeichen, die das Verhalten regulieren („Rufe“, „Befehle“ etc.). Die Haltung gegenüber Gottheiten war in dieser Zeit noch nicht heilig. In den Mythen gibt es unzählige Beschreibungen von Handlungen, bei denen das Totem (der Gründer des Clans) oder der Gott (z. B. der griechische Dionysos oder die papuanischen Götter) zerrissen und verschlungen werden. Die Götter verhalten sich wie Menschen, und die Menschen fühlen sich den Göttern gleichgestellt und zeigen ihnen wenig Respekt. Ein Mensch kann ein Gott werden und seine Macht nur erhalten, indem er ein Totem aufnimmt, indem er es isst. Und Gott kann ein Mensch, ein Hund und ein Hai werden.

Claude Levi-Strauss (1908-2000) argumentierten, dass der archaische Mythos eine kognitive Funktion hat. Ist es so? Tatsache ist, dass die Lebenstätigkeit der primitiven Gesellschaft synkretistisch (ungeteilt), integral ist. Die primitive Arbeitstätigkeit, der Alltag und die Herstellung von Arbeitswerkzeugen sind von einem mythologischen Bewusstsein durchdrungen. Die produktive Tätigkeit des Urmenschen hat sich noch nicht in einen selbständigen Bereich isoliert und existiert als Moment einer ganzheitlichen Lebensweise; es ist so routinemäßig und einfach, dass es keiner Reflexion bedarf; es ist nicht Gegenstand der Reflexion, was mangels abstrakten Denkens unmöglich ist. Die instrumentelle Tätigkeit des Urmenschen wird von ihm nicht als etwas Besonderes wahrgenommen und nicht von Handlungen wie Gehen, Laufen, Schwimmen getrennt. Kleinere technische Verbesserungen im Alltag wurden im Laufe der Jahrhunderte so langsam durchgeführt, dass das öffentliche Bewusstsein nicht in der Lage war, sie herauszugreifen, ihre Aufmerksamkeit auf sie zu lenken. Natürlich stellt der primitive Mensch Haushaltsgegenstände gekonnt her: Körbe, Stoffe, Schmuck, erstaunlich in Subtilität und Präzision der Ausführung. Aber das ist nichts anderes als Geschicklichkeit, Geschicklichkeit, die sich durch die Übung gebildet hat. Im ganzen sondert sich das Individuum der Urzeit nicht von der Gattung ab, denkt nicht über sich nach. Ein Beispiel ist die Forschung A. F. Losev (1893-1988) Strukturen der Sprachen Korjak, Aleuten und Tschuktschen. Es stellte sich heraus, dass das Denken hier Schwierigkeiten hat, die Dinge zu zerlegen; Mythologie fehlt oder steckt noch in den Kinderschuhen.

Aber auch die Urgemeinschaft trennt sich nicht von der sie umgebenden Welt, der Natur. Das mythologische Bewusstsein kennt die Verdoppelung „Welt – Mensch“ nicht. J. J. Frazier (1854-1941) in dem bekannten Werk „Der goldene Ast“, dass der Urmensch die Ursachen vieler Phänomene nicht kennt, obwohl er im Laufe der tausendjährigen Geschichte gewisse Erfolge erzielt hat, zum Beispiel Feuer gemacht hat indem man ein Stück Holz an einem Stück Holz reibt. So beschreibt der Autor, wie schockiert die christlichen Missionspriester von der arroganten Arroganz der Zauberer waren, die auf ihre Fähigkeit vertrauten, die Natur zu beeinflussen, um sie zu zwingen, so zu handeln, wie sie es brauchten. Ernst Kassirer (1874-1945) spricht auch von einer stabilen und ständigen Leugnung des Phänomens Tod durch den Mythos, d.h. Die Natur existiert im mythologischen Bewusstsein nicht als eine dem Menschen entgegenstehende Außenwelt. Daher die Frage: Wie ist in diesem Fall Wissen möglich, wenn sein Gegenstand abwesend ist? Dabei ist zwischen den Begriffen „Denken“ und „Erkennen“ zu unterscheiden. Denken ist umfassender als Wissen. Der primitive Mensch denkt, und das Ergebnis seines Denkens drückt sich in objektiver Aktivität aus. Aber Wissen existiert immer noch in einer impliziten Form. Erkenntnis ist die nächste Stufe in der Entwicklung des Denkens, die unbedingt einen Moment seiner Verbalisierung und damit eine kritische Haltung sich selbst gegenüber (Reflexion) schaffen muss. Für den Urmenschen existiert Wissen nicht als etwas Objektives, d.h. unabhängig von seiner Subjektivität. Vorstellungen über Wissen werden nur in der antiken Kultur gebildet. (Sokrates sagte also: „Ich weiß, dass ich nichts weiß“, fügte aber sofort hinzu: Es ist viel trauriger, die Tatsache zu erkennen, dass „seine Richter dies nicht einmal wissen.“)

Englischer Philosoph, einer der Begründer des Postpositivismus Michael Polani (1891-1976) führten die Kategorie des impliziten Wissens ein. Nach Ansicht des Autors besitzt eine Person sowohl explizites Wissen, das persönliche Erfahrungen in Worten ausdrückt, als auch implizites Wissen, das unpersönlich, ganzheitlich und von Natur aus nicht verbalisierbar ist. Implizites (peripheres) Wissen konzentriert sich nicht auf die Struktur des Objekts, sondern auf seine Funktion. Das ist unkritisches Wissen. Mythos kennt in diesem Sinne keinen Dialog, der die Forderung nach Kritik an gegensätzlichen Standpunkten enthält. Daher die Schlussfolgerung: Da ein primitiver Mensch keine Zweifel an Unwissenheit hat, bedeutet dies, dass er alles weiß, und dies ist gleichbedeutend mit der Tatsache, dass er nichts weiß. Das Denken wird zur Erkenntnis, wenn es beginnt, über sich selbst nachzudenken. Der Autor beweist, dass ein formell geschulter Geist, der nicht an den lebendigen Quellen des "persönlichen Wissens" hängt, für die Wissenschaft nutzlos ist[4] .

Mythologisches Denken erklärt nicht, sondern suggeriert. Wir können jedoch von Wissen in Bezug auf die primitive Gesellschaft sprechen, aber nur in dem Sinne, dass es in Form einer Weltanschauung erscheint. Die Etymologie des Wortes „wissen“ im Russischen und Griechischen geht auf die Sinnesempfindung (Wahrnehmung) zurück. Eine der Bedeutungen des Wortes „wissen“ im Russischen ist, ein Gefühl zu erleben, etwas zu erleben. Und zum Beispiel hat Homer die Ausdrücke „denke mit deinen Augen“, „denke mit deinem Zwerchfell“, „denke mit deinem Sehvermögen“. Folglich beschränken sich die Dinge, die ein primitiver Mensch wissen sollte, auf Verbote (nicht innerhalb des Clans zu heiraten, keinen Inzest zu begehen, keine Person zu töten, die seinem Clan angehört), d. h. Der Inhalt des Wissens ist das Verbotene. In der Zeit der Dominanz des mythologischen Denkens war der Bedarf an besonderen wissenschaftlichen Erkenntnissen noch nicht entstanden. Doch dann stellt sich eine andere Frage: Hat der Mythos eine ethnologische Funktion? Teilweise ja. Beispielsweise griffen viele Denker der Antike oft auf Mythologien zurück, um soziale und natürliche Phänomene zu erklären. Dies geschah, als es keine rationale Interpretation von Phänomenen gab (erinnern Sie sich an den Mythos von Platons Höhle).

Aber wie ist das Verhältnis von Religion zu Wissen? Hegel nannte mythologisches Bewusstsein "unmittelbare", "natürliche" Religion. Aber es ist sehr schwierig, die Grenze zwischen Mythologie und Religion zu definieren. Ihr Kult ist verwandt, der in beiden Fällen autoritär und absolut ist. Gleichzeitig gibt es viele Unterschiede zwischen ihnen.

1. Mythos ist eine universelle, einzigartige Form des sozialen Bewusstseins auf einer bestimmten Stufe. Die Religion dagegen tritt mit der Kunst, dem politischen Bewußtsein, mit der Trennung der geistigen Arbeit in eine selbständige Fachtätigkeit auf.

2. Träger des mythologischen Bewusstseins ist die Gesellschaft als Ganzes. Religion entsteht auf der Grundlage der Bildung besonderer Gruppen von Geistlichen (Priestern), die sich beruflich mit der Produktion religiöser Ideologien befassen.

3. Es gibt Unterschiede in den Formen der Verhaltensregulation. Ein Mythos existiert, wenn sich Individuen nicht voneinander trennen und das Verhalten direkt durch Verbote geregelt wird. Religion existiert unter Bedingungen der Gemeinschaftsdifferenzierung, der Entstehung von Privateigentum. Das Verhalten wird in diesem Fall indirekt durch die Einwirkung auf die geistige Welt reguliert. Die Religion agiert bereits zusammen mit politischen und rechtlichen Regulierungsbehörden. Es wächst zu einer besonderen sozialen Einrichtung heran.

4. Im Gegensatz zum Mythos spaltet, verdoppelt die Religion die Welt in die heilige (heilige) und weltliche (profane) Welt. In der Religion ist es nicht mehr möglich, mit Gott auf Augenhöhe zu kommunizieren.

5. In der Religion gibt es eine weitere Verdoppelung – in die natürliche Welt und die übernatürliche (wundersame) Welt. Das mythologische Bewusstsein kennt eine solche Unterscheidung nicht. Daher betonen die Evangelisten die Fähigkeit Christi, Wunder zu wirken, um ihn von denen zu unterscheiden, die am natürlichen Verlauf von Leben und Tod beteiligt sind; seine Handlungen sind Ausnahmen von den Regeln.

6. Die Funktion Gottes ändert sich in der Religion. Mythologische Götter kennen keine Moral, ethische Wertungen sind auf sie nicht anwendbar. Der Gott der Religionen ist anthropomorph. Gleichzeitig ist er heilig, denn er ist Träger der höchsten ethischen Grundsätze. Religiöse Ethik erhebt moralische Imperative zum Absoluten, da sie glaubt, dass Relativismus in der Moral unweigerlich zu Immoralismus, Selbstzerstörung der Menschheit führt. So misst beispielsweise Mose sein Handeln an den zehn Geboten, die als universelle „kategorische Imperative“ formuliert sind und die Grundlage einer autonomen Moral bilden.

Hegel betrachtete Religion als eine Form des Wissens, aber das ist ein Fehler. Religion ist in ihrer Entstehung nicht der Funktion untergeordnet, Wissen in objektiver Form zu produzieren; es hat keine kognitiven Funktionen. Religion ist der Nachfolger der Mythologie und produziert kein Wissen in systematisierter, geschweige denn theoretischer Form. (Der schwächste Punkt selbst der repräsentativsten Religionen – Christentum, Buddhismus, Islam – ist ihr Verständnis der Natur und des menschlichen Denkens.) Die Natur-, Pflanzen- und Tierwelt ist beispielsweise für das frühe Christentum nicht von eigenständigem Interesse, sondern dient als solche eine Allegorie zur Beschreibung menschlichen Verhaltens und menschlicher Moral. Die Funktionen der Religion sind vorwiegend regulierender Natur und werden auf psychologisch suggestiver und heiliger Basis erreicht. Was die Wissenschaft betrifft, kann sie als Produktion von Wissen definiert werden. Das Problem besteht jedoch darin, dass rationales Wissen, das auf dem Gegensatz von Objekt und Subjekt basiert, viel Negatives in die Welt bringt. Glaubt die Wissenschaft, dass nur der Mensch (menschliche Gemeinschaft, Kultur) Sinn in die Welt bringt? Die Folge einer solchen Herangehensweise ist, dass die Natur ihrer ontologischen Bedeutung beraubt wird. Dies kommt insbesondere in der Umwandlung der Natur durch die technotronische Zivilisation in eine Art „Rohstoff“ zum Ausdruck. Aber wie lässt sich das Rationalisierungsproblem und die verschiedenen Arten von Krisen, die es hervorruft, beispielsweise die Umweltkrise, lösen? Die Umweltkrise ist nicht in erster Linie ein Produkt der industriellen Zivilisation in ihrer objektiven und materiellen Form (in Form von Maschinen, Fabriken, Fabriken, Elektro- und Atomkraftwerken usw.); Dies ist ein Produkt einer besonderen Art von Mentalität, die für das New Age charakteristisch ist und unsere gegenwärtige Einstellung zur Natur und unser Verständnis von ihr bestimmt. Das Konzept des New Age bestand darin, dass die Natur ein Objekt ist, das der Mensch für seine eigenen Zwecke nutzt. Der Mensch ist ein Transformator, ein Vergewaltiger. In diesem Fall wird die „Zielursache“ aus der Natur entfernt. Deshalb ist ein philosophisches Umdenken des Rationalitätsproblems so wichtig.

2.2. Die Herausbildung experimenteller Wissenschaft in der neuen europäischen Kultur

Universitäten, Schulen, die rationale Autonomie der Scholastik, die nach und nach die Grundlagen des Mittelalters untergrub, begannen sich in die Bedingungen der industriellen Entwicklung des New Age zu „passen“. Nach und nach wurden die Universitäten zu „nationalen“ Universitäten; jeder konnte dort studieren. Es entstanden Korporationen von Studenten und Meistern ohne Klassenunterschied. Die ältesten Universitäten in Bologna (1158), Paris (1215) und Oxford (1206) schafften nach und nach die römisch-päpstlichen Verbote ab, Naturwissenschaften und Philosophie zu unterrichten. Die führende Position im Erneuerungsprozess nahm die Universität Oxford ein, wo traditionell ein günstiges Umfeld für die Entwicklung der Naturwissenschaften herrschte. Die Universitäten dieser Zeit lehrten das sogenannte Quadrium, eine Kombination aus Arithmetik, Geometrie, Astronomie und Musik. In dieser Zeit wurde die Rolle des Erfahrungswissens neu überdacht. Man begann, Werke zu veröffentlichen, ohne Gott zu erwähnen. Das wissenschaftliche Erbe des Aristoteles wurde wiederhergestellt. Das Motto dieser Ära waren die Worte von Roger Bacon: „Die Wahrheit ist das Kind ihrer Zeit, und die Wissenschaft ist nicht die Tochter eines oder zweier, sondern der gesamten Menschheit.“ Auch die Methoden der wissenschaftlichen Forschung änderten sich: Die aristotelische Deduktion wich der Induktion. Doch die Inquisition kämpfte weiterhin für ihre Prinzipien. So wurde die wissenschaftliche Leistung von R. Bacon, der Optik, Astronomie und Alchemie studierte und viele spätere Entdeckungen vorwegnahm, von ihr mit 15 Jahren Gefängnis „bewertet“ und die Werke des Wissenschaftlers verbrannt.

Ein ähnliches Schicksal ereilte den italienischen Wissenschaftler, einen der Begründer der exakten Naturwissenschaften, Professor für Mathematik an der Universität Pisa Galileo Galilei (1564-1642). Galileo legte den Grundstein für die moderne Mechanik: stellte die Idee der Relativität der Bewegung auf, stellte die Gesetze der Trägheit, des freien Falls und der Bewegung von Körpern auf einer geneigten Ebene auf, die Addition von Bewegungen; entdeckte die Isochronie der Pendelschwingungen; der erste, der die Festigkeit von Balken untersuchte; baute ein Teleskop mit 32-facher Vergrößerung und entdeckte Berge auf dem Mond, vier Satelliten des Jupiters, Phasen in der Nähe der Venus, Flecken auf der Sonne. Er verteidigte aktiv das heliozentrische System der Welt, wofür er von der Inquisition (1633) vor Gericht gestellt wurde, die ihn zwang, die Lehren von N. Copernicus aufzugeben. Bis zu seinem Lebensende galt Galileo als „Gefangener der Inquisition“ und musste in seiner Villa in der Nähe von Florenz leben.

Eine weitere große Leistung in der Entwicklung der Wissenschaft wurde von einem Zeitgenossen von Galileo, einem englischen Staatsmann und Philosophen, dem Begründer des englischen Materialismus, vollbracht. Franz Bacon (1561-1626). In seiner Abhandlung „New Organon“ (1620) verkündete Bacon das Ziel der Wissenschaft, die Macht des Menschen über die Natur zu vergrößern. Er vertrat die These „Wissen ist Macht“ und erstellte ein Programm zur Verallgemeinerung der gesamten intellektuellen Welt, schlug eine Reform der wissenschaftlichen Methode vor: den Geist von Fehlern reinigen, sich der Erfahrung zuwenden und sie durch Induktion verarbeiten, deren Grundlage das Experiment ist . Bacons Klassifikation der Wissenschaften, die eine Alternative zu der von Aristoteles darstellte, wurde lange Zeit von vielen europäischen Wissenschaftlern und Philosophen als grundlegend anerkannt. In seinem auf psychologischen Kriterien basierenden Werk „Über die Würde und das Wachstum der Wissenschaften“ unterteilte Bacon die Wissenschaften in historische, poetische und philosophische. Gleichzeitig erkannte Bacon das Recht auf die Existenz einer religiösen Interpretation der Wahrheit an. Er nannte Wissensfehler „Idole des Wissens“.

Französischer Mathematiker, Physiker und Physiologe Rene Descartes (1596-1650) wurde zum Begründer des Rationalismus in der Philosophie. In der Abhandlung „The Rule for the Guidance of the Mind“ formulierte er die Regeln der wissenschaftlichen Erkenntnis, die die Essenz der Erkenntnismethode von Descartes ausmachten:

1) nur das als wahr akzeptieren, was keinen Anlass zum Zweifel gibt;

2) komplexe Probleme in einfache Komponenten zerlegen;

3) einfache Elemente in einer strengen Reihenfolge anordnen;

4) Erstellen Sie vollständige Listen und Bilder der verfügbaren Elemente, um sicherzustellen, dass es keine Annahmen gibt.

Descartes betrachtete die Intuition, das natürliche Licht der Vernunft, den Beweis kognitiver Fähigkeiten, als den Anfang des Wissens; Schlussfolgerung kam ihm vor wie Intuition in Aktion. Descartes ging als Vertreter des Dualismus in die Geschichte der Wissenschaftsphilosophie ein und erkannte die Existenz zweier unabhängiger Substanzen an – Erweiterung und Denken.

Die Entstehung einer neuen europäischen Wissenschaft wurde möglich dank der Anwendung der experimentellen Methode und ihrer Kombination mit mathematischer Beschreibung. Eine herausragende Rolle spielten dabei G. Galileo, F. Bacon und R. Descartes.

Die Haupterrungenschaft des Neuen Zeitalters in der Wissenschaft war die Herausbildung einer wissenschaftlichen Denkweise, die durch die Kombination des Experiments als Methode zur Erforschung der Natur mit einer mathematischen Methode und der Herausbildung einer theoretischen Naturwissenschaft gekennzeichnet war. All dies wirkte sich positiv auf die Dynamik der neuen europäischen Kultur aus. In dieser Zeit wurde auch die Rechtsstellung der Wissenschaft erheblich gestärkt. 1662 wurde in London auf der Grundlage der Royal Charter die Royal Society of Naturalists gegründet und ihre Charta verabschiedet. Im selben Jahr wurde in Paris die Akademie der Wissenschaften gegründet.

2.3. Die Entstehung der Technikwissenschaften und die Entstehung der Technikphilosophie

Der Begriff „Technik“ (aus dem Griechischen techne – Kunst, Handwerk, Können) vereint zwei Hauptaspekte: 1) Werkzeuge, vom Menschen geschaffene Werkzeuge; 2) eine Reihe von Fertigkeiten, Fähigkeiten, Techniken, Methoden, Operationen usw., die zur Aktivierung der Arbeitswerkzeuge erforderlich sind (manchmal werden sie durch den Begriff "Technologie" definiert). Die Technikphilosophie als Richtung der Wissenschaftsphilosophie erregte in Russland erst Ende des 150. Jahrhunderts Aufmerksamkeit. Dies lag vor allem an der Abwertung der marxistischen Philosophie. Ein weiterer Grund für ein so spätes Interesse an diesem Bereich des philosophischen Denkens hängt mit den Besonderheiten der Technologieentwicklung zusammen. Einigen Schätzungen zufolge betrug die Lücke zwischen theoretischer Forschung und ihrer Umsetzung bis zum Ende des XNUMX. Jahrhunderts mindestens XNUMX Jahre, obwohl die Entwicklungsgeschichte der Technik von der zunehmenden Geschwindigkeit der technischen Entwicklung der Welt zeugt. In dieser Hinsicht ist die Situation, die sich im zwanzigsten Jahrhundert entwickelt hat, bezeichnend. In dieser Zeit folgten Entdeckungen wie eine Lawine: der Flug des ersten Flugzeugs, die Erfindung eines Kühlschranks, eines Panzers, die Entdeckung des Penicillins, die Schaffung eines Radioteleskops, die Entstehung des ersten Computers, die Entdeckung der DNA, Weltraumspaziergang des Menschen, Klonen usw. - dies sind Beweise für die Wirksamkeit menschlicher Aktivitäten. Und hier sind ihre Kosten: Technologie versklavt einen Menschen, zerstört seine Spiritualität, führt zum Tod der Zivilisation. Um die negativen Folgen der technischen Entwicklung der Welt zu vermeiden, benötigen Technologie und Ingenieurtätigkeiten genaue Richtlinien, die das Ausmaß und die Schwere der Probleme der Interaktion zwischen der natürlichen Welt und der künstlichen Welt berücksichtigen.

Fragen des Instinkts und des Bewusstseins im menschlichen Handeln interessierten Wissenschaftler schon lange vor den ersten Experimenten des großen russischen Physiologen I. P. Pawlow. So glaubte der antike griechische Philosoph Anaxagoras (500-428 v. Chr.), dass der Mensch durch den Einsatz seiner Hände allen anderen Tieren überlegen sei. Der arabische Historiker und Philosoph Ibn Khaldun (1332-1406), der die Idee der Erschaffung des Menschen durch Gott ablehnte, betrachtete die Natur als ein großes, miteinander verbundenes und sich entwickelndes Ganzes, in dem die Welt der Mineralien eng mit der Pflanzenwelt verbunden ist, und das auch Letzteres zum Tierreich. Und das alles basiert auf dem Prinzip der Kausalität. Ein Mensch mit Verstand und Hand beherrscht das Handwerk, um Werkzeuge herzustellen und sich zu schützen. Diese Überlegungen des Denkers bildeten die Grundlage des instrumentellen Konzepts der menschlichen Bildung, das in Anlehnung an Ibn Khaldun von Benjamin Franklin (1706-1790), Adam Smith (1723-1790) und anderen entwickelt wurde. Dieses Problem wurde im Detail untersucht die Werke Ludwig Noiret (1827-1897). In seinen Werken „Der Ursprung der Sprache“ und „Das Werkzeug und seine Bedeutung in der historischen Entwicklung der Menschheit“ vertrat er die Überzeugung, dass erst mit dem Aufkommen der Werkzeuge die wahre Menschheitsgeschichte beginnt. Noiret brachte dieses Phänomen mit dem menschlichen Denken in Verbindung und hob zwei seiner Merkmale hervor. Erstens dienen Werkzeuge dem Willen des Menschen, seinem Intellekt. Sie selbst sind die Schöpfung rationalen Denkens. Mit anderen Worten: Die menschliche Hand ist ein „Organ des Gehirns“, ein Werkzeug von Werkzeugen! Der Arbeitsprozess unter dem Einfluss von Werkzeugen wirkt sich am unmittelbarsten auf die Arbeit des Gehirns und seine Entwicklung aus, einschließlich der Entwicklung des gesamten menschlichen Körpers: „Die Hand gibt dem Auge und dem Geist lehrreiche Lektionen.“ Zweitens, und dies ergibt sich aus dem vorherigen Urteil, erfährt die Hand im Prozess der instrumentellen Tätigkeit erhebliche Veränderungen, wodurch sie aufgrund ihrer organischen Verbindung zu einem starken Faktor in der Entwicklung des Geistes wird. Wie wäre es mit dem Denken? Laut Noiret erreicht das Denken erst später, was bereits viel früher entwickelt wurde, dank der Arbeit, die dem Denken vorausgeht, dem Denken vorausgeht [5].

Aber der eigentliche Begründer der Technikphilosophie ist der deutsche Philosoph Ernst Kapp (1808-1896). Mit der Hegelschen Philosophie nicht zufrieden, beginnt er, Hegels Erbe auf der Grundlage des anthropologischen Konzepts Ludwig Feuerbachs (1804-1872) materialistisch aufzuarbeiten. Kapp war der Erste, der einen mutigen Schritt wagte: Im Titel seines Werkes verband er die beiden bis dahin scheinbar unvereinbaren Begriffe „Philosophie“ und „Technik“. Im Zentrum seines Buches „Grundrichtungen der Technikphilosophie“ steht das Prinzip der Organprojektion: Der Mensch reproduziert in all seinen Schöpfungen unbewusst seine Organe und erkennt sich anhand dieser künstlichen Schöpfungen. Wie Noir richtet Kapp sein Augenmerk auf die Hand als besonderes Organ („das Organ aller Organe“). Die „mechanische“ Verlängerung der Hände sind die Augen, die Kapp Halbglieder nennt, Vermittler zwischen der Außenwelt der Dinge und der Innenwelt der Nerven. Eine solche organische Projektion manifestiert sich darin, dass ein Mensch, der nach seinem eigenen Bild und Gleichnis erschafft, den Körper in Maßstäbe und Maßstäbe für die Natur verwandelt, nach denen er ihre verschiedenen Phänomene misst. Fuß, Finger, seine Gelenke, insbesondere Daumen, Hand und Arm, Spannweite, der Abstand zwischen den Gehbeinen und zwischen den ausgestreckten Enden der Arme, die Breite des Fingers und der Haare – als Maß für die Länge; Handvoll, „Mund voll“, Faust, Kopf, Dicke von Arm, Bein, Finger und Oberschenkel – als Maß für Fassungsvermögen und Volumen; sofort (blinkend) – als Maß für die Zeit. All dies war und ist überall bei Jung und Alt, bei Wilden und zivilisierten Menschen, immer unter Anwendung natürlicher Maßnahmen. Laut Kapp lässt sich die Orgelprojektion nicht nur bei primitiven oder einfachen Handwerkzeugen, sondern auch bei sehr komplexen Mechanismen und technischen Strukturen, wie Dampfmaschinen, Eisenbahnen usw., deutlich nachweisen.

Kapps Theorie der Organprojektion wurde in den Studien des französischen Soziologen und Philosophen weiterentwickelt Alfred Espinas, deutscher Philosoph Fred Bona, die Technologie als Mittel betrachtet, um menschliches Glück zu erreichen. Einen wichtigen Beitrag zur Entwicklung der heimischen Technikphilosophie leistete ein russischer Maschinenbauingenieur Petr Klimentjewitsch Engelmeyer. Sein Referat auf dem IV. Internationalen Philosophiekongress 1911 in Bologna widmete sich der Begründung der Existenzberechtigung der Technikphilosophie als einem besonders wichtigen Wissenschaftsgebiet. Engelmeyer enthüllt das Wesen der Technologie und schreibt: „Technologie ist die Fähigkeit, sinnvoll auf Materie einzuwirken. Technologie ist die Kunst, wünschenswerte Phänomene hervorzubringen : Lehrbuch / N. M. Al-Ani, St. Petersburg, 2004).

Thema 3. Die Struktur des wissenschaftlichen Wissens

3.1. Wissenschaftliche Klassifizierung

Klassifikation (von lateinisch сlassis - Kategorie, Klasse und facio - ich tue) ist ein System untergeordneter Konzepte (Klassen, Objekte) in jedem Wissens- oder Tätigkeitsbereich. Die wissenschaftliche Klassifikation erfasst regelmäßige Beziehungen zwischen Klassen von Objekten, um den Platz eines Objekts im System zu bestimmen, das seine Eigenschaften anzeigt (z. B. biologische Systematik, Klassifikation chemischer Elemente, Klassifikation der Wissenschaften). Eine streng und klar durchgeführte Klassifizierung fasst sozusagen die Ergebnisse der Bildung eines bestimmten Wissenszweiges zusammen und markiert gleichzeitig den Beginn einer neuen Stufe in seiner Entwicklung. Die Klassifikation trägt zur Bewegung der Wissenschaft von der Stufe der empirischen Wissensakkumulation zur Ebene der theoretischen Synthese bei. Darüber hinaus ermöglicht es Ihnen, vernünftige Vorhersagen über noch unbekannte Fakten oder Muster zu treffen.

Je nach Bedeutungsgrad der Einteilungsgrundlagen werden natürliche und künstliche Einteilungen unterschieden. Werden wesentliche Merkmale zugrunde gelegt, aus denen ein Maximum an Ableitungen folgt, so dass die Klassifikation als Erkenntnisquelle über die zu klassifizierenden Gegenstände dienen kann, dann nennt man eine solche Klassifikation natürlich (zum Beispiel das Periodensystem der Chemie Elemente). Werden unwesentliche Merkmale zur Systematisierung herangezogen, gilt die Klassifikation als künstlich (z. B. alphabetische Sachverzeichnisse, nominelle Kataloge in Bibliotheken). Die Klassifikation wird ergänzt durch die Typologie, die als wissenschaftliche Methode verstanden wird, die auf der Einteilung von Objektsystemen und deren Gruppierung nach einem verallgemeinerten Modell oder Typus beruht. Es wird zum Zwecke einer vergleichenden Untersuchung wesentlicher Merkmale, Beziehungen, Funktionen, Beziehungen, Organisationsebenen von Objekten verwendet.

Bei der Klassifikation der Wissenschaften geht es darum, Wissen auf der Grundlage der Ähnlichkeit bestimmter Merkmale zu gruppieren und zu systematisieren. Francis Bacon beispielsweise basierte seine Klassifizierung auf den Merkmalen der menschlichen Seele, wie Gedächtnis, Vorstellungskraft und Vernunft. Er klassifizierte Geschichte als Erinnerung, Poesie als Vorstellungskraft, Philosophie als Vernunft. Rene Descartes nutzte zur Klassifizierung die Metapher eines Baumes. Das „Rhizom“ dieses Baumes bildet die Metaphysik (die Grundursache!), der „Stamm“ symbolisiert die Physik und die „Krone“ umfasst Medizin, Mechanik und Ethik.

Der Autor des Buches "Russische Geschichte von der Antike bis zur Gegenwart" hat seine eigene Klassifikation erstellt. V. N. Tatischtschew (1686-1750), der unter Peter I. für Bildungsfragen zuständig war. In den Wissenschaften zeichnete Tatishchev Ethnographie, Geschichte und Geographie aus. Er betrachtete die Selbsterkenntnis und das Prinzip der Nützlichkeit als das Wichtigste bei der Klassifizierung der Wissenschaften, wonach Wissenschaften „notwendig“, „gut“, „neugierig“ und „schädlich“ sein können. Tatishchev betrachtete Logik, Physik und Chemie als „notwendige“ Wissenschaften. Er stufte Kunst als „modische“ Wissenschaft ein; Astronomie, Handlesen, Physiognomie – zu den „neugierigen“ Wissenschaften; Wahrsagerei und Hexerei – zu „schädlich“.

Französischer Philosoph, einer der Begründer des Positivismus und der Soziologie Auguste Comte (1798-1857) gründete die Klassifizierung der Wissenschaften auf dem Gesetz der drei Stufen der intellektuellen Entwicklung der Menschheit. Er baute seine Klassifikation nach dem Grad der Abnahme der Abstraktheit und der Zunahme der Komplexität der Wissenschaften auf: Mathematik, Astronomie, Physik, Chemie, Biologie, Soziologie (Sozialphysik). Als klassifizierendes Merkmal identifizierte er die tatsächlichen natürlichen Verbindungen, die zwischen Objekten bestehen. Laut Comte gibt es Wissenschaften, die sich einerseits auf die Außenwelt und andererseits auf den Menschen beziehen. Daher sollte die Naturphilosophie in zwei Zweige unterteilt werden – anorganisch und organisch; Die Naturphilosophie umfasst drei Wissenszweige – Astronomie, Chemie, Biologie. Comte hielt es für möglich, die Strukturierung fortzusetzen und sein Prinzip der Systematisierung der Wissenschaften auf Mathematik, Astronomie, Physik, Chemie und Soziologie auszudehnen. Die Einordnung letzterer in eine Sondergruppe begründete er mit der Entwicklung auf einer eigenen methodischen Grundlage, die nicht auf andere Wissenschaften übertragbar sei.

Deutscher Kulturhistoriker und Philosoph Wilhelm Dilthey (1833-1911) in dem Buch "Einführung in die Wissenschaften des Geistes" vorgeschlagen, die Wissenschaften des Geistes von den Naturwissenschaften außerhalb des Menschen zu trennen. Als Gegenstand der Geisteswissenschaften betrachtete er die Analyse menschlicher Beziehungen, innerer, von Emotionen gefärbter Erfahrungen, über die die Natur „schweigt“. Eine solche Orientierung kann, so Dilthey, eine Verbindung zwischen den Begriffen „Leben“, „Ausdruck“, „Verstehen“ herstellen, die es in der Wissenschaft nicht gibt, obwohl sie in den Institutionen von Staat, Kirche und Rechtswissenschaft objektiviert werden.

Nach einem anderen deutschen Philosophen Heinrich Rickert (1863-1936) spiegelt der Gegensatz von Natur- und Kulturwissenschaften den Interessengegensatz wider, der die Wissenschaftler in zwei Lager spaltet. In seiner Klassifikation zielt die Naturwissenschaft darauf ab, allgemeine Gesetzmäßigkeiten aufzudecken, die Geschichte befasst sich mit einzigartigen Einzelphänomenen, die Naturwissenschaft ist frei von Werten, während die Kultur in ihnen herrscht.

Friedrich Engels (1820-1895) betrachtete die Bewegungsformen der Materie in der Natur als Hauptkriterium für die Einteilung der Wissenschaften.

Die Erfahrung der Klassifizierung der Wissenschaften des Akademikers ist merkwürdig V. I. Wernadski (1863-1945). Im Zentrum seiner naturwissenschaftlichen und philosophischen Interessen stand die Entwicklung einer ganzheitlichen Lehre von der Biosphäre – der lebenden Materie, die die Erdhülle organisiert – und die Entwicklung der Biosphäre zur Noosphäre. Daher stützte er seine Klassifizierung auf die Natur der Wissenschaften. Abhängig von der Art der untersuchten Objekte unterschied er zwei Arten von Wissenschaften: 1) Wissenschaften, die die gesamte Realität umfassen – den Planeten, die Biosphäre, den Kosmos; 2) Wissenschaften mit Bezug zum Globus. In diesem Wissenssystem räumte er der Logik einen besonderen Platz ein: Sie umfasst alle Bereiche der Wissenschaft – sowohl die Geisteswissenschaften als auch die Naturwissenschaften und die Mathematik.

Sowjetischer Philosoph, Chemiker, Wissenschaftshistoriker, Akademiker B. M. Kedrow (1903-1985), schlug eine vierstufige Klassifikation vor, darunter: a) philosophische Wissenschaften (Dialektik, Logik); b) mathematische Wissenschaften (Mathematik, Logik, Kybernetik); c) Natur- und Technikwissenschaften (Mechanik, Astronomie, Physik, Chemie, Geologie, Geographie, Biochemie, Biologie, Physiologie, Anthropologie); d) Sozialwissenschaften (Geschichte, Archäologie, Ethnographie, Wirtschaftsgeographie, Statistik etc.).

Bezüglich der Klassifikation der Wissenschaften wird die Diskussion bis heute fortgesetzt, wobei das Prinzip der weiteren Aufspaltung nach Gründen, angewandter Rolle etc. dominiert. Es ist allgemein anerkannt, dass die fruchtbarste Klassifizierungsmethode die ist, die auf den Unterschieden in den sechs Grundformen der Materie basiert: subatomar physikalisch, chemisch, molekular physikalisch, geologisch, biologisch und sozial.

Die Systematik der Wissenschaften ist von großer Bedeutung für die Organisation von Forschung, Lehre, Lehr- und Bibliotheksbetrieb.

3.2. Die Struktur empirischen und theoretischen Wissens

Problem der Methoden der wissenschaftlichen Erkenntnis. Wissenschaftlicher Fortschritt ist außerhalb der kognitiven Entwicklung von Objekten zunehmender Komplexität (kleine Systeme, große Systeme, selbstentwickelnde, selbstlernende etc. Arten von Systemen) nicht denkbar. Der kognitive Prozess ist mit Methoden der Erkenntnis verbunden. In diesem Fall interessiert uns ein Komplex von Fragen im Zusammenhang mit Veränderungen in den Methoden der wissenschaftlichen Erkenntnis. Dieses Problem hat zwei Aspekte: 1) Verbesserung bereits existierender Verfahren, um sie an neue Objekte anzupassen; 2) Konstruktion grundlegend neuer Erkenntnismethoden. Der historische Trend in dieser Hinsicht ist, dass die philosophische und methodologische Reflexion über die in der Wissenschaft verwendeten Methoden immer hinter der wissenschaftlichen Methodenanwendungspraxis zurückgeblieben ist. Bei dieser Gelegenheit schrieb der englische Physiker und Persönlichkeit des öffentlichen Lebens J. D. Bernal (1901-1971): "Das Studium der wissenschaftlichen Methode ist langsamer als die Entwicklung der Wissenschaft selbst. Die Lehre findet zuerst etwas und reflektiert dann die Methoden." Gegenwärtig findet der gleiche Trend statt: Diskussionen über die Probleme der Modellierung, die Rolle des Experiments bei der Untersuchung des Mikrokosmos, das Wesen des Systemansatzes usw. Dafür gibt es eine Reihe von Gründen. Erstens dominieren nach wie vor metaphysische Vorstellungen über den erkenntnistheoretischen Status der wissenschaftlichen Methode (ihre übergeschichtliche, zeitlose Natur), Gedanken über die Unabhängigkeit der Methode von den soziokulturellen Bedingungen wissenschaftlicher Erkenntnis und insbesondere der untersuchten Phänomene. Zweitens umfasst die Entwicklung von Problemen wissenschaftlicher Methoden keine breite Palette von Vertretern der wissenschaftlichen Gemeinschaft. Inzwischen gibt es viele Forschungsaufgaben, die gemeinsame Anstrengungen erfordern (Dialektik der absoluten und relativen Wahrheit, das Problem der objektiven Methode; Begründung neuer Methoden; Kriterien der wissenschaftlichen Methode; das Verhältnis zwischen wissenschaftlichen Kriterien und dem Kriterium der Wahrheit der Erkenntnis, etc.).

In der Philosophie wird Methode als eine Möglichkeit zur Konstruktion und Begründung eines Wissenssystems, als Weg (richtiger Weg) des Wissens betrachtet. Diese Interpretation eignet sich jedoch eher für Metaphern als für wissenschaftliche Definitionen. Auch die Wörter „Mittel“, „Methode“, „Technik“, die den Begriff der Methode erläutern, tragen wenig zur Klärung seines Wesens bei, da sie die Methode mit einer eigenständigen Komponente der kognitiven Aktivität (Mittel) identifizieren. Am vorläufigsten ist die Gruppe von Definitionen, die die Methode als normatives Wissen definieren – eine Reihe von Regeln, Normen und Prinzipien, die das kognitive Handeln (Operationen, Verfahren) des Subjekts regeln.

Die Struktur der Methode enthält drei unabhängige Komponenten (Aspekte): 1) konzeptionelle Komponente – Ideen über eine der möglichen Formen des Untersuchungsgegenstandes; 2) operative Komponente – Vorschriften, Normen, Regeln, Prinzipien, die die kognitive Aktivität des Subjekts regeln; 3) logische Komponente – Regeln zur Aufzeichnung der Ergebnisse der Interaktion zwischen einem Objekt und Erkenntnismitteln.

Die Methode wird von mehreren Faktoren beeinflusst: a) historische Rationalitätstypen, die die Besonderheiten von Subjekt-Objekt-Beziehungen in Praxis und Erkenntnis widerspiegeln; b) Kreativität, Beobachtungsschärfe (Wahrnehmung), Vorstellungskraft, Entwicklung der Intuition; c) die Grundlagen wissenschaftlicher Forschung (dazu gehören das wissenschaftliche Weltbild, die Ideale und Normen wissenschaftlichen Handelns, die philosophischen Grundlagen der Wissenschaft); d) spezifische wissenschaftliche Kenntnisse, die den Grad der Wissenschaftlichkeit des Untersuchungsobjekts widerspiegeln; e) subjektive Faktoren, die mit dem sogenannten Verständnisproblem verbunden sind, mit persönlichem Wissen.

Merkmale der empirischen Erkenntnismethode. Diese Erkenntnismethode ist eine spezielle Form der Praxis, die eng mit dem Experiment (von lat. experimentum – Test, Erfahrung) verbunden ist. Die Entstehung des Experiments beeinflusste die Entwicklung des wissenschaftlichen und theoretischen Denkens, einer Art Kommunikation, die durch den logischen und mathematischen Apparat erfolgt. Dadurch wurde ein Gedankenexperiment, das sich in den Werken von G. Galileo, M. Faraday (1791-1867), J. Maxwell (1831-1879) und L. widerspiegelte, zu einer wichtigen Form des wissenschaftlichen und theoretischen Denkens der Neuzeit (XVII - XIX Jahrhundert). Boltzmann (1844-1906), A. Einstein (1879-1955), N. Bohr (1885-1962), W. Heisenberg (1901-1976) usw.

Ein Experiment ist ein Test der zu untersuchenden Phänomene unter konstruierten und kontrollierten Bedingungen. Der Experimentator versucht, das zu untersuchende Phänomen in seiner reinen Form zu isolieren, damit es so wenig Hindernisse wie möglich gibt, die gewünschten Informationen zu erhalten. Dem Aufbau eines Experiments gehen entsprechende Vorarbeiten voraus: Gegebenenfalls wird sein Programm entwickelt; spezielle Instrumente und Messgeräte werden hergestellt; die Theorie wird verfeinert, die als notwendiges Werkzeug für das Experiment fungiert. Ein solches Experiment wird meistens von einer Gruppe von Experimentatoren durchgeführt, die gemeinsam handeln und ihre Bemühungen und Fähigkeiten messen. Ein wissenschaftlich fundiertes Experiment setzt folgendes voraus:

- der Experimentator selbst oder eine Gruppe von Experimentatoren;

- Laboratorien (gegenständliche Welt des Experimentators, festgelegt durch ihre räumlichen und zeitlichen Grenzen);

- im Labor platzierte Untersuchungsobjekte (physische Körper, chemische Lösungen, Pflanzen und lebende Organismen, Menschen);

- Geräte, Objekte, die direkt von den untersuchten Phänomenen beeinflusst werden und dazu bestimmt sind, ihre Spezifität festzulegen;

- technische Hilfsgeräte, die dazu bestimmt sind, die sinnlichen irrationalen Fähigkeiten einer Person zu steigern und zu ihrer Aktivierung beizutragen (Computer, Mikro- und Teleskope, verschiedene Verstärker).

Ein Experiment ist jedoch kein isoliertes Ereignis, sondern ein integraler Bestandteil von explorativen Forschungsprogrammen; es trägt zur Zukunft des wissenschaftlichen Programms bei, indem es neue Forschungswege aufzeigt und Sackgassen schließt. Ein Experiment führt nicht zu einer Theorie. Es muss wiederholt, variiert werden, um mögliche subjektive Fehler in der Versuchsorganisation oder Mängel in der Ausstattung (Geräte, Werkzeuge) zu erkennen. Es ist auch äußerst wichtig, die Ergebnisse anderer Experimente zu berücksichtigen, die andere Punkte aufzeigen, beispielsweise physikalische Prozesse.

Eines der Merkmale der klassischen Physik war also, dass sie einen anthropomorphen Charakter in der Struktur der Organisation hatte (M. Planck). Die Aufteilung des physikalischen Wissens in Bereiche wurde durch die Eigenschaften der menschlichen Sinne (das von ihm im Prozess der biologischen Evolution erhaltene System von "Geräten") bestimmt. Was die moderne Physik betrifft, so ist allgemein anerkannt, dass sie mit der Entwicklung so grundlegender Theorien wie der Relativitätstheorie und der Quantenmechanik entstanden ist. Gleichzeitig hatte die Entwicklung experimentellen Wissens einen großen Einfluss auf seine Entstehung. So entdeckte V. K. Roentgen (1895-1845) 1923 eine neue Art von Strahlen; 1896 entdeckte A. A. Becquerel (1852-1908) das Phänomen der Radioelektronik, und ein Jahr später registrierte J. J. Thomson (1856-1940) experimentell das erste Elektronenteilchen. Diese Entdeckungen führten zu zwei Konsequenzen: Erstens war es notwendig, neue komplexe Geräte zu schaffen, und zweitens mussten spezielle Forschungsaktivitäten in theoretische und experimentelle unterteilt werden.

Das Experiment wurde jedoch nicht unter Bedingungen eines theoretischen Vakuums durchgeführt: Isoliert von der Theorie wird es zu einer Art Aktivität, die durch Magie mit Instrumenten geheiligt wird (wie die mittelalterliche Alchemie). Allerdings ist Theorie ohne Experiment nur ein formalisiertes Spiel mit Symbolen und Kategorien. Es ist ein Dialog zwischen Experiment und Theorie notwendig, und dazu müssen erstens Theorie und Experiment relativ unabhängig sein und zweitens müssen sie einen effektiven Kontakt haben, der mit Hilfe von Zwischenmodellen spürbar ist.

Methoden der theoretischen Erkenntnis. Unter Theorie (von griech. theoria – Betrachtung, Forschung) im weitesten Sinne versteht man eine Tätigkeitsform, die darauf abzielt, fundierte, objektiv wahre Erkenntnisse über die natürliche und gesellschaftliche Realität zum Zwecke ihrer spirituellen und praktischen Entwicklung zu erlangen. Im engeren Sinne ist Theorie eine Organisationsform der Entwicklung wissenschaftlicher Erkenntnisse. „Theorie ist ein Netz: Nur wer es wirft, fängt“ (Novalis). Die Theorie erfüllt in der Wissenschaft sehr wichtige Funktionen: informativ, systematisierend, erklärend, prädiktiv. Um das Wesen einer Theorie aufzudecken, werden binäre Gegensätze verwendet: „Theorie – Praxis“, „Theorie – Empirie“, „Theorie – Experiment“, „Theorie – Meinung“ usw. Theoretisches Wissen ist mit den Eigenschaften Universalität und Notwendigkeit, Ordnung, systemische Integrität, Genauigkeit usw. ausgestattet.

Traditionell glaubte man, dass es nichts Praktischeres als eine gute Theorie gäbe. Die Praxis des Theoretisierens wurde im antiken Griechenland geboren. Die Denker dieser Zeit waren sich einig, dass der Schlüssel zum Verständnis der Realität im theoretischen Denken (episteme) und nicht in der Meinung (doxa) liegt. Die philosophische Ausgangsprämisse aller weiteren naturwissenschaftlichen Theorien ist die Lehre von der kosmischen Harmonie. Aristoteles‘ Vorstellungen vom Eigenwert theoretischer Wissenschaften entwickeln sich zu ethischen Vorschriften und einem Ideal. Später wurde die Mechanik von Galileo-Newton zum Vorbild (Paradigma) für die experimentellen und mathematischen Naturwissenschaften des XNUMX.-XNUMX. Jahrhunderts.

Der Theoretiker kann die Natur nicht direkt ansprechen. Er schafft sein inneres Bild der Welt aus Eindrücken, Details fremder Experimente, schreibt sie in der Sprache der Logik und Mathematik nieder. Das ist Gedankenexperiment. Sein Produkt ist ein ideales Modell, ein Fragment der Realität.

Die Theorie unterliegt historischen Dynamiken. Beispielsweise in der mathematischen Forschung bis ins XNUMX. Jahrhundert. der sogenannte „Standard“-Ansatz setzte sich durch, wonach die Theorie und ihre Beziehung zur Erfahrung als erste Analyseeinheit (Zellen) gewählt wurden. Später hat sich herausgestellt, dass die empirische Forschung eng mit der Theorieentwicklung verflochten ist und die Überprüfung der Theorie durch Fakten nicht vorstellbar ist, ohne den bisherigen Einfluss der Theorie auf die Bildung der Fakten der Wissenschaft zu berücksichtigen. Mit anderen Worten, der empirische und der theoretische Erkenntnisstand unterscheiden sich in Gegenständen, Mitteln und Methoden der Forschung. In einer realen Studie spielen diese beiden Ebenen immer zusammen.

Gedankenexperiment als Methode der theoretischen Erkenntnis verbunden mit der Entwicklung der logischen Technologie (Symbolik und Aufzeichnungstechniken). Zeichen und Symbole sind ein wesentlicher Bestandteil der Methoden zum Erfassen der Realität (physikalisch, chemisch usw.). Die Hauptfunktion von Zeichen besteht darin, dass sie gebaut werden: Die aus ihnen zusammengesetzten Zeichenmodelle werden in einem bestimmten Entwicklungsstadium unabhängig und unabhängig vom Wort und fungieren als Form der Geburt und Existenz des Gedankens, als Mittel seines Flusses. ein Gedankenexperiment. Somit integriert das Gedankenexperiment zwei Ebenen der Realitätsreflexion: sensorisch-objektiv und konzeptionell-zeichenhaft.

System (strukturell-funktionale) Methode - eine andere Methode des theoretischen Wissens. Ein System ist ein integrales Objekt, das aus Elementen besteht, die in gegenseitiger Beziehung stehen. Die Beziehungen zwischen den Elementen eines Systems bilden seine Struktur, daher wird in der Literatur manchmal der Begriff eines Systems mit dem Begriff der Struktur gleichgesetzt. Die Traditionen der Systemforschung entwickelten sich in der zweiten Hälfte des 1820. Jahrhunderts. Ätiologisch bedeutet der Begriff System ein zusammengesetztes Ganzes, eine Anordnung. Der Begriff eines Systems, bei dem ein Objekt aus der Sicht des Ganzen betrachtet wird, beinhaltet die Idee einer gewissen Vereinheitlichung beliebiger Elemente und der Beziehungen zwischen diesen Elementen. Die Theorie des Systems wird durch die Konzepte „Integrität“, „Element“, „Struktur“, „Verbindungen“ usw. offenbart. Das Konzept der Systemforschung wurde in den Werken von G. Spencer (1903-1858), E. Durkheim (1917-1908), C. Lévi-Strauss (2000-1926), M. Foucault (1984-1901), J. verwendet . Lacan (1981–1910), R. K. Merton (2001–1902), T. Parsons (1979–XNUMX) usw.

Den zentralen Platz in der Logik des Systemdenkens nehmen die Kategorien Teil und Ganzes ein, das Prinzip der Aufteilung des Ganzen in Teile (Analyse) und der Synthese von Teilen zur Integrität. Die Analyse spaltet, die Synthese integriert, aber das reicht noch nicht aus, um das Wesen erkennbarer Phänomene zu offenbaren. Das moderne wissenschaftliche Denken ist gezwungen, einige grundlegende Aspekte der materiellen Bewegung separat zu beschreiben und zu untersuchen: Stabilität und Variabilität, Struktur und Veränderung, Sein und Bildung, Funktion und Entwicklung. Hier konzentrieren sich die wichtigsten logischen und mathematischen Schwierigkeiten und Kollisionen des kognitiven Prozesses. Die Grundbegriffe sind in diesem Fall „System“, „Funktionen“, „Struktur“, „Autonomie“ usw.

Viele Komponenten werden zu einem System, wenn ihre Wechselbeziehung in der Entstehung von Eigenschaften zum Ausdruck kommt, die nicht jedem einzelnen Element innewohnen, und in Funktionen, die nicht von jedem Element einzeln ausgeführt werden können. Komponenten können Subjektzusammenhänge, Beziehungen, Zustände, Entwicklungsstufen etc. sein. (die ursprünglichen Einheiten, die das System bilden). Je differenzierter die Beziehungen zwischen Elementen sind, desto organischer (nichtlinearer) ist das System. Die unterschiedliche Natur und der unterschiedliche Grad der Verbindung zwischen Elementen werden durch den Begriff „Dichte“ ausgedrückt. Wir sprechen also von einem Systemkomponenten-Ansatz. Dieser Ansatz sollte sich zu einem systemisch-strukturellen Ansatz und dieser zu einem strukturell-funktionalen entwickeln, d. h. Das System sollte auf theoretischer Ebene als eine Reihe von Funktions- und Entwicklungsbeziehungen betrachtet werden. In dieser Hinsicht gibt es zwei äußerst abstrakte Modelle: eine superdative Menge (das Ganze bestimmt vollständig die Eigenschaften der Teile) und eine summative Menge (die Komponenten haben ihr eigenes Wesen und erfüllen nicht die allgemeinen Funktionen des Systems). In Wirklichkeit gibt es jedoch weder ultimative Elementarität noch ultimative Integrität.

Die Struktur der Entwicklung ist eine Reihe von Veränderungsgesetzen in verwandten Zuständen. Bei jedem Objekt wird zwischen Selbstentwicklung und echter Entwicklung (Evolution) unterschieden. Nicht ein einzelnes System entwickelt sich isoliert, nicht nur durch den Informationsaustausch mit der umgebenden Energie (der durch Komponenten erfolgt), sondern auch durch die gegenseitige Beeinflussung der Systeme. Die Basis des Entwicklungsprozesses, d.h. Selbstentwicklung von Systemen (das logische System der Wirklichkeit), erforscht die strukturgenetische Analyse. Hier wird der Forscher von äußeren Einflüssen abgelenkt und zeigt den direkten Mechanismus der Entwicklung des Systems, dessen Quelle seine inneren Widersprüche sind.

Es ist notwendig, zwischen den Begriffen der absoluten und der relativen Entwicklung (Selbstentwicklung) zu unterscheiden. Bei großen Systemen kann man von der Absolutheit der Entwicklung sprechen, da sie nichts Äußeres haben. Sie sprechen von der Relativität der Entwicklung in Bezug auf real existierende Systeme, weil es in Bezug auf sie andere externe Systeme gibt.

Folgende Phasen der Systementwicklung werden unterschieden.

1. Die Vorgeschichte einer neuen Ganzheit: Es häuft sich „Baustoff für die Entstehung einer anderen Qualität“ („Die Dinge sind noch nicht, wenn sie anfängt“, G. W. F. Hegel).

2. Stufe der Bildung (Beginn eines neuen Objekts, Organsystem). Systemkomponenten werden an die neue Struktur angepasst; jene Bestandteile, die nicht transformiert und dem Neuen untergeordnet werden können, sterben ab und werden eliminiert; Systemfunktionen aufeinander abgestimmt sind.

3. Das System funktioniert auf seiner eigenen Basis: Die Funktionen der Komponenten und des Aufbaus sind aufeinander abgestimmt; Systemfähigkeiten werden maximiert.

Dabei ist zu berücksichtigen, dass systemstrukturelle und systemgenetische Methoden abstrakter Natur sind. Sie abstrahieren von den unmittelbar „materiellen“ Wesensmerkmalen und reproduzieren diese durch Beziehungen und Funktionen. Somit wird Energie als Informationsträger und das materielle Substrat als ihr Code betrachtet. Allerdings bleibt das Problem der Ablenkung vom Untergrund bestehen. Wenn wir beispielsweise Geschwindigkeiten addieren, werden wir von den Unterschieden zwischen einem Vogel, einem Flugzeug, einer Person und einem Auto abgelenkt. Daraus lässt sich die Meinung ableiten, dass sich die Wissenschaft überhaupt nicht mit Substraten beschäftigt. Insbesondere vertritt der Strukturalismus die Idee des Anti-Substantialismus: Das Universum besteht nicht aus Objekten oder gar „Materie“, sondern nur aus Funktionen; Objekte sind Schnittpunkte von Funktionen.

Systemstrukturelle Methodik ist ein Phänomen der Zeit. Es ist notwendig. Die Fokussierung nur auf die funktionale Reproduktion der Realität, ohne den Eigenwert ihrer Bestandteile, die Besonderheiten der menschlichen Wahrnehmung und des menschlichen Maßes zu berücksichtigen, führt jedoch zu einer Verabsolutierung der Rolle von Wissenschaft und Szientismus. Der Verleugnung einer Person geht immer die Verleugnung von Dingen voraus. So kann beispielsweise aus funktioneller Sicht Leben sowohl auf Proteinbasis als auch auf Silizium- oder anderer Basis entstehen. Wir kennen jedoch nur terrestrisches biologisches Leben – unsere Kohlenstoff-Input-Version des Lebens. Oder ein anderes Beispiel: Ein elektronisch-mechanischer Roboter auf Siliziumbasis verhält sich wie ein Mensch. Sollte es als solches betrachtet werden? Wenn der Arbeitnehmer gleichzeitig seine Funktion regelmäßig ausübt und Gewinn erwirtschaftet, ist der Arbeitgeber möglicherweise überhaupt nicht an seinen Gedanken, Gefühlen, seinem „spirituellen Substrat“ interessiert: „Was ist dieser Soldat, was ist dieser“ ( B. Brecht).

3.3. Methodik in der Struktur wissenschaftlicher Erkenntnis

Methodologie als Lehre von der Methode der Konstruktion menschlicher Aktivität ist traditionell wichtig in der Wissenschaftsphilosophie. Es ist begrenzt durch eine bestimmte Bandbreite von Anforderungen, Prinzipien, Einstellungen, Standards, die sich in der Erfahrung der Menschheit entwickelt haben. Es besteht eine Wechselwirkung zwischen Methodik und Wissen. Methodik kann somit als eine Reihe von Organisationsmitteln (Prinzipien, Vorgehensweisen, Methoden, Methoden, Techniken) von kognitiven und fachpraktischen Aktivitäten verstanden werden.

Die Dynamik kognitiver Prozesse hat einen wesentlichen Einfluss auf die Verbesserung nicht nur der Erkenntnismethoden, sondern auch der Philosophie, die wiederum eine methodologische Funktion in Bezug auf einzelne Wissenschaften ausübt. Es schreibt die Normen und Regeln der Forschung für die wissenschaftlichen Disziplinen vor und schafft mit der Klärung der Natur von Problemen und Paradoxien, die der Verarbeitung des kognitiven Apparats der einzelnen Wissenschaften bedürfen, der Klärung der Erkenntnisbedingungen eine "methodische Spannung". unter Berücksichtigung des Alltags gelöst. Diese Situation zeigt die Unvollständigkeit der Methodik, die Notwendigkeit ihrer ständigen Korrelation "nach" der Zeit, den sich ändernden Lebensorientierungen der Menschen.

Die Methodik der Wissenschaft kombiniert eine Reihe von Formen zum Sammeln und Verarbeiten wissenschaftlicher Informationen, die einer empirischen, theoretischen, metatheoretischen Verarbeitung unterliegen, einschließlich Beschreibung, Verallgemeinerung, Klassifizierung, Erklärung, Vorhersage, Verständnis, Idealisierung, Beweis, Interpretation usw. Darüber hinaus Es ist möglich, private wissenschaftliche Erkenntnismethoden anzuwenden, die auf bestimmte Zweige der wissenschaftlichen Erkenntnis anwendbar sind.

Die Einteilung der Methoden der Wissenschaften nach der Art des resultierenden Produkts (Wissens) sieht drei Hauptklassen vor:

1) Methoden der empirischen Erkenntnis: Experiment, Beschreibung, Abstraktion, Induktion, Extrapolation usw.;

2) Methoden des theoretischen Wissens: Idealisierung, mentales Experiment, mathematische Modellierung, logische Organisation von Wissen, Beweis, Interpretation usw.;

3) Methoden der metatheoretischen Erkenntnis: Analyse der Grundlagen wissenschaftlicher Theorien, philosophische Interpretation des Inhalts und der Methoden der Wissenschaft, Einschätzung der gesellschaftlichen und praktischen Bedeutung des Inhalts wissenschaftlicher Theorien usw.

Unter den verschiedenen Begriffen der Wissenschaftstheorie gibt es „Führer“ und „Außenseiter“ (VA Kanke). Damit gilt die analytische Philosophie als etablierter als beispielsweise die postmoderne Philosophie. Die Anerkennung der Konsistenz philosophischer Lehren ist eines der modernen Probleme der Methodologie. „Eine Theorie ist widersprüchlich, wenn sie sowohl die Aussage A als auch ihre Negation von Nicht-A enthält. Wenn Widersprüche in der Theorie auftauchen, dann tendieren sie dazu, diese zu beseitigen. Diesbezüglich werden neue Axiome gewählt. Das Axiomensystem der Die Theorie ist vollständig, wenn alle ihre Sätze ableitbar sind (die Axiome selbst brauchen nicht abgeleitet zu werden). Finden sich jedoch in der Komposition der Theorie Sätze, die nicht aus ihrem Apparat ableitbar sind, so ist es notwendig, sich darüber zu entscheiden. [6] . Und weiter: „Die Praxis der wissenschaftlichen Forschung zeigt, dass man die Theorie nicht voreilig in den „Müll“ schicken sollte. Sie behalten ihre "Arbeitsfähigkeit" mit der teilweisen Abhängigkeit der Axiome voneinander ... wenn sie nicht das theoretische System zerstören "[7] .

Thema 4. Die Dynamik der Wissenschaft und der Prozess der Generierung neuen Wissens

4.1. Soziokulturelle Faktoren in der Wissenschaftsentwicklung

Variabilität ist eine universelle Eigenschaft aller materiellen und spirituellen Formationen. Die Entwicklung als Folge der allen Phänomenen innewohnenden Variabilität ist auf Faktoren der inneren und äußeren Umgebung zurückzuführen. Entwicklung wird im gewöhnlichen Sinne mit dem Begriff des Fortschritts in Verbindung gebracht. Dieser Regelmäßigkeit unterliegt die Wissenschaft als spezieller systematisierter Wissenszweig. Veränderungen treten ein, wenn das intellektuelle Umfeld das „Überleben“ der Bevölkerungsgruppen ermöglicht, die am besten daran angepasst sind. Die wichtigsten Änderungen betreffen die Ersetzung der Verstehensmatrizen selbst oder der grundlegendsten theoretischen Standards.

Die Gesetze der Wissenschaft neigen dazu, die Naturgesetze angemessen widerzuspiegeln. Allerdings, wie sie betrachteten Johannes Kepler (1571-1630) und Nikolai Kopernikus (1473-1543) sind die Gesetze der Wissenschaft nur als Hypothesen zu verstehen. In dem Werk "Wissen und Wahn" stellt der österreichische Physiker und Philosoph Ernst Mach (1838-1916) wollte beweisen, dass das Bewusstsein dem Prinzip der Ökonomie des Denkens unterliegt und dass Wissenschaft durch die Anpassung einer Idee an einen bestimmten Erfahrungsbereich entsteht. Alles Wissen ist eine psychologische Erfahrung, die für uns biologisch nützlich ist. Nach Ansicht des Wissenschaftlers ist die Unstimmigkeit zwischen Gedanken und Fakten bzw. die Unstimmigkeit zwischen Gedanken die Ursache des Problems. Einen Ausweg aus dieser Schwierigkeit sah Mach darin, eine Hypothese zu verwenden, die zu neuen Beobachtungen führte, die sie bestätigen oder widerlegen konnten. Der Sinn einer Hypothese besteht also darin, die Erfahrung zu erweitern: Eine Hypothese ist „eine Verbesserung des instinktiven Denkens“.

Die Entwicklung der Wissenschaft ist auf zwei Gruppen von Faktoren zurückzuführen. Die erste Gruppe sind innerwissenschaftliche intellektuelle Faktoren, die die Entstehung theoretischer Innovationen bestimmen. Die zweite Gruppe besteht aus nicht-wissenschaftlichen Faktoren (sozial, wirtschaftlich), die die Konsolidierung oder Abstoßung der einen oder anderen konzeptionellen Variante bestimmen.

Es stellt sich oft heraus, dass die führende Rolle in der Entwicklung der Wissenschaft der wissenschaftlichen Elite zukommt, die Trägerin der wissenschaftlichen Rationalität ist. Die sich verändernde Natur der Wissenschaft spiegelt sich in den sich ändernden Bedingungen der Aktivitäten der Wissenschaftler wider, weshalb die Rolle von Führungskräften und Autoritäten in der wissenschaftlichen Gemeinschaft so wichtig ist. Aufeinanderfolgende Generationen von Wissenschaftlern verkörpern einen historischen Wandel in den Verfahren der wissenschaftlichen Erklärung. Der Inhalt der Wissenschaft erscheint somit in der Form der Übertragung einer Reihe intellektueller Ideen auf die nächste Generation im Lernprozess. Die Entwicklung vieler Wissenschaftsbereiche ist mit der Tätigkeit wissenschaftlicher Schulen verbunden. Insbesondere erfolgte die Ausbildung der Philosophie im Rahmen spezifischer, eigenständiger philosophischer Schulen, die in der Antike entstanden. Oft wurden Schulen mit dem Namen eines herausragenden Wissenschaftlers – des Gründers der Schule – bezeichnet (z. B. die Rutherford-Schule, die Bohr-Schule, die Sechenov-Schule usw.). Wissenschaftliche Schulen haben seit jeher die Funktion der Wissensvermittlung.

Unter den soziokulturellen Faktoren in der Entwicklung der Wissenschaft spielt das Vorhandensein des wissenschaftlichen Potenzials der Gesellschaft eine wichtige Rolle – ihre tatsächlichen Fähigkeiten, Ressourcen, die durch die Souveränität wissenschaftlicher Entdeckungen bestimmt werden (die normalerweise von der Ökonomie der Wissenschaft berücksichtigt werden). . Gleichzeitig sollten quantitative Indikatoren des wissenschaftlichen Potenzials in Einheit mit seinen qualitativen Indikatoren betrachtet werden.

Das Problem des wissenschaftlichen Potenzials ergibt sich aus der Selbsterkenntnis der Wissenschaft, ihrem Bewusstsein um ihre gesellschaftliche Bedeutung, die Voraussetzungen und Möglichkeiten ihrer Entwicklung, das wiederum mit der Entwicklung der Gesellschaft selbst verbunden ist. Letzterer interessiert sich mit seinem Interesse an der praktischen Anwendung von Wissenschaft auch dafür, dass Wissenschaft das Potenzial für ihre Weiterentwicklung und Anwendung in der gesellschaftlichen Praxis hat. Die Dialektik der Beziehung zwischen Gesellschaft und Wissenschaft ist so, dass die Verwirklichung des wissenschaftlichen Potenzials zu einer Erhöhung des Niveaus der wirtschaftlichen Entwicklung, der Kultur und des Maßes der Möglichkeiten dieser Gesellschaft in der Erkenntnis der Naturgesetze, der Entwicklung der Gesellschaft führt und Mann.

4.2. Bildung theoretischen Wissens und deren Begründung

Die Bildung theoretischen Wissens in der Wissenschaftstheorie ist einer der wichtigen Aspekte ihrer Entwicklung. Offensichtlich kann Wissenschaft ohne die korrelative Existenz von faktischem und theoretischem Wissen, individuellem und allgemeinem, wahrnehmungsbezogenem und kognitivem (wechselseitigem Begleiten von Gefühlen und Gedanken), individuellen und universellen Aussagen nicht existieren. Die Korrelation dieser Konzepte manifestiert sich auf der ereignis-alltäglichen, wahrnehmungs-kognitiven, logisch-linguistischen Ebene.

Die Klassifikation spielt eine bedeutende Rolle bei der Bildung wissenschaftlicher Erkenntnisse: Sie erleichtert den Übergang der Wissenschaft von der Stufe der empirischen Wissensakkumulation zur Ebene der theoretischen Synthese. Basierend auf wissenschaftlichen Grundlagen ist die Klassifikation nicht nur ein detailliertes Bild des Standes der Wissenschaft, sondern auch seiner Fragmente; ermöglicht es Ihnen, vernünftige Prognosen über noch unbekannte Fakten und Muster zu treffen.

Zu den Grundlagen der Wissenschaft gehören Grundprinzipien, Begriffsapparate, Ideale und Standards wissenschaftlicher Forschung. Die Reife einer bestimmten Wissenschaft kann an ihrer Übereinstimmung mit dem wissenschaftlichen Weltbild beurteilt werden. Wissenschaften werden nach der modernen Klassifikation einerseits in Natur-, Technik- und Gesellschaftswissenschaften eingeteilt, andererseits unterscheiden sie zwischen Grundlagen- und angewandten, theoretischen und experimentellen Wissenschaften. Wenn Leute von „großer Wissenschaft“, von „der Spitzenwissenschaft“ sprechen, betonen sie ihren hypothetischen Charakter. Die moderne Wissenschaft entwickelt sich unter Berücksichtigung einer tiefen Spezialisierung sowie an den Schnittstellen interdisziplinärer Bereiche, was auf ihre Integration hinweist. Allen Wissenschaften gemeinsam sind ihre integrierenden Eigenschaften: a) Ideale und Normen der Erkenntnis, die für eine bestimmte Epoche charakteristisch und in Bezug auf die Besonderheiten des untersuchten Bereichs konkretisiert sind; b) wissenschaftliches Weltbild; c) philosophische Grundlagen. Daher impliziert die Integration von Eigenschaften das Funktionieren und die Entwicklung der Wissenschaft insgesamt sowie ihrer verschiedenen Zweige auf der Grundlage gemeinsamer axiologischer (Wert-) und methodologischer Prinzipien.

Primäre theoretische Modelle und Gesetze. Im Erkenntnisprozess kommt der Bildung primärer theoretischer Modelle und Gesetze eine gewisse Bedeutung zu. Der Begriff „Modell“ (von lateinisch modulus – Maß, Probe) bedeutet Norm, Probe (Standard, Standard). In der Logik und Methodik der Wissenschaft wird unter einem Modell ein Analogon, eine Struktur und ein Zeichensystem verstanden, das dazu dient, die von der menschlichen Kultur erzeugte soziale und natürliche Realität zu bestimmen – das Original, das Wissen über das Original zu erweitern, das Original zu konstruieren und zu transformieren Es. Aus logischer Sicht basiert eine solche Verteilung auf den Beziehungen von Isomorphismus und Homomorphismus, die zwischen dem Modell und der Tatsache bestehen, dass mit seiner Hilfe ein isomorphes oder homomorphes Bild eines bestimmten Objekts modelliert wird. Diese Beziehungen sind Gleichheitsbeziehungen. Ein Modell kann den Status eines Gesetzes erlangen – einer notwendigen, wesentlichen, stabilen, sich wiederholenden Beziehung zwischen Phänomenen. Das Gesetz drückt die Verbindung zwischen Objekten, den Bestandteilen eines bestimmten Objekts, zwischen den Eigenschaften von Dingen sowie zwischen den Eigenschaften innerhalb einer Sache aus. Es gibt Funktionsgesetze, Entwicklungsgesetze. Sie sind objektiver Natur und zeichnen sich durch statistische und dynamische Muster aus. Die Wirkung von Gesetzen wird durch die Betriebsbedingungen bestimmt: In der Natur wirken sie spontan, in der gesellschaftlichen Praxis ist der regulierende Einfluss des Menschen möglich.

Analogie. In der theoretischen Forschung spielt die Analogie eine gewisse Rolle (von griechisch analogia – Entsprechung, Ähnlichkeit). Bei der Betrachtung eines Objekts (Modells) werden seine Eigenschaften auf ein anderes, weniger untersuchtes oder weniger zugängliches Objekt übertragen. Durch Analogie gewonnene Schlussfolgerungen sind in der Regel nur plausibler Natur; Sie sind eine der Quellen wissenschaftlicher Hypothesen und induktiven Denkens und spielen eine wichtige Rolle bei wissenschaftlichen Entdeckungen. Der Begriff „Analogie“ wird auch im Sinne von „Analogie des Daseins“, „Analogie des Seins“ (lat. analogia entis) betrachtet. Im Katholizismus ist dies eines der Prinzipien der Scholastik, die die Möglichkeit begründet, Gott aus der Existenz der von ihm geschaffenen Welt zu erkennen. Die Analogie spielte eine große Rolle in der Metaphysik des Aristoteles, der sie als eine Regierungsform eines einzigen Prinzips in einzelnen Körpern interpretierte. Die Bedeutung der Analogie lässt sich anhand der Argumentation der mittelalterlichen Denker Augustinus des Seligen und Thomas von Aquin verstehen. Augustinus schrieb über die Ähnlichkeit zwischen dem Schöpfer und seiner Schöpfung, und Thomas von Aquin befasste sich mit den „Analogien der Wesen“, die von der ungleichen und zweideutigen Verteilung der Vollkommenheit im Universum zeugen.

Moderne Forscher identifizieren die folgenden Arten von Analogien: 1) Analogie von Ungleichheiten, wenn verschiedene Objekte den gleichen Namen haben (Himmelskörper und Erdkörper); 2) Analogie der Verhältnismäßigkeit (körperliche Gesundheit – psychische Gesundheit); 3) eine Analogie der Zuschreibung, wenn verschiedenen Objekten (gesunder Lebensstil, gesunder Körper, gesunde Gesellschaft usw.) die gleichen Beziehungen oder Eigenschaften vorgeschrieben werden.

Laut Forschern spielte die Analogie zwischen der Bewegung eines verlassenen Körpers und der Bewegung von Himmelskörpern eine wichtige Rolle bei der Entstehung der klassischen Mechanik. Die Analogie zwischen geometrischen und algebraischen Objekten wurde von Descartes in der analytischen Geometrie verwirklicht. Die Analogie der selektiven Arbeit im Pastoralismus wurde von Darwin in seiner Theorie der natürlichen Auslese verwendet. Die Analogie zwischen Licht, elektrischen und magnetischen Phänomenen erwies sich als fruchtbar für Maxwells Theorie des elektromagnetischen Feldes[8] . Analogien werden in der modernen Stadtplanung, Architektur, Pharmakologie, Medizin, Logik, Linguistik usw. verwendet.

Das Analogiedenken ermöglicht es uns also, ein neues Einzelphänomen mit einem anderen, bereits bekannten Phänomen zu vergleichen. Mit einer gewissen Wahrscheinlichkeit ermöglicht Ihnen die Analogie, Ihr Wissen zu erweitern, indem Sie neue Themengebiete in ihren Geltungsbereich aufnehmen. Hegel nannte die Analogie den „Instinkt der Vernunft“.

Oft, der Erfinder (Autor) des Konzepts, entstehen die Begriffe durch Intuition, durch Zufall. Um die Richtigkeit oder Unrichtigkeit der vorgeschlagenen Konzepte zu bestätigen, können Sie das Konzept des Logikers und des Wissenshistorikers verwenden Carl Gustav Hempel (1905-1997). Hier ist die Essenz seines Konzepts.

1. Theoretische Begriffe erfüllen entweder ihre Funktion oder nicht.

2. Wenn theoretische Begriffe ihre Funktion nicht erfüllen, werden sie nicht benötigt.

3. Wenn theoretische Begriffe ihre Funktion erfüllen, dann stellen sie Verbindungen zwischen beobachteten Phänomenen her.

4. Diese Verbindungen können ohne theoretische Begriffe hergestellt werden.

5. Wenn empirische Zusammenhänge auch ohne theoretische Begriffe hergestellt werden können, dann braucht es keine theoretischen Begriffe.

6. Folglich werden theoretische Begriffe nicht benötigt, sowohl wenn sie ihre Funktionen erfüllen als auch wenn sie diese Funktionen nicht erfüllen.

1970 zeigte Hempel mit modernen logischen und mathematischen Forschungsmitteln erstmals die Unrichtigkeit von Poppers Definition von Glaubwürdigkeit. Gegen Skepsis Karl Popper (1902-1994), ausgedrückt in seiner Maxime „Wir wissen nicht – wir können nur raten“, fanden sich unwiderlegbare Gegenargumente. Eine Hypothese – eine spezifische Form des Verständnisses objektiver Wahrheit – wird zu einer verlässlichen Theorie, wenn aus ihrer Grundannahme Schlussfolgerungen gezogen werden, die eine praktische Überprüfung ermöglichen. Sind die negativen Ergebnisse einzelner Experimente das endgültige „Urteil“ dieser Hypothese? Hempel glaubte, nein, denn:

a) eine fehlerhafte Interpretation dieser Experimente ist möglich;

b) es ist möglich, andere durch diese Hypothese vorhergesagte Wirkungen zu bestätigen; c) die Hypothese selbst erlaubt ihre Weiterentwicklung und Verbesserung.

Beziehung zwischen Entdeckungslogik und Rechtfertigungslogik. Der Form nach erscheint die Theorie als ein System konsistenter, logisch miteinander verbundener Aussagen. Theorien verwenden einen spezifischen kategorialen Apparat, ein System von Prinzipien und Gesetzen. Die entwickelte Theorie ist offen für die Beschreibung, Interpretation und Erklärung neuer Tatsachen und ist auch bereit, zusätzliche metatheoretische Konstruktionen aufzunehmen: hypothetisch-deduktiv, deskriptiv, induktiv-deduktiv, formalisiert mit einem komplexen mathematischen Apparat. Thomas Kuhn (1922-1996), die die wichtigsten Merkmale einer Theorie auflisteten, argumentierten, dass sie genau, konsistent, allgemein anwendbar, einfach, fruchtbar, neuartig usw. sein sollte. Jedes dieser Kriterien für sich allein hat jedoch keine Selbstgenügsamkeit. Aus dieser Tatsache schließt Popper, dass jede Theorie grundsätzlich falsifizierbar ist und dem Verfahren der Widerlegung unterliegt. Auf der Grundlage dieser Argumente vertritt Popper das Prinzip des Fallibilismus. Er kommt zu dem Schluss, dass es keinen Fehler nur in der Aussage gibt, dass „alle Theorien falsch sind“.

Es ist leicht einzusehen, dass die Entwicklung wissenschaftlicher Begriffe immer wieder durch sprachliche Begriffsdefinitionen vermittelt wird. In seiner Forschung zu diesem Thema schreibt der russische Wissenschaftler T. G. Leshkevich: „Die Sprache verfügt nicht immer über angemessene Mittel, um alternative Erfahrungen zu reproduzieren, bestimmte symbolische Fragmente können im Grundwortschatz der Sprache fehlen Es ist von grundlegender Bedeutung, die Besonderheiten der Sprache als effektives Repräsentationsmittel, die Kodierung von Basisinformationen, das Verhältnis sprachlicher und außersprachlicher Mechanismen zur Theoriebildung zu untersuchen"[9] .

4.3. Klassische, nicht-klassische, post-nicht-klassische Theorien

Klassische, nichtklassische und postnichtklassische Theorien charakterisieren die Stufen und Arten des Philosophierens. Ausgangspunkt dieser Reihe ist der Begriff „Klassik“, da er mit Vorstellungen über Muster des Philosophierens, den ihnen entsprechenden Namen, Persönlichkeiten und Texten sowie den Mustern, die die Philosophie den Menschen als Leitlinien für ihr Leben bietet, verbunden ist und Aktivitäten. Aus historischer Sicht weist jede Epoche ihre eigenen philosophischen Muster auf, die bis heute kulturelle Bedeutung behalten. In diesem Sinne sollten wir über die philosophischen Klassiker der Antike, des Mittelalters, der Renaissance usw. sprechen. In einer engeren Betrachtung lassen sich philosophische Klassiker auf das XNUMX.-XNUMX. Jahrhundert und vor allem auf den Raum des europäischen Raums beschränken, da in diesem Chronotop die Idee des Klassizismus eine detaillierte Begründung und Entwicklung erhielt. Diese Einengung des „Feldes“ der philosophischen Klassiker macht den Vergleich von Klassikern, Nicht-Klassikern und Post-Nicht-Klassikern klarer. Der Abschluss der klassischen Bühne wird in der Mitte des XNUMX. Jahrhunderts verzeichnet, die nicht-klassische Bühne – von Marx bis Husserl – entfaltet sich bis zur Mitte des XNUMX. Jahrhunderts, die post-nicht-klassische Bühne nimmt in der zweiten Hälfte Gestalt an Das XNUMX. Jahrhundert. mit der Aussicht, auch im nächsten Jahrhundert fortzufahren. In diesem Stadium geht die „enge“ Bedeutung der Klassiker praktisch verloren, da sich die Einbeziehung der Klassiker in neue methodische, kulturelle und praktische Kontexte als bedeutsam erweist.

Die klassische Art des Philosophierens setzt das Vorhandensein eines Systems von Mustern voraus, die das Vergleichen und Verstehen der Hauptaspekte und Sphären des Seins bestimmen: Natur, Gesellschaft, das Leben der Menschen, ihre Aktivitäten, ihr Wissen, ihr Denken. Impliziert ist auch die entsprechende Art der Implementierung von Proben: ihre Ableitung, Verteilung, Konsolidierung in bestimmten Formen der spirituellen, theoretischen, praktischen Tätigkeit von Menschen. So ist beispielsweise eine verallgemeinerte Vorstellung von einer Person in spezifischen Beschreibungen menschlicher Individuen, Erklärungen ihrer Handlungen, Einschätzungen ihrer Situationen enthalten. In diesem Modell ist die Form der Beschreibung und Erklärung vorgegeben, und wenn es mit "menschlichem Material" in Berührung kommt, hebt es bestimmte Qualitäten darin heraus und misst sie. Dementsprechend werden einige Eigenschaften von Menschen und Dingen vom Modell nicht berücksichtigt, bleiben im „Schatten“ oder werden einfach von ihm abgeschnitten. Dieser Aspekt der Arbeit einer verallgemeinerten Vorstellung von einer Person als methodologisches Modell weist auf ihre Beziehung zu den Kanons des traditionellen gesunden Menschenverstandes hin. Wie traditionelle Vorstellungen über die menschliche Natur kann es als bestehendes Erfahrungsschema von Generation zu Generation weitergegeben werden, sich in der sozialen Zeit bewegen, seine Kontinuität bewahren, als Mittel zur Reproduktion und Organisation sozialer Bindungen dienen. Aber in einem wesentlichen Punkt unterscheidet es sich von traditionellen Schemata: Es ist nicht an eine bestimmte Zone des Sozialraums „gebunden“, es ist nicht mehr mit den Eigenheiten und Einschränkungen des Standescharakters verbunden. Hier wird der historische Hintergrund seiner logischen „Einsicht“ (und scheinbaren Universalität) offenbart. Durch den Verlauf der Geschichte selbst ist er von konkretem Boden abgeschnitten; religiöse, rechtliche, wirtschaftliche, technologische, wissenschaftliche Veränderungen, es wird von den ethischen, sozialen und kulturellen Merkmalen menschlicher Gemeinschaften abstrahiert.

Dieses Merkmal des klassischen Musters wird durch sein Vertrauen (das oft nur eine Referenz ist) auf wissenschaftliche Begründungen verstärkt. Die klassische Philosophie nutzt die Autorität und die Argumente der Wissenschaft, um ihren Modellen eine besondere gesellschaftliche Bedeutung zu verleihen. Die Ähnlichkeit dieser Modelle mit traditionellen Kanons und wissenschaftlichen Standards zeigt, dass sie genau die Rolle „beanspruchen“, die die traditionellen Kanons des Verhaltens und Denkens spielten. Die Verdrängung traditioneller Schemata und die Besetzung ihrer funktionalen "Zelle" durch Samples vollzieht sich jedoch durch die Philosophie auf der Grundlage wissenschaftlicher Standards und durch den Vergleich von philosophischen Samples und wissenschaftlichen Standards als Werkzeugen menschlichen Handelns.

Die Verbindung der klassischen Philosophie mit der Wissenschaft ist zunächst die Verbindung mit der Logik, die sich zunächst als Teil der Philosophie selbst entwickelt hat und dann im Rahmen der Einzelwissenschaften, hauptsächlich der Naturwissenschaften, funktionierte, wo sie Klassifikationen, Verallgemeinerungen, Reduktionen, Verfahren lieferte zum Vergleichen und Messen. Was die Verallgemeinerung selbst betrifft, so wurden in der klassischen Philosophie sehr ausgefeilte, methodisch erfolgversprechende Konzepte entwickelt, um allgemeine Konzepte auf spezifische Eigenschaften des Seins anzuwenden. Es genügt, an Hegels Position zur Singularität als wahre Verwirklichung des Universellen zu erinnern, an seine Überlegungen zur Individualität als spirituellem Zentrum des Stammeslebens und seiner lebendigen konkreten Inkarnation. Beachten Sie, dass Hegel diese Aussagen am „Rand“ seiner Hauptwerke formulierte (insbesondere in einem so eindeutig nicht methodologischen Werk wie „Ästhetik“). Die östlichen Klassiker liefern keine Beispiele für einen so starken Bruch zwischen Philosophie und den Formen der alltäglichen Erfahrung (und dementsprechend eine solche gegenseitige Beeinflussung von Philosophie und Wissenschaft) wie die europäische Philosophie des XNUMX. Jahrhunderts. Letzteres ist besonders wichtig, um den Boden zu verstehen, auf dem die nachklassische Philosophie wächst.

Der Einfluss der Wissenschaft auf die Philosophie des XNUMX. Jahrhunderts, auf ihre Nutzungsmuster und -methoden wurde durch die Entwicklung von Wirtschaft, Industrie und Technik explizit und implizit korrigiert. Eine besondere gesellschaftliche Bedeutung wurde den Handlungs- und Denkmustern beigemessen, die der expandierenden Produktion, der Massenproduktion von Dingen ohne individuelle Merkmale dienten. Die Stabilität dieser Schemata wurde durch das entsprechende Bild einer Person gegeben, das mit den in den philosophischen Klassikern verfügbaren Mustern durchaus übereinstimmt. Die Abstraktheit des Modells regte die Betrachtung menschlicher Subjekte, ihrer Eigenschaften und Beziehungen durch die Summierung, Berechnung und Aufteilung ihrer Kräfte an. Darüber hinaus erwiesen sich diese Kräfte im Wesentlichen als von ihren individualisierten Trägern abstrahiert.

Im verallgemeinerten Bild einer Person gingen nicht nur die individuellen Eigenschaften der Menschen verloren, sondern auch der eigentliche Prozess ihres Seins, die Dynamik ihrer Selbstveränderung, Selbstverwirklichung, Selbstentfaltung. Das verallgemeinerte Bild einer Person als Maß für die Aktivität von Menschen in den Merkmalen menschlicher Interaktionen offenbarte die Bedeutung der Norm. Tatsächlich schloss er sich in dieser Funktion den rechtlichen und moralischen Regulierern der sozialen Beziehungen an. Seine Abstraktion von individuellen Merkmalen und prozesshaftem Leben schuf verlässliche Bedingungen, um das Verhalten von Menschen als abstrakten Individuen zu messen. Die Abstraktheit des Musters ermöglichte es, es zur Bewertung einer Vielzahl menschlicher Situationen zu verwenden: Egal wie weit Menschen in ihren Handlungen und Missetaten gehen, es existierte bereits ein Muster (eine Reihe von Mustern), um ihre Handlungen zu charakterisieren und zu bewerten.

Das verallgemeinerte Menschenbild wirkte in der Philosophie und darüber hinaus in expliziter oder indirekter Abstimmung mit den verallgemeinerten Bildern von Natur, Geschichte, Kultur, Aktivität, Wissenschaft, Recht, Politik usw. Alle diese Konzepte (und Handlungsinstrumente) wurden nach dem gleichen Typus gebildet. Daher stellten sie ein kohärentes klassisches Bild zusammen und implementierten die entsprechende Methodik, oder besser gesagt, sie waren klare und eher starre Mittel zu seiner Umsetzung. In diesem Sinne entsprachen die Beispiele der philosophischen Klassifizierung voll und ganz den Kanons der klassischen Ästhetik; Sie waren in Bezug auf die individuelle Einzigartigkeit und Dynamik der Phänomene des natürlichen und sozialen Lebens recht klar und stabil. Ihre Stabilität ähnelt der Kolonnade eines klassischen Tempels, sie legt eine unveränderliche Ordnung für den Durchgang des Raums fest und verwandelt einen gewöhnlichen Spaziergang von Menschen in eine kulturelle Handlung, ein Ritual oder dessen Nachahmung; Die eigensinnige und durchsetzungsfähige Zeit erhielt so ein kanonisches Maß.

Die scheinbar natürliche Stabilität klassischer Modelle (ihrer Gesamtheit) wurde zu einer der wichtigen Voraussetzungen für ihren Zusammenbruch, denn gerade die Unmöglichkeit, das klassische Weltbild in der Arbeit mit eigentümlichen und dynamischen Systemen zu verwenden, ließ an seiner Zuverlässigkeit zweifeln verrate es dann der Kritik und Überarbeitung. Begonnen in der zweiten Hälfte des neunzehnten Jahrhunderts. Die Krise klassischer Modelle offenbarte auch ein weiteres wichtiges, zuvor verborgenes Merkmal: Als ihre methodologischen Grenzen klar wurden, wurde ihre Rolle bei der Reproduktion kultureller Formen, der Übertragung menschlicher Erfahrung durch Raum und Zeit, offenbart. Der Zusammenbruch klassischer Formen war nicht nur eine Krise der Natur- und Menschenerkenntnis, er bedrohte die Existenz grundlegender Strukturen zur Speicherung und Weitergabe menschlicher Erfahrung. Die klassischen Modelle offenbarten ihre Bedeutung als Formen gesellschaftlicher Reproduktion und ihre Unfähigkeit, diesen Zweck weiterhin zu erfüllen. Laut einem amerikanischen Soziologen, Journalisten, Professor an den Universitäten Columbia und Harvard, einer der Autoren der Konzepte der „Entideologisierung“ und der „postindustriellen Gesellschaft“ Daniel Glocke (S. 1919), „die neue Theorie verändert das Axiomensystem und stellt neue Verbindungen an den Knotenpunkten her, was die Topologie verändert. Wenn zwei Wissenschaften zu einer kombiniert werden, ist das neue Netzwerk reicher und klarer als nur die Summe der beiden Teile" [10] .

Nichtklassisches Philosophieren ist keine Richtung, sondern eine Denk- und Handlungsform, die mit einer Reaktion auf klassische Vorbilder, mit der Krise der Klassiker und ihrer Überwindung verbunden ist. Dies ist eine Reaktion auf das Missverhältnis des abstrakten Subjekts der Klassiker zu konkreten Individuen, des abstrakten Objekts – der Evolution der Natur, ihrer Methodik – der Suche nach Ressourcen intensiver Aktivität in allen Bereichen der Praxis. Die Situation, die üblicherweise als „nichtklassisch“ bezeichnet wird, wird in der Philosophie zunächst nicht offenbart. Es offenbart sich an den Grenzen von Philosophie und Wissenschaft, wenn klassische Erkenntnistheorien auf Objekte stoßen, die nicht in die üblichen kognitiven Formen „passen“. Am Ende des neunzehnten Jahrhunderts. Solche Objekte werden als Ausnahmen von den Regeln wahrgenommen, als exotische Vertreter der Mikro- und Megawelten. Die Zahl solcher Objekte nimmt jedoch stetig zu, und wir müssen uns bereits damit abfinden, dass die „einfache und klare Natur“ (die „nachgeahmt“ werden sollte) den Menschen bis vor kurzem mit einer Komplexität des Unbeobachtbaren und eindeutig nicht Beobachtbaren umgibt feste Gegenstände. Darüber hinaus bis zur Mitte des XNUMX. Jahrhunderts. Es stellt sich heraus, dass die Gesellschaft, das System des Lebens der Menschen mit ihren Bedingungen, Mitteln und Produkten, ebenfalls zur Welt der nichtklassischen Objekte gehört und nicht auf Dinge, auf Werkzeuge, Mechanismen, Maschinen reduziert werden kann, die mit Dingen arbeiten. Die klassische Fokussierung auf stabile natürliche und mentale Muster und die daran anschließende positivistische Orientierung an der „Logik der Dinge“ erweisen sich in dieser Hinsicht als unhaltbar.

Die nicht-klassische Situation wuchs von der Peripherie her, d.h. von den Grenzen, die durch die Probleme von Wissenschaft und Praxis gezogen werden, zum Zentrum, zum Fokus von Weltanschauungs- und Methodenformen, die sich um klassische philosophische Modelle konzentrieren. Die Stabilität von Mustern schien die letzte Hochburg der Kultur und damit der Wissenschaft, der Moral und überhaupt einer normal funktionierenden Gesellschaft zu sein. Die Tradition verband die Existenz von Proben fest mit ihrer Unantastbarkeit und Unveränderlichkeit, sodass die Bedrohung ihres stationären Zustands fast immer als Bedrohung ihrer Zerstörung wahrgenommen wurde. Aber gerade das Regime der stationären Existenz von Mustern ging zu Ende. Und dabei geht es nicht einmal darum, dass sie immer massiverer Kritik von verschiedenen Positionen und Standpunkten ausgesetzt waren, sondern dass die Bewältigung einer nicht-klassischen Situation erst möglich wurde, wenn sich die „Arbeitsweise“ der Samples änderte. Unter dem Druck einer mächtigen kritischen Masse wurden diese Bedingungen jedoch merklich vereinfacht und im Sinne der Ablehnung von Mustern als methodische und weltanschauliche Normen interpretiert.

Klassische Modelle, die ihre privilegierte Position verloren hatten, rückten in die Position gewöhnlicher Mittel menschlicher Aktivität vor; sie wurden ihren einzelnen Untertanen, deren Verhalten sie zuvor geregelt und gelenkt hatten, vollständig zur Verfügung gestellt. Das verallgemeinerte Bild einer Person, das zuvor über die konkrete Existenz von Menschen gestellt wurde, wurde zu einer der methodischen Formen zur Lösung bestimmter besonderer Probleme der Erkenntnis und Praxis. Jetzt getrennte Subjekte, die unabhängig voneinander die Verhaltensorientierungen bestimmen, verschiedene Interaktionen modellieren und verschiedene Schemata an die Umsetzung ihrer individuellen Projekte anpassen. Mit der Verkleinerung des Wirkungsfeldes klassischer Modelle wurde die Manifestationszone menschlicher Subjektivität immer weiter ausgedehnt.

Die Subjektivität wurde von erkenntnistheoretischen Bewertungen befreit, was sie verzerrtem Wissen näher brachte, und enthüllte ontologische Aspekte des Lebens und Handelns menschlicher Individuen. Diese Verschiebung in den Erscheinungsformen menschlicher Subjektivität wurde zunächst von der psychologischen Forschung erfasst. Die Psychologie „rehabilitiert“ eigentlich die Subjektivität und verlagert zugleich selbst den Fokus der Interessen von den Merkmalen der kognitiven Fähigkeiten eines Menschen auf die Interpretation der emotional-willkürlichen und nicht-rationalen Sphären seines Wesens. Im Hinblick auf den kulturellen und philosophischen Wandel wurde der Status der Subjektivität lange Zeit (bis Mitte des XNUMX. Jahrhunderts) nach klassischen Modellen bewertet, d.h. negativ, als Beginn des Subjektivismus, Irrationalismus, Nihilismus. Dabei schien der Kulturraum immer mehr fragmentiert zu werden und seine stabilen Dimensionen und Entsprechungen zu verlieren. Aus dieser Sicht wurde das Feld der Gesellschaft als eine Reihe von Interaktionen verschiedener Subjekte gesehen, die nur durch starre Strukturen der Sozialität vor völliger Willkür bewahrt wurden. Etwa aus dem zweiten Viertel des zwanzigsten Jahrhunderts. die Frage der Subjektivität tritt in „Resonanz“ mit dem Problem, die tatsächlichen Humanressourcen für die Entwicklung der Gesellschaft zu finden. Der weite Weg erweist sich im Prinzip als Sackgasse; die Produktivität der Wirtschaft, die Aussichten der Technik, die Erneuerung von Wissenschaft und Kultur erweisen sich als abhängig von der Energie und Qualität der Tätigkeit einzelner Subjekte. Das Problem der Subjektivität verwandelt sich allmählich in das Problem der Subjektivität der Individuen als Kraft und Form der Entwicklung der Gesellschaft.

In die Betrachtung dieser Problematik "tritt" der Einzelne zunächst als Träger körperlicher und nervöser Energie ein, d.h. hauptsächlich als natürliche Körperobjekte, die mit anderen Ressourcen der sozialen Reproduktion gleichgesetzt werden. Schwierigkeiten treten bei der Modellierung der Gesellschaft auf. Wie Howard Becker schrieb: „Wir sind alle unterwegs, aber wir wissen nicht, wohin wir gehen …“ Es gibt keine überzeugende Theorie darüber, was die inneren Kohäsionskräfte des sozialen Mechanismus sind. Aber dieser Schritt verspricht keine qualitativen Veränderungen. Es besteht die Notwendigkeit, Individuen in der ganzen möglichen Fülle ihrer sozialen Subjektivität, d.h. mit all ihren Möglichkeiten der Selbstverwirklichung und produktiven Interaktion. Gleichzeitig werden Modelle als Mittel zur Organisation sozialer Aktivität, Kommunikation (ontologisierte Modelle) unweigerlich zu Elementen der Strukturen des sozialen Lebens selbst.

Das Feld der Sozialität scheint in eine Vielzahl von Subjekten aufgeteilt zu sein, und es handelt sich nicht mehr um einzelne Subjekte mit ihrer psychologisierten Subjektivität, sondern um „zusammengesetzte“, beispielsweise Gruppensubjekte, die ihre Weltbilder, ihre Handlungsmodelle verwirklichen. Dies sind Subjekte, die in sich die Energie und Organisation sozialer Gemeinschaften, Tätigkeitszweige und kognitiver Disziplinen ansammeln, indem sie ihre Mittel und Ressourcen nutzen und ihre Subjektivität und ihren Egoismus bekräftigen. Im Extremfall handelt es sich dabei um soziale Maschinen, die nicht nur wichtige Positionen in der gesellschaftlichen Produktion einnehmen, sondern auch diesen Raum reproduzieren, ihre Modelle und Werkzeuge ontologisieren und so die Objektivität der gesellschaftlichen Existenz und die Verhaltensweisen der Menschen selbst formen. Tatsächlich stellt sich heraus, dass dieses Produkt eine Ontologisierung von Modellen ist, die in Schaltkreisen und Technologien verkörpert sind. Der Raum der Gesellschaft wird nach und nach mit solchen ontologisierten Modellen gefüllt. Von einem Standpunkt aus, der die übliche Logik der Dinge akzeptiert, scheint daran nichts Seltsames zu sein. Tatsache ist jedoch, dass eine solche Modellierung mit der Logik der Dinge in Konflikt gerät, da sie die eigene Existenz natürlicher Objekte mit ihren inhärenten Rhythmen und Gesetzmäßigkeiten durch einseitige Schemata (und deren Ontologisierungen) ersetzt. Dies führt in der Tat dazu, dass das Umweltproblem und eine Reihe anderer Probleme der modernen Gesellschaft, die mit der enormen sozialen Trägheit umfangreicher Tätigkeitsformen verbunden sind, immer bedrohlicher werden. Das Problem besteht nicht nur darin, diese Art von Aktivität einzuschränken, sondern auch darin, verschiedene Modelle der Welt zu harmonisieren und die Art ihrer Interaktion sowie die Bedürfnisse und Bedingungen für ihre Verarbeitung zu bestimmen.

Das Thema der Interaktion verschiedener Modelle, die die Positionen und das Verhalten sozialer Subjekte prägen, erwächst aus dem Thema ihrer Auseinandersetzungen. Konfliktsituationen machen gerade deutlich, dass Subjekte unterschiedliche Weltbilder und Handlungsmodelle haben. Krisenhafte Formen der Beziehungen zwischen Menschen und natürlichen Systemen sprechen gewissermaßen von demselben: Die Art und Weise, wie Menschen handeln, entspricht nicht den Methoden (die als eine Art Modell interpretiert werden können) der Reproduktion natürlicher Komponenten. Darin offenbart sich eine Gruppe methodischer Aufgaben, Modelle zu entdecken, zu deontologisieren, zu begrenzen und zu verarbeiten, und vor allem die Aufgabe der Deautomatisierung von Modellen, die zu Großproduktionen, Managementstrukturen, institutionalisierten Formen wissenschaftlichen Handelns „verkommen“ sind. die riesige natürliche und menschliche Ressourcen in ihren Wirkungsbereich „eingefangen“ haben. . Um diese Probleme zu lösen, muss eine Strategie gewählt werden, die darauf abzielt, ontologisierte Modelle aus dem automatischen Betriebsmodus zu entfernen und ihre Grenzen und Fähigkeiten zu bestimmen. deren Anpassung entsprechend den Kontrollergebnissen für Personen. Eine solche Strategie wird jedoch nicht sofort formuliert, sondern existiert als gewöhnliches Detailkonzept bis heute nicht. Es „deutet“ auf seine noch latente Existenz durch eine Reihe wissenschaftlicher, methodischer, philosophischer, ideologischer und gesellschaftspolitischer Bewegungen, die sich in verschiedenen Bereichen des öffentlichen Lebens manifestieren, aber durch die Art der zu lösenden Probleme vereint sind. Im Zuge der Entscheidung erweisen sich die notwendigen Mittel als geteilt und werden zu eigenständigen Zielen: Eine Gruppe von Bewegungen besteht auf der Demontage automatisierter Modelle bis hin zu deren Beseitigung; zum anderen geht es um die Konstruktion neuer Interaktionsmodelle, die dem Kontext ihrer Nutzung entsprechen. Für die ersten – Anhänger des methodologischen und ethischen Anarchismus, des extremen Dekonstruktivismus und der Postmoderne – ist es wichtig, die regressive Funktion von Modellen, sozialen und technologischen Formen aufzuzeigen, die von ihnen verschleiert werden, um den Prozess ihrer „Demontage“ selbst zu einem Mittel zur Befreiung zu machen Existenz von Menschen, Dingen und Texten. Zum zweiten – dazu gehören Anhänger des Konzepts der „kleinen Wissenschaft“, der Phänomenologie und Mikrosoziologie, der Ethnomethodologie, der Sozialgeschichte, der Entwicklungspädagogik und der vereinheitlichenden (ökumenischen) religiösen Bewegungen – ist die grundlegende Frage die Bildung und Reproduktion normativer und regulatorischer Modelle durch spezifische soziale Subjekte in bestimmten räumlichen und zeitlichen Bedingungen, über die Formen der Konsolidierung sozialräumlicher und zeitlicher Organisation in den Interaktionen der Menschen selbst.

Die Umsetzung dieser Ziele führt in verschiedenen Variationen zur schrittweisen Herausbildung eines Prinzips, das diese Art von Aufgaben charakterisiert. Es kann als das "andere" Prinzip bezeichnet werden. „Andere“ entpuppt sich als konventionelle Bezeichnung jenes potentiell multidimensionalen Objekts, nach dessen Maßstäben Modelle der Interaktion von Menschen untereinander und mit natürlichen Systemen gebaut werden, und die Maße des Objekts subjektunabhängig sind, sondern von der Existenzweise des Objekts, seinem Zustand, der spezifischen Natur der Interaktion. In der klassischen Situation, als die Privilegien der Objektivität (und der Objektivität), ihre Bedeutung, die Notwendigkeit, mit ihr zu rechnen und sie zu erfüllen, auf jede mögliche Weise betont wurden, blieb die friedenserhaltende Funktion tatsächlich vollständig in den Händen des Subjekts . In der postklassischen Situation gibt es, wie D. Bell schreibt, „keine überzeugende Theorie darüber, was die Kräfte des internen sozialen Mechanismus sind, die Möglichkeiten der Modellierung sind reduziert“[11] .

Wenn, wie es scheint, das Bild eines Objekts vollständig verloren geht, wird die Existenzweise des Objekts (der Objekte) zum wichtigsten Faktor bei der Bestimmung der Modelle, die eine Interaktion mit ihm aufbauen. Die Berücksichtigung dieses Faktors erweist sich als ein wichtiges Moment in der Reproduktion des Subjekts selbst, seiner Selbsterhaltung und Konstruktion. Das Subjekt kann in dieser Situation weder abstrakt noch "monolithisch" sein; seine Identität wird durch die ständig erneuerte Fähigkeit bestätigt, Interaktionsmodelle zu entwickeln und zu reproduzieren. Das Bild des „Anderen“ ist zunächst anthropomorph und personalologisch, daher werden die Modelle der Interaktion mit dem „Anderen“ gemäß den Vorstellungen von der zwischenmenschlichen Kommunikation zwischen Menschen charakterisiert (es genügt, an die ersten Versuche zu erinnern, die Methodik zu rechtfertigen Humanitäres Wissen, „Geisteswissenschaften“, „Verfahrensverständnis“, V. Dilthey) . Aber die Fortsetzung dieser Versuche führt allmählich zu der Überzeugung, dass persönliches Mitgefühl, Mitverständnis, Mithandeln nicht ausreicht, um den „Anderen“ zu verstehen: Darin liegt die Aufgabe, und das ist die Schwierigkeit, die es zu gehen gilt über die bestehenden persönlichen subjektiven, subjektiven Vorstellungen und Konzepte hinaus transformieren und umformulieren, um eine produktive Interaktionsordnung zu bestimmen. Für die Philosophie (und für das Alltagsbewusstsein) ist das Verständnis der Situation sehr schwierig, vor allem, weil es notwendig ist, Schwierigkeiten zu überwinden, die nicht so sehr logisch-methodischer, sondern moralischer und psychologischer Natur sind. Tatsächlich ist es notwendig, die Praxis, über die Grenzen gewöhnlicher Ideen und Konzepte, über den Rahmen persönlicher Erfahrung, über die Grenzen individueller Subjektivität hinauszugehen, zur Norm zu machen. Die Überwindung dieser personalpsychologischen Barrieren, die in der philosophischen und methodischen Arbeit verborgen sind, bedeutet in der Tat den Beginn der post-nicht-klassischen Phase und die Herausbildung des post-klassischen Typus des Philosophierens. Die Schwierigkeiten und Komplexitäten dieser transitiven Situation äußern sich vor allem in Reaktionen, die die Unzulänglichkeit individueller psychologischer Formen für die Arbeit eines philosophierenden Subjekts fixieren. Daher entwickelt sich die Interpretation der Überwindung dieser Formen oft zu Thesen über die Zerstörung oder Vernichtung des Subjekts, über das Verschwinden des Autors, über die Entmenschlichung der Philosophie usw. Ebenso lassen die Multidimensionalität des „Anderen“, die „nicht-klassische“ Natur von Objekten und Fixierungsweisen die Vorstellung vom Zerfall der Objektivität und der Zerstörung der Realität entstehen. Den Reaktionen folgt jedoch eine Phase des Bewusstseins für die Schwierigkeiten der methodologischen Arbeit, die mit der Konstruktion einer neuen Form von Subjektivität, mit der Bestimmung der Funktionsweise von Interaktionsschemata, mit der Technik der Rekonstruktion von Objektsituationen und ihrer Formen verbunden sind Entwicklung. In der Philosophie gibt es noch viele Hindernisse für den Übergang zu dieser Art von Tätigkeit. Eine davon ist die Ausrichtung der Philosophie des zwanzigsten Jahrhunderts. zur Mikroanalyse von Interaktionen, in der Subjekt-Subjekt-Beziehungen (und Kontakte zum "Anderen") im Sinne disziplinärpsychologischer, mikrosoziologischer, sprachlicher Schemata modelliert werden.

Die Logik des Übergangs der Philosophie in die postklassische Phase und Art des Werks wird nicht nur von der Philosophie bestimmt, sondern auch von den „inneren Systemen“ ihrer Entwicklung in den letzten anderthalb Jahrhunderten. Wichtige Anreize werden durch die Entwicklung wissenschaftlicher Richtungen wie des evolutionären Universalismus, der Biologie und Physiologie der Aktivität, der Synergetik und des Weltsystemansatzes gegeben. In diesem Sinne können wir sagen, dass D. Bell, N. M. Moiseev, L. von Bartalanffy, I. R. Prigogine, F. Braudel und einige andere Forscher den Stil des post-nichtklassischen Philosophierens nicht weniger geprägt haben als die Philosophen der zweiten Hälfte des XNUMX. Jahrhunderts Ihre Bemühungen sind mit einer Reihe praktisch-ökologischer, politischer, wirtschaftlicher, technischer und wissenschaftlicher Probleme verbunden, die häufig auf die Notwendigkeit hinweisen, Modelle zu bilden und vor allem eine Funktionsweise der Modelle zu schaffen, die das Zusammenleben von Modellen gewährleistet soziale Systeme in ihrem Fall mit natürlichen Systemen. Das Problem der Modelle kehrt in die Philosophie zurück, aber es kehrt als Orientierung auf die Veränderung der Philosophie selbst, die Bildung philosophischer Konzepte der Entwicklung und der Funktionsweise von Modellen, die entsprechende Strukturierung der Sozialität, der Interaktionssubjekte und der Muster der Selbstentwicklung des Menschen zurück Einzelpersonen. Ein Merkmal dieses Regimes ist die Kombination stabiler Muster als Normen mit ihren Funktionen als Regulatoren, die den gemeinsamen Wandel und die Selbstveränderung menschlicher Subjekte gewährleisten. Die Dynamik von Proben und ihr stabiles Funktionieren ist in der Tat die Aufgabe, von deren spezifischer Lösung andere Interpretationen traditioneller philosophischer Konzepte und Verfahren wie Subjekt, Objekt, Maß, Maßsystem, Verallgemeinerung, Konkretisierung abhängen: sie alle werden „von außen“ wiederentdeckt, ihre Entstehung im Aspekt der Interaktion, im Sinne der Mitveränderung gesellschaftlicher Subjekte.

Thema 5. Wissenschaftliche Traditionen und wissenschaftliche Revolutionen. Arten wissenschaftlicher Rationalität

5.1. Das Zusammenspiel von Traditionen und die Entstehung neuen Wissens

Die Probleme der Traditionen als wichtigster Verfassungsfaktor in der Entwicklung der Wissenschaft wurden erstmals in den Werken von Thomas Kuhn behandelt. Er kam auf die Idee, dass Traditionen eine Voraussetzung für die Möglichkeit wissenschaftlicher Entwicklung sind. Unter Tradition (von lateinisch traditio – Weitergabe, Überlieferung) versteht man Elemente des sozialen und kulturellen Erbes, die von Generation zu Generation weitergegeben und in bestimmten Gesellschaften und sozialen Gruppen über lange Zeit erhalten bleiben. Tradition ist Ausdruck alles Bisherigen und relativ Stabilen im gesellschaftlichen Leben und in der Kultur. Es umfasst sowohl den Inhalt verschiedener Gesellschaftsbereiche als auch den Mechanismus ihrer sukzessiven Entwicklung, eine Form der Festigung und Bewahrung soziokultureller Erfahrungen. Es handelt sich um eine besondere Art von Verhalten, Denken und Erleben, die positiv oder negativ bewertet wird und (tatsächlich oder mythologisch) zum kulturellen Erbe einer gesellschaftlichen Gruppe gehört; eine besondere Art von Geschichtsbewusstsein, das die Mehrdeutigkeit vergangener Tatsachen in eindeutige Werte der Moderne umwandelt. Gleichzeitig bedeutet die Herabwürdigung der Rolle der Tradition im öffentlichen Leben und ihre Umwandlung in eine Grundlage der bestehenden Gesellschaft eine Unfähigkeit, das Problem der Traditionen richtig zu verstehen. Ein solches Verständnis hängt davon ab, sie als Werte zu interpretieren. Im Leben der Gesellschaft können Traditionen eine regulierende Rolle spielen. Dies gilt insbesondere für die sogenannte traditionelle Gesellschaft. Die Aufklärung mit ihrem Glauben, der auf der Hervorhebung des positiven Prinzips in der Geschichte (Vernunft, Zivilisation, Emanzipation) basiert, verleiht Traditionen den Status eines Realen mit negativem Vorzeichen; Eigenschaften von Vorurteilen, Wahnvorstellungen, Fanatismus. Der Begriff „Innovation“ steht im Gegensatz zum Traditionalismus. Eine rationalistische Bewertung erhielt der Traditionalismus erstmals in der Philosophie Hegelder die Frage nach der tatsächlichen Abhängigkeit der Gegenwart von der Vergangenheit klar getrennt hat. Karl Marx (1818-1883) betrachtete das Phänomen des Traditionalismus aus den Positionen des Revolutionärismus und des Rationalismus. Das Konzept des Traditionalismus wurde in den Werken am vollständigsten beschrieben Max Weber (1864-1920), obwohl es eine Tendenz gibt, sein Konzept als irreduzible Dualität zu betrachten. In der modernen Philosophie werden die Probleme des Traditionalismus unter dem Gesichtspunkt der Stabilität, Unveränderlichkeit und Erneuerbarkeit der Strukturen des öffentlichen Bewusstseins und der sozialen Praxis sowie der Bewahrung ihrer individuellen Elemente in der modernen Gesellschaft betrachtet, in der die Rolle von künstliche Gestaltung sozialer Beziehungen und Beziehungen dominiert.

Traditionen leben weiter und werden ständig erneuert. Doch trotz ihrer Fähigkeit, sich an Innovationen anzupassen und so ein zweites Leben zu gewinnen, besteht die Möglichkeit, dass Traditionen Innovationen unterdrücken und den Entwicklungsprozess verzögern. In dieser Hinsicht können Traditionen als primär und sekundär betrachtet werden. Primäre Traditionen entwickeln sich spontan und werden als feste Formen und Handlungsabläufe direkt und praktisch reproduziert, unter der Unterordnung von Ritualen und Bräuchen, Folklore und mythologischen Vorschriften. Sekundäre Traditionen sind das Ergebnis einer reflektierten und rationalen Verarbeitung, verankert in professionell erstellten Texten und bewusst gesteuerten Verhaltensnormen. Es sind sekundäre Traditionen, die einem Umdenken und einer Weiterentwicklung unterliegen und so die soziokulturelle Kontinuität gewährleisten.

Eine negative Tradition ist ein Muster einer ungewollten oder verbotenen Vergangenheit, obwohl sie zugrunde liegende kausale Motive und Erklärungen haben kann.

Funktional optimieren Traditionen die Existenzform einer sozialen Gruppe in einem bestimmten natürlichen, ethnokulturellen und sozioökonomischen Umfeld, schaffen Bedingungen für die Selbstidentifikation von Individuen und der Gesellschaft mit einer bestimmten sozialen Struktur, wirken als System zur Begrenzung von Innovationen, Legitimation und Setzung kontrollieren, soziale Korrektur und Kodifizierung durchführen, "für öffentliche Immunität eintreten.

Die Entstehung neuen Wissens ist mit dem Durchbrechen der vom Traditionalismus errichteten Barrieren verbunden. Die Unbesiegbarkeit des Neuen wird durch die Unfähigkeit des Alten legitimiert, den Erfordernissen der Entwicklung gerecht zu werden. Traditionelle Wissenschaft arbeitet, wie Sie wissen, unter dem „Dach“ eines bestimmten, bereits etablierten Paradigmas. Wie behauptet sich das Neue unter diesen Bedingungen? Die Antwort auf diese Frage ist in den Studien von T. Kuhn, K. Popper, D. Bell und anderen, insbesondere dem amerikanischen Physiker, Philosophen und Wissenschaftshistoriker, enthalten Thomas Kuhn stellt fest, dass ein Wissenschaftler, der nach den Regeln des vorherrschenden Paradigmas handelt, zufällig und zufällig auf Fakten und Phänomene stößt, die im Rahmen dieses Paradigmas unerklärlich sind. Es besteht die Notwendigkeit, die Regeln der wissenschaftlichen Forschung und Erklärung zu ändern. Beispielsweise entdeckten Physiker in einer Nebelkammer, die die Spur eines Elektrons sehen wollten, plötzlich, dass diese Spur die Form einer Gabel hatte. Dies entsprach nicht ihren Erwartungen, sie erklärten jedoch, was sie als Fehler im Experiment ansahen. Tatsächlich steckte hinter dem beobachteten Phänomen die Entdeckung des Positrons. Unter dem Druck neuer Tatsachen, die nicht in den Rahmen der alten passten, kam es zu einem Paradigmenwechsel. Etwas Ähnliches geschah, als Astrophysiker, die nichts über „Schwarze“ Löcher wussten, versuchten, dieses Phänomen mit Unwissenheit zu erklären. Später wurde bekannt, dass Schwarze Löcher kosmische Objekte sind, deren Existenz durch die Allgemeine Relativitätstheorie vorhergesagt wird. Sie unterliegen einer unbegrenzten Gravitationskompression (Gravitationskollaps) massiver kosmischer Körper. Die Strahlung von Schwarzen Löchern wird durch die Schwerkraft blockiert, sodass sie nur durch ihre Schwerkraft oder durch die von außen auf sie einfallende Bremsstrahlung von Gas erkannt werden können.

Karl Popper in dem Buch "Objective Knowledge" (1972) argumentiert: Je mehr neue und unerwartete Probleme beim bewussten Vergleich alternativer Hypothesen miteinander auftauchen, desto mehr Fortschritt bringt die Wissenschaft. Diese Idee entwickelt der amerikanische Wissenschaftsphilosoph Paul Feyerabend (1924-1994) in "How to be a good empiricist" schreibt: "... ein guter Empiriker wird damit beginnen, Alternativen zu einer Theorie zu erfinden und diese Theorie nicht direkt zu testen." Er formuliert weiter vier Bedingungen für eine strikte Alternative:

1) die Alternative muss eine bestimmte Reihe von Aussagen enthalten;

2) diese Menge muss enger mit der Vorhersage in Beziehung stehen als nur durch Konjunktion;

3) es sind zumindest potenzielle Beweise für die Alternative erforderlich;

4) die Fähigkeit der Alternative, die bisherigen Erfolge der kritisierten Theorie zu erklären, wird vorausgesetzt.

Feyerabend erklärt: „Neue Fakten werden am häufigsten mit Hilfe von Alternativen entdeckt. Wenn es keine Alternativen gibt und die Theorie die Fakten erfolgreich zu erklären scheint, dann handelt es sich lediglich um eine Simulation des Erfolgs, d Systeme, die für ihre Überprüfung unerwünscht sind.“ Und weiter: „Die Erfindung von Alternativen ist genau das Mittel, auf das Wissenschaftler... selten zurückgreifen.“[12] Allerdings ist dies, wie wir anmerken sollten, kein Allheilmittel!

Bei der Analyse wissenschaftlicher Revolutionen wandte T. Kuhn in seinen wissenschaftsphilosophischen Werken sehr fruchtbar das Konzept des Paradigmas an, das in den Werken der antiken und später mittelalterlichen und modernen Philosophie entwickelt wurde. Er verglich die Bedeutung dieses Konzepts im übertragenen Sinne mit „einer Ente, die sich nach der Revolution als Kaninchen entpuppt“. Nach seinem Konzept geht ein Paradigmenwechsel mit einem Zusammenbruch der Kommunikation zwischen Wissenschaftlern, die unterschiedlichen Paradigmen folgen, und einem Wandel der „Technik“ der Überzeugung in wissenschaftlichen Gemeinschaften einher. Jedes Paradigma konkretisiert seine eigenen Kriterien (Anforderungen, Standards etc.) zur Bewertung kognitiver Handlungen und ihrer Ergebnisse. Dies führt zu einem wichtigen philosophischen und soziologischen Problem: Ist die Wissenschaft eine autonome, in sich geschlossene Sphäre und die kognitive Aktivität von Wissenschaftlern eine besondere Art hochprofessionellen Unternehmertums zur Schaffung wissenschaftlicher Informationen und zur Entwicklung des gesellschaftlichen Bedarfs an solchen Informationen? Wissenschaft ein besonderes Tätigkeitsfeld, das im System der öffentlichen Arbeit eine bestimmte gesellschaftliche Funktion erfüllt: der Gesellschaft wissenschaftliche Erkenntnisse, Argumente zu liefern?

Laut Kuhn beinhaltet ein Wechsel des wissenschaftlichen Paradigmas, ein Übergang zur Phase des „revolutionären Bruchs“, den vollständigen oder teilweisen Ersatz von Elementen der disziplinären Matrix, Forschungstechniken, Methoden und theoretischen Annahmen; der gesamte Bestand an erkenntnistheoretischen Werten wird transformiert. Das von Kuhn vorgeschlagene Entwicklungsschema wissenschaftlicher Erkenntnisse umfasst die folgenden Phasen: vorwissenschaftliches Stadium – Krise – Revolution – neue normale Wissenschaft – neue Krise usw. Kuhn untersucht die Wendepunkte der Wissenschaftsgeschichte im Detail und zeigt, dass die Entwicklungsperiode der „normalen“ Wissenschaft auch durch traditionelle Konzepte dargestellt werden kann, beispielsweise durch den Fortschrittsbegriff, der in diesem Fall das Kriterium der Zahl hat der gelösten Probleme. Für Kuhn bedeutet „normale“ Wissenschaft, den Umfang des Paradigmas zu erweitern und gleichzeitig seine Genauigkeit zu erhöhen. Das Kriterium für den Aufenthalt im Zeitalter der „normalen“ Wissenschaft ist die Wahrung der akzeptierten konzeptionellen Grundlagen. Wir können sagen, dass hier eine gewisse Immunität wirksam ist, die es ermöglicht, den konzeptionellen Rahmen eines bestimmten Paradigmas unverändert zu lassen. Das Ziel der „normalen Wissenschaft“ besteht laut Kuhn keineswegs darin, neue Arten von Phänomenen vorherzusagen. Immunität oder Immunität gegenüber externen Faktoren, die nicht zu den akzeptierten Ausgangsfaktoren passen, kann sogenannten anomalen Phänomenen und Fakten nicht absolut widerstehen – sie untergraben nach und nach die Stabilität des Paradigmas. Kuhn charakterisiert „normale“ Wissenschaft als die kumulative Anhäufung von Wissen. Revolutionäre Perioden oder wissenschaftliche Revolutionen führen zu Veränderungen in der Struktur der Wissenschaft, den Wissensprinzipien, den Kategorien, Methoden und Organisationsformen der Wissenschaft.

Was ist der Grund für den Wechsel von Perioden ruhiger Entwicklung der Wissenschaft und Perioden ihrer revolutionären Entwicklung? Die Geschichte der Entwicklung der Wissenschaft erlaubt uns zu behaupten, dass Perioden ruhiger, normaler Entwicklung der Wissenschaft die Situation der Kontinuität der Traditionen widerspiegeln, wenn sich alle wissenschaftlichen Disziplinen in Übereinstimmung mit etablierten Mustern und dem akzeptierten System von Vorschriften entwickeln. „Normale“ Wissenschaft meint Forschung, die fest auf vergangenen oder bestehenden wissenschaftlichen Errungenschaften aufbaut und diese als Grundlage zukünftiger Entwicklung anerkennt. In Zeiten normaler Entwicklung der Wissenschaft basieren die Aktivitäten von Wissenschaftlern auf denselben Paradigmen, denselben Regeln und Standards wissenschaftlicher Praxis. Es gibt eine Gemeinsamkeit der Einstellungen und eine sichtbare Koordinierung der Aktionen, die die Kontinuität der Traditionen in die eine oder andere Richtung gewährleisten. Wissenschaftler stellen sich nicht die Aufgabe, grundlegend neue Theorien zu schaffen, im Übrigen sind sie sogar intolerant gegenüber der Erstellung solcher „verrückter“ Theorien durch andere. In Kuhns bildlichem Ausdruck sind Wissenschaftler damit beschäftigt, in ihrem Fachgebiet „die Dinge in Ordnung zu bringen“. „Normale“ Wissenschaft entwickelt sich, indem sie Informationen sammelt und bekannte Tatsachen klärt. Gleichzeitig ist diese Zeit geprägt von „der Ideologie des Traditionalismus, des Autoritarismus, des positiven gesunden Menschenverstands und des Szientismus“.

Jede wissenschaftliche Revolution offenbart neue Muster, die im Rahmen bisheriger Ideen nicht verstanden werden können. Die Welt der Mikroorganismen und Viren, die Welt der Atome und Moleküle, die Welt der elektromagnetischen Phänomene und Elementarteilchen, die Welt der Kristalle und die Entdeckung anderer Galaxien sind grundlegende Erweiterungen der Grenzen des menschlichen Wissens und der Vorstellungen über das Universum. Die „Symptome“ der wissenschaftlichen Revolution sind neben offensichtlichen Anomalien Krisensituationen bei der Erklärung und Begründung neuer Fakten, der Kampf zwischen dem alten Bewusstsein und der neuen Hypothese sowie hitzige Diskussionen. Wissenschaftliche Gemeinschaften sowie disziplinäre und hierarchische Barrieren öffnen sich. Beispielsweise ermöglichte das Aufkommen des Mikroskops in der Biologie und später des Teleskops und des Radioteleskops in der Astronomie große Entdeckungen. Das gesamte XNUMX. Jahrhundert. wurde die Ära der „Eroberung des Mikroskops“ genannt. Entdeckungen von Kristallen, Viren und Mikroorganismen, elektromagnetischen Phänomenen und der Welt der Mikropartikel bieten die Möglichkeit einer tiefgreifenden Vermessung der Realität. Die wissenschaftliche Revolution erscheint als eine Art Diskontinuität in dem Sinne, dass sie nicht nur die Grenze des Übergangs vom Alten zum Neuen markiert, sondern auch einen Richtungswechsel selbst. Die von Wissenschaftlern gemachten Entdeckungen bestimmen grundlegende Veränderungen in der Geschichte der Entwicklung der Wissenschaft und markieren die Ablehnung der akzeptierten und vorherrschenden Theorie zugunsten einer neuen, die mit der vorherigen unvereinbar ist. Und wenn die Arbeit eines Wissenschaftlers in der Zeit der „normalen“ Wissenschaft als gewöhnlich bezeichnet wird, dann ist sie in der Zeit der wissenschaftlichen Revolution außergewöhnlicher Natur.

Die inter- und intradisziplinären Mechanismen wissenschaftlicher Revolutionen sind hochaktuell. Im interdisziplinären Zusammenspiel vieler Wissenschaften geht es um die Analyse komplexer systemischer Objekte, die solche systemischen Wirkungen aufzeigen, die im Rahmen einer Disziplin nicht erfasst werden können. Bei interdisziplinären Transformationen wird das in der Leitwissenschaft entwickelte Weltbild in alle anderen in die Leitwissenschaft übernommenen Wissenschaftsdisziplinen transformiert, die Ideale und Normen wissenschaftlicher Forschung erlangen einen allgemeinen wissenschaftlichen Stellenwert.

5.2. Wissenschaftliche Revolutionen als Bifurkationspunkte und das Problem der Wahl einer Strategie für die wissenschaftliche Entwicklung

Revolution ist der auffälligste Schlüsselmoment im Entwicklungsprozess, der wiederum qualitative Veränderungen von Objekten, die Entstehung neuer Seinsformen und die Transformation ihrer inneren und äußeren Zusammenhänge charakterisiert. Entwicklung steht in engem Zusammenhang mit dem Fortschrittsbegriff, der im historischen Übergang von der Antike zum Mittelalter begann, eine kategorische und ideologische Bedeutung zu erlangen. An der Wende vom XNUMX. zum XNUMX. Jahrhundert. Die Entwicklung erhält das Kriterium der Neuheit. In der zweiten Hälfte des neunzehnten Jahrhunderts. Vor dem Hintergrund der Erfolge in der Biologie, der Wirtschaftstheorie, im sozialgeschichtlichen Wissen, mit dem Aufkommen von Schemata zur Inkonsistenz der Entwicklung, der Selbstentwicklung (die Bereiche der belebten und unbelebten Natur abdecken) sowie des in der deutschen klassischen Philosophie entwickelten Denkens , wurde es möglich, die periodisch auftretenden großen, groß angelegten Veränderungen, die als „Revolution“ bezeichnet werden, wissenschaftlich zu erklären.

Im Leben der Menschheit kam es mehr als einmal zu Revolutionen. Sie können sich an die Revolutionen in der Wissenschaft, in der Industrie, in der Information erinnern, es gab sogar eine „grüne“ Revolution, und sie alle brachten radikale qualitative Veränderungen mit sich. Doch trotz aller Gemeinsamkeiten zwischen den Revolutionen gab es auch spürbare Unterschiede, insbesondere in ihrer Dynamik. In einem Fall vollzog sich der Wandel der Weltanschauung, ohne die Ideale und Normen der Forschung zu ändern. In diesem Sinne ist die Revolution in der Medizin, die mit der Entdeckung des systemischen und pulmonalen Kreislaufs durch William Harvey (1628) verbunden ist, bezeichnend; Revolution in der Mathematik im Zusammenhang mit der Entdeckung der Differentialrechnung (I. Newton und G. W. Leibniz); Entdeckung der Sauerstofftheorie von Lavoisier; Übergang von einem mechanischen zu einem elektromechanischen Weltbild im Zusammenhang mit der Entdeckung der Theorie des elektromagnetischen Feldes usw. All diese Revolutionen führten nicht zu einer Veränderung der kognitiven Einstellungen der klassischen Physik, der Ideale und Normen der Forschung. Gleichzeitig kam es in anderen Fällen zu radikalen Veränderungen im Weltbild selbst, im System der Ideale und Normen der Wissenschaft. So kam es zur Entdeckung der Thermodynamik und der darauf folgenden in der Mitte des XNUMX. Jahrhunderts. Die quantenmechanische Revolution führte nicht nur zu einem Umdenken im wissenschaftlichen Weltbild, sondern auch zu einem vollständigen Paradigmenwechsel, der die Standards, Ideale und Normen der Forschung veränderte. Der subjektiv-objektive Gegensatz wurde abgelehnt, die Methoden zur Beschreibung und Begründung von Wissen wurden geändert, der probabilistische Charakter der untersuchten Systeme sowie die Nichtlinearität und Gabelung der Entwicklung wurden anerkannt. Die massenhafte Einführung von Computern in den Bereich der materiellen Produktion ist zum Symbol des wissenschaftlichen und technischen Fortschritts geworden. Die Wissenschaft ist zu einer unmittelbaren Produktivkraft der Gesellschaft geworden. Auch in der gesellschaftlichen Arbeitsteilung kam es zu Veränderungen. Insbesondere hat sich das Verhältnis der Elemente der Produktivkräfte verändert: das Subjekt Arbeit, Werkzeuge und der Arbeiter selbst; Die Produktion verwandelte sich von einem einfachen Arbeitsprozess in einen wissenschaftlich-technischen Prozess. Bei der Überwindung der Widersprüche zwischen körperlicher und geistiger Arbeit wurden Fortschritte erzielt; Es trat eine spekulative Tendenz auf, geistige Arbeit im System ihrer Vergütung zu unterschätzen. Als Voraussetzungen für eine wissenschaftliche Revolution kann daher erstens das Vorliegen einer grundlegenden wissenschaftlichen Anomalie angesehen werden, die mit bestehenden wissenschaftlichen Mitteln nicht erklärt werden kann; zweitens die Häufung dieser Anomalien, die offensichtliche Suche nach alternativen Lösungen; drittens die Entwicklung einer Krisensituation; viertens das Vorhandensein eines alternativen Konzepts, das Theorien (in Kuhns Terminologie - Paradigmen) vereint. Revolutionen, die mit einem Paradigmenwechsel einhergehen, sind ein seltenes Phänomen, da sie zu grandios, komplex und von vielen, auch psychologischen, Umständen bestimmt sind.

Revolutionäre Perioden in der Entwicklung der Wissenschaft werden als besonders bedeutsam wahrgenommen. Ihre „destruktive“ Funktion verwandelte sich schließlich in eine konstruktive, kreative und innovative. Die wissenschaftliche Revolution ist zum offensichtlichsten Ausdruck der Grundlage der treibenden Kraft des wissenschaftlichen Fortschritts geworden. Das Problem der Wahl einer Strategie für die wissenschaftliche Entwicklung ist jedoch nicht so einfach, wie es scheinen mag. Die Anzahl der Axiome in dieser Ebene ist sehr unterschiedlich. US-amerikanischer Philosoph, Logiker, Mathematiker und Naturforscher Karl Pierce (1839-1914) glaubte, dass Wissen nicht unbedingt mit offensichtlichen Wahrheiten beginnt, sondern mit beliebigen Bestimmungen beginnen kann, auch mit offensichtlich falschen. Wissenschaftliche Forschung ist ein wichtiger Prozess der Vermutung, Prüfung und kritischen Debatte. Wissen ist immer hypothetisch, probabilistisch. Mit fortschreitender Forschung werden Annahmen angepasst und die Wahrscheinlichkeit von Erkenntnissen steigt. Bei neuen Annahmen nimmt sie jedoch wieder ab.

K. Popper argumentierte, dass die Wissenschaft von einem Problem zum nächsten schreitet, von einem weniger tiefgreifenden Problem zu einem tiefgreifenderen. Das Modell für das Wachstum wissenschaftlicher Erkenntnisse sieht laut Popper wie folgt aus [13].

1. Wissenschaft beginnt mit Problemen.

2. Wissenschaftliche Erklärungen des Problems sind Hypothesen.

3. Eine Hypothese ist wissenschaftlich, wenn sie prinzipiell falsifizierbar ist.

4. Die Falsifizierung von Hypothesen stellt die Beseitigung erkannter wissenschaftlicher Fehler sicher.

5. Neue und tiefere Problemstellungen und Hypothesen werden durch kritische Diskussion erreicht.

6. Die Vertiefung von Problemen und Hypothesen (Theorien) sichert den Fortschritt in der Wissenschaft, genauer gesagt, den Zuwachs wissenschaftlicher Erkenntnisse.

Laut Popper ist es unmöglich, die Wissenschaft zu verstehen, wenn wir vom Verhältnis der zweiten Welt zur ersten ausgehen, d.h. die systemische (künstliche) Welt und die soziale (natürliche) Welt. Aus diesem Zusammenhang lässt sich kein einziger Bestandteil der Wissenschaft (wissenschaftliche Probleme, Problemsituationen, Theorien, Hypothesen, rationale Schemata, Kriterien, Methoden der Kritikwiderlegung) ableiten. Das traditionelle erkenntnistheoretische Konzept von Descartes, Berkeley, Hume, Kant, Russell wurde seiner Meinung nach besiegt, weil es diese Haltung als Grundlage für das philosophische Verständnis der Wissenschaft nahm. Sie verstanden die wichtige Rolle der „theoretischen Forschung“ und der „theoretischen Wissenschaft“ nicht; versäumte es, die intersubjektive Natur wissenschaftlicher Erkenntnisse zu verstehen, d. h. befreien Sie sie von allen möglichen subjektiven Zusätzen. Popper entwickelt eine neue Erkenntnistheorie – eine Erkenntnistheorie ohne wissendes Subjekt. Der Philosoph verbindet damit die Begründung der Autonomie der Wissenschaft. Alle seine wichtigsten Elemente, so argumentiert er, können ohne Bezug auf die realen Themen der Wissenschaft oder ihre soziale Funktion erklärt werden. Die Wissenschaft ist eine in sich geschlossene, sich selbst reproduzierende, selbstkontrollierte „Dritte Welt“, in der sich unbegrenzte Möglichkeiten für die Entstehung neuer „vorstellbarer Objekte“ und damit verbundener neuer Probleme und Problemsituationen ergeben. Popper schreibt, dass die „Dritte Welt“ der Hauptbereich menschlichen Handelns ist. Gruppen von Menschen, die diese Welt entwickeln, müssen wichtige Positionen in der Gesellschaft einnehmen und aktive Gruppen bleiben. Um ihre Aktivitäten zu beschreiben, ist es jedoch nicht erforderlich, sich auf den traditionellen Begriff „Gegenstand wissenschaftlicher Erkenntnisse“ zu beziehen. Popper schlägt in seinem philosophischen Konzept vor, den Schwerpunkt von der Erforschung des Menschen als Wissenssubjekt auf die Erforschung der Grundelemente der „dritten Welt“ selbst als autonomer Welt zu verlagern. In dieser Welt basiert die Akzeptanz von Ergebnissen als wissenschaftlich nicht auf der Klärung ihrer Beziehung zu den untersuchten realen Objekten, sondern auf der Möglichkeit, auf diese Ergebnisse die Kriterien, Standards und Prinzipien anzuwenden, die ihre anfängliche rationale Struktur bilden.

Laut Popper untersuchen Forscher in der Naturwissenschaft nicht Objekte, sondern wissenschaftliche Probleme. Sie operieren nicht an den „Objekt-Subjekt“-Grenzen, sondern im Rahmen der rationalen Grundlagen der Wissenschaft. Der Philosoph schlägt vor, eine dreigliedrige Struktur wissenschaftlicher Forschung zu entwickeln: „wissenschaftliches Problem – Vermutungen (Hypothesen) – Widerlegungen.“ Er glaubt, dass es in der Wissenschaft keine streng objektiven und einheitlichen philosophischen und methodischen Grundlagen geben kann. In der Wissenschaftsgeschichte haben die Wissenschaftler selbst ein neues Verständnis der Grundlagen der Wissenschaft und der Ziele der wissenschaftlichen Forschung entwickelt. Wissenschaft ist nur eine besondere Art von Spiel, dessen Regeln formuliert werden können, ohne sich auf unabhängige Parameter von Objekten der Ersten Welt zu verlassen.

Die von Karl Popper zum Ausdruck gebrachten Ideen wurden besonders aktiv von dem englischen Mathematiker, Logiker und Wissenschaftsphilosophen weiterentwickelt. Imre Lakatos (1922-1974). Der in Ungarn geborene Philosoph emigrierte 1956 aus dem Land, nachdem der Aufstand in Budapest von sowjetischen Truppen niedergeschlagen worden war. Er war Student und zugleich Popper-Kritiker. Lakatos sprach sich gegen Poppers Falsifikationismus aus und glaubte, dass Theorien stabiler seien und keine Falsifikation zum "Durchstreichen" der zu prüfenden Wissenschaft führen würde. Um seine Ideen zu erklären, führt er eine Reihe von zusätzlichen Begriffen, wie „harter Kern“, „Schutzgürtel“, positive und negative Heuristiken in das Konzept ein. Insbesondere verweist Lakatos auf den „harten Kern“ der drei bekannten Newtonschen Gesetze und des Gravitationsgesetzes, die sich bewährt haben und bis heute die Grundlage der modernen Mechanik bilden. Lakatos glaubt, dass ein gewissenhafter Forscher das Prinzip der Falsifizierbarkeit nicht zu fürchten braucht, sondern ihm mit Respekt begegnen sollte. Außerdem sind Fehler menschlich: „Errare humanum est …“

5.3. Globale Revolutionen und Arten wissenschaftlicher Rationalität. Klassische, nicht-klassische und post-nicht-klassische Wissenschaft

Laut Kuhn durchläuft jede Wissenschaft in ihrer Bewegung bestimmte Phasen (Perioden) der Entwicklung: Prä-Paradigma, Paradigma und Post-Paradigma. Diese drei Phasen können als Genese der Wissenschaft, „normale“ Wissenschaft und Krise der Wissenschaft dargestellt werden. Der Paradigmenwechsel, die Überwindung der Krisenzustände wirkt wie eine wissenschaftliche Revolution, die die etablierten wissenschaftlichen Konzepte und Lehren unproduktiv macht. Es gibt drei Arten von wissenschaftlichen Revolutionen: Minirevolutionen, die sich auf separate Blöcke im Inhalt einer bestimmten Wissenschaft beziehen; lokale Revolutionen, die eine bestimmte Wissenschaft als Ganzes umfassen; globale wissenschaftliche Revolutionen, die die gesamte Wissenschaft als Ganzes erfassen und zur Entstehung einer neuen Vision der Welt führen. In der Geschichte der Wissenschaftsentwicklung gibt es mehrere globale Revolutionen:

1) die wissenschaftliche Revolution des XNUMX. Jahrhunderts, die die Entstehung der klassischen Naturwissenschaft markierte und die Grundlagen für die Entwicklung der Wissenschaft für die nächsten zwei Jahrhunderte bestimmte. Alle neuen Errungenschaften reihen sich konsequent in ein gemeinsames galiläisch-newtonsches Weltbild ein;

2) die wissenschaftliche Revolution vom Ende des XNUMX. bis zur ersten Hälfte des XNUMX. Jahrhunderts, die zur disziplinären Organisation der Wissenschaft und ihrer weiteren Differenzierung führte;

3) die wissenschaftliche Revolution des späten XNUMX. und frühen XNUMX. Jahrhunderts, die eine „Kettenreaktion“ revolutionärer Veränderungen in verschiedenen Wissensbereichen darstellt. Diese grundlegende wissenschaftliche Revolution des XNUMX. Jahrhunderts, die durch die Entdeckung der Relativitätstheorie und der Quantenmechanik gekennzeichnet war, revidierte die ursprünglichen Vorstellungen über Raum, Zeit und Bewegung (das Konzept der Nichtstationarität des Universums erschien in der Kosmologie, die Quantenchemie erschien in der Chemie, Die Genetik etablierte sich in der Biologie, es entstanden Kybernetik und Systemtheorie. Dank der Computerisierung und Automatisierung, die Industrie, Technik und Technologie durchdrang, erlangte die grundlegende wissenschaftliche Revolution den Charakter einer wissenschaftlich-technischen;

4) die wissenschaftliche Revolution des späten zwanzigsten Jahrhunderts, die Informationstechnologien ins Leben brachte, die der Vorbote einer neuen globalen wissenschaftlichen Revolution sind. Wir leben in einem expandierenden Universum, dessen Entwicklung von gewaltigen explosiven Prozessen mit der Freisetzung einer kolossalen Energiemenge begleitet wird, mit qualitativen Veränderungen in der Materie auf allen Ebenen. Angesichts der Gesamtheit der Entdeckungen, die Ende des XNUMX. Jahrhunderts gemacht wurden, können wir sagen, dass wir am Rande einer globalen wissenschaftlichen Revolution stehen, die zu einer vollständigen Umstrukturierung des gesamten Wissens über das Universum führen wird.

Globale Revolutionen können nur Veränderungen in den Rationalitätstypen beeinflussen. Die Idee der Rationalität wurde in der Geschichte der menschlichen Kultur auf verschiedene Weise umgesetzt und die Vorstellungen von Rationalität haben sich verändert. Die moderne Krise der Rationalität ist eine Krise der klassischen Idee der Rationalität, identifiziert mit der Norm und der streng eindeutigen Übereinstimmung von Ursache und Wirkung. Der klassische Rationalismus hat nie eine angemessene Erklärung für den Akt der Kreativität gefunden. Im Prozess neuer Entdeckungen gibt es weniger Rationales als Intuitives und Nicht-Rationales. Die tiefen Schichten des menschlichen „Ich“ fühlen sich der Vernunft nicht völlig untergeordnet; Begierden, Instinkte und Affekte verschmelzen im brodelnden Element des Unbewussten. Der klassische Rationalitätsgedanke ist eng mit dem Ideal der wissenschaftlichen Objektivität des Wissens verbunden. Darin wurde die Notwendigkeit eines Eliminierungsverfahrens verkündet, das auf den größtmöglichen Ausschluss subjektiver Elemente aus dem kognitiven Prozess abzielt. Das klassische Ideal der reinen Vernunft wollte nichts mit einer realen Person, dem Träger der Vernunft, zu tun haben. Im Modell der klassischen Rationalität wurde der Platz einer realen Person, die denkt, fühlt und erlebt, durch ein abstraktes Erkenntnissubjekt eingenommen.

Betrachtet man das Problem des Rationalen aus historischer Retrospektive, so muss neben dem antiken universalphilosophischen Rationalitätstyp der im mittelalterlichen Europa vorherrschende religiöse Rationalitätstyp herausgegriffen werden, der dem untergeordnet ist rationale Begründung des Glaubens und eine vernünftige Erklärung religiöser Dogmen. Die mittelalterliche Streitkultur bereitete den Apparat der logischen Beweisführung und Begründung, die Technik der Selbstprüfung des Denkens, den Übergang von nicht-formalisierten zu formalisierten Rationalitätsformen vor.

Die nichtklassische wissenschaftliche Rationalität nahm durch die Entdeckung von Einsteins Relativitätstheorie Gestalt an. Eine wichtige Voraussetzung für die Wahrheitsfindung ist nicht die Beseitigung aller forschungsbegleitenden Hindernisse, sondern die Klärung ihrer Rolle und ihres Einflusses unter Berücksichtigung des Zusammenhangs zwischen der Art des Gegenstandes und den Mitteln und Methoden der Forschung. Der nichtklassische Rationalitätstyp berücksichtigt das dynamische Verhältnis eines Menschen zur Realität, in dem seine Tätigkeit wichtig wird. Das Subjekt befindet sich in offenen Problemsituationen und unterliegt im Umgang mit der Außenwelt dem Bedürfnis nach Selbstentfaltung. So sprechen wir in der klassischen Rationalität von der Objektivität des Seins, in der nichtklassischen Rationalität vom Prozess des Werdens.

Die post-nichtklassische Rationalität zeigt, dass der Rationalitätsbegriff nicht nur logische und methodische Maßstäbe umfasst, sondern auch eine Analyse zweckdienlichen menschlichen Handelns. Die Idee des Pluralismus der Rationalität entsteht. In den Worten von P. P. Gaidenko entstanden viele Arten von Rationalität anstelle eines Geistes. Der post-nichtklassische Rationalismus ist gekennzeichnet durch die Korrelation von Wissen nicht nur mit der Tätigkeit des Subjekts und den Erkenntnismitteln, sondern auch mit den Wert-Ziel-Strukturen der Tätigkeit. Der Mensch tritt nicht nur als aktiver Teilnehmer, sondern als systembildender Faktor in das Bild der Welt ein. Im Kontext des neuen Paradigmas ist das Subjekt sowohl Beobachter als auch Aktivator. Das Denken eines Menschen mit seinen Zielen und Wertorientierungen trägt Eigenschaften, die mit dem Subjektinhalt des Objekts verschmelzen. In der neuen Rationalität erweitert sich die Objektsphäre um Systeme wie "künstliche Intelligenz", "virtuelle Realität", "Cyberbeziehungen" (d. h. Beziehungen, die gemäß dem in der virtuellen Realität operierenden intellektuellen Wertesystem implementiert sind - eine imaginäre Illusion Welt), die selbst Produkte des wissenschaftlichen und technologischen Fortschritts sind.

Unterscheiden Sie zwischen offener und geschlossener Rationalität. Letzteres wird im Modus vorgegebener Zielorientierungen implementiert, ist aber nicht universell. Was im Sinne der geschlossenen Rationalität rational erscheint, hört im Sinne der offenen Rationalität auf, rational zu sein. Daher ist die Lösung von Produktionsproblemen im Zusammenhang mit Umweltproblemen nicht immer rational. Eine Tätigkeit, die aus Sicht der Wissenschaft nicht rational ist, kann aus Sicht zwischenmenschlicher Beziehungen oder Karriereüberlegungen durchaus rational sein. Offene Rationalität ermöglicht eine reflexive Analyse alternativer kognitiver Praktiken, impliziert einen aufmerksamen und respektvollen Umgang mit alternativen Weltbildern, die in anderen kulturellen und weltanschaulichen Traditionen als der modernen Wissenschaft entstehen, Dialog und gegenseitige Bereicherung verschiedener kognitiver Traditionen. Antidogmatismus ist mit offener Rationalität verbunden, birgt aber auch die Gefahr des Relativismus, schafft eine Situation ständiger Spannung auf der Suche nach "festem Boden", Verantwortung für die getroffene Wahl.

Es stellt sich die Frage nach dem Verhältnis zwischen verschiedenen Arten von Rationalität. Forscher neigen dazu, die dialektische Anziehungskraft von offener und geschlossener Rationalität, unpersönlicher Rationalität des kosmologischen Typs und menschlicher anthropozentrischer Rationalität zu sehen. Die Ideale der klassischen Rationalität sollten nicht durch „Rationalität ohne Ufer“ ersetzt werden, die behauptet, dass „alles in allem rational ist“. Laut V. S. Stepin interagieren alle drei Typen wissenschaftlicher Rationalität (klassisch, nicht-klassisch und post-nicht-klassisch) und das Auftauchen jedes neuen Typs hebt den vorherigen nicht auf, sondern schränkt ihn nur ein und umreißt seinen Umfang. Gegenwärtig ist es wichtig, Arten von Rationalität, so variabel sie auch sein mögen, von Pseudo-Rationalität zu unterscheiden.

Rationalität ist mit artikulierten Aktivitätsprogrammen verbunden. Der Autor des Konzepts des persönlichen Wissens M. Polanyi hat gezeigt, dass das in den Texten von wissenschaftlichen Artikeln und Lehrbüchern präsentierte Wissen nur ein Teil davon ist, der im Fokus des Bewusstseins steht. Der andere Teil konzentriert sich auf die Hälfte des sogenannten Randwissens, das den Erkenntnisprozess ständig begleitet. Wir können sagen, dass die Rationalität den Hauptfokus des Bewusstseins setzt, ohne die Integrität zu leugnen, innerhalb derer unser Wissen ausgeführt wird und die wir erreichen müssen.

Für das Verhältnis von Denken und Sprechen lassen sich drei Optionen unterscheiden, die der modernen Art der Rationalitätsentwicklung Rechnung tragen sollten. Die erste Option zeichnet sich durch einen Bereich impliziten Wissens aus, dessen verbaler Ausdruck nicht ausreichend oder nicht ausreichend ist. Dies ist der Bereich, in dem die Komponente des impliziten stillschweigenden Wissens so stark dominiert, dass sein artikulierter Ausdruck unmöglich ist und der daher als „Bereich des Unaussprechlichen“ bezeichnet werden kann. Es umfasst Wissen, das auf Erfahrungen und Lebenserfahrungen basiert. Es handelt sich um zutiefst persönliche Erfahrungen, die nur sehr schwer zu verbreiten und zu sozialisieren sind. Die Kunst hat immer versucht, dieses Problem mit ihren eigenen Mitteln zu lösen: Der Akt der Kreativität und Empathie spiegelt die Fähigkeit wider, die Welt und das Leben des Helden eines Lebensdramas zu betrachten. Die zweite Version des Zusammenhangs zwischen Denken und Sprechen zeichnet sich durch einen Wissensbereich aus, der sprachlich recht gut vermittelt wird. Dies ist der Bereich, in dem die Komponente des Denkens in Form von Informationen vorliegt und vollständig durch gut verstandene Sprache vermittelt werden kann, daher fällt der Bereich des stillschweigenden Wissens mit dem Text zusammen, dessen Bedeutungsträger er ist. Die dritte Option ist der Bereich des „schwierigen Verstehens“: Es besteht eine Inkonsistenz zwischen dem nonverbalen Denkinhalt und den verbalen Mitteln, die die Konzeptualisierung des Denkinhalts verhindert. Dies ist ein Bereich, in dem implizites Wissen und formales Wissen unabhängig voneinander sind. Somit fallen auch diese Nuancen, die die Grenzen der Artikulation des Denkens setzen, in den Rahmen des modernen Typus der Rationalität.

Fähigkeiten und instrumentelle Handlungen sind zwar rationaler Natur, aber weitgehend individuell. Andererseits können schriftliche Regeln und Anweisungen nicht immer rational sein, da sie nicht alle Geheimnisse der Meisterschaft wiedergeben und nicht artikulierte Technologie ersetzen können. Neben der Erweiterung der modernen Rationalität unter Berücksichtigung des Potenzials des Unartikulierten gibt es auch Möglichkeiten zu ihrer Erweiterung unter Berücksichtigung des Reservoirs der Polysemantik. Man geht davon aus, dass die Bedeutung wissenschaftlicher Aussagen mehrdeutig ist, aber die Bedeutung von Rationalität als solcher hängt vom impliziten Wissenskontext als Wissen-Fähigkeit, Wissen-Macht usw. ab. Die Bedeutung wird dabei wie in einer Sekantenebene gebildet des internen Lesens des entstehenden Textes „für sich selbst“ und der verschiedenen Faktoren, die mit der Artikulation „draußen“ verbunden sind. Moderne Wissenschaftler argumentieren, dass Bedeutung untrennbar mit dem persönlichen Vertrauen verbunden ist, das in das verkündete wissenschaftliche Urteil gesetzt wird.

Daraus lässt sich schließen, dass für den modernen post-nichtklassischen Rationalitätstypus neben seiner Umsetzung im Modus des Strukturraums auch eine ganzheitliche Erfassung dieses Raumes wichtig ist. Gestalt ist wichtig – die mentale Bildung, die notwendig ist, um eine einzige integrale Struktur wiederherzustellen, die verschiedene Elemente und Komponenten vereint und verbindet. Das Eindringen der Prinzipien der östlichen Weltanschauung in die moderne Mentalität macht die Identifizierung der „kosmischen Rationalität“ relevant. Dazu könnten Vorstellungen von Harmonie, der Integrität des Menschen und des Kosmos, Vorstellungen vom richtigen Weg und dem persönlichen Schicksal gehören.

Die soziokulturelle Art der Rationalität, die Hierarchie, Unterordnung und andere funktionale Verhaltensnormen berücksichtigt, zeigt, wie vernünftig die vom Menschen geschaffenen Normen der Welt sind. Als innovativen Rationalitätstyp unterscheiden Wissenschaftler die kommunikative Rationalität.

Als besonders relevant für diese Entwicklungsstufe der Methodik gilt die Existenz von „Rationalitätsfallen“, wenn eine rationale Strategie individuellen Handelns zu kollektiver gesellschaftlicher Irrationalität führt. Es wird gezeigt, dass unter Umständen eine völlig rationale individuelle Strategie destruktiv und destruktiv für das Individuum sein kann.

Thema 6. Entwicklung sich selbst entwickelnder synergetischer Systeme und neuer Strategien für die wissenschaftliche Forschung

In der modernen post-nichtklassischen Wissenschaft konzentriert sich das gesamte Potenzial der deskriptiven Wissenschaften, des disziplinären Wissens, der problemorientierten interdisziplinären Forschung usw. auf die Wiederherstellung des Bildes der objektiven Realität. Die Untersuchung sich selbst entwickelnder synergetischer Systeme erfolgt im Rahmen von interdisziplinäre Forschung in mehrere Richtungen: 1) das vom Begründer der Synergetik G. Haken vorgeschlagene Modell; 2) I. Prigogines Modell; 3) das Modell der russischen Schule unter der Leitung von S.P. Kurdyumov usw. Der Beginn einer neuen Disziplin namens „Synergetik“ (im Modell von I. Prigogine wird stattdessen ein anderer Begriff verwendet – „Nichtgleichgewichts-Thermodynamik“) wurde durch eine Rede in gekennzeichnet 1973 vom deutschen Physiker-Theoretiker Hermann Haken (geb. 1927) auf der ersten Konferenz, die sich den Problemen der Selbstorganisation widmete. Im modernen post-nichtklassischen Weltbild werden Ordnung und Struktur sowie Chaos und Scholastik als objektive, universelle Merkmale der Realität anerkannt, die auf allen strukturellen Entwicklungsstufen vorhanden sind. Das Problem des unregulierten Verhaltens von Nichtgleichgewichtssystemen steht im Mittelpunkt der Synergetik (aus dem Griechischen synergos – wörtlich „syn“ – mit und „ergos“ – Aktion, d. h. Unterstützung, Teilnahme) – der Theorie der Selbstorganisation, die sich durchgesetzt hat Gegenstand der Identifizierung der allgemeinsten Muster der spontanen Strukturogenese.

Ein Indikator für den Fortschritt als Staat, der dazu neigt, die Komplexität des Systems zu erhöhen, ist das Vorhandensein des internen Potenzials der Selbstorganisation in ihm. Letzteres wird als globaler Evolutionsprozess aufgefasst, daher ist der Begriff der „Synergetik“ in der modernen Wissenschaftsphilosophie weit verbreitet und wird meist im Sinne von „konzertierter Aktion“, „kontinuierlicher Zusammenarbeit“, „Teilen“ verwendet. Haken stellte in seinem klassischen Werk Synergetics fest, dass in vielen Disziplinen, von der Astrophysik bis zur Soziologie, Unternehmensphänomene beobachtet werden, die oft zur Entstehung mikroskopischer Strukturen oder Funktionen führen. Die Synergetik in ihrer jetzigen Form konzentriert sich auf jene Situationen, in denen die Strukturen oder Funktionen von Systemen auf makroskaliger Ebene dramatischen Veränderungen unterliegen. Besonders interessiert sie die Frage, wie genau Subsysteme oder Teile Veränderungen hervorrufen, die ausschließlich auf Prozesse der Selbstorganisation zurückzuführen sind. Paradoxerweise verhalten sich alle diese Systeme beim Übergang von einem ungeordneten Zustand in einen Ordnungszustand auf ähnliche Weise.

1982 wurden auf einer Konferenz über Synergetik in der UdSSR spezifische Prioritäten für die neue Wissenschaft festgelegt. Insbesondere G. Haken betonte, dass im Zusammenhang mit der Krise hochspezialisierter Wissensgebiete Informationen auf wenige Gesetzmäßigkeiten, Konzepte oder Ideen komprimiert werden müssen und Synergetik als einer dieser Versuche angesehen werden kann. Seiner Meinung nach sind die Prinzipien der Selbstorganisation von Systemen unterschiedlicher Natur (von Elektronen bis zu Menschen) gleich, daher sollten wir über die allgemeinen Determinanten natürlicher und sozialer Prozesse sprechen, auf deren Entdeckung die Synergetik abzielt.

Somit erwies sich die Synergetik als ein sehr produktives wissenschaftliches Konzept, dessen Gegenstand die Prozesse der Selbstorganisation – der spontanen Strukturgenese – waren. Im häuslichen Modell der Synergetik und seiner Interpretation durch einheimische Wissenschaftler der Schule von S.P. Kurdyumov liegt der Schwerpunkt auf Prozessen, die im „verschärften“ Modus ablaufen. Die Synergetik umfasste neue Prioritäten des modernen Weltbildes – das Konzept einer instabilen Ungleichgewichtswelt, das Phänomen der Unsicherheit und der multialternativen Entwicklung, die Idee der Entstehung von Ordnung aus dem Chaos.

Die Grundidee der Synergetik ist, dass Ungleichgewicht im Einklang mit den Quellen der Entstehung einer neuen Organisation konzipiert wird, d.h. Ordnung (deshalb heißt das Hauptwerk von I. Prigogine und I. Stengers „Ordnung aus dem Chaos“). Der Ursprung der Ordnung wird der spontanen Materie gleichgesetzt. Das System ist immer offen und tauscht Energie mit der äußeren Umgebung aus, abhängig von den Eigenschaften seiner Parameter. Nichtgleichgewichtszustände werden durch Energieflüsse zwischen dem System und der Umgebung verursacht. Die Prozesse der lokalen Ordnung werden durch den Energiezufluss von außen durchgeführt. Nach G. Haken durchläuft die Verarbeitung der dem System zugeführten Energie viele Stufen, die letztlich zur Ordnung auf mikroskopischer Ebene führen: Bildung mikroskopischer Strukturen (Morphogenese), Bewegung mit wenigen Freiheitsgraden etc. Bei sich ändernden Parametern kann dasselbe System unterschiedliche Freiheiten der Selbstorganisation demonstrieren. Unter stark ungleichgewichtigen Bedingungen beginnen Systeme, jene Faktoren wahrzunehmen, denen sie gegenüber gleichgültig waren, und befinden sich in einem ausgeglicheneren Zustand. Folglich sind die Intensität und der Grad ihres Nichtgleichgewichts wichtig für das Verhalten selbstorganisierender Systeme.

Selbstorganisierende Systeme finden interne (immanente) Formen der Anpassung an die Umwelt. Nicht-Gleichgewichtsbedingungen verursachen den Effekt des gemeinsamen Verhaltens von Elementen, die sich unter Gleichgewichtsbedingungen unabhängig und autonom verhalten haben. In Situationen des fehlenden Gleichgewichts, der Kohärenz, d.h. die Konsistenz der Elemente des Systems nimmt deutlich zu. Eine bestimmte Anzahl oder ein Ensemble von Molekülen zeigt ein kohärentes Verhalten, das als komplex bewertet wird. In The Philosophy of Instability betont I. Prigogine: „Es scheint, dass Moleküle, die sich in verschiedenen Regionen der Lösung befinden, irgendwie miteinander kommunizieren können.“ Auf jeden Fall ist es offensichtlich, dass weit vom Gleichgewicht entfernt die Kohärenz des Verhaltens von Molekülen zunimmt Im Gleichgewicht sieht das Molekül nur seine Nachbarn und „kommuniziert“ nur mit ihnen. Weit entfernt vom Gleichgewicht sieht jeder Teil des Systems das gesamte System als Ganzes. Wir können sagen, dass Materie im Gleichgewicht blind ist, aber außerhalb des Gleichgewichts sieht sie.“ G. Haken nennt diese „kollektiven“ Bewegungen Moden. Seiner Meinung nach passen sich stabile Moden an instabile an und können ausgeschlossen werden führt zu einer kolossalen Abnahme der Zahl der Freiheitsgrade, also zu Ordnung.

Synergetische Systeme auf der Ebene der abiotischen Existenz (anorganische, rote Materie) bilden geordnete räumliche Strukturen; auf der Ebene einzelliger Organismen interagieren sie durch Signale; auf der ebene vielzelliger organismen vollzieht sich im laufe ihres funktionierens eine vielfältige zusammenarbeit. Die Identifizierung eines biologischen Systems basiert auf dem Vorhandensein kooperierender Abhängigkeiten. Die Arbeit des Gehirns wird von der Synergetik als „Meisterwerk der Zellkooperation“ bewertet.

Neue Strategien der wissenschaftlichen Forschung im Zusammenhang mit der Notwendigkeit zur Beherrschung selbstorganisierender synergistischer Systeme basieren auf einem konstruktiven Erkenntnisgewinn in der sogenannten Theorie der gerichteten Störung, die mit der Erforschung der Besonderheiten und Arten von Wechselbeziehungen zwischen diesen verbunden ist Strukturierungsprozesse und Chaos. Versuche, die Konzepte von "Ordnung" und zu verstehen "Chaos“ basieren auf der Klassifizierung von Chaos, das einfach, komplex, deterministisch, intermittierend, schmalbandig, großräumig, dynamisch usw. sein kann. Die einfachste Art von Chaos – niedrigdimensional – findet sich in Wissenschaft und Technik und kann mit deterministischen Systemen beschrieben werden; es handelt sich um ein anderes komplexes zeitliches, aber sehr einfaches räumliches Verhalten. Niedrigdimensionales Chaos geht mit dem unregelmäßigen Verhalten nichtlinearer Medien einher. In einem turbulenten Regime werden sowohl zeitliche als auch räumliche Parameter komplex und unkoordiniert sein. Deterministisches Chaos impliziert das Verhalten nichtlinearer Systeme, das durch Gleichungen ohne schulische Quellen mit regelmäßigen Anfangs- und Randbedingungen beschrieben wird. Die Gründe für den Stabilitätsverlust und den Übergang ins Chaos sind Rauschen, äußere Störungen, Störfaktoren. Manchmal wird die Quelle des Chaos betrachtet das Vorhandensein verschiedener, absolut zufälliger Abläufe sein. Zu den Umständen, die Chaos verursachen, gehört die grundsätzliche Instabilität der Bewegung, wenn zwei nahe beieinander liegende Zustände zu unterschiedlichen Entwicklungsbahnen führen können, die sensibel auf die Scholastik äußerer Handlungen reagieren.

Die moderne Forschung ergänzt die traditionellen Sichtweisen auf Prozesse der Chaotisierung erheblich. Chaos trat in das postklassische Weltbild nicht als Quelle der Zerstörung ein, sondern als Zustand, der sich aus der primären Instabilität materieller Wechselwirkungen ableitet, die Ursache spontaner Strukturgenese sein können. In den neuesten theoretischen Entwicklungen erscheint Chaos nicht nur als formlose Masse, sondern als äußerst komplexe organisierte Sequenz, deren Logik von erheblichem Interesse ist. Wissenschaftler definieren Chaos als eine unregelmäßige Bewegung mit sich periodisch wiederholenden, instabilen Trajektorien, bei der die Korrelation von räumlichen und zeitlichen Parametern durch eine zufällige Verteilung gekennzeichnet ist.

In der Welt der menschlichen Beziehungen gab es schon immer eine negative Einstellung gegenüber chaotischen Strukturen und eine vollständige Akzeptanz geordneter Strukturen. Die soziale Praxis dehnt sich gegen Chaos und Ungewissheit aus, begleitet sie mit negativen Bewertungsformeln und versucht, sie über die Grenzen der methodologischen Analyse hinauszuschieben. Letztere drückt sich im Triumph der rationalistischen Utopien totalitärer Regime aus, die eine „vollständige Ordnung“ errichten und mit „eiserner Notwendigkeit“ aufrechterhalten wollen. Die moderne Wissenschaft überwindet diese Haltung, indem sie ein anderes, konstruktives Verständnis der Rolle und Bedeutung der Prozesse des Chaos im gegenwärtigen synergetischen Paradigma anbietet.

Die Interpretation der Spontaneität der Entwicklung als negatives Merkmal in den destruktiven Begriffen „Beliebigkeit“ und „Chaos“ gerät nicht nur in Konflikt mit den Berechnungen der modernen Naturwissenschaften und der philosophisch-methodischen Analyse, die Chaos neben Ordnung als universelle Merkmale von erkennen der Entwicklung des Universums, sondern auch mit der ältesten historischen und philosophischen Tradition, in der Chaos als ein allumfassendes und generatives Prinzip gedacht wird. In der antiken Weltanschauung ist das unfassbare Chaos mit formender Kraft ausgestattet und bedeutet „Gähnen“, „Gaffen“, der primäre formlose Zustand der Materie und die primäre Kraft der Welt, die sich öffnend Reihen lebensspendender geformter Essenzen ausspuckt . Mehr als 20 Jahrhunderte später spiegelte sich diese antike Weltanschauung in den Schlussfolgerungen von Wissenschaftlern wider, die behaupten, dass die Entdeckung des dynamischen Chaos tatsächlich die Entdeckung neuer Bewegungsarten sei, die in der Natur ebenso grundlegend seien wie die Entdeckung der Elementarteilchen durch die Physik. Quarks und Gluns als neue Elemente der Materie. Die Wissenschaft des Chaos ist eine Wissenschaft der Prozesse, nicht der Zustände, des Werdens, nicht des Seins.

Neue Strategien der wissenschaftlichen Forschung im Zusammenhang mit der Notwendigkeit, selbstorganisierende synergetische Systeme zu beherrschen, überdenken die Arten der Verbindung zwischen Strukturierung und Chaotisierung, repräsentiert durch das Zyklizitätsschema, binäre und komplementäre Beziehungen. Die binäre Struktur des Zusammenspiels von Ordnung und Chaos manifestiert sich in der Koexistenz und Konfrontation dieser beiden Elemente. Anders als die Zyklizität, die einen Wechsel von Zuständen impliziert, ist die binäre Opposition von Ordnung und Chaos mit einer Vielzahl wirksamer Wirkungen verbunden: Sie ist sowohl Negation als auch Transformation unter Beibehaltung der ursprünglichen Basis (etwa mehr Ordnung und mehr Chaos) und Entfaltung der dieselbe Konfrontation auf einer neuen Grundlage (z. B. Zeiten sind anders, aber die Befehle oder Laster sind dieselben). Das Verhältnis der Komplementarität setzt das Eindringen unstrukturierter Kräfte und fragmentierter Formationen in ein organisiertes Ganzes voraus. Hier kann man die für sie ungewöhnliche Beteiligung fremder Elemente an der Integrität beobachten, Einschlüsse in das etablierte System von Komponenten sekundärer Strukturen, oft ohne innovative Transformationen und Änderungen im System der Komplexität.

Für die Entwicklung selbstorganisierender synergetischer Systeme ist eine neue Strategie der wissenschaftlichen Suche angezeigt, die auf einem baumartigen Prinzip (strukturlogisches Diagramm, Graph) basiert, das die alternative Entwicklung nachbildet. Die Wahl des führenden Entwicklungspfades hängt von den Ausgangsbedingungen, den darin enthaltenen Elementen, lokalen Veränderungen, Zufallsfaktoren und Energieeinwirkungen ab. Auf dem 1995. Internationalen Kongress für Logik, Methodologie und Wissenschaftsphilosophie, der im August XNUMX in Florenz stattfand, schlug I. Prigogine vor, die Idee der Quantenmessung in Anwendung auf das Universum als solche als Grundlage zu betrachten. Die neue Strategie der wissenschaftlichen Forschung beinhaltet die Berücksichtigung der grundlegenden Mehrdeutigkeit des Verhaltens von Systemen und ihrer Bestandteile, der Möglichkeit, von einer Bahn zur anderen zu springen, und des Gedächtnisverlusts, wenn das System, nachdem es seine vergangenen Zustände vergessen hat, spontan und unvorhersehbar handelt . An kritischen Punkten gerichteter Änderungen ist die Wirkung von Verzweigungen möglich, was zahlreiche Kombinationen ihrer Entwicklung im Hinblick auf das Funktionieren solcher Systeme ermöglicht.

Es ist bemerkenswert, dass ein ähnlicher methodischer Ansatz unter Verwendung von Verzweigungsanalysegrafiken angewendet wurde A. J. Toynbee (1889-1975) in Bezug auf den allgemeinen zivilisatorischen Entwicklungsprozess. Es ignoriert nicht die Existenzberechtigung verschiedener Arten von Zivilisationen, von denen es dem Historiker zufolge etwa 21 gibt. Das Wachstum der Zivilisation folgt keinem einzigen Muster, sondern geht von einer multivariaten Zivilisationsentwicklung aus, in der Vertreter derselben Art von Die Gesellschaft reagiert unterschiedlich auf die sogenannten Challenge Stories: Manche sterben sofort; andere überleben, aber zu einem solchen Preis, dass sie danach zu nichts mehr fähig sind; wieder andere halten der Herausforderung so erfolgreich stand, dass sie nicht nur nicht geschwächt daraus hervorgehen, sondern sogar die günstigsten Bedingungen für die Bewältigung künftiger Prüfungen geschaffen haben; Es gibt diejenigen, die den Pionieren folgen, wie Schafe ihrem Anführer folgen. Die Entstehung unabhängiger Zivilisationen ist nicht mit der Trennung von früheren Gesellschaftsformationen derselben Art verbunden, sondern vielmehr mit Mutationen von Schwestergesellschaften oder primitiven Gesellschaften. Auch der Zerfall von Gesellschaften vollzieht sich auf unterschiedliche Weise und mit unterschiedlicher Geschwindigkeit: Manche verfallen wie ein Körper, andere wie ein Baumstamm und wieder andere wie ein Stein im Wind. Die Gesellschaft ist laut Toynbee die Schnittstelle der Tätigkeitsfelder einzelner Individuen, deren Energie die Lebenskraft ist, die Geschichte schafft. Diese Schlussfolgerung des Historikers steht weitgehend im Einklang mit einer der führenden Bestimmungen der post-nichtklassischen Methodologie, die die Rolle und Bedeutung des Individuums als Initiator eines „kreativen Sprungs“ überdenkt und eine neue Wahrnehmung der Vergangenheit und der Ereignisse erzwingt die unter dem Einfluss einer Minderheit, großer Persönlichkeiten und Propheten stattfand.

Die eigentümliche organisatorische Offenheit der Welt setzt unterschiedliche Möglichkeiten der Quantifizierung der Realität, unterschiedliche szenariostrukturelle Kopplungen der Materie voraus. Die Strategie zur Beherrschung selbstorganisierender synergetischer Systeme ist mit Konzepten wie „Bifurkation“, „Fluktuation“, „Chaosomalität“, „Dissipation“, „Attraktoren“, „Nichtlinearität“, „Unsicherheit“ verbunden, die einen kategorialen Status erhalten und werden verwendet, um das Verhalten aller Arten von Systemen zu erklären – deorganisch, organismisch, sozial, aktiv, ethnisch, spirituell usw.

Unter Bedingungen, die weit vom Gleichgewicht entfernt sind, wirken Bifurkationsmechanismen, was auf das Vorhandensein von Bifurkationspunkten und eine nicht eindeutige Fortsetzung der Entwicklung schließen lässt. Die Ergebnisse ihres Handelns sind schwer vorherzusagen. Laut I. Prigozhin weisen Bifurkationsprozesse auf eine Komplikation des Systems hin. N. Moiseev argumentiert, dass im Prinzip jeder Zustand eines sozialen Systems bifurkational ist und dass die Entwicklung der Menschheit in den globalen Dimensionen der Anthropogenese mindestens zwei Bifurkationen erlebt hat: Die erste fand im Paläolithikum statt und führte zur Gründung von ein Tabusystem, das die Wirkung biosozialer Gesetze einschränkt (du sollst nicht töten!), das zweite - in der Jungsteinzeit und ist mit der Erweiterung der geologischen Nische (der Entwicklung der Landwirtschaft und Viehzucht) verbunden.

Schwankungen, d.h. Störungen werden in zwei Klassen eingeteilt: solche, die durch die äußere Umgebung verursacht werden, und solche, die vom System selbst reproduziert werden. Schwankungen können so stark sein, dass sie eine systemische Dichte haben, die ihr eigene Schwankungen verleiht und tatsächlich die Art ihrer Existenz verändert. Sie führen das System aus seiner ihm innewohnenden Art von Ordnung heraus, aber ob es notwendigerweise zu Chaos oder zu Ordnung auf einer anderen Ebene führt, ist eine andere Frage.

Ein System, durch das Störungen abgebaut werden, heißt dissipativ. Im Wesentlichen ist dies ein Merkmal des Verhaltens des Systems bei Schwankungen, die es vollständig erfassten. Die Haupteigenschaft eines dissipativen Systems ist seine außerordentliche Empfindlichkeit gegenüber Einflüssen aller Art und die damit verbundene extreme Ungleichgewichtigkeit.

Attraktoren werden anziehende Mengen genannt, die eine Art Zentren bilden, zu denen Elemente hingezogen werden. Wenn sich beispielsweise eine große Menschenmenge ansammelt, kann eine Person nicht gleichgültig daran vorbeigehen, ohne Neugierde zu zeigen. In der Theorie der Selbstorganisation wird ein solcher Vorgang als Gleiten bis zur Akkumulation bezeichnet. Attraktoren konzentrieren scholastische Elemente um sich herum, strukturieren dadurch die Umgebung und werden zu Teilnehmern an der Schaffung von Ordnung.

Die vorrangige Richtung des neuen Paradigmas – die Analyse instabiler Nichtgleichgewichtssysteme – steht vor der Notwendigkeit, das Phänomen der ontologischen Unsicherheit zu untersuchen, das das Fehlen eines realen Referenten der Zukunft erfasst. Mitte des XNUMX. Jahrhunderts. Die Unsicherheit hat im Rahmen der Probleme der Kybernetik und Computerkommunikation das Interesse einer Reihe westlicher Wissenschaftler geweckt. In den Werken von N. Wiener, K. Shannon, W. Ashby, H. Hartley wurde Information von der Unsicherheit abhängig gemacht und an deren Maß gemessen. Es wurde allgemein angenommen, dass Unsicherheit (oder Überraschung) umgekehrt proportional zur Wahrscheinlichkeit war: Je wahrscheinlicher ein Ereignis war, desto weniger unsicher oder unerwartet war es. Weitere Analysen zeigten, dass dieser Zusammenhang in vielerlei Hinsicht nur einfach zu sein scheint: Unsicherheit ist eine Art von Interaktion, der es an einer endgültigen stabilen Form mangelt. Es lässt sich aus der heteronomen Natur eines Objektereignisses ableiten, wenn es, wie man sagt, direkt vor unseren Augen, vor allen möglichen Prognosen, Berechnungen und Erwartungen geschieht. Wir identifizieren das Phänomen der Unsicherheit mit der potenziellen Vollständigkeit aller möglichen Änderungen innerhalb der Grenzen bestehender grundlegender physikalischer Konstanten. Die Wahrscheinlichkeit geht von einer stabilen Verteilung der Merkmale einer Population aus und zielt darauf ab, ein Kontinuum möglicher Veränderungen zu berechnen.

Für die neue Strategie der wissenschaftlichen Forschung ist die Kategorie der Zufälligkeit relevant, die als Merkmal des Verhaltens jeder Art von System erscheint, nicht nur komplex, sondern auch einfach. Darüber hinaus führt ihre weitere Untersuchung, so sorgfältig sie auch durchgeführt wird, keineswegs zur Befreiung vom Zufall. Letzteres bedeutet, dass die Eigenschaften und Qualitäten einzelner Phänomene ihre Bedeutung unabhängig voneinander ändern und nicht durch eine Liste von Merkmalen anderer Phänomene bestimmt werden. In einer der neuesten Interpretationen wurde dieser Zufall als dynamisches Chaos bezeichnet. Der Zufall, der durch das Einwirken nebenläufiger, unregelmäßiger, kleiner Ursachen oder das Zusammenspiel komplexer Ursachen entsteht, ist eine konkrete und besondere Manifestation der Unsicherheit.

Die Fähigkeitskategorie spiegelt den zukünftigen Zustand des Objekts wider. Die Gelegenheit zielt darauf ab, die Voraussetzungen und Trends eines sich entwickelnden Phänomens zu korrelieren und Optionen für nachfolgende Entwicklungs- und Veränderungsstufen vorzuschlagen. Eine Reihe von Möglichkeiten konstituiert ein existentielles Feld der Ungewissheit. Die aktuelle Situation wird aufgrund vieler konkurrierender Möglichkeiten oft als ungewiss eingeschätzt. Unsicherheit begleitet das Auswahlverfahren und relativiert den „Vorauswahl“-Zustand des Systems. Darüber hinaus wird Wahl nicht nur als bewusstes und zielgerichtetes Handeln verstanden, sondern auch als Aktualisierung der scholastischen Kausalität eines natürlichen oder naturgeschichtlichen Vorgangs. Ungewissheit enthält potenziell ebenso viele Möglichkeiten, wenn „alles möglich ist“ (natürlich innerhalb der Grenzen fundamentaler physikalischer Konstanten). Dann wird es zu einer Situation organisiert und ist in seiner vollendeten Form das Gegenteil von sich selbst, d.h. Sicherheit.

Die in der neuen Strategie zur Untersuchung selbstorganisierender Systeme notwendigen statistischen Regelmäßigkeiten werden in der Sprache der Wahrscheinlichkeitsverteilungen gebildet und manifestieren sich als Gesetze von Massenphänomenen, die auf großen Zahlen beruhen. Es wird angenommen, dass ihre Wirkung dort zu finden ist, wo es für eine Vielzahl zufälliger Ursachen tiefe notwendige Verbindungen gibt. Sie geben keine absolute Reproduzierbarkeit, sind aber im allgemeinen Fall als Regelmäßigkeiten dauerhafter Ursachen zu bewerten. Die moderne Synergetik zeichnet sich durch die Unterscheidung zweier evolutionärer Entwicklungszweige aus: organisch und anorganisch. Die lebendige Welt bestätigt die einzigartige Fähigkeit, geordnete Formen zu produzieren, als ob sie dem Prinzip "Ordnung von Ordnung" folgen würden. Das Streben nach lebloser Materie ist die Annäherung an das Chaos, die Zunahme der Entropie mit anschließender Strukturgenese. Die Grundlage subtiler physikalischer Gesetze ist atomare Unordnung. Das wichtigste evolutionäre Merkmal von Lebewesen ist die minimale Zunahme der Entropie. Aus der These über die minimale Entropieproduktion folgt, dass Bedingungen verhindern, dass das System in einen Gleichgewichtszustand übergeht, es geht in einen Entropiezustand über, der dem Gleichgewicht so nahe kommt, wie es die Umstände zulassen.

Das Postulat der modernen Naturwissenschaften – „Was überwiegend wahrscheinlich ist, ist ausreichend“ – schließt eine „stückweise“ Analyse unerwarteter, unwahrscheinlicher, aber daher maximal umfassender Ereignisse nicht aus, die durch innovative Mittel der wissenschaftlichen Suchstrategie wie die situative ermöglicht wird Entschlossenheit (Fallstadien), Entführung, Kumatoide.

Bei der Analyse nach Art von „Fallstudien“ (Fallstudien) geht es um die Untersuchung individueller, besonderer Situationen, die nicht in den etablierten Erklärungskanon passen. Es wird angenommen, dass die Idee eines situativen Ansatzes auf die ideografische (beschreibende) Methode der badischen Schule zurückgeht. Es gibt zwei Arten von Fallstudien: Text- und Feldstudien. Der Vorteil von Fallstudien besteht darin, dass der Inhalt des Wissenssystems im Kontext einer bestimmten Reihe von Bedingungen, spezifischen und besonderen Formen von Lebenssituationen offenbart wird, wodurch der Schleier über den Geheimnissen des realen Erkenntnisprozesses geöffnet wird.

Die Phase der „Schlussfolgerung zur besten Sachverhaltsaufklärung“ wird als Entführung bezeichnet. Solche Schlussfolgerungen werden im Alltag und in der Praxis verwendet. Zum Beispiel sucht ein Arzt anhand der Symptome einer Krankheit nach der Ursache der Krankheit, ein Detektiv sucht anhand der Spuren, die am Tatort hinterlassen wurden, nach einem Verbrecher. In ähnlicher Weise verwendet ein Wissenschaftler, der versucht, die erfolgreichste Erklärung für das, was passiert, zu finden, die Entführungsmethode: Die Bedeutung des von ihm reflektierten Verfahrens und die Konstruktion einer neuen und effektiven methodischen Strategie sind sehr bedeutsam.

Eine weitere Innovation moderner wissenschaftlicher und technischer Strategien ist das Kumatoid (von griechisch kuma – Welle) – eine bestimmte Art von schwebendem Objekt, das sich dadurch auszeichnet, dass es erscheinen, sich bilden, verschwinden oder zerfallen kann. Es repräsentiert nicht alle seine Elemente gleichzeitig, sondern stellt sie sozusagen in einem einzigartigen „sinnlich-übersinnlichen“ Bild dar. Beispielsweise kann ein so systemisches Objekt wie ein Volk nicht in einem bestimmten räumlich-zeitlichen Bereich dargestellt und lokalisiert werden, da es unmöglich ist, alle Menschen so zu sammeln, dass das Objekt ganzheitlich dargestellt werden kann. Dieses Objekt ist jedoch nicht fiktiv, sondern real, wir beobachten, studieren und bestimmen darüber hinaus maßgeblich die Richtung des gesamten zivilisationshistorischen Prozesses als Ganzes. Ein weiteres einfaches und leicht zugängliches Beispiel ist eine Studentengruppe. Dies ist auch eine Art schwebendes (entweder verschwindendes oder erscheinendes Objekt), das nicht in allen Interaktionssystemen vorkommt. Somit existiert die Gruppe als integrales Objekt nach Abschluss der Schulungen nicht mehr, während sie in bestimmten, institutionell programmierten Situationen (Gruppenzahl, Anzahl der Studierenden, allgemeine Merkmale) als Objekt entdeckt und selbstidentifiziert wird. Darüber hinaus wird ein solcher Kumatoid auch außerinstitutionell unterstützt, angetrieben durch vielfältige Impulse – Freundschaft, Rivalität, Solidarität, Unterstützung usw.

Die Besonderheit des Kumatoids besteht darin, dass es nicht nur gegenüber der räumlich-zeitlichen Lokalisierung gleichgültig ist, sondern auch lose mit dem Substrat selbst verbunden ist – dem Material, aus dem es besteht. Seine Eigenschaften sind systemisch und hängen daher von der Anwesenheit oder Abwesenheit seiner konstituierenden Elemente und insbesondere vom Verlauf ihrer Entwicklung oder ihres Verhaltens ab. Kumatoid kann nicht eindeutig mit einer bestimmten Qualität oder einer Reihe ähnlicher Eigenschaften identifiziert werden, die auf materielle Weise festgelegt sind. Das gesamte gesellschaftliche Leben ist mit schwimmenden Objekten – Kumatoiden – überflutet. Ein weiteres Merkmal dieses Phänomens ist eine gewisse Prädiktivität seiner Funktionsweise (ein Volk sein, ein Lehrer sein, Mitglied einer bestimmten sozialen Gruppe sein usw.). Es wird erwartet, dass der Kumatoid einige der typischsten Verhaltensmerkmale reproduziert.

Neue Strategien der wissenschaftlichen Forschung weisen auf die grundlegende hypothetische Natur des Wissens hin. Insbesondere in einer der möglichen Interpretationen des post-nicht-klassischen Weltbildes wird ein solcher Zustand des Universums begründet, wenn trotz der Unvorhersehbarkeit von Schwankungen (zufällige Störungen und Änderungen der Anfangsbedingungen) die Menge des Möglichen Trajektorien (Wege der Systementwicklung) definiert und begrenzt. Zufällige Schwankungen und Bifurkationspunkte verändern die Bahn des Systems in schwer vorhersagbarer Weise, jedoch gravitieren diese Bahnen zu bestimmten Attraktortypen und bringen dadurch das gegenüber kleinsten Änderungen der Anfangsbedingungen instabile System ins Wanken ein neuer instabiler Zustand.

Thema 7. Wissenschaft als soziale Institution

7.1. Institutionalisierung der Wissenschaft und ihre philosophischen Probleme

Im weitesten Sinne wird eine soziale Institution als Element der sozialen Struktur, als historische Organisations- und Regulierungsform des gesellschaftlichen Lebens interpretiert – eine Reihe von Institutionen, Normen, Werten, kulturellen Mustern, nachhaltigen Verhaltensformen. Die zahlreichen in der Literatur verfügbaren Definitionen von Wissenschaft sind sich in einem Punkt einig: Sie alle behandeln Wissenschaft als eine einzigartige Form der Tätigkeit. Bei der Definition von Wissenschaft wird am häufigsten auf ihre genetischen Verbindungen zur Kultur Bezug genommen, die die solideste Grundlage der Wissenschaft darstellen. Gleichzeitig wird der Anspruch der Wissenschaft auf den Status einer gesellschaftlichen Institution durch zwei Umstände gerechtfertigt. Erstens sind die Grenzen seines Funktionierens so groß, dass es durchaus die Kultur berührt und mit ihr in Kommunikation tritt. Zweitens ist die Wissenschaft selbst in der Lage, sowohl in aktiver als auch in technologischer Hinsicht eine wirklich solide Grundlage der Kultur zu werden. Daher ist es durchaus angemessen und legitim, Wissenschaft als soziokulturelles Phänomen zu bezeichnen, weshalb ihre angewandte Rolle erheblich erweitert wird. Die Gemeinschaft von Wissenschaft und Kultur ist in der Lage, eine Zivilisation zu bilden.

Natürlich beschränkt sich die Rolle der Wissenschaft nicht nur auf ihre Kontakte mit der Kultur. Die Möglichkeiten der Wissenschaft sind viel größer. Eingebunden in den sozialen Kontext kann es die Politik der Gesellschaft beeinflussen und ihre ideologischen Bedürfnisse befriedigen. Es gibt verschiedene Modelle der Beziehung zwischen Wissenschaft und Ideologie: Verurteilung, Gleichgültigkeit, Apologetik, Ausbeutung usw. Die Wissenschaft kann sich in einer unterwürfigen Abhängigkeit befinden und eine „gesellschaftliche Ordnung“ erfüllen. Diese Praxis ist besonders typisch für die militärische (Verteidigungs-)Industrie. Die Geisteswissenschaften sind am stärksten von der Ideologie abhängig, die Naturwissenschaften am wenigsten. Technische Wissenschaften werden durch Anwendungszwecke, Anforderungen aus der Produktion und den Grad der Umsetzung begrenzt. Doch die Wissenschaft kann sich dem Einfluss der Gesellschaft nicht völlig entziehen, obwohl sie dies anstrebt. Die sozialpsychologischen Faktoren, die die Wissenschaft bestimmen, erfordern die Einführung von Vorstellungen über historisches und soziales Bewusstsein, die Reflexion über Verhaltensweisen von Wissenschaftlern, kognitive Mechanismen der Erkenntnis und Motivation für wissenschaftliches Handeln in den Kontext der Wissenschaft. Sie verpflichten die Wissenschaft, sich soziologischer Forschung zu unterziehen, zumal die Wissenschaft als soziokulturelles Phänomen nicht nur positive, sondern auch negative Folgen ihrer Entwicklung hat.

Die moderne Wissenschaft hängt von vielen Faktoren ab, die ihre Entwicklung bestimmen, unter denen man neben den Anforderungen der Produktion und der Wirtschaft staatliche Prioritäten und ihre eigenen intellektuellen, philosophischen, religiösen und ästhetischen Faktoren sowie Mechanismen für soziale Unterstützung nennen kann für wissenschaftliche Forschung. All diese Faktoren zusammen stellen ethische Anforderungen an den Wissenschaftler: Uneigennützigkeit, Objektivität, wissenschaftliche Gewissenhaftigkeit, Pflichtbewusstsein gegenüber intellektuellen Traditionen, die seine moralischen Leitlinien bestimmen.

Wissenschaft, verstanden als soziokulturelles Phänomen, korreliert mit der Art der zivilisatorischen Entwicklung. Nach der Klassifikation von A. J. Toynbee werden 21 Arten von Zivilisationen unterschieden. Ein allgemeinerer Ansatz beinhaltet eine allgemeine zivilisatorische Unterteilung, wobei zwei Arten von Zivilisationen berücksichtigt werden: traditionelle und technogene. Es gibt einige Unterschiede zwischen ihnen. Insbesondere das Umdenken traditioneller konservativer Konzepte wird von der Notwendigkeit diktiert, nicht nur interne, sondern auch universelle Denkreserven zu nutzen. Die technogene Art der Entwicklung impliziert eine beschleunigte Veränderung der natürlichen Umwelt in Verbindung mit der aktiven Transformation der sozialen Bindungen des menschlichen Faktors. Die kulturelle Matrix der technogenen Entwicklung durchläuft die Stadien der vorindustriellen, industriellen und postindustriellen Entwicklung. Das dreihundertjährige Bestehen einer technogenen Zivilisation hat ihre an Aggressivität grenzende Aktivität demonstriert, die auf die tiefgreifenden Folgen menschlicher Eingriffe in die Geheimnisse der Natur und ihre Verantwortung gegenüber der Gesellschaft hinweist.

Die Persönlichkeit eines Wissenschaftlers, sein Streben nach Wahrheit ist ein traditioneller Gegenstand des Interesses der Wissenschaftler selbst. Zum Beispiel, Max Weber (1864-1920) sah die Pflicht eines Wissenschaftlers darin, sich selbst, die Trägheit seines eigenen Denkens, ständig zu überwinden. Und wer dazu nicht in der Lage ist, sollte sich nicht mit der Wissenschaft befassen! Intellektuelle sind ein besonderes wissenschaftliches Umfeld. Ihre prominentesten Vertreter bilden die sogenannte Elite (von der französischen Elite – die Besten, die Auserwählten). Einigen Schätzungen zufolge haben Ausbrüche wissenschaftlicher Eliteaktivitäten zwei Höhepunkte: den ersten im Alter von 32 bis 36 Jahren und den zweiten im Alter von 42 bis 46 Jahren. Eine solche wissenschaftliche Fruchtbarkeit wird in seltenen Fällen durch Vererbung weitergegeben. Nach einigen Beobachtungen (V. P. Kokhanovsky, T. G. Leshkevich usw.) verliert die Elite mit zunehmendem Alter ihren „Elitecharakter“, behält formell ihr Image und hemmt den Aufstieg junger Menschen. Beachten Sie, dass es für die Argumentation der Autoren zu Eliten in der Wissenschaft keine empirischen Beweise gibt, es wird jedoch angenommen, dass es solche geben könnte. So betrachtet V. P. Kokhanovsky beispielsweise fünf Merkmale als Bedingungen für die Zugehörigkeit zur Elite, deren Vorhandensein seiner Meinung nach die Grundlage für den Aufstieg in die Kategorie der Eliten ist:

1) Wahl eines Wissenschaftlers zum ordentlichen Mitglied, korrespondierenden Mitglied, Ehrenmitglied von Akademien, wissenschaftlichen Einrichtungen und Gesellschaften;

2) Verleihung von Preisen und Medaillen für wissenschaftliche Tätigkeit;

3) Aufnahme von biografischen Informationen über den Wissenschaftler in spezielle Nachschlagewerke und Enzyklopädien;

4) Teilnahme an der Arbeit von Redaktionsausschüssen, Veröffentlichungen mit hoher wissenschaftlicher Qualifikation;

5) ein hoher Zitationsindex eines Wissenschaftlers durch Mitglieder der weltweiten wissenschaftlichen Gemeinschaft.

Ein institutioneller Ansatz für die Wissenschaft in Russland hat sich noch nicht herausgebildet, verspricht aber positive Perspektiven. Der Vorfahre dieses Ansatzes ist der amerikanische Soziologe Robert King Merton (geb. 1910). Wie Sie wissen, spiegelt der Begriff „soziale Institution“ den Grad der Fixierung einer bestimmten Art menschlicher Aktivität und informeller Beziehungen durch die Art von Vereinbarungen und Verhandlungen zur Schaffung von Organisationsstrukturen wider. In diesem Zusammenhang gibt es einen Wortgebrauch über politische, soziale, religiöse Institutionen sowie die Institution Familie, Schule, Institution. Aber die philosophische Grundlage dieses Phänomens in Russland ist noch nicht entwickelt.

Institutionalität in Bezug auf ein einzelnes Subjekt hat eine zwingende Kraft. Das Institut, so Weber, vereint Menschen, bezieht sie in kollektive Aktivitäten ein, systematisiert Bildungsprozesse. In ihren Anfängen existierten diese Normen in mittelalterlichen Klöstern und Universitäten, im System professioneller wissenschaftlicher Tätigkeit. Die Wirksamkeit der Bildung wird durch die Ziele bestimmt, die von den Teilnehmern des Prozesses gesetzt werden; es kommt darauf an, was sie durch Bildung erreichen wollen. Und damit verbunden ist das Problem der beruflichen und sozialen Orientierung, d.h. wie eine Person ihren Platz im Leben, im System der sozialen Beziehungen bestimmt.

Berufliche und soziale Orientierung hängen weitgehend zusammen. Wenn also die berufliche Orientierung die Existenz einer Reihe von Berufen voraussetzt, in denen ein Subjekt seine vorhandenen Fähigkeiten verwirklichen kann, dann wird unter sozialer Orientierung die Bestimmung seines Platzes im System der sozialen Beziehungen durch eine Person, die Wahl ihrer sozialen Position verstanden. Die Gesellschaft tut Unrecht, wenn sie den Wunsch der Menschen nach sozialem Aufstieg nicht unterstützt. Dieser Wunsch schafft Konkurrenz; dementsprechend hat die Gesellschaft größere Möglichkeiten, Kandidaten für bestimmte Positionen, auch in der Wissenschaft, auszuwählen. Marktveränderungen in Russland haben die Bildungsorientierung junger Menschen deutlich verstärkt. Immer mehr Menschen wünschen sich eine Ausbildung in den Bereichen Finanzen, Wirtschaft und Recht, und immer weniger Menschen wollen Arbeitnehmer werden. Der Mensch möchte kein Objekt, sondern ein Subjekt seines Schicksals sein, er möchte eine aktive Position im Leben einnehmen. Sie erwarten nun weder von der Natur noch von den Behörden Gefälligkeiten. Wie Zh. T. Toshchenko schreibt, stellte sich bei der Untersuchung der Berufsorientierung von Gymnasiasten heraus, dass nur einer der Befragten Arbeiter werden wollte – ein Goldsucher (anscheinend träumte er davon, ein Goldnugget zu finden!).

7.2. Entwicklung von Methoden der Wissensvermittlung und Dynamik wissenschaftlicher Erkenntnisse

Jedes Land ist am Fortschritt der Wissenschaft aufgrund der offensichtlichen Vorteile für seine Entwicklung interessiert. In der menschlichen Gesellschaft gibt es mehrere Möglichkeiten, Wissen von Generation zu Generation zu übertragen: synchron, diachron, translatorisch usw. Das Wesen des synchronen Transfers ist die Assimilation von Wissen durch Kontaktkommunikation zwischen Generationen, wenn sie zusammen existieren. Die diachrone Methode beinhaltet den Wissenstransfer zwischen Generationen durch Wissensübersetzung. Zwischen diesen Formen gibt es keine unüberwindbare Grenze; ​​sie überschneiden und ergänzen einander. Die moderne Gesellschaft verbessert ständig die Methoden des Wissenstransfers sowohl horizontal (territorial) als auch vertikal (von Generation zu Generation). Die bedeutendste Art der Wissensvermittlung – das Schreiben – prägt den Entwicklungsstand der Gesellschaft, verbindet Vergangenheit mit Gegenwart und Zukunft und macht sie zeitlos. Die massive Verbreitung des Schreibens trug zur Entstehung der sogenannten Informationsgesellschaft bei.

Es wird angenommen, dass die gesprochene Sprache dem Bezeichneten am nächsten kommt. Worte, eine Stimme, sind der Vernunft näher als ein geschriebenes Zeichen. Eine solche zweischichtige Struktur der Sprache wurde zuerst von dem berühmten Schweizer Linguisten Ferdinand de Saussure (1857-1913) untersucht. Er schlug vor, Sprache als System zu betrachten, indem er zwischen Sprachlinguistik und Sprachlinguistik, Synchronie und Diachronie unterschied, und sprachliche Eigenschaften wie Objektivität und Operationalität heraus. Wissenschaftliches Wissen hat seine eigenen Anforderungen an die Sprache: Neutralität, fehlende Individualität und eine genaue Reflexion des Seins. Die Sprache der Wissenschaft sollte eine Kopie des Studienobjekts sein, obwohl sie sich immer als Gefangene der Mentalität herausstellt, die die Ausdruckstraditionen, Gewohnheiten, Aberglauben, den "Geist" der Menschen enthält. Schreiben war ursprünglich als Darstellungsform von Sprache und als Ersatz für persönliche Teilnahme gedacht, schränkte aber gleichzeitig die freie Reflexion ein, unterbrach den Gedankenfluss.

Die Methoden der Übermittlung wissenschaftlicher Erkenntnisse sind mit der Art des Gesellschaftssystems verbunden. In einer traditionellen Gesellschaft nimmt die Figur eines Lehrers einen wichtigen Platz ein, ein Lehrer, der Wissen an seine Schüler weitergibt. Der Schüler muss Bedeutungen erfassen und offenbaren, den Inhalt des Wissens entobjektivieren und ihn auf seine eigenen individuellen Handlungen anwenden. Die Informationstechnologie hat heute einen großen Einfluss auf die Vermittlung wissenschaftlicher Erkenntnisse. Sie haben erhebliche Vorteile: Sie haben eine viel größere Menge an Informationen, eine höhere Übersetzungs- und Verarbeitungsgeschwindigkeit. Die Intensivierung der Informationstechnologien erhöht das Bildungsniveau der Menschen, die Intellektualisierung der Gesellschaft und erweitert ihre Computerisierung. Die neue Realität bietet einem Menschen virtuelle Interaktionsmöglichkeiten: anonym, unpersönlich, ohne Moralisierung. Das Internet verwischt strenge Lernkriterien und erschwert die Auswahl sinnvoller Informationen. Er ist „auf der anderen Seite von Gut und Böse“.

7.3. Das Problem der gesellschaftlichen Regulierung der Wissenschaft

Die gesellschaftliche Regulierung der Wissenschaft ist ein Entwicklungsprozess der Gesellschaft und des Standes von Wertorientierungen, strategischen Prioritäten, Rechtsnormen, die die Aktivitäten der Wissenschaftsgemeinschaft, Forschungsorganisationen und spezifischer Wissenschaftler regeln. Die Notwendigkeit einer solchen Regulierung ergibt sich aus der Tatsache, dass die Wissenschaft als soziale Institution wichtige Funktionen im Zusammenhang mit dem Wachstum neuer Erkenntnisse, der Entwicklung des wissenschaftlichen und technologischen Fortschritts usw. erfüllt. Daher kann die Gesellschaft, der Staat den Problemen der wissenschaftlichen Entwicklung nicht gleichgültig gegenüberstehen. Inzwischen gibt es viele Kontroversen auf diesem Gebiet. Der amerikanische Technikphilosoph E. Layton, der das Problem der gesellschaftlichen Regulierung der Wissenschaft am Beispiel von 700 technologischen Innovationen untersuchte, kam zu dem Schluss, dass es unmöglich sei, aus innovativen Kapitalanlagen momentane Vorteile zu ziehen. Wie Sie sehen, trägt die empirische Praxis nicht zur Einführung wissenschaftlicher Innovationen in die Industrie bei. Die Hemmmechanismen der letzteren hemmen den technischen Fortschritt, „arbeiten“ zugunsten des Erhalts der bestehenden Technik, schützen sie vor abruptem Wandel und Dekonstruktion. Diese Praxis dient nicht der beschleunigten Einführung technischer Innovationen in die Produktion und garantiert nicht, dass Innovationen ihre technologische Anwendung finden. Gleichzeitig kommen Wissenschaftler zu dem Schluss, dass, wenn die wissenschaftliche Tätigkeit zur Gewinnung von Grundlagenwissen und dessen Anwendung für mindestens 50 Jahre ausgesetzt wird, sie aufgrund der Wertminderung des vorhandenen Wissens niemals wieder aufgenommen werden können.

Das Problem der Interaktion der künstlichen Welt mit der natürlichen Welt bleibt nach wie vor unlösbar. So verändern beispielsweise in Haushaltsgeräten eingesetzte Niederfrequenzgeneratoren die gewohnte Umgebung des menschlichen Alltags. Die Untersuchung der Folgen ihres Einflusses ist jedoch nicht organisiert, obwohl Vorversuche die nachteilige Wirkung dieser Wirkung auf die Psyche und die menschliche Gesundheit bewiesen haben. Das Fehlen einer koevolutionären Strategie bei der staatlichen Regulierung technologischer Entwicklungen bringt Disharmonie psychologischer und medizinischer Natur in die Struktur eines gesunden Lebensstils ein.

Der soziale Status eines modernen Wissenschaftlers ist alarmierend: Man kann das Vorhandensein zahlreicher sozialer, wirtschaftlicher, logistischer, finanzieller, psychologischer, axiologischer und anderer Probleme feststellen, die sich negativ auf seinen sozialen und rechtlichen Status auswirken.

Alle oben genannten Probleme können auf das Beziehungssystem gerichtet werden, das sich zwischen Wissenschaft und Regierung entwickelt hat. Der französische Philosoph M. Foucault versuchte, den Zusammenhang zwischen Macht und Wissen zu klären. Es schien ihm, dass Wissenschaft gleichbedeutend mit Macht sei, und er formulierte die Idee „Wissen ist Macht“ (russische Version: „Wissen ist Macht“). Die Beziehung zwischen Regierung und Wissenschaft in Russland war schon immer komplex. Insbesondere verfolgte die Sowjetregierung, die sich hinter der sozialen Demagogie über die allmähliche Konvergenz von körperlicher und geistiger Arbeit während der Zeit des sogenannten „erweiterten Aufbaus des Kommunismus“ versteckte, eine politische Linie, um die Löhne wissenschaftlicher Mitarbeiter auf das Niveau zu senken den Lohn der handwerklich tätigen Arbeiter, um so den Anschein der Verwirklichung seines Propagandaunternehmens zu erwecken. Allmählich kam es infolge dieser abenteuerlichen Politik zu einem Rückgang des Ansehens geistiger Arbeit. Die Sowjets sind in Vergessenheit geraten, aber der Trend lebt durch Trägheit weiter und stimuliert die Migration dorthin, wo menschliches Denken etwas wert ist – in den Westen. Schätzungen zufolge überstieg die Zahl der Auswanderer aus dem Land zu Beginn dieses Jahrhunderts zehn Millionen. Zwar wurden die menschlichen Verluste dieser Zeit durch den Zustrom aus dem Süden, die Rückkehr der Landsleute in ihre historische Heimat und den Zustrom ungelernter Arbeitskräfte, der Arbeitslosen, aus den ehemaligen Bruderrepubliken ausgeglichen. Totalitarismus und Wissenschaft sind wirklich unvereinbar!

7.4. Kosten des technischen Fortschritts und Probleme der Bewältigung globaler Krisen

Moderne Veränderungen in der Welt, die mit dem technologischen Fortschritt verbunden sind, sind hauptsächlich auf einen deutlichen Anstieg der Beschäftigung im Dienstleistungssektor und im Gegenteil auf einen deutlichen Rückgang der Zahl der Arbeitnehmer im Produktionssystem zurückzuführen. In den Vereinigten Staaten beispielsweise waren Ende des letzten Jahrhunderts 22 % der Arbeitnehmer in der Industrie, 3 % in der Landwirtschaft und 75 % im Dienstleistungssektor beschäftigt. Die Freisetzung von Arbeitskräften im Produktionssektor und ihre Umverteilung zugunsten von Dienstleistungen wurden durch Faktoren wie erhöhte Arbeitsproduktivität, Automatisierung von Arbeitsabläufen usw. erleichtert. Der Dienstleistungssektor umfasst nicht nur Haushaltsdienstleistungen. Die Kategorie der Dienstleistungen umfasst Informationsdienste, geschäftliche, berufliche, rechtliche, organisatorische, Werbe-, medizinische, Bildungs-, Handels-, Transport-, Kommunikationsdienste usw.

Eine ähnliche Ausrichtung in der Verteilung der Arbeitsressourcen ist charakteristisch für die meisten entwickelten westlichen Länder, die in ihrer Entwicklung das Niveau der postindustriellen Gesellschaft erreicht haben. Die Einführung fortschrittlicher Technologien in Industrie und Landwirtschaft erwies sich als so bedeutend, dass es möglich wurde, eine beträchtliche Menge an Arbeitskräften in den Dienstleistungssektor und das Marketing "umzuverteilen". Das ist die Besonderheit der postindustriellen Gesellschaft, die oft auch als Informationsgesellschaft bezeichnet wird. Die Bedeutung einer solchen Verzweigung dieses Konzepts besteht darin, dass diese Art von Gesellschaft mit einer erhöhten menschlichen Aktivität verbunden ist und ohne Informationsunterstützung nicht vorstellbar ist, ohne die Fähigkeit einer Person, schnell auf eine sich ändernde Lebenssituation, ihre Initiative, zu reagieren , Geselligkeit; ohne seine Bildung und Bewusstsein, Erziehung und Kompetenz. Die Menschen in dieser Gesellschaft sind nicht so entlang der Klassenlinien gespalten; diese Zeichen werden gelöscht, obwohl sie nicht vollständig verschwunden sind.

In einer postindustriellen Gesellschaft weicht die Aufteilung der Arbeiter nach Klassengrenzen einer Differenzierung nach Einkommen. Somit sind Lohnarbeiter in einer solchen Gesellschaft nicht nur Arbeiter (wie es in einer Industriegesellschaft der Fall war), diese Kategorie umfasst sowohl Spezialisten als auch Manager von Unternehmen, von denen jeder seinen eigenen Anteil an der Produktion in Form von Aktien haben kann. Eine weitere, nicht minder verbreitete soziale Schicht der postindustriellen Gesellschaft sind die sogenannten Mittelschichten, die in der Regel die Grundlage der Gesellschaft bilden. An der Spitze dieser Abteilung stehen die oberen und sehr hohen Einkommensschichten. Auf der anderen Seite gibt es Schichten mit extrem niedrigem Einkommen, die Subventionen von der Gesellschaft erhalten, und noch niedrigere Schichten – die Marginalisierten, die eine „Reserve“ für Drogenabhängigkeit und Kriminalität darstellen. Die gegebene Aufteilung ist nicht unverrückbar stabil. Im Gegenteil, es ist instabil, was in der Soziologie im Sinne einer vertikalen Mobilität betrachtet wird. Soziale Gerechtigkeit in der postindustriellen Gesellschaft wird in zivilisierten Formen, durch Verhandlungen und durch die Vermittlung von Gewerkschaften zwischen Arbeitgeber und Arbeitnehmer erreicht.

Die Verbindung von Wissenschaft und Wirtschaft ist ein besonderes Problem der postindustriellen Gesellschaft. Die Besonderheit dieses Problems besteht einerseits darin, dass seine Lösung neben der Energieintensität auch finanziell kostspielig ist und große Investitionen mit ungewisser Rentabilität erfordert. In vielen Fällen werden wissenschaftliche Projekte von privaten Organisationen wie dem Club of Rome unterstützt. Andererseits kann die Entwicklung von Technologie, losgelöst von humanistischen Zielen, verheerende Folgen haben: Gefahr von Umweltkatastrophen; unvorhersehbare Folgen der Entwicklung der Gentechnik und des Klonens; wissenschaftliche Weltanschauung usw. Diese Art von Gefahr kann in zwei Aspekten betrachtet werden: natürlich (Erdbeben, Überschwemmungen, Schneefälle, Lawinen usw.) und vom Menschen verursacht (Planungs-, Berechnungs-, Konstruktionsfehler usw.). Gleichzeitig ist die Prognose eines der wichtigen und verantwortungsvollen Instrumente der Wissenschaft. Das Umfeld, soziokulturelle Komponenten, die Marktdynamik und die Prioritäten der Regierung sind wichtige Komponenten des Prognoseprozesses.

Im System „Wissenschaft – Technik“ wird das Problem der Verantwortung des Wissenschaftlers wichtig. Heute erkennt ein Wissenschaftler, der erfolgreich wissenschaftlich forscht, die Bedeutung seiner Entdeckung und setzt sie selbst in die Praxis um. Die aktuelle Stufe der Wissenschaftsentwicklung ist jedoch geprägt von vielschichtigen, verzweigten, komplexen wissenschaftlichen und technischen Kollektiventwicklungen, geeint nicht um einen Führer, sondern um ein Konzept, eine Idee. Das Prinzip der persönlichen Verantwortung eines Wissenschaftlers für die Folgen seiner Entdeckungen wird durch das oft entpersonalisierte Prinzip der kollektiven Verantwortung ersetzt. Aus dieser Tatsache folgt zwangsläufig eine zunehmende Rolle des Staates bei der Regulierung der Prozesse des wissenschaftlichen und technologischen Fortschritts.

7.5. Probleme der gesellschaftlichen Regulierung des wissenschaftlich-technischen Fortschritts

Zu Beginn des XNUMX. Jahrhunderts verspürte die russische Gesellschaft plötzlich das Bedürfnis nach räumlicher und zeitlicher Selbstbestimmung und der Entwicklung einer gesellschaftspolitisch wissenschaftlich abgesicherten Entwicklungsstrategie. Unter den vielen möglichen Paradigmen (Modernisierung, Postmodernisierung, Globalisierung, Virtualisierung) wurde der Globalisierung mit einem leichten Trend zur Modernisierung und einem Hauch von Postmodernisierung der Vorzug gegeben. In dieser Hinsicht erwiesen sich die Arbeiten von I. Wallerstein, S. Eisenstadt, J. Alexander, R. Robertson, W. Beck und anderen als gefragt in der Sozialphilosophie. Philosophen zu diesem Thema richteten sich hauptsächlich mit aufschlussreichen Veröffentlichungen an ausländische Autoren. Bestimmte Aspekte der Typologie sozialer Veränderungen wurden in den Werken von N. E. Pokrovsky, A. F. Filippov, V. F. Shapovalov und anderen Nikolai Berdyaev angesprochen, obwohl es offensichtlich ist, dass der Philosoph des XNUMX. Jahrhunderts nicht so weit schauen konnte. V. P. Kokhanovsky und seine Co-Autoren weisen auf die Rolle der Macht bei der Entwicklung der Wissenschaft hin und schreiben über ihre Doppelfunktion: Entweder sie beaufsichtigt die Wissenschaft oder diktiert Machtprioritäten. Letzteres hängt, wie wir glauben, nicht von der Regierung ab, sondern von der konkreten Person, die sie vertritt, ihrem Autoritarismus oder ihrer Demokratie, ihrer Kultur oder ihrem Fehlen.

Die Dynamik des wissenschaftlichen Fortschritts wird in den Werken von Thomas Kuhn am ausführlichsten dargestellt. Für ihn ist wissenschaftliches Handeln ein Ereignis axiologischer, soziologischer und psychologischer Natur. Das von ihm entwickelte paradigmatische Konzept charakterisiert am deutlichsten den Entwicklungsprozess wissenschaftlicher Tätigkeit. Bei der Entstehung von Paradigmen spielen die Intuition und die Art und Weise, Innovationen zu interpretieren, eine große Rolle. Der Paradigmenwechsel ähnelt entfernt dem Wandel sozioökonomischer Formationen durch soziale Revolutionen (nach Marx), allerdings glücklicherweise mit weniger menschlichen Verlusten. Im Idealfall macht der natürliche Paradigmenwechsel in der Wissenschaft eine staatliche Regulierung derselben überflüssig, zumal der Staat kein wissenschaftliches, sondern ein politisches, administratives Gebilde ist, dessen Methoden für die Wissenschaft kontraindiziert sind. In dieser Hinsicht wird Wissenschaft durch den Begriff der Ethik interpretiert.

Ethik (griech. Ethika, von Ethos – Sitte, Brauch, Charakter) ist die Wissenschaft von den Möglichkeiten eines Menschen, seine Mängel zu überwinden. Dieser Begriff wurde erstmals von Aristoteles in den wissenschaftlichen Gebrauch eingeführt. In seiner Nikomachischen Ethik, dieser Enzyklopädie der Moral, entwickelte er die Grundlage von Regeln – Gesetzen für die Umsetzung guter Taten. Immanuel Kant stellte das Prinzip des kategorischen Imperativs auf – ein für alle Menschen universelles Gesetz: Handeln Sie so, wie alle Menschen handeln sollten, die das Wohl der Gesellschaft fördern. Ethische Systeme wurden in verschiedenen Epochen geschaffen. Als vielversprechendstes ethisches System gilt die werteorientierte konventionelle Ethik, die organisch mit der pragmatischen Methode der Wissenschaft korreliert. Es schützt durch seinen klaren Wert und axiologischen Gehalt vor Spekulativität und eliminiert die Gefahr des Abgleitens in Merkantilismus und Naturalismus.

Prominente Persönlichkeiten der Wissenschaft haben sich schon immer für die Probleme der Ethik interessiert. Zum Beispiel der große holländische materialistische Philosoph Benedikt (Baruch) Spinoza (1632-1677), ein Anhänger der Lehren von D. Bruno, R. Descartes, T. Hobbes, fungierte als einer der radikalen Vertreter des Determinismus und Gegner der Teleologie. In der Erkenntnistheorie stützte er sich auf die Vernunft, die er als eine unendliche Eigenschaft des Menschen – als Teil der Natur – betrachtete. Spinozas wichtigstes philosophisches Werk ist Ethics Proved in Geometric Order (1675). Spinozas Ethik ist die Lehre von der Substanz und ihren Erscheinungsweisen.

In dem der Welt der Wissenschaftler bekannten Buch "Last Thoughts„Henri Poincaré (1854-1912) entwickelte die mathematischen Konsequenzen des Postulats (vom lateinischen postulatum – Anforderung).

1. Die Prinzipien der Wissenschaft, die Postulate der Geometrie werden nur in der indikativen Stimmung ausgedrückt, experimentelle Wahrheiten werden in der gleichen Stimmung ausgedrückt, und es gibt und kann nichts anderes als Grundlage der Wissenschaften geben.

2. In der Wissenschaft kann man keinen Satz bekommen, der sagen würde: Tu dies oder tu das nicht, was der Moral entsprechen oder widersprechen würde.

3. Die Wissenschaft erregt uns, diese Freude, die uns sogar uns selbst vergessen lässt, und darin ist sie höchst moralisch.

4. Die Harmonie der Naturgesetze ergibt das Ideal, und dies ist der einzige Boden, auf dem die Moral aufgebaut werden kann.

5. Die Leidenschaft, die den Wissenschaftler inspiriert, ist die Liebe zur Wahrheit, und ist eine solche Liebe nicht die moralischste?

6. Wissenschaft führt zur Unterordnung privater Interessen unter gemeinsame Interessen, und darin steckt wieder Moral.

7. Die Wissenschaft gibt uns ein Gefühl für die notwendige Zusammenarbeit, Solidarität unserer Arbeit mit der Arbeit unserer Zeitgenossen, unserer Vorgänger und unserer Nachfolger.

8. Die Wissenschaft toleriert keine Lügen, Unaufrichtigkeit.

9. Naturwissenschaften, breit verstanden und von Lehrern gelehrt, die sie verstehen und lieben, können eine sehr nützliche und wichtige Rolle in der moralischen Erziehung spielen.

Für Poincaré steht die Moral außerhalb der Wissenschaft, aber über der Wissenschaft. Seine Aussagen sind stellenweise widersprüchlich, sie werden diskutiert, analysiert, aber es ist unmöglich, ihre utilitaristische Bedeutung in der Wissenschaft zu übersehen. Poincare war der Begründer des Konventionalismus, der Konsistenz (in Bezug auf Mathematik und Physik). Später verwendete Rudolf Carnap (USA) diese Methode, um das Prinzip des logischen Positivismus und der induktiven Logik zu entwickeln.

A. Einstein charakterisiert das Verhältnis von Ethik und Wissenschaft auf eigentümliche Weise. Er glaubt nicht, dass die Wissenschaft den Menschen Moral oder Verhaltensethik beibringen kann. Glaubt nicht, dass Moralphilosophie auf einer wissenschaftlichen Grundlage aufgebaut werden kann. Eine wissenschaftliche Theorie, so Einstein, liefert noch keine Grundlage für moralisches Verhalten, aber sie kann der Moral auch nicht widersprechen. Die Leute wollen zu viel von der Ethik. Die grundlegenden ethischen Fragen, die der Wissenschaftler beantwortet haben möchte, sind: Was kann sein? was soll ich tun um das möglich zu erreichen? Was ist der Unterschied zwischen einem möglichen und einem anderen möglichen? Ohne diese Fragen zu beantworten, halten manche Ethik für unwissenschaftlich.

Ethik ist also eine pragmatische Wissenschaft. Ein klares Verständnis des Status der Ethik ist der Schlüssel zum Verständnis der ethischen Dimension der Wissenschaft als Ganzes.

7.6. Wissenschaftlicher und technologischer Fortschritt, öffentliche Kontrolle und öffentliche Verwaltung

Die öffentliche Verwaltung ist die organisierende und regulierende Tätigkeit verschiedener öffentlicher und staatlicher Regierungszweige, die im Namen der Grundgesetze der Gesellschaft handeln (VE Chirkin). Soziales Management beinhaltet die Auswirkungen auf die Gesellschaft, um sie zu rationalisieren, ihre qualitativen Besonderheiten zu bewahren, zu verbessern und zu entwickeln. Es gibt auch ein System der spontanen Kontrolle, deren Einfluss auf das System das Ergebnis der Überschneidung verschiedener Kräfte, Massen, zufälliger individueller Handlungen (z. B. des Marktes) sowie der bewussten Kontrolle durch staatliche Organisationen ist. Die Grenzen, Inhalte und Ziele des Managements hängen von der Art des staatlichen Systems ab.

Der wissenschaftliche und technologische Fortschritt hat erhebliche Auswirkungen auf das Wesen der öffentlichen Verwaltung, und ihre Rolle wird in einer Marktwirtschaft keineswegs geschmälert. Management in der Größenordnung eines Staates wie Russland ist, könnte man sagen, eine Zwangsläufigkeit, eine objektive Notwendigkeit. Die Umsetzung aktueller wirtschaftlicher Interessen im Rahmen eines marktwirtschaftlichen Modells macht innovative Projekte sehr widersprüchlich, basierend auf unnatürlichen Entscheidungen, die die Möglichkeiten der Umwelt nicht berücksichtigen. Das Ausmaß technischer Innovationen, die Eroberung der Natur, die Erschöpfung ihrer Ressourcen zeugen oft von der Kurzsichtigkeit der Menschen, Fehleinschätzungen und Willkür, die vielen Generationen über viele Jahrzehnte schaden werden. Daher sind für den aktuellen Entwicklungsstand von Wirtschaft und Produktion die Anforderungen der staatlichen Regulierung technologischer Entwicklungen relevant, und die Verbesserung der koevolutionären Strategie ist nicht weniger wichtig. Es bedarf einer organischen Verflechtung der Gesetzmäßigkeiten der technischen Umwelt und der natürlichen Realität, einer harmonischen Konvergenz aller Arten von Systemen.

N. A. Berdyaev schrieb mit Besorgnis über die Kosten der Staatsverwaltung: „Die fatale Folge der nur ihrem eigenen Gesetz unterworfenen Technik, die technische Weltkriege hervorruft, ist eine exorbitante Zunahme des Etatismus. Der Staat wird allmächtig, immer totalitärer , und nicht nur in totalitären Regimen; sie will keine Grenzen ihrer Macht anerkennen und betrachtet den Menschen nur als Mittel oder Werkzeug“ [14] .

Der Klassiker des Managements unter Marktbedingungen, Henri Fayol, stammt aus dem frühen 15. Jahrhundert. schrieb: „Verwalten bedeutet organisieren, verwalten, koordinieren und kontrollieren; vorhersehen, das heißt, die Zukunft berücksichtigen und ein Aktionsprogramm entwickeln; organisieren, das heißt, einen doppelten – materiellen und sozialen – Organismus aufbauen.“ der Institution; zu disponieren, das heißt, das Personal zu zwingen, ordnungsgemäß zu arbeiten; zu koordinieren, das heißt, alle Handlungen und alle Bemühungen zu verbinden, zu vereinen, zu harmonisieren; zu kontrollieren, das heißt, sicherzustellen, dass alles entsprechend erledigt wird festgelegte Regeln und erteilte Befehle“[XNUMX].

In der Theorie der öffentlichen Verwaltung werden zwei Arten davon unterschieden. Die direkte Verwaltung erfolgt im System der Sicherheit, Lebenserhaltung, Ordnung des Wirtschafts- und Sozialsystems. Zu den viel versprechenden Zielen des Managements gehören die Verbesserung der Lebensqualität der Bevölkerung, die Gewährleistung ihrer Rechte und Freiheiten, die Gewährleistung sozialer Gerechtigkeit und des sozialen Fortschritts. Das Volumen und die Komplexität der Lösung dieser Probleme kann man sich vorstellen, wenn man berücksichtigt, wie viele materielle Ressourcen und Ressourcen für den Aufbau des Kommunismus aufgewendet wurden und ein Drittel der Menschheit dazu drängten, sich in diese Richtung zu „entwickeln“. Leider hat Russland während der Sowjetzeit die optimalen Methoden und Formen der Wirtschaftsführung nicht verstanden.

Die Konzepte der sogenannten Technokratie oder der Macht der Technologie, die in Europa entwickelt wurden (in Russland verwendete A. A. Bogdanov das Konzept des "technologischen Determinismus" als Synonym, das die Verwaltung des Landes durch technische Spezialisten vorsah), hatten das Hauptziel, eine revolutionäre Veränderung des Lebensstandards der Bevölkerung durch die Umsetzung der wissenschaftlichen und technischen Revolution zu erreichen (T. Veblen, A. Berl, A. Frisch, J. K. Gilbraith und andere). Das schwache Glied des technokratischen Konzepts der sozialen Entwicklung liegt in seiner Unterschätzung der spirituellen Komponente im Leben der Gesellschaft. Dieses Konzept verfehlt die Probleme der öffentlichen Selbstverwaltung auf der mittleren Ebene des Verwaltungssystems, der Kultivierung demokratischer Formen der Rekrutierung zur Macht, der Entwicklung zivilgesellschaftlicher Institutionen und der Menschenrechte. Dieses Konzept sieht keine Garantien vor, die die Gesellschaft vor Krisen, Risiken, Terroranschlägen und Naturkatastrophen schützen.

Renommierter Soziologe und Philosoph Karl Mannheim (1893-1947) stellte fest, dass die Hauptprobleme des heutigen Westens die Probleme der Erreichung der nationalen Einheit, der Beteiligung der Bevölkerung an der öffentlichen Verwaltung, der Einbindung des Staates in die Weltwirtschaftsordnung sowie soziale Probleme seien. Einige dieser Probleme sind auch für das moderne Russland relevant. Russland muss beispielsweise einen einheitlichen Informationsraum schaffen. Wir haben viele Probleme im wirtschaftlichen Bereich. Russland nimmt weltweit einen Spitzenplatz ein, wenn es um das Ausmaß der Unterschiede zwischen Arm und Reich geht, deren Reichtum legalisiert und legitimiert werden muss. Der Grundsatz der Gerechtigkeit bei der Lösung sozialer Probleme ist für unser Land noch nicht grundlegend geworden. Probleme eines angemessenen Lebensstandards der Bevölkerung sind ein Anliegen von Gewerkschaften, Medien, öffentlichen Verbänden und Organisationen. Als die Menschheit das 1993. Jahrhundert „entdeckte“, blickte sie optimistisch auf die Welt. Es bestand die Hoffnung, dass die Wissenschaft die Welt retten und den Menschen Glück bringen würde. Zu Beginn eines neuen, des XNUMX. Jahrhunderts war die Menschheit besorgt über den Mangel an Rechten. Mit dem Aufkommen der Menschenrechtsbewegung begann sich die Welt je nach Reichtum oder Mangel an diesem Phänomen zu spalten. Der Respekt vor den Rechten anderer ist nicht nur für Menschen, sondern auch für Staaten zur Grundlage der Kommunikation geworden. Russland hat sich nach dem historischen Übergang vom Totalitarismus zur Demokratie in die Reihe der zivilisierten Länder aufgenommen. Mit der Verabschiedung der Verfassung im Jahr XNUMX erklärte sich die Russische Föderation zu einem Rechtsstaat, der auf der Grundlage der Zivilgesellschaft aufgebaut ist.

Die Entwicklung des persönlichen Prinzips für einen modernen Menschen wird zum Verlust des Wir-Gefühls und zum Erwerb eines Gefühls der "Einsamkeit in der Menge". Per Definition menschlich Herbert Marcuse (1898-1979), wird "eindimensional", mit einer verkümmerten gesellschaftskritischen Haltung gegenüber der Gesellschaft und ist dadurch nicht in der Lage, gesellschaftliche Veränderungen einzudämmen und zu verhindern, die sich als anstößig herausstellen könnten. Gleichzeitig entpuppt sich die Gesellschaft objektiv als fähig, ihr verwerfliche, „falsche“ Bedürfnisse aufzuzwingen und sie in ein für sie schädliches Wettrüsten hineinzuziehen. Dieser Trend droht der Arbeiterklasse mit dem Verlust ihrer revolutionären Rolle in der Geschichte. Dieser traditionelle Platz der Arbeiterklasse unter modernen Bedingungen geht in die Hände von "Außenseitern" (Lumpen, verfolgte nationale Minderheiten, Arbeitslose usw.) sowie von radikalen Studenten und Intellektuellen über. Zu seiner Zeit schrieb Marcuse über den Verlust der früheren revolutionären Rolle der marxistischen Parteien und den revolutionären Charakter ihrer politischen Programme. Träger der revolutionären Initiative im globalen Maßstab seien seiner Meinung nach die benachteiligten Völker der „Dritten Welt“, meist „eindimensional“. Marcuse beschrieb die Merkmale einer "eindimensionalen" Person und bemerkte seine Geselligkeit, Unzufriedenheit mit dem Leben, Einsamkeit in einer Situation der Nutzlosigkeit. Diese Merkmale zu schwächen, so glaubte der Philosoph, ist durch die Organisation einer sozialen Vormundschaft möglich: eine „Helpline“, das Kennenlernen von Kunst und Literatur, die sich gegen die grassierende Konsumstimmung richtet.

Thema 8. Die Hauptrichtungen der Wissenschaftsphilosophie in der Welt

8.1. Hermeneutik - das philosophische Erbe von H. G. Gadamer

Die Entwicklung der Philosophie der Hermeneutik als eine der Richtungen der modernen europäischen Philosophie wurde vom italienischen Rechtshistoriker Emilio Betti (1890-1970) begonnen und dann vom deutschen Philosophen Hans Georg Gadamer (1900-2002) in seinen Werken " Hermeneutisches Manifest“ (1954), „Allgemeines Theorieverständnis“ (1955), „Wahrheit und Methode“ (1960). Gadamer rekonstruiert die Lehren seiner Vorgänger und schafft eine Philosophie des Verstehens. In seiner Definition ist dies eine Art der Weltbewältigung durch einen Menschen, bei der neben theoretischem Wissen direkte Erfahrung („Lebenserfahrung“), bestehend aus verschiedenen Formen der Praxis (Geschichtserfahrung), Formen ästhetischer Erfahrung , („Kunsterlebnis“) eine bedeutende Rolle. Der Erfahrungsspeicher sind Sprache und Kunst. Die Quellen der Erfahrung sind Bildung, Legenden, kulturelle Traditionen, die vom Individuum in der Gesellschaft verstanden werden. Die hermeneutische Erfahrung in Gadamers Lehre ist unvollständig, was seiner Meinung nach das erkenntnistheoretische Problem der Gesellschaft ist. Gleichzeitig ist die Rolle des Selbstverständnisses des Subjekts und seine Koinzidenz mit der Interpretation, Interpretation der eigenen Existenz wesentlich. Der Philosoph sieht die Hauptbedeutung des Verstehens eines fremden Textes darin, „sich in die Subjektivität eines anderen hineinzubewegen“. Wahrlich: es ist unmöglich, einen anderen zu verstehen, ohne sich an seiner Stelle zu fühlen! Gadamer setzt in dem Buch "Wahrheit und Methode. Die Hauptmerkmale der Philosophie der Hermeneutik" die metaphysischen Traditionen von Platon und Descartes fort und verteidigt die Idee, dass der Hauptträger des Verständnisses von Traditionen die Sprache ist.

Gadamer betrachtete die sogenannte verstehende Psychologie als Grundlage der Hermeneutik, um die Integrität des seelischen und spirituellen Lebens direkt zu erfassen. Er formulierte das Hauptproblem der Hermeneutik wie folgt: "Wie kann Individualität eine sinnlich gegebene Manifestation des individuellen Lebens eines anderen zum Gegenstand einer allgemeingültigen objektiven Erkenntnis machen?" Indem Gadamer das „reine“ Bewusstsein analysiert, hebt er den unbewussten Hintergrund absichtlicher Handlungen heraus und verweist die Hermeneutik auf die Rolle der Seinslehre in den Traditionen der Hegelschen Dialektik. Er kommt zu dem Schluss, dass die zu enge Verbindung des Seins mit seiner Vergangenheit ein Hindernis für das historische Verständnis des wahren Wesens und Werts darstellt. Grundlage historischen Wissens ist nach Gadamer immer ein durch die Tradition gegebenes Vorverständnis, innerhalb dessen Leben und Denken stattfindet. Das Vorverständnis ist für Korrektur und Anpassung verfügbar, aber es ist völlig unmöglich, es loszuwerden. Gadamer betrachtete voraussetzungsloses Denken als eine Fiktion, die die Geschichtlichkeit menschlicher Erfahrung nicht berücksichtigt. Der Träger des Verstehens ist die Sprache, das sprachliche Verstehen, offenbart in den Werken von W. Humboldt.

Bewusstsein – ein „nicht-thematischer Horizont“ – liefert einige Vorkenntnisse über das Thema, das den Inhalt der „Lebenswelt“ darstellt, die dem möglichen gegenseitigen Verständnis der Individuen zugrunde liegt. Nach Ansicht des Philosophen ist es bei jeder Untersuchung einer von uns entfernten Kultur zunächst notwendig, die „Lebenswelt“ der Kultur zu rekonstruieren, in Bezug auf die wir die Bedeutung ihrer einzelnen Denkmäler verstehen können. Die Werke sprachkundiger Dichter sprechen von der Existenz von Kultur.

Die Grundbegriffe von Gadamers Philosophie sind „Praxis“, „Leben“, „Wort“, „Dialog“. Hermeneutische Erfahrung, d.h. in das Leben eines anderen einzutreten, basiert auf dem Wunsch, den "Anderen" zu verstehen. Im Herzen der gemeneutischen Erfahrung liegt die Legende, die sich in der Folklore widerspiegelt; Lebenserfahrung, einschließlich gelebter Ereignisse in Generationen, gespeichert im Gedächtnis der Menschen, in Legenden, Kunst, Kultur, im Wortgebrauch. Kunst, so Gadamer, könne der Lebensphilosophie neue Impulse geben. Kulturelle Traditionen tragen zum Selbstverständnis und zur Integration des Individuums in die Gesellschaft bei und postulieren seine genetische Verwurzelung. So schließt sich der hermeneutische Kreis, der die Verbindung der Generationen und ihre Kontinuität herstellt; die erkenntnistheoretische Unvollständigkeit der hermeneutischen Erfahrung (Bewegung in die Subjektivität eines anderen) wird festgestellt.

Gadamer schreibt: „Ein erfahrener Mensch erscheint uns als ein grundsätzlich adogmatischer Mensch, der gerade weil er so viel erlebt und aus Erfahrung gelernt hat, eine besondere Fähigkeit besitzt, sich neue Erfahrungen anzueignen und aus diesen Erfahrungen zu lernen.“ Die Dialektik der Erfahrung seine endgültige Vollendung erhält, an der etwas von endgültigem Wissen, aber in jener Erfahrungsoffenheit, die aus der Erfahrung selbst entsteht“[16] .

Das Wichtigste, was an Erfahrung gewonnen wird, ist die Bereitschaft zur Erneuerung, zur Veränderung, zur Begegnung mit dem „Anderen“, der zum „Eigenen“ wird. Das Erleben von Erfahrungen, Fehlern, Leid, zerbrochenen Hoffnungen führt zum Bewusstsein der eigenen Grenzen und zugleich zur Offenheit des endlichen Menschen im Lichte des Universellen, Universellen. Die Offenheit der Erfahrung, das Wissen, dass man einen Fehler machen kann, führt zur Suche nach der Wahrheit durch persönliches Verstehen auf der Grundlage der eigenen Erfahrung. Aber Erfahrung ist nicht nur ein moralischer Test; sie testet auch die Stärke unserer Fähigkeiten. Die Erfahrung ist praktisch. Es beruhigt Fantasien und bindet den Geist an die Realität. Auf dem Weg des Wissens können Sie zu wahrem Wissen gelangen und die Natur zwingen, Ihnen zu dienen.

Gadamer zerlegt den Prozess des Verstehens in seine Bestandteile. Er hebt das Vorverständnis heraus, das aus der Fallzuwendung erwächst in Form von Vorurteil, Vorurteil, Vorurteil. Tradition ist am Vorverstehen beteiligt: ​​Wir sind immer innerhalb der Tradition, glaubt der Philosoph. Eine Person in der Wahrnehmung des Textes lässt ihn „sprechen“. Wenn jemand den Text verstehen will, muss er ihm „zuhören“.

Die Hermeneutik dringt in die menschliche Subjektivität ein. Verstehen ist nicht Übertragung in eine fremde Subjektivität. Es fungiert als Erweiterung seines Horizonts und als Blick auf ein anderes „Etwas“ in den richtigen Proportionen. Bei Gadamer sprechen die Dinge nicht, nur weil sie nicht sprechen können. In ihrem Schweigen aber bestimmen sie die Struktur der Sprache, die Umgebung, in der ein Mensch lebt. Das Ding bewahrt sich im Wort. Denken ist die Explikation des Wortes.

Gadamer legt großen Wert auf das Verständnis von Schönheit, was für ihn gut ist. Das Schöne in sich trägt Klarheit und Brillanz; es ist eine Möglichkeit, das Gute, das Seiende in offener Form, in Proportionalität und Symmetrie zu manifestieren. Das Schöne ist die Krone des Verstehens, seine Vollständigkeit.

Gadamers theoretisches Erbe ist umstritten. Sein Buch „Wahrheit und Methode“ spiegelte das Lebensziel des Philosophen wider. Es beschreibt zwei Probleme – Wahrheit und Methode. Bei dieser Gelegenheit spotteten Kritiker: Der korrekte Titel des Buches müsste nicht „Wahrheit und Methode“ lauten, sondern „Wahrheit, aber nicht Methode“. In einem seiner Briefe an seinen Kritiker schrieb Gadamer: „Im Wesentlichen schlage ich keine Methode vor, sondern beschreibe, was existiert“ [17] .

V. A. Kanke, der das theoretische Vermächtnis von Gadamer studiert hat, stellt zu Recht fest: „... In den Jahren, die seit der Veröffentlichung von Wahrheit und Methode vergangen sind, wurde ihre Historizität vollständig hervorgehoben. Dadurch wurde das Verständnis von Natur- und Geisteswissenschaften maßgeblich zusammengeführt. Der Gegensatz der Hermeneutik zu den Naturwissenschaften hat an Schärfe verloren“[18].

8.2. Philosophie Martin Heideggers

Deutscher Denker, der großen Einfluss auf die Philosophie des 1889. Jahrhunderts hatte. Martin Heidegger (1976-XNUMX) begann seine Karriere als Assistent von Professor Edmund Husserl an der Universität Freiburg. Nachdem der Patron in den Ruhestand getreten war, leitete er die Abteilung. Mit der Machtübernahme der Nationalsozialisten in Deutschland geriet Husserl wegen seiner jüdischen Herkunft in Ungnade und Heidegger musste sich von ihm distanzieren.

Berühmt wurde Heidegger als Schöpfer der Lehre von der Ontologie (wörtlich: „Lehre vom Sein“, aus dem Griechischen, gen. ontos – existierend und logos – Wort, Lehre). Der Begriff „Ontologie“ taucht erstmals im Philosophischen Lexikon von Christian Wolff (1679-1754) auf. Heidegger isoliert in seiner „Fundamentalontologie“ die „reine Subjektivität“ durch die Analyse der existierenden menschlichen Existenz und versucht sie von „unechten“ Existenzformen zu befreien. In seinem Werk „Sein und Zeit“ (1927) wirft er die Frage nach dem Sinn der Existenz auf, die seiner Meinung nach von der traditionellen europäischen Philosophie „vergessen“ wurde. Nach der Veröffentlichung dieses Buches veröffentlichte Heidegger eine große Anzahl philosophischer Werke (mehr als 100 Bände), blieb aber den in diesem Buch enthaltenen Ideen für immer treu. Er erlangt überregionale Bekanntheit und wird zum Rektor der Universität Freiburg gewählt. Dies waren die Jahre des Aufstiegs des Faschismus in Deutschland, und Heidegger wurde aufgefordert, alle Juden und Sozialisten zu entlassen, womit er nicht einverstanden war, sodass er gezwungen war, den Posten des Rektors aufzugeben, aber weiterhin Mitglied der Faschisten blieb Partei bis 1945. Anschließend beschuldigten ihn die Behörden, mit dem Nationalsozialismus zu sympathisieren, forderten öffentliche Reue, was jedoch nicht geschah und er beleidigt seine Vortragstätigkeit aufgab.

Zusammengenommen kann Heideggers philosophisches Erbe als eine Predigt des Existentialismus bezeichnet werden. Für ihn ist der Mensch das einzige Geschöpf, das die Frage nach der Existenz stellt und darin den Sinn sucht. Das Verständnis für den Sinn des Lebens ist wiederum mit einem Bewusstsein für die Zerbrechlichkeit der menschlichen Existenz verbunden. In Anbetracht des Konzepts der Authentizität-Unechtheit im System des alltäglichen Daseins macht Heidegger darauf aufmerksam, dass die meisten Menschen einen erheblichen Teil ihrer Zeit in der Arbeits- und Gesellschaftswelt verbringen, ohne sich der Möglichkeiten der individuellen Existenz bewusst zu sein. Aus Heideggers Sicht bestimmen die Sorge eines Menschen um seinen Platz in der sozialen Hierarchie und das Interesse an seinem sozialen Status seine Unterordnung unter „andere“: Ein Mensch muss tun, was „sie“ gutheißen und fordern (das Man). Im Zuge dieses konformistischen Verhaltens ist der Einzelne dem subtilen und oft nicht wahrnehmbaren Einfluss gesellschaftlicher Normen und Konventionen ausgesetzt und vernachlässigt seine Fähigkeit, sich auf eigenständige Formen des Handelns und Denkens einzulassen. Unterwerfung und Abhängigkeit von gesellschaftlichen Normen im Alltag manifestieren sich vor allem in der Mittelung des Sozialverhaltens auf die Ebene der Homogenität und Identität, wodurch der Mensch vom Bedürfnis nach individueller Existenz und der Verantwortung für seine individuelle Existenz befreit wird und sich an die Gesellschaft anpasst. Unterdessen schreibt Heidegger: „Da das Selbst der eigenen Präsenz und das Selbst der Präsenz anderer in den genannten Modi existiert, hat es sich noch nicht gefunden und hat es dementsprechend verloren. Menschen existieren auf eine Art und Weise des Nicht-Selbst und des Nicht-Eigentums.“ ” [19].

Heideggers Charakterisierung der im Alltag vorherrschenden nichtauthentischen Verhaltensweisen der Menschen habe seiner Meinung nach eine „rein ontologische Bedeutung“ und sei weit entfernt von einer moralisierenden Alltagskritik und „kulturphilosophischen Bestrebungen“. Es stellt sich die zentrale Frage für die Interpretation von Heideggers Überlegungen zu Authentizität-Nicht-Authentizität: ob es sich um rein deskriptive oder wertende Kategorien handelt. Obwohl eine Reihe von Interpreten Heideggers zur wertenden Neutralität und Interferenz dieser Überlegungen des Denkers neigen, gibt es die Meinung, dass die von Heidegger eingeführte Unterscheidung völlig frei von wertenden Momenten ist. Erstens sind diese Begriffe sowohl in ihrem alltäglichen Gebrauch als auch in den philosophischen Texten von Kierkegaard, Nietzsche, Simmel, Scheler, auf die die von Heidegger betrachtete Dichotomie zurückgeht, wertend konnotiert. Zweitens enthält Heideggers Beschreibung des „Falls“ aus dem „Ich“ in nicht-authentische Seinsweisen im Buch „Sein und Zeit“ gewisse negative Konnotationen, insbesondere seine Beschreibung der nicht-eigentlichen Existenz als Versenkung in den Alltag Routine. Gleichzeitig hat Heideggers Argumentation auch eine kognitive, deskriptive Bedeutung. Andere Menschen, mit denen der Einzelne nebenan wohnt, bedrohen nicht nur seine individuelle Existenz. Es ist auch möglich, im Miteinander authentisch zu leben, wenn es einem Menschen gelingt, ihn genau als „Andere“, d.h. nimmt sie als Dasein wahr, so wie er seinen Menschen hat. Auch ein anderer Fall ist möglich: Wir nehmen sie nicht mehr als Dasein wahr. Unsere herzliche Haltung ihnen gegenüber wird durch die Haltung als Rivalen oder als diejenigen, von denen wir abhängig sind, ersetzt. Wenn andere „sie“ werden, wird der Akt der Kommunikation unterbrochen, der Dialog wird zu leerem Gerede, das Bedürfnis nach echtem Verständnis verschwindet. Die Frage nach dem Wie wird in diesem Fall durch die Frage „Was tun?“ ersetzt. Die Reaktion ist bedingt durch die Normen der Klasse, der Ethnizität, des Berufs, unseres Einkommensniveaus usw. Heidegger beschreibt diesen Fall als den „Fall“ des Daseins.

Ein Durchbruch zur authentischen Existenz ist laut Heidegger auf der Grundlage des Prozesses der Befreiung und Individualisierung möglich, bei dem ein Mensch Angst vor einer sinnlosen Existenz verspürt, die Stimme des Gewissens spürt, den Tod fürchtet usw. Authentizität ist das Leben in Angst und mit Angst ist es ein Leben mit vollem Verständnis unserer Unsicherheit, unserer Freiheit: Das Verständnis, dass wir sterben werden, befreit uns vom Fall, erweckt uns. Um authentisch zu sein, muss ein Mensch Engagement den authentischen Möglichkeiten vorziehen und seine Freiheit, Einzigartigkeit, Endlichkeit und Misserfolge akzeptieren, durch die er die Möglichkeit hat, sein authentisches Selbst zu erschaffen. Der Schlüssel zu diesem Projekt ist laut Heidegger Entschlossenheit. Die Begegnung mit dem Tod offenbart die radikale Individualität der menschlichen Existenz. Der Tod ist das, was den Einzelnen isoliert: Er reißt den Menschen aus dem anonymen „Das Mann“ heraus. Im Tod ist der Mensch unersetzlich – niemand kann für ihn sterben.

Heidegger interpretiert den Sinn der Geschichtlichkeit auf eigentümliche Weise. Er verbindet die Begriffe „historische Vergangenheit“, „menschliche und generationsübergreifende Beziehungen“ und stellt den Wunsch der Menschen fest, die Vergangenheit zu überwinden und ihr treu zu bleiben; wähle einen Helden aus der Vergangenheit als Vorbild. Heidegger bietet einen Weg, eine entfremdete, zerstreute Existenz in eine Existenz auf dem Weg der Wiederholung authentischer Möglichkeiten zu transformieren, eine „Ethik der Befreiung durch Authentizität“ zu schaffen.

Heideggers ethische Überlegungen zeichnen sich durch ihre Gedankentiefe aus. Er zeichnet sich durch seine eigene Weise, seinen Stil des Philosophierens aus, das ist seine Würde und Weisheit, sein Autorenstil.

8.3. Methode der Alternativen von Karl Popper

Der österreichische Philosoph, Logiker und Soziologe, Mitglied des Wiener Kreises, Karl Raimund Popper (1945-1902), der seit 1994 in Großbritannien lebte, formulierte eine Methode zur Lösung wissenschaftlicher Probleme durch den Vergleich und die gegenseitige Kritik konkurrierender Theorien. Als Abgrenzungskriterium zwischen Wissenschaft und „Metaphysik“ stellte er den Begriff der Falsifizierbarkeit (Widerlegbarkeit) auf.

Die allgemeine Idee von Poppers Methode, die als Methode der Alternativen bezeichnet wird, wurde in den Werken "Objektives Wissen", "Logik und das Wachstum wissenschaftlicher Erkenntnis" formuliert. Laut Popper ist es wichtig, immer nach Alternativen zu den bereits vorhandenen Hypothesen zu suchen, diese dann gegeneinander zu stellen, Fehler zu identifizieren und zu beseitigen. Es wird erwartet, dass die resultierenden Informationen größer sein werden als die, die in allen Hypothesen zusammen enthalten sind. Das Wesen der Methode besteht also nicht so sehr in der „Kritik“ der Theorie durch die Praxis, sondern in der spekulativen Entdeckung neuer Probleme und ontologischer Schemata. Am interessantesten in diesem Sinne sind gerade jene Theorien, die Praxistests nicht standgehalten haben – schließlich lassen sich aus Fehlschlägen nützliche Lehren ziehen, die später für die Erstellung fortgeschrittenerer Theorien nützlich sein können. Je mehr neue unerwartete Probleme beim bewussten Vergleich alternativer Hypothesen miteinander auftauchen, desto mehr Fortschritt bringt laut Popper die Wissenschaft.

Dies wirft jedoch die Frage auf, welche Art von Kritik als wirksam angesehen werden kann. Die Forderung nach Konsistenz der Erklärungen bedeutet keine Ablehnung der Einzigartigkeit der Wissenschaften. Das Kriterium der Wissenschaftlichkeit ist ein Konzept, aber nicht jedes Konzept ist an nur ein bestimmtes Thema gebunden. Die Tatsache, dass Physik und Soziologie zum Konzept der „Wissenschaft“ passen, negiert nicht ihre Einzigartigkeit. Das gestiegene Interesse an wissenschaftlichen Erkenntnissen und die Steigerung ihrer Zuverlässigkeit, nicht zuletzt dank der Arbeit von Popper, führten zur Bildung der sogenannten historischen Schule in der Wissenschaftsphilosophie. Popper, ein Postpositivist und Begründer des sogenannten kritischen Rationalismus, untersuchte die Beziehung zwischen konkurrierenden und aufeinanderfolgenden Theorien. Er interpretiert die evolutionäre Erkenntnistheorie auf der Grundlage des von ihm entwickelten kritischen Rationalismus.

Wie versuchen Wissenschaftler, problematische wissenschaftliche Situationen zu lösen? Erstens durch die Entdeckung von Regeln, Gesetzen und Theorien, deren Verwendung es uns ermöglicht, die untersuchte Situation zu erklären und zu verstehen, neue vorherzusagen und bestehende Ereignisse zu interpretieren. Es ist kein Zufall, dass Popper den Weg von Problemen (Problemsituationen) zu Theorien aufzeigt. Dieser Weg ist die Hauptstraße der Wissenschaft. Seine Beherrschung erfordert die Verwendung einer Reihe von Begriffen, deren Berücksichtigung wichtig sein kann. Empirik als sachlicher Aspekt der Wissenschaft ist in der Lage: a) eine Theorie zu bestätigen oder, wie Popper es ausdrückte, zu bekräftigen; b) es verfälschen. Tatsächlich enthält die Abgrenzung beide Kriterien: Bestätigung und Falsifikation. Popper beschäftigt sich mit dem Problem der Bestätigung und vermeidet die Verwendung des Begriffs „Wahrheit“. Statt Wahrheit spricht er von Verstärkung (Bestätigung), und statt Falschheit spricht er von Verfälschung. Sein Antrieb ist der Wunsch, die Grenze zwischen Wissenschaft und Nicht-Wissenschaft so klar wie möglich zu ziehen.

Laut Popper schreitet die Wissenschaft von einem Problem zum nächsten voran, von einem weniger tiefgreifenden Problem zu einem tiefgreifenderen. Ziel der Wissenschaft ist es, einen hochinformativen Inhalt und ein hohes Maß an Falsifizierbarkeit und Widerlegbarkeit zu erreichen. Popper räumt ein, dass eine weniger fundierte Theorie leichter zu falsifizieren ist, eine fundiertere Theorie jedoch per Definition Begegnungen mit mehr Fakten standhalten muss als eine weniger spezialisierte Theorie. Die Theorie ist ständig der Gefahr der Fälschung ausgesetzt, und in diesem Sinne nimmt der Grad (die Wahrscheinlichkeit) ihrer Fälschung zu.

Eine grobe Theorie ist schwerer zu widerlegen, und nichtwissenschaftliche Hypothesen, wie sie im Arsenal der Astrologie vorkommen, sind im Allgemeinen nicht wissenschaftlich falsifizierbar. Wie das russische Sprichwort sagt: "Sieben kluge Leute können einen Narren nicht beherrschen!"

Im Gegensatz zu einem einfachen Laien ist ein Wissenschaftler ständig der Gefahr ausgesetzt, seine Ansichten zu verfälschen und zu widerlegen. Im Bewusstsein, dass der Mensch ein fehlbares (phillibilisches) Wesen ist, bemüht sich der Wissenschaftler, diese seine Schwäche zu beseitigen. Ja, das wissenschaftliche Leben ist ein Durcheinander einer Reihe von Problemen; Misserfolge können hier nicht vermieden werden, aber sie müssen – das ist der Anspruch des Wissenschaftlers – überwunden werden, und dies ist nur durch die Vertiefung der wissenschaftlichen Erkenntnisse möglich. Die Tiefe der Theorie ist einer der Hauptbegriffe von Poppers Konzept der Wissenschaftsgeschichte.

Alle Argumente Poppers beziehen sich auf hypothetisch-deduktive Wissenschaften. Sie behalten sowohl für die pragmatischen als auch für die logisch-mathematischen Wissenschaften ihre Gültigkeit. Beim Vergleich zweier Theorien ist es immer möglich, aufgrund bestimmter Kriterien eine Theorie einer anderen vorzuziehen. Beim Vergleich pragmatischer Wissenschaften rückt das Kriterium der Effizienz in den Vordergrund. Beim Vergleich der logisch-mathematischen Wissenschaften wird beispielsweise das Kriterium der Konsistenz und Vollständigkeit des Axiomensystems berücksichtigt. Somit ist das Falsifikationsprinzip nicht einfach ein Anti-Verifikationsprinzip; Es ist keine Möglichkeit, die Wahrheit des Wissens auf empirischer Ebene zu überprüfen. Mit seiner Hilfe versucht Popper, das Problem der kritischen Revision des Inhalts wissenschaftlicher Erkenntnisse zu lösen. Er betont stets, dass Wissenschaft ein dynamischer Prozess ist, der mit einem Wandel von Theorien einhergeht, die interagieren, sich aber nicht ergänzen.

8.4. Das Konzept wissenschaftlicher Paradigmen und Revolutionen von Thomas Kuhn

Der amerikanische Physiker, Philosoph und Wissenschaftshistoriker Thomas Samuel Kuhn (1922-1996) erlangte Berühmtheit durch sein Buch „The Structure of Scientific Revolutions“, in dem er sein Konzept der Wissenschaftsphilosophie darlegte. Kuhn stellte die Geschichte der Wissenschaft als einen periodischen Paradigmenwechsel dar (nähere Einzelheiten siehe Abschnitt 5.1). In seiner Theorie wird dieser Begriff in zwei Bedeutungen verwendet: Erstens bezeichnet er eine Reihe von Überzeugungen, Werten und technischen Mitteln, die für eine bestimmte Gemeinschaft charakteristisch sind, und zweitens bezeichnet er die Lösung von Rätseln, die explizite Regeln als Grundlage ersetzen können zum Lösen ungelöster Rätsel in der Wissenschaft. Im ersten Fall handelt es sich um den Begriff „funktioniert“ als soziologische Kategorie; hier handelt es sich um eine Gesellschaft von Wissenschaftlern, um Menschen mit ihren Überzeugungen und Werten (Wissenschaftsgegenstände). Kuhn charakterisiert sie wie folgt: „Wissenschaftler stützen ihre Arbeit auf Modelle, die sie im Lernprozess gelernt haben, und auf deren anschließende Präsentation in der Literatur, oft ohne zu wissen und ohne zu wissen, welche Eigenschaften diesen Modellen den Status von Paradigmen der wissenschaftlichen Gemeinschaft verliehen haben.“ „[20 ] . Im zweiten Fall wird die Realität von Paradigmen im Prozess ihrer Anwendung entdeckt. Die Dominanz der Paradigmen ist eine Periode der „normalen Wissenschaft“, die immer mit einer „Explosion des Paradigmas von innen heraus“ endet.

Das Kriterium der Wissenschaftlichkeit ist bekanntlich nicht unveränderlich, einmalig und willkürlich. Jede Wissenschaft durchläuft laut Kuhn in ihrer Entwicklung drei Phasen (Perioden): Prä-Paradigma, Paradigma und Post-Paradigma, was den Stadien der Genese der Wissenschaft, der „normalen“ Wissenschaft und ihrer Krise entspricht. Der Paradigmenwechsel vollzieht sich durch Revolutionen in der Wissenschaft. Es geschieht durch eine Explosion, durch Katastrophen, durch die Zerstörung der unproduktiven Lehrstrukturen der intellektuellen Elite. Kuhn schreibt hierzu: „Wie die Wahl zwischen konkurrierenden politischen Institutionen erweist sich die Wahl zwischen konkurrierenden Paradigmen als eine Wahl zwischen inkompatiblen Modellen des sozialen Lebens.“ Die Inkompatibilität von Paradigmen ist darauf zurückzuführen, dass das neue Paradigma die Art und Weise, wie wissenschaftliche Erkenntnisse interpretiert werden, radikal verändert. Dank Intuition entsteht ein neues Paradigma. Die Zeit vor dem Paradigma ist durch die Konfrontation zwischen den wissenschaftlichen Schulen gekennzeichnet. Mit der Durchsetzung des Paradigmas und dem Übergang zur „normalen“ Wissenschaft ändert sich die Situation, die Schulen treten aus der Szene. Gleichzeitig wird eine Gemeinsamkeit theoretischer und methodischer Positionen aller Vertreter dieser Disziplin hergestellt. Die Weiterentwicklung der Wissenschaft führt jedoch dazu, dass Tatsachen identifiziert werden, die nicht mit Hilfe des vorherrschenden Paradigmas erklärt werden können, eine Krise tritt in die „normale“ Wissenschaft ein. Und dann, wie in der Zeit vor dem Paradigma, zerfällt die wissenschaftliche Gemeinschaft wieder in Schulen. Die wissenschaftliche Revolution macht der Dominanz des alten Paradigmas ein Ende; durch eine neue ersetzt.

Anschließend gab Kuhn unter dem Einfluss der Kritik die Interpretation der wissenschaftlichen Schule als einer Ausbildung auf, die mit „normaler“ Wissenschaft und Paradigma unvereinbar ist. Der Begriff „Paradigma“ hat in allen Wissenszweigen eine so starke Stellung eingenommen, dass viele von Kuhns Anhängern und wissenschaftlichen Forschern begannen, das Paradigma als wichtigstes Designkriterium zu bezeichnen. Kuhn sieht die Voraussetzung für das Funktionieren des Paradigmas in seiner Akzeptanz durch die wissenschaftliche Gemeinschaft, die Wissenschaftler vereint, die in der Regel derselben wissenschaftlichen Disziplin angehören, in derselben wissenschaftlichen Richtung arbeiten und an gemeinsamen theoretischen Grundlagen, Prinzipien festhalten. und Methoden zur Lösung von Forschungsproblemen. Das Konzept einer wissenschaftlichen Gemeinschaft war von zentraler Bedeutung für das Konzept eines Paradigmas. Für Kuhn ist ein Paradigma das, was die Mitglieder der wissenschaftlichen Gemeinschaft vereint: Wer das Paradigma nicht anerkennt, kann nicht Mitglied dieser Gemeinschaft sein. Vertreter der wissenschaftlichen Gemeinschaft verfügen über eine ähnliche Ausbildung und berufliche Fähigkeiten, sie beherrschen die gleiche Bildungsliteratur und haben daraus die gleichen Lehren gezogen. Sie lesen die gleichen wissenschaftlichen Bücher und empfinden das gleiche Verantwortungsbewusstsein für die Entwicklung der gemeinsamen Ziele. Sie können verschiedenen Untergruppen angehören, etwa der Festkörperphysik, der Molekül- oder der Atomphysik. Sie können sich dem gleichen Thema aus unterschiedlichen Blickwinkeln nähern, in ihrer wissenschaftlichen Tätigkeit verbindet sie jedoch ein System allgemein anerkannter Einstellungen, Werte, Motivationen und Methoden, mit deren Hilfe ihr wissenschaftliches Fachgebiet untersucht wird. Diese Einheit ist eine Voraussetzung für die Entwicklung dieses Wissenschaftsgebiets. Laut Kuhn können Mitglieder der wissenschaftlichen Gemeinschaft ihre Aufmerksamkeit ausschließlich auf die esoterischsten Phänomene konzentrieren, die sie interessieren. Einmal akzeptiert, befreien Paradigmen die wissenschaftliche Gemeinschaft von der Notwendigkeit, ihre Grundprinzipien neu aufzubauen. Sie sind relativ isoliert von den Ansprüchen der Laien und des Alltags.

8.5. Phänomenologie von Edmund Husserl

Der deutsche Philosoph Edmund Husserl (1859-1938) wurde zum Begründer der Phänomenologie – einer der Hauptrichtungen der Philosophie des 2. Jahrhunderts. Ausgangspunkt der Phänomenologie ist sein Buch „Logische Untersuchungen“ (1901 Bde., XNUMX). Husserl gilt auch als scharfer Kritiker des Skeptizismus und Relativismus in der Philosophie, als dessen Träger er den sogenannten Psychologismus betrachtete – den Glauben, dass jeder kognitive Akt das Ergebnis der Struktur des empirischen Bewusstseins (Sinneserfahrung) sei und damit verbunden sei mit der Abwesenheit von Wahrheit, abhängig vom wissenden Subjekt. Husserl glaubte, dass die Natur- und Geschichtswissenschaften einer gewissen Rechtfertigung bedürfen. Eine solche Begründung kann nur die Philosophie als strenge Wissenschaft, insbesondere die Wissenschaft von den Phänomenen des Bewusstseins – die Phänomenologie – geben.

Das empirische Bewusstsein erweist sich laut Husserl aufgrund der Subjektivität immer als verzerrt und muss daher durch Reduktion gereinigt werden, verstanden als Befreiung von den natürlichen subjektiven Schichten des Menschen. Diese reduktionistische „Fehlerkorrektur“ gibt die reine Struktur des Erkenntnisgegenstandes vor, den Husserl die Frucht der Intentionalität (wörtlich „auf etwas gerichtet sein“) nennt. So löst Husserl mit Hilfe der Rationalität die Hauptfrage, die ihn beschäftigt: nach der Transparenz der Verbindung zwischen Subjekt und Objekt – dank Intentionalität. Für Husserl beginnt die Philosophie mit der Entdeckung eines Zusammenhangs zwischen der Art und Weise, wie dem Menschen verschiedene Aspekte der Welt vermittelt werden, und dem Bewusstsein über die Welt. Dies eröffnet die Möglichkeit einer besonderen Art von Forschung, die darauf abzielt, nicht den eigentlichen Inhalt der menschlichen Einstellung zur Welt, sondern ihre Erscheinung im Bewusstsein – das Phänomen – zu untersuchen.

Die phänomenologische Forschung konzentriert sich insbesondere auf das Phänomen der Objektivität des Bewusstseins: Sein hängt davon ab, wie man es betrachtet. Folglich ist die wichtigste Eigenschaft und Eigenschaft des Bewusstseins nach Husserl die Intentionalität, d. h. Konzentration des Bewusstseins auf ein Objekt. Für ihn ist Bewusstsein immer „Bewusstsein über etwas“. Intentionalität bedeutet, dass jedes Phänomen von Objekten im Bewusstsein seiner eigenen absichtlichen Struktur entspricht, die aus vielen ähnlichen korrelierten Komponenten besteht. Die Organisation der phänomenologischen Methode liegt gerade in der Erforschung der Struktur des Bewusstseins in Verbindung mit seinen wesentlichen Komponenten. Die Strukturanalyse erfolgt reflexiv. In dieser Hinsicht unterscheidet die Phänomenologie zwischen einer natürlichen Einstellung und einer eigenen phänomenologischen Einstellung: In der Welt des alltäglichen Denkens – der natürlichen Einstellung – verläuft unser Leben anonym, d. h. bleibt außerhalb der Erfahrung der absichtlichen Orientierung an Objekten. Der Aufstieg zur absichtlichen Struktur des Bewusstseins, zu seiner immanenten Aktivität ist dank der Methode der phänomenologischen Reduktion möglich. Mit dieser Methode gehen wir mit echten Phänomenen um. Reduktion ermöglicht es, sich von der Naivität der natürlichen Bewusstseinshaltung zu befreien, die darin liegt, dass sie auf die Erkenntnis äußerer Objekte ausgerichtet ist und sich vor allem für Objekte interessiert, die von den Sinnen oder durch die Sinne wahrgenommen werden. Es ermöglicht Ihnen, Ihr Bewusstsein auf das Studium Ihrer eigenen Aktivität bei der Konstituierung von Objekten umzustellen. Und erst die mit Hilfe der vorgegebenen Reduktion erreichte phänomenologische Haltung ermöglicht die Hinwendung des Bewusstseins zu sich selbst, daher klammert der Phänomenologe die gesamte reale Naturwelt ein, die eine ständige existentielle Bedeutung hat.

Die Reinheit der phänomenologischen Erfahrung (Entdeckung „reiner“ Phänomene) wird durchgeführt, wenn das Objekt der Erfahrung nicht „verunreinigt“ ist, wenn das Objekt in seiner reinen Form isoliert ist, in Abwesenheit der Versuchung, das Objekt der Erkenntnis darin zu sehen eine einfache Entsprechung von äußerer und innerer Erfahrung: „Die tiefe Quelle aller Wahnvorstellungen entspringt der ursprünglich scheinbar selbstverständlichen Gleichsetzung von immanenter Zeitlichkeit und objektiv realer Zeitlichkeit. Die immanente Zeitlichkeit ist dem menschlichen Bewusstsein als Abbild der äußeren physikalischen Zeit inhärent. Es erfasst die Reinheit des Flusses mentaler Erfahrungen, die relevant oder irrelevant sind.

Die Methode der phänomenologischen Reduktion ermöglichte es Husserl, die Bedeutung verschiedener Objekte selbst zu klären – von unbelebten Objekten bis hin zum eigenen „Ich“ und „Anderen“. Diese sich gegenseitig ergänzenden Aspekte der Intentionalität werden als „Noesis“ – die Art des absichtlichen Bewusstseins und „Noema“ – objektive Bedeutung, ein objektives Korrelat, bezeichnet, das die poetische Struktur des Bewusstseins und seine noematische Struktur darstellt, d. h. die inhaltliche Bedeutung des Gegenstandes.

Einer der Abschnitte von Husserls Philosophie ist die Betrachtung der Stufe der Methode der transzendentalen Phänomenologie. Husserl legt den Inhalt seiner philosophischen Forschung dar und konzentriert sich insbesondere auf die Forschungsmethode in Bezug auf die Methoden der Bildung philosophischer Erkenntnis und ihre Rolle beim Verständnis der Bedeutung der Welt als Ganzes.

Husserl ist auch Autor einer Reihe philosophischer Werke, unter denen die „Krise der europäischen Wissenschaften“ hervorsticht (die ersten beiden Teile wurden 1936 veröffentlicht; später mit dem Titel „Die Krise der europäischen Wissenschaften und transzendentale Phänomenologie“, 1954) . Kritiker schreiben dieser Arbeit Definitionen wie Umfang, Tiefe usw. zu. Das Buch wurde in für Deutschland schrecklichen Jahren geschrieben. Husserl verband die Ankunft des Faschismus mit der Krise der europäischen Zivilisation. Er war besorgt über die Ursprünge dieser Krise; er sah sie im „Schoß der technogenen Zivilisation“, in der Unfähigkeit der Wissenschaft, eine verständliche Antwort auf die Herausforderungen der aktuellen Situation auf dem Kontinent zu geben. Die Welt retten konnte seiner Meinung nach nur die Philosophie. Auf der Suche nach einem „Allheilmittel“ greift Husserl auf das kreative Erbe Galileis zurück, den er „den herausragendsten Denker der Neuzeit“ nennt. Besonders reizt ihn Galileis Idee, dass das Buch der Natur in der Sprache der Mathematik geschrieben ist. Der Sinn dieses Spruches ist, angesichts der Einheit von mathematischen Ideen und Empirie, deren ungerechtfertigte Verwechslung nicht zuzulassen. Das Verdienst von Galileo besteht darin, der Naturwissenschaft einen mathematischen Status zu verleihen; Galileis Auslassung besteht darin, dass er sich nicht dem Verständnis des ursprünglichen semantischen Verfahrens zugewandt hat, das als Idealisierung des gesamten Bodens des theoretischen und praktischen Lebens dieses Verfahren als eine direkte sinnliche Welt bejaht, aus der die Welt der geometrischen Idealfiguren hervorgeht . Das unmittelbar Gegebene wird nicht Gegenstand der Reflexion. Infolgedessen haben mathematische Ideen ihre Lebendigkeit verloren.

Die Welt der menschlichen Erfahrung nennt Husserl die „sinnliche Welt“, die der Intentionalität des Subjekts entspricht. In dieser Welt entfaltet sich alles menschliche Leben. So beginnt Husserl seine Philosophie mit einer Reflexion über den Status arithmetischer Konzepte, in denen er den Ruf der Wahrheit hört, und führt die Suche nach ethischen Anforderungen, in denen die Hauptwahrheit des Lebens verborgen ist.

Teil II. Philosophie der Technik

Thema 9. Technikphilosophie und Methodik der Technikwissenschaften

9.1. Gegenstand, Inhalt und Ziele der Technikphilosophie

Der Begriff „Technologie“ (von griechisch techne – Geschicklichkeit, Geschicklichkeit, Kunst) bezeichnet zum einen eine Reihe speziell entwickelter Tätigkeitsmethoden; zweitens eine Reihe künstlicher materieller und materieller Tätigkeitsmittel; drittens Kenntnisse über die Methoden und Mittel der Tätigkeit; viertens ein spezifischer, kulturell bedingter Prozess der Willensäußerung. Die Technikphilosophie ist ein aufstrebender Teilbereich der philosophischen Wissenschaft, dessen Hauptinhalt die philosophische Reflexion des Phänomens Technik ist. Die Technikphilosophie läuft also im Wesentlichen auf die Frage der Anwendung der Philosophie auf die Technik hinaus, d. h. auf die Frage, wie sich theoretische Modelle, Gesetze universeller Natur, Methoden, von der Philosophie angesammelte Ideen der Technik als besonderem Forschungsgegenstand zuwenden.

Die Ursprünge der Technikphilosophie lassen sich auf die Werke antiker Philosophen zurückführen, eine systematische philosophische Erforschung des Phänomens Technik begann jedoch erst Ende des 1877. und Anfang des 1873. Jahrhunderts. Der Begriff „Technikphilosophie“ wurde von dem deutschen Wissenschaftler Ernest Kapp in den wissenschaftlichen Gebrauch eingeführt, der 1928 das Buch „Grundzüge der Technikphilosophie“ veröffentlichte. E. Kapp, K. Marx entwickelten die wesentlichen Merkmale technischer Mittel im Sinne der Idee der Objektivierung. In Russland wurden die Grundlagen des philosophischen Technologieverständnisses von N. A. Berdyaev und P. K. Engelmeyer gelegt. A. A. Bogdanov (Malinovsky) (2-1913) war in dem Buch „General Organizational Science“ (1917 Bände; 1950-1960) der erste in Russland und Europa, der sich mit dem Problem des Gleichgewichts und des Chaos befasste. Aus offensichtlichen Gründen wurde seine Forschung im Westen fortgesetzt. In unserem Land begann die intensive Entwicklung philosophischer Technologieprobleme erst in den XNUMXer und XNUMXer Jahren. Diese Arbeiten wurden in folgenden Hauptbereichen durchgeführt:

1) die Ontologie der Technologie im Zusammenhang mit der Entwicklung der Ideen von K. Marx (A. A. Zvorykin, S. V. Shukhardin, Yu. S. Meleshchenko, G. N. Volkov usw.);

2) Philosophie der Geschichte der Technik. Innerhalb dieser Richtung wurden zwei Hauptversionen entwickelt. Einer von ihnen (A. A. Zvorykin, S. V. Shukhardin und andere) basierte auf der Anwendung der Grundideen der marxistischen Philosophie auf Geschichte und Technologie. Der zweite (GN Volkov) entwickelte Marx 'Idee der Objektivierung von Arbeitsfunktionen in Bezug auf die Hauptstadien der technischen Evolution;

3) die Soziologie der Technologie, in deren Rahmen die Besonderheiten der Entwicklung der Technologie unter verschiedenen sozialen Bedingungen diskutiert wurden (G. N. Volkov und andere);

4) technische Zukunftsforschung, die sich auf die Vorhersage des technischen Fortschritts konzentriert (G. N. Volkov, A. I. Cherepnev und andere);

5) Die Erkenntnistheorie der Technologie in den Werken von V. V. Cheshev, B. S. Ukraintsev, V. G. Gorohov, V. M. Figurovsky und anderen wurde als Besonderheit des technischen Wissens betrachtet (Objekt, Methodik, Theoriemerkmale, Arten idealer Objekte, Werteinstellungen).

Ähnliche Trends entwickelten sich in der westlichen Technikphilosophie (F. Rapp, H. Beck und andere), der Soziologie (E. Toffler, D. Bell, R. Iris und andere) und der Zukunftsforschung (E. Toffler, D. Bell, G. Cann, J. P. Grant, J. Martino und andere).

In den Werken des Aristoteles wird der Begriff „Techne“ in die allgemeine Klassifikation der Wissensarten einbezogen. Für die klassische philosophische Tradition ist es durchaus typisch, allgemeine philosophische Probleme aus einer technischen Perspektive zu verstehen. Die Philosophie strebte immer nach Schlussfolgerungen allgemeiner Natur, aber die Konstruktion extremer Abstraktionen basierte auf vielfältigem Material, das aus verschiedenen Wissens- und Tätigkeitsbereichen stammte. In Marx‘ Werken geht es nicht nur um Maschinen und die maschinelle Produktion als solche, sondern auch um die Veränderungen, die sie im gesellschaftlichen Leben hervorrufen. N. A. Berdyaev untersucht die vom Menschen verursachten Elemente des Lebens, einschließlich des spirituellen Lebens. Anschließend wurden die zentralen Bestimmungen seiner Werke zur Technik in Bezug auf die moderne Situation durch die Werke von H. Ellul bestätigt. Die Technikphilosophie nahm als eigenständige Richtung unter dem Einfluss der Werke M. Heideggers Gestalt an, der das Wesen der Technik außerhalb dieser zu entdecken suchte – in der Instrumentalität als solcher, die dem Menschen in seiner Tätigkeit attributiv innewohnt. Technologie als Mittel zur Reproduktion lebendiger Aktivitäten bestimmt maßgeblich die ideale Bildung und damit die Kultur; Als spezifische Einstellung zur Welt ist sie Teil der Einstellung eines Menschen zur Welt als Ganzes. In Bezug auf die klassische Philosophie ist Technologie: a) ein Mittel zur Setzung (Forschung, Erkenntnis) eines Objekts durch ein Subjekt und folglich ein Mittel zur Setzung durch das Subjekt selbst; b) die Grenze von Subjekt und Objekt im Hegelschen Sinne von „das Andere von beiden“, die gewissermaßen die Interaktion des Wesens bestimmt. Die Technologie bestimmt historisch spezifische Optionen zur Lösung ewiger philosophischer Fragen.

9.2. Die Hauptrichtungen und Muster der Entwicklung der Technikphilosophie

Der antike griechische Philosoph Anaxagoras (500-428 v. Chr.) sah den Hauptunterschied zwischen Mensch und Tier darin, dass der Mensch seine eigenen Hände beherrscht. Aristoteles (384-322 v. Chr.) präzisierte dieses Urteil seines Vorgängers: Die Hände erlangen ihren Status dank des Geistes, der den Menschen auch zu einem politischen Tier macht. Der arabische Denker Ibn Khaldun (1332-1406) betrachtete in seinem Buch „Muqaddima“ die menschliche Natur als dem Gesetz der Kausalität unterworfen, in dem der Mensch dank Vernunft, Arbeit und Wissenschaft „menschliche Fähigkeiten“ erlangt. Gleichzeitig sind neben dem Gehirn seine Hände als Arbeitsmittel das wichtigste Werkzeug eines Menschen. Der antike römische Arzt Galen (ca. 130 – ca. 200) lieferte in seinem klassischen Werk „Über die Teile des menschlichen Körpers“ die erste anatomische und physiologische Beschreibung des gesamten Organismus, einschließlich der Hände.

In der Technikphilosophie haben sich bei der Betrachtung der historischen Prozesse der Transformation einer Person als Arbeiter (vom Homo sapiens zum Homo creans) zwei Konzepte entwickelt: das „Werkzeug“-Konzept von L. Noiret und das „Arbeits“-Konzept von F. Engels. Betrachten wir sie etwas genauer.

Der „Waffen“-Begriff der Menschenbildung bei Ludwig Noiret

Ludwig Noiret (1827-1897), der die Traditionen von Ibn Khaldun, A. Smith und B. Franklin fortsetzt, betrachtet die Fähigkeit einer Person, ein Werkzeug herzustellen, als seinen wesentlichen Unterschied zu einem Tier. In seinen Werken ("Der Ursprung der Sprache", 1877; "Das Werkzeug und seine Bedeutung in der historischen Entwicklung der Menschheit", 1880) untermauert Noiret die Vorstellung, dass erst mit dem Aufkommen der Werkzeuge die wahre Geschichte der Menschheit beginnt. Das Arbeitswerkzeug für Noiret verkörpert das Prinzip der Kreativität. Die Schaffung und Verwendung von Werkzeugen sind seiner Meinung nach die Hauptquellen der Entwicklung des menschlichen Bewusstseins.

In den Arbeitswerkzeugen "projiziert" eine Person ihre eigenen Organe, die bis vor kurzem instinktiv handelten. Zwischen dem Wunsch und dem Willen einer Person sind Werkzeuge, die seinem Willen, seinen Wünschen und Bedürfnissen dienen. Noiret vertritt eine dreigliedrige Kausalität: Zwischen dem Subjekt und dem Objekt nimmt das Arbeitsinstrument, das ihre Interaktion vermittelt, seinen besonderen Platz ein (in diesem Fall deckt sich Noirets Denken mit Marx' Position über Maschinen als Organe des menschlichen Gehirns). Später übernimmt das menschliche Gehirn die Funktion der antizipatorischen Reaktion: Es nimmt die Praxis spekulativ vorweg und manifestiert sich als schöpferische Kraft, d.h. entwickelt sich zusammen mit den Werkzeugen der Arbeit. Wir dürfen jedoch die Rolle der menschlichen Hände nicht vergessen. Im Laufe der Werkzeugtätigkeit erfährt die Hand wesentliche Veränderungen, wodurch sie nicht nur Universalität erlangt, sondern auch zu einem mächtigen Entwicklungsfaktor wird. Hände fungieren als besonderes Werkzeug ("Werkzeuge der Werkzeuge") oder, mit den Worten von Noiret, "ein Organ des äußeren Gehirns" und werden zu einem Faktor bei der Entwicklung des Geistes! Gleichzeitig entwickeln sie Augen, Sehvermögen, die Funktion des gesamten menschlichen Körpers und vor allem das Gehirn. Noiret schlussfolgert: Jede objektive Erkenntnis besteht aus zwei Akten: Bewegung, die vom Subjekt gelenkt und durch den Willen bestimmt wird, und objektiver Widerstand, d.h. der Widerstand, den das Objekt dieser Bewegung entgegensetzt. Entgegen der Sichtweise, nach der einem Menschen zunächst die Gabe der Abstraktion zugeschrieben wird, dank derer er vorausdenken konnte, schreibt Noiret: „Das Denken erreicht erst später, was dank Arbeit, dank Tätigkeit schon viel früher entwickelt wurde “, d.h. Zuerst war da die Tat, nicht das Wort.

"Arbeits"-Theorie der Anthroposoziogenese von Friedrich Engels

Der berühmte Theoretiker des Marxismus, ein Mitarbeiter des Schöpfers dieser Lehre, Friedrich Engels (1820-1995), veröffentlichte 1876 ein Werk mit dem Titel „Die Rolle der Arbeit im Prozess der Umwandlung des Affen in den Menschen“, in dem er die Lehre erheblich erweiterte Vorstellungen über die Rolle der Arbeit im menschlichen Leben. Arbeit ist seiner Meinung nach nicht nur eine Quelle des Reichtums. Seine Rolle ist viel umfassender: Arbeit war der wichtigste und grundlegende Grund für die Entstehung des Menschen (d. h. die Verwandlung eines Affen in einen Menschen), die Quelle allen Reichtums, die Hauptbedingung allen menschlichen Lebens. Der revolutionäre Moment in diesem Prozess war der plötzliche Erwerb des aufrechten Gangs: Dieser Erwerb wurde im Leben des Affen schicksalhaft. Das Loslassen der Vorderpfoten veränderte ihre bisherigen Funktionen (Greifen beim Klettern auf Bäume, Gehen auf dem Boden) und bereitete sie auf die Ausübung anderer Funktionen vor. So erschien eine Hand! Die von ihren bisherigen Funktionen befreite Hand, schreibt Engels, „konnte sich nun immer neue Fähigkeiten aneignen, und die dadurch erworbene größere Flexibilität wurde von Generation zu Generation weitergegeben und gesteigert.“ Eine der bedeutendsten Konsequenzen daraus war der Erwerb von Fähigkeiten zur Herstellung von Werkzeugen und deren Verwendung. Die menschliche Hand erweist sich nicht nur als Tastorgan, sondern auch als Arbeitsorgan, als Instrument aller Werkzeuge. Die Arbeit bringt dieses menschliche Organ zu einer solchen Vollkommenheit, dass ihm Vollkommenheiten wie die Musik von Paganini und die Gemälde von Raffael zugänglich werden. Aber die Hand ist nur ein Glied eines ganzen, hochkomplexen menschlichen Organismus, daher kam alles, was der Hand nützte, dem gesamten Körper zugute. Es gab jedoch noch einen weiteren Umstand, der wesentlich zum „Marsch“ einer Person in Richtung der erwarteten Transformationen beitrug. Er hatte eine hochentwickelte Herde, d.h. sozial, Instinkt. Und damit geht, wie Engels schreibt, das Erwachen und die Entwicklung des Bedürfnisses einher, einander etwas zu sagen. Aber ein Mensch konnte nur mit der allmählichen Verbesserung seines Kehlkopfes sprechen, der für die Aussprache artikulierter Laute so notwendig ist.

Somit drei großartige Errungenschaften: ein aufrechter Gang, der einer Person mehr Sichtraum eröffnete; Vorderbeine, die für einen völlig anderen Zweck verwendet werden könnten; Die Entwicklung des Kehlkopfes, eines so wichtigen Organs für die Aussprache von Lauten und die Übermittlung von Signalen an Verwandte, führte zu qualitativen Veränderungen im Denkorgan – dem Gehirn, den Sinnen. Engels schreibt auch über das Vorhandensein eines Faktors des umgekehrten Einflusses dieser Akquisitionen, der die biologische Evolution der Menschenaffen ergänzte. Der Autor findet die sozialen Folgen dieser biologischen Evolution, der Umwandlung eines Affen in einen Menschen, in der Umwandlung der Jagd in die Landwirtschaft, dem Erwerb eines sesshaften Lebens, Fähigkeiten zur Umwandlung der Natur, des Lebensraums, der Metallverarbeitung usw. Dann entstehen Wissenschaft, Kultur und Zivilisation. Der Mensch beschränkt sich also nicht auf eine passive, unbeabsichtigte Einflussnahme auf die Natur, er verändert die Natur aktiv und passt sie bewusst an seine Bedürfnisse an. Und das hat er der Arbeit zu verdanken. Der Mensch wird daher mit einem technischen Tier verglichen.

9.3. Die Hauptstadien und sozialen Folgen der Entwicklung der Technologie

Ein Mensch lebt in einer von ihm geschaffenen technischen Umgebung. Indem der Mensch diese „zweite Natur“ seiner Wohnung erschafft, erschafft er sich selbst. Dieses selbstschöpferische Prinzip ist nach Ferdinand Lassalle (1825-1864) das Tiefste im Menschen. Für das Studium der Technikphilosophie hat eine solche Personeneigenschaft eine grundlegende Bedeutung. Das bedeutet, dass die Techno-Kreativität dem Menschen von Anfang an innewohnt.

Der Begründer der russischen Technikphilosophie, PK Engelmeyer, interpretierte Technik als „die Fähigkeit, zweckmäßig auf Materie einzuwirken“; "die Kunst, wünschenswerte Phänomene hervorzurufen"; Aktionen, die eine Idee, einen Plan verkörpern; als „echte Kunst“. Karl Jaspers betrachtete die Technologie als ein Mittel, um den Menschen von der Macht der Natur zu befreien und die Herrschaft des Menschen über sie zu erhöhen, indem er die Natur gegen die Natur selbst einsetzte.

Die erste Stufe der Technologieentwicklung ist vom Zufall geprägt (wie J. Ortega y Gasset schrieb, dies ist „Technik des Zufalls“): Werkzeuge wurden nicht speziell erfunden, Entdeckungen waren unbeabsichtigt. Zum Beispiel könnte ein Bruchstück einer Eierschale die Handfläche ersetzen, um den Durst zu stillen; Ein an einen Stock gebundener Stein könnte die Schlagkraft verstärken usw. Indem er diese zufälligen „Rationalisierungen“ nachahmte, schuf der Mensch nun absichtlich Werkzeuge. Ludwig Noiret identifiziert in diesem Prozess drei Umstände. Erstens diente das primitive Werkzeug zur Ergänzung physiologischer Aktivitäten. Zweitens wurden die Tools durch Versuch und Irrtum entwickelt: Es war wahrscheinlicher, dass sie eine Person fanden, als umgekehrt. Drittens war die primitive Technologie aufgrund ihrer Einfachheit und Knappheit weit verbreitet: Jeder konnte ein Feuer machen, Pfeil und Bogen herstellen usw. Technologie hebt sich nicht von allen Arten von Aktivitäten ab. Die natürliche Arbeitsteilung in der Technik existierte nur auf der Grundlage von Alters- und Geschlechtsunterschieden. Der Mensch, schreibt H. Ortega y Gasset, „fühlt sich noch nicht wie Homo faber“, Technologie ist für ihn Teil der Natur.

Die zweite Stufe der Technologieentwicklung ist durch einige Komplikationen gekennzeichnet. Die Herstellung von Werkzeugen erfordert heutzutage ein hohes Maß an Fähigkeiten, und daher gibt es eine Trennung von der allgemeinen Bevölkerung der Handwerker – Experten in den „Geheimnissen“ der Werkzeugherstellung. In der Gesellschaft entsteht nach Marx eine soziale Schicht – die treibenden Kräfte des technischen Fortschritts. Gleichzeitig basierte der technische Fortschritt selbst nicht auf Wissenschaft, nicht auf theoretischen Berechnungen, sondern auf Können, das oft durch Vererbung (vom Vater an den Sohn), empirisch, durch Versuch und Irrtum weitergegeben wurde. Der Motor des technischen Fortschritts waren brillante Handwerker wie Archimedes, die technische Talente ideal mit praktischen verbanden. Diese Stufe der technischen Entwicklung endet mit dem Aufkommen des Neuen Zeitalters und damit dem Beginn des sogenannten Zeitalters der Maschinentechnik. Diese Zeit ging als Renaissance (Renaissance) in die Geschichte ein.

Ein charakteristisches Merkmal der Renaissance war die Rehabilitierung der Rolle des experimentellen Wissens, dessen Symbol das Werk der Großen war Leonardo da Vinci (1452-1519). Sein Ausspruch „Die Wissenschaft ist der Kapitän, und die Praxis sind die Soldaten“ wurde zu einer Art Slogan der neuen Ära. Damals herrschte noch die Kirche über die Seelen und Gedanken der Menschen und der Wissenschaftler musste sich verteidigen. Insbesondere schrieb Leonardo seine Werke in umgekehrter Reihenfolge, spiegelbildlich, so dass niemand außer ihm sie lesen konnte. Die Umsetzung seiner Ideen in die Praxis war schwierig. Er wurde auch von der Kirche verfolgt. Galileo Galilei (siehe auch Abschnitt 2.2). Sein Labor wurde dem Erdboden gleichgemacht, der Unterricht verboten und er selbst starb in Armut. Galileo brachte ein mathematisches Prinzip zur Grundlage der Wissenschaft, führte ein Gedankenexperiment auf der Grundlage rationaler Induktion ein und legte den Grundstein für die Wissenschaft der Natur. Er wurde zum Begründer der wissenschaftlichen Naturwissenschaft, begründete das Prinzip des modernen europäischen Denkens und trug zur Vergessenheit des Prinzips des Anthropozentrismus bei. Seine Werke "On Motion", "Conversations and Mathematical Proofs" dienten lange Zeit als Methodik der Wissenschaft. Aus philosophischer Sicht wurden experimentelles Wissen und alle praktische menschliche Aktivität von einem der Begründer der Philosophie der Neuzeit rehabilitiert Franz Speck (siehe auch Abschnitt 2.2). Ihr widmete er sein Hauptwerk The New Organon (1620).

Bacon unterteilte den Erkenntnisprozess in eine Reihe von Komponenten: das Erkenntnisobjekt; die Aufgabe des Wissens; der Zweck des Wissens; Methode der Erkenntnis. Er erklärte die Induktion zum wichtigsten und kürzesten Weg zur Erkenntnis. Die Aufgabe der Wissenschaft ist nach Bacon die Erfahrung, ihre Untersuchung auf der Grundlage eines Appells an die Möglichkeiten der deduktiven Methode, jedoch nachdem die ersten, ersten Axiome durch Induktion aus der Erfahrung abgeleitet wurden. Bacon forderte nachdrücklich, Theorie und Praxis durch stärkere Bindungen zu vereinen. Er glaubte, dass drei große Entdeckungen, die den Alten nicht bekannt waren, nämlich die Druckkunst, die Verwendung von Schießpulver und die nautische Nadel (d. h. der Kompass), das Gesicht und den Zustand der ganzen Welt veränderten. Sie trugen zur Sache der Bildung, des Militärs und der Navigation bei. Die grundlegende Idee in Bacons Lehre ist, dass die Wissenschaft dem Menschen Macht über die Natur geben, seine Macht steigern und das Leben verbessern sollte. Als Grund für die Wahnvorstellungen des Geistes betrachtete der Philosoph falsche Vorstellungen, die er „Geister“ oder „Idole“ nannte. Er unterschied vier Arten solcher Geister:

1) Geister der Gattung sind verzerrte Spiegelungen aller existierenden Dinge, da eine Person ihre eigene Natur mit ihnen vermischt;

2) Höhlengeister - sie ergeben sich aus den individuellen Merkmalen des Wissensgegenstandes;

3) Geister des Marktes sind Wahnvorstellungen, die aus dem Missbrauch von Worten resultieren;

4) Geister des Theaters - falsche Lehren, die eine Person wie großartige Theateraufführungen anlocken.

Der wahre Wissenschaftler nimmt sich die Biene zum Vorbild, die den Blumen des Gartens und des Feldes den Saft entzieht und ihn mit eigener Geschicklichkeit in Honig verwandelt. Bacons Analyse der Natur verlief entlang zweier sich kreuzender Linien. Erstens suchte er unter Bezugnahme auf Demokrit auf der Suche nach Prinzipien und dem Beginn der Materie nach einer atomistischen Struktur in den Dingen. Zweitens suchte er nach dem Gesetz der Bildung von Daseinsformen der Materie (Konfiguration, Bewegung). Er glaubte, dass "... der Körper Bewegung, Verteilung, Schwierigkeit, seine inhärente Eigenschaft ist." Bacon skizzierte seine sozialen Ansichten in "Experiences" und "New Atlantis", in denen er die Ideen des freien Unternehmertums verteidigte. Die vom Philosophen vorgeschlagene Klassifikation der Wissenschaften wurde von den französischen Enzyklopädisten akzeptiert.

Ein weiterer Begründer der Philosophie und Wissenschaft der Neuzeit war der Vertreter des klassischen Rationalismus Rene Descartes (siehe auch Abschnitt 2.2). In seinen Werken "Diskurse über Methoden", "Prinzipien der Philosophie" trat er als einer der Begründer der "neuen" Philosophie und "neuen" Wissenschaft auf und schlug vor, alle alten philosophischen Traditionen zu revidieren. Descartes ergänzte Bacons Konzept der Notwendigkeit, philosophische Forschung auf Erfahrung und Beobachtung zu reduzieren, mit einem Vorschlag, philosophisches Denken auf die Prinzipien von Evidenz, Gewissheit und Identität zu stützen. Traditionelle Formen des Wissenserwerbs stellte Descartes dem Wissen entgegen, das auf dem Prinzip des Zweifels beruhte. Wissenschaftliche Erkenntnisse in seiner Interpretation erschienen nicht als Zufall, sondern als ein einziges zuverlässiges System. Er hielt das Prinzip cogito ergo sum (ich denke, also bin ich) für absolut sicher. Dieses Argument, das auf den Platonismus zurückgeht, trägt seine Überzeugung von der ontologischen Überlegenheit des Intelligiblen gegenüber der sinnlichen Erfahrung. Dennoch „überließ“ er die endgültige Feststellung der Wahrheit Gott. Nach Bacon glaubte Descartes, dass man nur Meister der Natur werden kann, indem man ihr zuhört.

Der Beitrag von Descartes zur Wissenschaft ist enorm. In der Mathematik war er einer der Schöpfer der analytischen Geometrie, in der er ein neues Konzept einer Funktion besaß; entwickelte eine analytische Methode, geometrische Objekte und ihre Beziehungen durch die Gleichungen der Algebra auszudrücken. Moderne algebraische Gleichungen verdanken einen Großteil ihres Ursprungs Descartes. In der Mechanik entwickelte er die Relativitätsprinzipien von Bewegung und Ruhe, Aktion und Reaktion; in der Optik begründete er das Gesetz eines konstanten Sinusverhältnisses bei der Lichtbrechung, entwickelte die mathematische Theorie des Regenbogens und enträtselte die Ursache seines Entstehens; entwickelte die Idee der natürlichen Entwicklung des Sonnensystems aufgrund der Eigenschaften der Materie und der Bewegung ihrer heterogenen Teile. Unter den von Descartes entwickelten philosophischen Fragen standen Fragen nach der Aufgabe und der Methode der Erkenntnis im Vordergrund.

In der Erkenntnis der Natur und ihrer Gesetze machte er bedeutende Fortschritte Isaac Newton (1643-1727), der zum Nachfolger und Kämpfer für die endgültige Anerkennung der galiläischen Traditionen in der Wissenschaft wurde. Der Begründer der klassischen und Himmelsmechanik, der Schöpfer des Systems der Differential- und Integralrechnung, der Autor der Studie „Mathematische Grundlagen der Naturphilosophie“, er formulierte die Gesetze und Konzepte der klassischen Mechanik, das Gesetz der universellen Gravitation, theoretisch fundiert Keplers Gesetze, eine wissenschaftliche Theorie des deduktiven Typs. Die von ihm formulierte These „Ich erfinde keine Hypothesen“ bildete die Grundlage der Kritik der Naturphilosophie. Newton legte mit seinen Werken die Grundlagen für ein mechanistisches Weltbild und eine mechanistische Weltanschauung. In der Arbeit „Mathematische Prinzipien der Naturphilosophie“ schrieb er: „Es wäre wünschenswert, aus den Prinzipien der Mechanik auch andere Naturphänomene abzuleiten.“ Newton hatte Ideen über die unabhängige Existenz von Materie, Raum und Zeit, die seine metaphysische Denkweise manifestierten. Er versuchte, die Mängel der mechanistischen Welterklärung durch die Vermittlung Gottes auszugleichen. Newton war kein Sesselwissenschaftler. In seinen naturphilosophischen Studien versuchte er, einige praktische Probleme zu lösen. In diesem Zusammenhang ist es interessant festzustellen, dass er eine Reihe seiner wissenschaftlichen Entdeckungen gerade im Zuge der Lösung ähnlicher Probleme gemacht hat, beispielsweise auf dem Gebiet des Schiffbaus und der Hydromechanik.

In dieser Zeit weithin bekannt waren die Arbeiten über Mechanik von Newtons älterem Zeitgenossen Christian Huygens (1629-1695), der Erfinder einer Pendeluhr mit Startmechanismus, sowie Autor einer Reihe von Arbeiten zur Theorie eines mechanischen Pendels, obwohl man zu dieser Zeit noch nicht sprechen konnte über die Schaffung separater technischer Wissenschaften. Die Erfindung spielte eine bedeutende Rolle beim Übergang zur Maschinentechnik. James Watt (1736-1819) die erste Dampfmaschine der Welt. Europa trat in das Zeitalter der maschinellen Produktion ein. Diese Periode war, wie Marx schrieb, durch die Umwandlung der Produktionsmittel von Werkzeugen in Maschinen gekennzeichnet. „Als Maschine erwerben die Arbeitsmittel eine solche materielle Existenzform, die den Ersatz menschlicher Kraft durch Naturkräfte und empirische Routinetechniken bestimmt – die bewusste Anwendung der Naturwissenschaft“ (Marx. Kapital. Bd. 1). Den negativen Aspekt dieses Prozesses sah Marx darin, dass die Maschine in Konkurrenz mit den Arbeitern trat, die mit Kürzungen und Entlassungen konfrontiert waren, da sie der Konkurrenz mit ihr nicht standhalten konnten. Daraus entstand die Tendenz, Maschinen zu zerstören (Luddismus). Ende des XNUMX. – Anfang des XNUMX. Jahrhunderts. Die ersten spontanen Proteste gegen den Einsatz von Maschinen gab es während der industriellen Revolution in Großbritannien.

Die Nachfrage nach Ingenieurtätigkeiten ist gestiegen, die bisher nur durch zufällige Vorschläge befriedigt werden konnte. Jetzt erforderte diese Ära eine Massenausbildung von Ingenieuren und technischen Spezialisten. Im Jahr 1746 wurde in Paris eine polytechnische Schule mit einer neuen Organisation des Bildungsprozesses eröffnet, die theoretische Ausbildung mit technischer Ausbildung kombinierte. Später wurden in den USA und in vielen europäischen Ländern solche Universitäten eröffnet, die auf einer neuen Bildungsbasis operierten – auf der Grundlage theoretischer und angewandter Naturwissenschaften.

9.4. Die Hauptrichtungen der Bildung der Philosophie der Technik

Die Idee, eine Technikphilosophie, genauer gesagt eine Philosophie der Mechanik, zu schaffen, wurde erstmals von dem englischen Chemiker und Physiker Robert Boyle (1627-1691) geäußert. In seinem Buch „Mechanische Eigenschaften“ (1675) versuchte er, ein mechanistisches philosophisches Konzept zu formulieren, indem er die Mechanik zur Grundlage alles Existierenden machte. Auch eine andere Idee war im Umlauf: Die Idee zur Schaffung einer Industriephilosophie stammte von dem deutschen Ökonomen Johann Beckmann (1739-1811). In Schottland erschien das Buch des Ökonomen und Ingenieurs Andrew Ure (1778-1857) „The Philosophy of Manufactories“ (1835), in dem der Autor einige philosophische Aspekte der Manufakturproduktion betrachtete. Wie wir sehen können, ist das europäische philosophische Denken der Schaffung einer wirklich wissenschaftlichen Philosophie der Technik sehr nahe gekommen. Dabei gilt im Westen der deutsche Philosoph Ernest Kapp als eigentlicher Begründer dieser Wissenschaftsdisziplin. Betrachten wir sein Konzept genauer.

Die wichtigsten Bestimmungen der Philosophie der Technik Ernest Kapp

Ernest Capp (1808-1896) gilt als einer der tiefgreifenden Denker auf dem Gebiet der Technologiephilosophie. Er verband das geografische Konzept in der Philosophie von Karl Ritter mit der Philosophie von Karl Marx, nachdem er zuvor den Hegelschen Idealismus in Materialismus „umgewandelt“ hatte. Das Ergebnis war ein solides Werk, „Allgemeine und vergleichende Geographie“. Der historische Prozess wurde in seinem Buch als Ergebnis einer aktiven Interaktion zwischen dem Menschen und seiner Umwelt dargestellt. Durch dieses Zusammenspiel erwirbt der Mensch im Laufe der Jahrhunderte die Fähigkeit, auf die Herausforderungen der Natur angemessen zu reagieren und seine Abhängigkeit von ihr zu überwinden. Nachdem er von Ludwig Feuerbach (1804-1872) seinen anthropologischen Umgang mit Natur und Mensch gelernt hatte, fasste Kapp seine Beobachtungen in seinem nächsten Buch „Legalisierter Despotismus und verfassungsmäßige Freiheiten“ zusammen, was bei den Behörden in Deutschland heftige Empörung auslöste. Es kam zu einem Prozess, dem Autor wurde Verleumdung vorgeworfen und er wurde des Landes verwiesen. Er teilte das Schicksal von K. Marx mit dem Unterschied, dass er nicht nach England, sondern ins ferne Amerika aufbrach. Dort ließ er sich inmitten seines eigenen Volkes nieder, in der deutschen Kolonie in Texas, wo er zwanzig Jahre lang als Bauer lebte und körperliche Arbeit mit geistiger Arbeit kombinierte: Er setzte die in Deutschland begonnene Forschung fort. Die Arbeit auf der Erde gab ihm die praktische Möglichkeit, den Zusammenhang zwischen dem Menschen und dem Subjekt der Arbeit durch die Werkzeuge der Arbeit philosophisch zu verstehen. Diese Beobachtungen fanden Eingang in sein neues Buch „Grundlagen der Technikphilosophie“, das er nach seiner Rückkehr nach Deutschland veröffentlichte. Das Lesepublikum sah in diesem wissenschaftlichen Werk deutliche Spuren des Einflusses des anthropologischen Konzepts Feuerbachs. Die Verbindung mit diesem Konzept ermöglichte es dem Autor, das Wesen der Verbindung menschlicher Hände (Anthropologie) mit Werkzeugen genauer zu betrachten – den Ausgangspunkt für die philosophische Reflexion über Technologie und ihr Wesen. Nachdem er „beurlaubt“ nach Hause gekommen war, blieb er nun für immer in Deutschland, da sein Gesundheitszustand es ihm nicht erlaubte, die lange Rückreise anzutreten. Und das Thema seiner Forschung nahm seinen Alltag vollständig in Anspruch.

Inspiriert von der Vorstellung des antiken griechischen Protagoras, dass der Mensch das Maß aller Dinge sei, war Kapp von der geheimen Verbindung des menschlichen Körpers, der Hände und der Gehirnaktivität fasziniert. Er distanziert sich vom Hegelschen „Ich“ und richtet seine Aufmerksamkeit auf den gesamten Körperorganismus – auf seine engsten Verbindungen mit dem „Ich“, das nur in Verbindung mit der Körperlichkeit den Denkprozess durchführt; als Komplize denkt er, während er existiert. Gleichzeitig verschmelzen Psychologie und Physiologie miteinander. Und dieser Prozess findet, wie Kapp richtig anmerkt, im Bereich der vom Menschen geschaffenen künstlichen Umwelt statt: „Was außerhalb des Menschen ist, besteht aus den Geschöpfen der Natur und dem Menschen.“

Der Mensch ist nicht zufrieden mit dem, was die Natur ihm gegeben hat. Er zeichnet sich durch Selbstkreativität aus. Er „reformiert“ die Umgebung entsprechend seinem Wesen, als ob die Natur bei ihrer Erschaffung nicht alles vorhergesehen hätte, und verlässt sich dabei genau auf seine Selbstkreativität: „Sie werden es selbst fertigstellen“, indem er Ihre Vision nach außen projiziert. Kapp schreibt: „Die vom Menschen ausgehende Außenwelt der mechanischen Arbeit kann nur als eine reale Fortsetzung des Organismus, als eine Übertragung nach außen der inneren Ideenwelt verstanden werden.“ Unter der „inneren Welt“ versteht Kapp den menschlichen Körper. Daraus folgt, dass das Äußere eine Fortsetzung des menschlichen Körpers ist, oder genauer gesagt, eine mechanische Nachbildung seiner verschiedenen Organe. Genau darin besteht sein Konzept, die sogenannte Organprojektion. Kapp betont: „Alle Mittel der Kultur, ob grobstofflich oder subtilster Konstruktion, sind nichts anderes als Projektionen von Organen.“

So hat Ernest Kapp ein ganzheitliches Bild der Orgelprojektion entwickelt, in dem er dieses Konzept als das Hauptprinzip menschlichen technischen Handelns und seiner gesamten kulturellen Kreativität ausführlich begründet und formuliert. Unter den menschlichen Organen weist Kapp der Hand einen besonderen Platz zu. Es hat einen dreifachen Zweck: Erstens ist es ein natürliches Werkzeug; zweitens dient es als Vorbild für mechanische Werkzeuge und drittens spielt es eine große Rolle bei der Herstellung von Materialimitaten, d.h. ist ein „Werkzeug der Werkzeuge“. Aus diesem natürlichen Werkzeug entstehen künstliche Werkzeuge: der Hammer als Verlängerung der Faust, der Trinkbecher statt der Handfläche und so weiter. Im Konzept der Orgelprojektion gab es auch einen Platz für das Abbild menschlicher Augen, beginnend mit einer Lupe, optischen Instrumenten; Die Akustiktechnik ist zu einem Hörorgan geworden, zum Beispiel ein Echolot, das die Geräusche der Propeller eines sich nähernden U-Bootes aufnimmt usw. Aber unter all diesen Organen ragt die menschliche Hand heraus: Sie ist, so Kapp, „das Organ aller Organe“.

Bei der Beschreibung des Konzepts der Organprojektion werden drei wichtige Merkmale unterschieden[21] . Erstens ist die Organprojektion ihrem Wesen nach ein Prozess kontinuierlicher, meist unbewusster Selbstfindung, deren einzelne Akte keinem simultanen Bewusstseinsprozess unterliegen. Zweitens ist es notwendig, da die Verbindung zwischen der mechanischen Funktion und dieser organischen Formation fest vorgegeben ist. So "erkennen" sich Lupe und menschliches Auge, Pumpe und Herz, Pfeife und Rachen, Handwerkzeug und Hand usw. ineinander. Eine solche Verbindung in der Technik wird in vielfältigster Weise in einer bewussten Übertragung über die Grenzen der ursprünglichen Beziehung hinaus genutzt. Drittens verwirklicht sich die Organprojektion in ihrem reichen Inhalt als ein Prozess aktiver Interaktion zwischen natürlichen Werkzeugen (alle menschlichen Organe) und künstlichen Werkzeugen, während denen sie sich gegenseitig verbessern. „Im Prozess der Interaktion“, schreibt Kapp, „unterstützte das Werkzeug die Entwicklung des natürlichen Organs, und bei letzterem wiederum führte das Erreichen eines höheren Grads an Geschicklichkeit zur Verbesserung und Entwicklung des Werkzeugs“ (zit : Al-Ani N.M. Dekret op.).

Ein Mensch macht seinen Körper zu einer "Waage" für die Natur und gewöhnt sich seit seiner Jugend daran, dieses Maß zu verwenden. Zum Beispiel ergeben fünf Finger der Hand, zehn Finger beider Hände das Fünf- bzw. Dezimalsystem. Die Beobachtungen und Schlussfolgerungen von Ernest Kapp werden durch die Studien anderer Autoren bestätigt. Insbesondere Yu. R. Mayer (1814-1878), G. L. F. Helmholtz (1821-1894) haben Vergleiche zwischen einer Maschine und einer Person angestellt und auf ihre Ähnlichkeiten hingewiesen.

Technologie und Praxeologie als Philosophie des Handelns von Alfred Espinas

Der französische Soziologe und Autor des Buches „Der Ursprung der Technik“ (1890), Alfred Espinas (1844-1922), war besorgt über das Fehlen einer „Philosophie des Handelns“ im System des philosophischen Wissens. Espinas könnte sich als Schüler oder Anhänger der Philosophie der Organprojektion betrachten. Er hatte keine Einwände gegen die Lehren von Ernest Kapp, die in Europa bereits recht bekannt waren. Dies wird durch seine Aussage belegt: „Das Werkzeug ist integraler Bestandteil des Arbeiters; es ist eine Fortsetzung des Organs, seine Projektion nach außen.“ Espinas stimmt Kapp voll und ganz zu, dass die Organprojektion ursprünglich unbewusst erfolgte. Er sieht seine Manifestationen in den griechischen Längenmaßen: Finger, Handfläche, Spanne, Fuß, Ellenbogen – für Espinas sind sie göttlichen Ursprungs, ein Geschenk Gottes. Bevor die Medizin säkular wurde, existierte sie auch lange Zeit unter der Schirmherrschaft der Religion. Krankheiten galten als Strafe Gottes und daher wurde die Medizin in Tempeln als Kunstzweig praktiziert. Epidemien galten als Manifestation des Zorns Gottes und die Behandlung der Kranken erfolgte mit Ritualen. Die Situation änderte sich radikal erst durch die Arbeit von Hippokrates, als man begann, Krankheiten durch natürliche Ursachen zu erklären.

Espinas betrachtet eine Person als Produkt einer psychologischen und soziologischen Projektion, die ihn personifiziert. Angewandte Kunst wird nicht mit den Eigenschaften des Körpers vererbt. Als Produkt von Erfahrung und Reflexion werden sie dem Individuum durch „Beispiel und Erziehung“ „eingeprägt“; so bringen sie die Wissenschaft hervor. Diesen Vorgang des Kompetenztransfers nennt der Autor das Thema Technik.

Espinas führt die Konzepte der Praxeologie (vom griechischen praktikos – aktiv) und der Technologie (vom griechischen techne – Kunst, Geschicklichkeit, Fertigkeit und logos – Wort, Lehre) ein. Die erste spiegelt seiner Meinung nach kollektive Willensäußerungen wider, nachdenklich und willkürlich, die allgemeinsten Handlungsformen. Was die Technologie betrifft, bezieht er dieses Konzept auf die „reifen Künste“, die die Wissenschaft hervorbringen und „die Technologie hervorbringen“. Espinas sieht in der Technologie drei wesentliche Merkmale, die unter drei Gesichtspunkten betrachtet werden sollten. Ziel ist zunächst eine analytische Beschreibung des Phänomens unter Berücksichtigung der spezifischen Bedingungen seiner Existenz (Zeit, Ort, Gesellschaft). Zweitens sollten die Muster, Bedingungen und Ursachen, die dem Phänomen vorausgingen, aus dynamischer Sicht untersucht werden. Drittens ist es notwendig, eine Kombination aus statischen und dynamischen Gesichtspunkten anzuwenden, die es ermöglicht, ein Phänomen in der Zeit zu untersuchen: seine Geburt, seinen Höhepunkt und seinen Niedergang, die den Rhythmus seiner Existenz bilden. Die Kombination dieser drei Dimensionen bildet die Gesamttechnologie.

Die Philosophie der Technik P. K. Engelmeyer: Technik als „echte Kreativität“

Auch der Sohn eines russischen Adligen deutscher Herkunft, Pjotr ​​Klimentjewitsch Engelmeyer (1855-1941), war ein Anhänger der Traditionen von Ernest Kapp. Seine Studien zur Technikphilosophie erlangten Berühmtheit durch die Veröffentlichung mehrerer Artikel in deutschen Publikationen, und er gewann wirkliche Popularität, nachdem er einen Bericht auf dem IV. Internationalen Kongress für Philosophie, der 1911 in Bologna stattfand, abgab. Die Hauptthese seines Berichts lautete: die Philosophie der Technik muss das Daseinsrecht haben. In Russland 1912-1913. mehrere seiner Werke erscheinen in Einzelausgaben unter dem Gesamttitel "Philosophie der Technik". Ein historischer Überblick über die Entwicklung der Technikphilosophie in der Engelmeyer-Interpretation wurde durch die Arbeiten von B. Franklin, E. Hartig, F. Relo, L. Noiret, J. Cuvier, C. Linnaeus, M. Muller möglich , F. Engels, K. Marx und andere Vorgänger. Unter Berücksichtigung der Errungenschaften des europäischen Wissenschaftsdenkens hat P. K. Engelmeyer konsequent seine Ansichten zur Technikphilosophie und ihrem Gegenstand dargelegt. Im Allgemeinen können sie wie folgt reduziert werden.

1. Erfahrung und Beobachtung sind die Quelle unserer Naturerkenntnis und dienen daher als Beweis für die Wahrheit der Gesetze der Wissenschaft.

2. Erfahrungen und Beobachtungen des Einsatzes von Technologie zur Bekämpfung der Natur zeigen, dass die Natur von der Natur besiegt werden muss.

3. Wenn ohne Technik ein Mensch verloren geht, dann gibt es ohne Wissenschaft keine Technik.

4. Die Definition des Menschen als "denkendes Tier" (J. Cuvier und C. Linnaeus) muss geklärt werden, wobei die Position berücksichtigt werden muss, die der menschliche Geist parallel zur Entwicklung von Sprache und Werkzeugen entwickelt hat (L. Noiret und M.Müller).

5. Die Fähigkeit des Menschen, Werkzeuge zu erschaffen, liegt in seiner eigentlichen Natur, in seiner schöpferischen Natur.

6. Wissenschaft entsteht aus praktischer, d.h. technisch, die Bedürfnisse des Alltags.

Die letztgenannte Position wurde wiederholt durch die Praxis bestätigt. So kamen zum Beispiel die Ägypter zur Erfindung der Geometrie aus der Notwendigkeit der Landvermessung nach jeder Flut des Nils, aus Alchemie wurde Chemie, aus Astrologie wurde Astronomie usw.

Engelmeyer bewertete die pragmatische Theorie des österreichischen Physikers und Philosophen positiv Ernst Mach (1838-1916), der den Anthropomorphismus der Technologie einschränkt. Laut Mach baut ein Mensch sein Denken manchmal nicht auf dem Prinzip des Anthropomorphismus auf, sondern auf einer technischen Analogie. Laut Engelmeyer hebt diese Position Kapps Ideen nicht auf, sondern ergänzt sie nur. Aber das von Mach formulierte Prinzip der Ökonomie des Denkens existiert, und daran muss man sich erinnern, um das Rad nicht noch einmal neu zu erfinden. Das Prinzip der Ökonomie des Denkens ist das wichtigste in Machs Erkenntnistheorie; Hier kommt sein Pragmatismus zum Ausdruck. Das Leben selbst diktiert der Technik das nötige Wissen und setzt Ziele. Nur Wissen, das zu praktischen Ergebnissen führt, ist wertvoll für das Leben. Im Wesentlichen ist Pragmatismus die Brücke, die zur Technologiephilosophie führt. Daher kann die Technikphilosophie dem Leben nicht den Rücken kehren, sie muss das Leben mitgestalten.

Enegelmeyer zieht in der Betrachtung der Frage nach dem Wesen der Technik eine Grenzlinie zwischen Wissenschaft und Technik. Auf die Frage, was der Unterschied zwischen ihnen sei, antwortet er folgendermaßen: Die Wissenschaft strebt nach der Wahrheit, die Technik strebt nach Nutzen. Der Techniker kommt, wenn der Wissenschaftler bereits gesagt hat, was die Wahrheit ist: Die Wissenschaft weiß es und die Technik weiß es. Obwohl dies natürlich nicht das Ende ihrer Beziehung bedeutet. Engelmeyer stellt eine Reihe von Anforderungen an die Technologie auf, die sie erfüllen muss und die die Grundlage der Kultur bilden. Er befürwortet die Existenz von Menschen mit einer „technischen“ Denkweise in der Gesellschaft und schreibt: „Eine Waffe dient gleichermaßen demjenigen, der sie besitzt; die Druckerpresse produziert gleichgültig sowohl das Evangelium als auch die Broschüre eines Obskurantisten; alles hängt von der Waffe ab.“ Menschen, in deren Händen die Maschine funktioniert.“ Seiner Meinung nach sollte die Technologie ein Verantwortungsbewusstsein haben, das auf der „Formel des Willens“ basiert, deren Bestandteile „Wahrheit, Schönheit, Güte, Nutzen“ sind. Und irgendwo am Rande steht der „teuflische“ Wille: „Lügen, Hässlichkeit, Böses und Schaden“; Dieser Wille hat Russland erobert.

Engelmeyers gesamter Lebensweg war mit Russland verbunden. Nach der Oktoberrevolution nahm er das Angebot zur Emigration in den Westen erst Anfang der 1930er Jahre an. große Anstrengungen unternahm, um technisches Wissen zu verbreiten, spielte eine entscheidende Rolle bei der Gründung des Polytechnischen Museums in Moskau. Er war Initiator zahlreicher Publikationen und publizierte selbst aktiv. Mit der Verschärfung des Sowjetregimes und der Zunahme der Unterdrückung war es jedoch notwendig, an das Überleben zu denken. Der Unterricht zur Entwicklung philosophischer Probleme der Technik Engelmeyer hörte auf. Irgendwo in der Nähe von Moskau züchtete er einige Zeit Pferde. 1941 starb er unbemerkt in seiner Moskauer Wohnung. Unter der Dominanz der marxistisch-leninistischen Philosophie gab es keinen Platz für Wissenschafts- und Technikphilosophie.

Technik als Mittel zur "Wahrheit" und als Mittel zur Aufdeckung des "Verborgenen" (M. Heidegger)

In dem Buch „Sein und Zeit“ wirft Martin Heidegger die Frage nach dem Sinn des Seins auf, der seiner Meinung nach in der europäischen Philosophie „vergessen“ wurde. Da „Sein“ für den Menschen ein vorübergehendes Phänomen ist, besteht in der Philosophie die Tendenz, dieses Phänomen zu vergessen. Aber für die Menschheit ist „Sein“ ein Phänomen, das sich ewig wiederholt und daher immer seine Relevanz hat. Auf der persönlichen Ebene ist die Erfahrung der Tatsache der Zeitlichkeit der Existenz für den Einzelnen sehr belastend; sie geht mit Angst, dem Verständnis der eigenen Zeitlichkeit, Einzigartigkeit, Einmaligkeit und Sterblichkeit einher. Heidegger widmet sich der Erforschung dieses Phänomens. Laut Heidegger ist die Vergangenheit einer Kultur durch die Sprache mit der Gegenwart verbunden, die einer „Wiederbelebung“ bedarf: Sie hat unter der Technisierung gelitten und ist weitgehend „tot“ geworden. Die Sprache der Vergangenheit lebt in Kultur, Literatur, Kunst, Architektur und schließlich in der Technologie weiter und bleibt ein Aufbewahrungsort, die Heimat des „Seins“. Diese Probleme (Erfahrungen der Zeitlichkeit der Existenz, das Schicksal der Sprache in der Geschichte usw.) wurden in seinem Buch „Zur Frage der Technik“ (1954) beleuchtet. Grundlage dieser Arbeit waren die Materialien seiner Vorlesungen an der Höheren Technischen Schule München. Heidegger klärt die etymologische Bedeutung des Begriffs „Technik“ und macht darauf aufmerksam, dass dieser als „Mittel zur Zielerreichung“ oder mit anderen Worten als „bekannte menschliche Tätigkeit“ interpretiert wird. Während Heidegger die Richtigkeit dieser Definitionen anerkennt, stellt er gleichzeitig fest, dass die Richtigkeit einer Definition nicht ihre Wahrheit bedeutet. Die Aufgabe der Technikphilosophie besteht darin, nach einer wahren Definition zu suchen. Und die Wahrheit liegt in der Frage „Was ist ein Werkzeug?“ verborgen. Auf der Suche nach einer Antwort auf diese Frage kommt der Autor zu dem Schluss, dass alles davon abhängt, was wir genau meinen, wenn wir „Werkzeug“ sagen. Hinter dieser Definition sieht er Kausalität. Heidegger erinnert an die auf Aristoteles zurückgehende Tradition, in der Philosophie vier Arten von Kausalität zu unterscheiden:

1) die materielle Ursache (causa materialis), sie weist auf die Quellen von Artefakten hin, zum Beispiel wie eine silberne Opferschale;

2) ein formaler Grund (causa formalis), er manifestiert sich, wenn beispielsweise Silber eine ästhetische Form annimmt;

3) die letzte Ursache (causa finalis), wenn die Gestaltung dem Ziel genügt;

4) verursachende Ursache (causa efficiens), d.h. ein fertiges Produkt erstellen.

Basierend auf dieser Analyse kommt Heidegger zu dem Schluss, dass das Wesen der Technik als Mittel nur durch die Reduzierung der Instrumentalität auf diese vier Aspekte der Kausalität erschlossen werden kann. Diese Gründe erhalten in seinem Verständnis ein Schuldzeichen („schuldig an etwas“), und sie alle sind durch ein „Schuldgefühl“ verbunden. Sie seien „schuld“ am Aussehen der Sache, insbesondere der Silberschale. Auch Schuldgefühle können als Grund dienen (in diesem Fall vier Gründe). Und er nennt diesen Übergang vom Zustand der Nichtexistenz zum Zustand der Präsenz „Arbeit“. Im höchsten Sinne ist ein Werk poiesis, d.h. Handwerk plus Kunst. Ein solcher Arbeitsprozess stellt immer eine Offenlegung des Verborgenen dar, das in Unverborgenheit, Offenheit umschlägt. Die Griechen nannten diesen Übergang das Wort „alateia“, die Römer – veritas. So erweist sich die Technik letztlich als eine Art und Weise zugleich, das Verborgene ans Licht zu bringen, das Wirkliche aus seinem Verborgenen hervorzuholen.

Heidegger stellt das Wort „Techne“ neben das Wort „Episteme“ (Wissen): Beide dienen der Offenlegung von Geheimnissen, und Techne ist dementsprechend eine Art „Wahrheitsfindung“. Beide Konzepte sind gleichbedeutend mit Wissen; sie helfen einem Menschen, sich im Labyrinth der Konzepte zurechtzufinden, das Verborgene, das noch nicht Beachtete zu verstehen und zu offenbaren. Verheimlichung ist nicht gleichgültig, sie fasziniert einen Menschen, fordert ihn ständig heraus, gibt Signale, flirtet ... Und diese Intrige veranlasst einen Menschen, aufmerksam zu sein, zu zielen, sich eine Aufgabe zu stellen, die Heidegger „Stellen“ nennt. Wie Platon verwendet er das Wort ungewöhnlich, unverwechselbar, um dieses Phänomen zu bezeichnen. Durch die Methode der Darstellung entnimmt er das Reale dem Zustand der Verborgenheit und überführt es in einen anderen Zustand – „Anwesenheit“. Der Begriff „Postav“ ist für ihn sehr umfangreich. Es hat vier Bedeutungen. Erstens ist es ein bildliches Synonym für das Wort „werden“, d. h. wo alles beginnt. Zweitens bedeutet es, den Weg zum Verborgenen zu bestimmen. Drittens steht das Verborgene ebenso wie die Wahrheit in einer „innigen Beziehung“ zum Begriff der Freiheit, also der Freiheit aus dem Zustand der Unwissenheit. Viertens ist der Weg zu dieser Freiheit immer mit Risiken und Gefahren behaftet. Wenn es um Gefahr geht, meint der Autor, dass der Mensch nicht alles weiß; es bleibt immer ein „Geheimnis des Wesens“. Die Stimme einer früheren Wahrheit kann von der Euphorie der Entdeckung übertönt werden. Das Wissen um das „wirklich Existierende“ liegt noch vor uns. Heidegger kommt zu dem Schluss: „Je näher wir der Gefahr kommen, desto heller beginnt der Weg zur Erlösung zu leuchten!“

Thema 10. Soziale und humanitäre Richtung in der Philosophie der Technik

10.1. Begründung der humanitären Richtung in der Philosophie der Technik

Der anerkannte Führer in der Erforschung der sozialen Aspekte des technischen Fortschritts ist Karl Marx (1818-1883). H. Stork, Gunter Ropol, Hans Lenk haben darüber geschrieben und in ihren Werken ganze Kapitel der Analyse der Ansichten von Marx gewidmet. Insbesondere H. Stork nennt Marx einen Pionier in der Herausbildung der Technikphilosophie als einer besonderen Richtung[22] . Ein einflussreicher Technikphilosoph nennt Marx und der moderne deutsche Philosoph Hans Lenk[23].

Im fünften Kapitel des Kapitals führt Marx eine gründliche Analyse der menschlichen Arbeit durch, da sie „konsumiert“ wird (das heißt, sie hat einen Gebrauchswert) und technische Mittel nur ihr Dirigent sind. Obwohl Marx die Arbeit seines Freundes F. Engels über die Rolle der Arbeit im Prozess der menschlichen Entwicklung unterstützte, waren seine Sympathien immer noch auf der Seite der Orgelprojektion von E. Kapp. Für ihn war die Wahrheit wertvoller! Marx schrieb: „Ein Gegenstand, den der Mensch unmittelbar beherrscht ... ist kein Arbeitsgegenstand, sondern ein Arbeitsmittel. So wird er, von der Natur selbst gegeben, zum Organ seiner Tätigkeit, zu einem Organ, das er mit den Organen verbindet.“ seinen Körper und verlängerte so, im Gegensatz zur Bibel, dessen natürliche Dimensionen.“ Für Marx sind die Werkzeuge der Arbeit „die materialisierte Macht des Wissens“ [24] .

Die Verdrängung der Handarbeit durch Maschinenarbeit führte zu revolutionären Veränderungen im Arbeitsprozess. Marx definierte den Charakter der neuen Ära durch den Fortschritt der Arbeitsmittel, die nicht nur ein Maß für die Entwicklung der Arbeitskräfte, sondern auch ein Indikator für die gesellschaftlichen Verhältnisse selbst darstellen. Die Folgen der Revolution in der Entwicklung der Arbeitsmittel, die zur Verdrängung der Handarbeit und der damit verbundenen Massenentlassung der durch die Maschine ersetzten führte, untersucht Marx ausführlich im achten Kapitel des Kapitals. Beim Übergang von der Handwerkstechnik zur Maschinentechnik wurden die Zwergwerkzeuge des menschlichen Körpers und der Muskelenergie durch die Kräfte der Natur ersetzt und das traditionelle Wissen im Prozess der Handarbeit durch naturwissenschaftliche Erkenntnisse der exakten Wissenschaften ersetzt. Industrielle Arbeit verdrängt handwerkliche Arbeit und macht so die Maschine zum Blutfeind des Handwerkers. „Tote“ (Maschinen-)Arbeit dominiert vollständig das „Lebende“ und konkurriert erfolgreich mit ihm, wodurch es zu einem Anhängsel der maschinellen Produktion wird. In der Manufaktur und im Handwerk sorgt der Arbeiter dafür, dass ihm das Werkzeug dient, aber in der Fabrik dient er der Maschine als ihrem lebendigen Anhängsel. Auf diese technischen Veränderungen folgt ein zweiter Grad der Abhängigkeit des Arbeiters: Er ist nicht nur vom Arbeitgeber, sondern auch von den Arbeitsmitteln abhängig, was seiner Entfremdung eine deutlich technische Dimension verleiht. Sehr bald stellt sich heraus, dass der Arbeitgeber nicht mehr so ​​viele Arbeitskräfte benötigt: Viele Arbeitsvorgänge werden von „intelligenten“ Maschinen erledigt. Die Zeit der Massenentlassungen naht, Millionen Arbeitnehmer werden arbeitslos. Die Maschine, das Arbeitsmittel, wird zum Blutfeind des Arbeiters. Marx schreibt: „Es besteht kein Zweifel daran, dass Maschinen an sich nicht dafür verantwortlich sind, dass sie den Arbeiter von den Mitteln zum Lebensunterhalt „befreien“.“[25] Der Grund liegt laut Marx im kapitalistischen Einsatz von Maschinen.

Die Maschine ist axiologisch neutral! Sie ist dem Handwerk gegenüber "feindlich", nicht an und für sich. Es ist einfach in die falschen Hände geraten und muss daher in andere Hände überführt werden: in die Hände von Arbeitslosen. Und den Arbeitgeber als Enteigner enteignen, indem er den Arbeitern, dem Proletariat, politische und wirtschaftliche Macht gibt. Das ist die Logik der Lehre von Marx.

Ein weiterer wichtiger Aspekt in der technophilosophischen Konzeption von Marx, der sich auf die Bewertung des Wesens des technischen Fortschritts selbst bezieht, sollte beachtet werden. Festhaltend an einem festen dialektischen Konzept in der Philosophie glaubt Marx, dass jedes der systembildenden Elemente dieses Prozesses notwendigerweise eine relative Regression enthalten muss. Wir sprechen von technischer Entwicklung als einem wichtigen Bestandteil des gesellschaftlichen Fortschritts. Aus diesem Anlass schreibt er: "In unserer Zeit scheint alles mit seinem Gegenteil behaftet zu sein. Wir sehen, dass Maschinen, die die wundersame Kraft haben, menschliche Arbeit zu reduzieren und fruchtbarer zu machen, den Menschen Hunger und Erschöpfung bringen. Neue, bisher unbekannte Quellen von." Reichtum, dank dem "einige seltsame und unverständliche Reize zu einer Quelle der Armut werden. Der Sieg der Technologie wird sozusagen um den Preis der moralischen Erniedrigung erkauft. Es scheint, dass die Menschheit zum Sklaven wird, wenn die Menschheit die Natur unterwirft anderer Leute oder ein Sklave seiner eigenen Gemeinheit."

10.2. Ein Versuch, die „Macht“ der Technik zugunsten der Ethik aufzugeben

Der französische Technikphilosoph und Kulturologe Jacques Ellul (geb. 1912) erlangte mit der Veröffentlichung von Technique (1954) Berühmtheit. Alle Arbeiten von Ellul waren der Analyse und dem Studium der technischen Gesellschaft seiner Zeit gewidmet. Das zentrale Forschungscredo des Autors läuft darauf hinaus, Marx' Konzept der entscheidenden Rolle der Produktionsweise in der historischen Entwicklung der Gesellschaft in Frage zu stellen. Die Einteilung historischer Epochen sollte sich laut Ellul am Grad der Entwicklung der Technik orientieren. Diese Ideen wurden konsequent in seinen Büchern "Technische Gesellschaft" (1965), "Politische Illusionen" (1965), "Metamorphose der Bourgeoisie" (1967), "Empire of Absurdity" (1980) behandelt. Ihre Themen waren die Probleme der modernen Technikgesellschaft, Technik, Technikerpersönlichkeit, Politik, die Stellung sozialer Klassen und Kunst.

Die zentralen Konzepte in Elluls Theorie sind „Technologie“ und „Technophilosophie“. Er definiert Technologie als „eine Reihe rational entwickelter Methoden, die in jedem Bereich menschlicher Tätigkeit absolut wirksam sind.“ Das „Phänomen der Technologie“ ist laut Ellul durch so wichtige Merkmale wie Rationalität, Artefaktualität, Selbststeuerung, Selbstwachstum, Unteilbarkeit, Universalität und Autonomie gekennzeichnet. Diese sieben Merkmale bilden nach Ansicht des Autors den charakteristischen Inhalt der Technik als wichtigste dominierende Form menschlichen Handelns. Somit ist es die Technologie, die alle anderen Formen des Handelns, die gesamte menschliche Technologie und alle sozialen Strukturen bestimmt – Wirtschaft, Politik, Bildung, Gesundheitswesen, Kunst, Sport usw.

Ellul betrachtet die Technologie im gegenwärtigen Stadium ihrer Entwicklung in einer weiten Weltanschauung als eine Art Rationalität. Sie ersetzt die Natur durch die Technosphäre, die technische Umwelt und ersetzt die natürliche Umwelt. Technologie ist eine von außen auferlegte Kraft, eine Gegebenheit, mit der man rechnen muss; es drängt sich einfach dadurch auf, dass es existiert. Technologie als Gegebenheit, als etwas Selbstgenügsames, spielt ein sehr gefährliches und riskantes Spiel. In diesem Spiel muss eine Person nur auf die Maßnahmen wetten, die sie ergreift, um ihre guten Ziele zu erreichen und ihre guten Absichten zu erfüllen.

Aus Sicht des Autors soll Technologie den Menschen dabei helfen, ihr Zuhause hier auf der Erde zu bauen. Dem „Anspruch“ der Technik, sich in ein alles bedingendes und alles erzeugendes Prinzip zu verwandeln, ihr Allmachtswille muss aktiv entgegengewirkt und ernsthaft zurückgewiesen werden. Das von Ellul formulierte ethische Konzept des Verzichts auf die Macht der Technologie erhebt den Anspruch, die Rolle einer solchen Gegenwirkung zu sein. Dieses Konzept basiert praktisch auf einer direkten und vollständigen Ablehnung des sogenannten „technologischen Imperativs“, wonach der Mensch alles tun kann und sollte, was ihm technisch zugänglich und grundsätzlich machbar ist. Ellul fordert tatsächlich, dass eine solche Haltung aufgegeben wird. Die Ethik der Ablehnung der Macht der Technologie erfordert nicht nur eine Einschränkung dieses Imperativs, sondern seine völlige Leugnung. Ausgangspunkt dieses ethischen Konzepts ist die Idee der menschlichen Selbstbeherrschung, die unweigerlich dazu führt, dass der „technologische Imperativ“ durch die gegenteilige Haltung ersetzt wird, wonach sich die Menschen untereinander darauf einigen müssen, nicht alles zu tun, was sie tun im Allgemeinen technisch umsetzbar. Diese Haltung kann als „antitechnologischer Imperativ“ bezeichnet werden; sie wird sowohl relevant als auch schicksalhaft, da vor dem Hintergrund einer exorbitanten Steigerung der Macht der Technologie die Überzeugung entsteht, dass es keine äußeren Kräfte gibt, die der Technologie widerstehen und sich aktiv widersetzen können seine Allmacht. Allerdings gibt es immer noch keine wirkliche Alternative zur Technologie, man muss also mit ihr „auskommen“. Unter diesen Bedingungen bleibt eines: der Ethik der Ablehnung der Macht der Technologie zu folgen. Eine solche Ethik erfordert nicht nur Selbstbeherrschung, sondern auch die Ablehnung persönlichkeitszerstörender Technologien. Dafür ist laut Ellul eine Revolution notwendig: Nur sie kann Technologie von einem Faktor der Versklavung eines Menschen in einen Faktor seiner Befreiung verwandeln. Der Philosoph nennt diese Revolution „politisch-technisch“ – das ist eine Art utopisches Modell der Entwicklung der modernen westlichen Gesellschaft.

Die "politisch-technische" Revolution ist auf die Notwendigkeit zurückzuführen, fünf Probleme (Aspekte) der Entwicklung der Gesellschaft zu lösen. Erstens ist es notwendig, den Ländern der "Dritten Welt" unentgeltliche Hilfe zu leisten, um ihnen die Möglichkeit zu geben, alle Vorteile aus der westlichen Technologie zu ziehen und ihre eigene Geschichte unabhängig aufzubauen. Zweitens sollten die Anwendung von Gewalt in „jeder Form“ und „militärische Arsenale, die unsere Wirtschaft unterdrücken“ aufgegeben sowie der „zentralisierte bürokratische Staat“ vollständig beseitigt werden. Gleichzeitig glaubt der Autor, dass dies nicht zu einem Rückgang der Organisation oder Verwirrung führen wird, da es seiner Meinung nach niemanden geben wird, der Verwirrung, Unordnung und Verwirrung stiftet. Als nächstes müssen wir Preiserhöhungen stoppen und kleine Unternehmen ermutigen. Der Rückgang des Lebensstandards soll durch eine Steigerung seiner Qualität kompensiert werden. Drittens ist es notwendig, einen umfassenden Einsatz von Fähigkeiten und eine Diversifizierung der Berufe zu erreichen. Damit verbunden ist die Entfaltung nationaler Talente, die Anerkennung aller Autonomien, die Schaffung eines freien und würdevollen Lebens für kleine Völker, die Bereitstellung eines Bildungsaufschwungs für sie und nicht unbedingt die Schaffung einer eigenen Staatlichkeit. Viertens ist eine starke Reduzierung der Arbeitszeit zu erreichen, indem die 35-Stunden-Woche durch eine XNUMX-Stunden-Tagesarbeit ersetzt wird. Außerdem soll es Propaganda machen zu Fragen nach dem Sinn des Lebens, nach einer neuen Kultur, Raum eröffnen für neue gestalterische Fähigkeiten etc. Fünftens schließlich wird vorgeschlagen, die von einer Person „gesparte“ Zeit als Fortschrittskriterium zu betrachten. Die Entlohnung der Arbeit soll nicht in Geld, sondern durch den Austausch von Produkten erfolgen, und zwar unabhängig von der Menge der investierten Arbeit.

Als Ziel der „politisch-technischen“ Revolution wird nicht die Machtergreifung erkannt, sondern die auf die vollständige Befreiung des Menschen gerichtete Realisierung der positiven Potentiale der modernen Technik. Das sozialutopische Projekt von Ellul sieht die Errichtung einer Selbstverwaltung auf kommunaler Ebene vor. Im Allgemeinen gewinnt man den Eindruck, dass der Autor seine Ethik des Verzichts auf die Macht der Technik aus einer kurzen Geschichte des Aufbaus des Kommunismus in der UdSSR „kopiert“ hat. Alle diese Initiativen mit Arbeitszeitverkürzung, Gratisrationen usw. wurden in die Aktivitäten der KPdSU umgesetzt, die die UdSSR zu ihrem vollständigen und endgültigen Zusammenbruch führten. Dennoch neigt die Geschichte dazu, sich zu wiederholen, wie Marx schrieb, „manchmal in Form einer Farce, jetzt in Form einer Tragödie“.

10.3. Revolution in Technology and Evolution in Society: Technological and Philosophical Searches of the Frankfurt School

Die Frankfurt School of Philosophy of Technology ist mit Namen bekannter russischer Philosophen vertreten Max Horkheimer (1895-1973) Herbert Marcuse (1898-1979) Theodora Adorno (1903-1969). Die Schule unter diesem Namen wurde in den 1930er bis 1940er Jahren gegründet. um das seit 1931 von Horkheimer geleitete Institut für Sozialforschung an der Universität Frankfurt am Main. Im Zusammenhang mit der Machtübernahme der Nationalsozialisten mussten die meisten Mitarbeiter des Instituts emigrieren. Das theoretische Erbe der Vertreter der Frankfurter Schule ist verbunden mit der Entwicklung der Ideen von Max Weber, insbesondere mit der Entwicklung einer kritischen Gesellschaftstheorie mit dem Ziel, „das höchste Urteil über die Klassenunterdrückung“ zu schaffen eine "Gesellschaft ohne Ungerechtigkeiten". Die erklärte „kritische Gesellschaftstheorie“ geht davon aus, dass der Mensch als aktives, schöpferisches und freies Wesen unter den Bedingungen der modernen Gesellschaft enttäuscht („vernichtet“), seiner „zweiten Dimension“, seiner Spiritualität, beraubt wird. Gleichzeitig verliert er sowohl sein Ich als auch die Spontaneität seines Daseins, entfremdet sich von sich selbst, seinem wahren Wesen. Die Technologie trägt eine gewisse Mitverantwortung für diese Prozesse. Sie fungiert als Generator einer Massenkultur, frei von Spiritualität, die auf durchschnittliche kulturelle Muster ausgelegt ist, d.h. ihre Verbilligung, auf "Massenbetrug" (T. Adorno).

Laut Theodor Adorno geht in der sogenannten „Massen“-Kultur die Einzigartigkeit und Unabhängigkeit des Menschen verloren, es kommt zu einer Vereinigung aller Menschen, die sie in eine graue, unkritische Masse verwandelt. Darüber hinaus wird die gesamte Kultur begrenzt, eine historische Totalität wird projiziert, es werden Anforderungen an den Menschen gestellt, die ihn versklaven. Der Sklave ist in diesem Fall nicht die Technologie, sondern ihr Besitzer. Adorno geht davon aus, dass Technik und Humanismus in keiner Weise gegensätzlich sein können: Ein solcher Gegensatz ist ein Produkt falschen Bewusstseins. Man könne sagen, dass die Kluft zwischen Technologie und Humanismus, so unheilbar sie auch sein mag, ein Beispiel für eine gesellschaftlich geschaffene Erscheinung sei, schreibt Adorno. Den Philosophen interessiert die Frage: Wie sollen Techniker an die Philosophie der Technik herangeführt werden? In seiner Antwort weist er die damals bestehende Vorstellung zurück, dass ihm das Fach wie von außen beigebracht worden sei. Er schlägt vor, an das Selbstbewusstsein zu appellieren: „Mit Hilfe unserer konzeptionellen Mittel müssen wir sie zu diesem Selbstbewusstsein verleiten.“ Aber auf diesem Weg stoßen wir auf Schwierigkeiten wie „berufliche Einschränkungen, Patriotismus“ und ein Gefühl der Ablehnung humanitären Wissens. Adorno stellt fest, dass „Techniker Kultur schwieriger wahrnehmen“, da sie Entspannung dem Business vorziehen, „sie sich nicht mit Massenprodukten der Kulturindustrie vollstopfen lassen“. Andererseits leiden Techniker unter der Einseitigkeit, Trockenheit und Unmenschlichkeit ihrer Rationalität. In seinem Buch „Über Technik und Humanismus“ wirft Adorno die Frage nach der Verantwortung der Techniker für die Früchte ihrer Arbeit auf. Bei der Lösung dieser Frage müsse man, so der Philosoph, davon ausgehen, dass jeder von uns nicht er selbst sein dürfe, sondern nur Träger speziell vorgeschriebener Funktionen. Der Bereich, der üblicherweise als Ethik bezeichnet wird, dringt nur indirekt in das Arbeitsgeschehen ein. Adorno lehnt die Möglichkeit der Existenz moralischer Normen ab, die das Wissen beeinträchtigen [26].

Der Widerspruch zwischen sozialer und technischer Vernunft, so Adorno, sei nicht zu übersehen, nicht einfach zu leugnen, er müsse im Detail behandelt werden. Letztlich hänge die Frage, ob moderne Technik der Menschheit Nutzen oder Schaden bringe, „nicht von den Technikern und auch nicht von der Technik selbst ab, sondern davon, wie sie von der Gesellschaft genutzt werde“. Es mag sich herausstellen, dass bei der Bestimmung der gesellschaftlichen Rolle der Technik die klarsten Gedanken in der marxistischen Bewertung der Technik enthalten sind. In diesem Zusammenhang sind Adornos Urteile zum Problem des "neuen Bildungsideals" sehr interessant. Er glaubt, dass dieses Ideal zerstört wurde, dass die Kultur daran gescheitert ist, ihre eigene Menschlichkeit zu schaffen. Kultur zahlt für die Unwahrheit, für den Schein, für die Distanzierung von der humanistischen Idee, dass „die Menschen die Kultur von sich werfen“. Adorno schließt: „Heute entsteht nur noch in der Bildungskritik, in der kritischen Selbsterfahrung der Technik … Hoffnung auf eine Bildung, die nicht mehr wie eine Humboldtianerin aussieht, die sich die vage Aufgabe stellt, das Individuum zu bilden“[ 27] .

Adorno war ein ausgezeichneter Musiker, Schriftsteller und Soziologe. In dem Buch „Negative Dialektik“ versuchte er, ohne den Anspruch zu erheben, eine grundlegend neue philosophische Methodik zu schaffen, die Anatomie des Lebens am Beispiel seiner schöpferischen Interessen darzustellen. Adornos Hauptbeitrag zur Philosophie liegt in seinen ästhetischen Ansichten, in denen er die Erfahrung des Begreifens des Individuums als nicht identisch betrachtet. In der philosophisch-ästhetischen Konzeption der Neuen Musik als protokollarische Fixierung „unaufgeklärten Leidens“ gegenüber der für die Klassik charakteristischen harmonischen Transformation von Leidenschaften stellt Adorno das Schaffen von Komponisten der „neuen Wiener Schule“ in den Mittelpunkt. Der Begriff „Neue Musik“ ist eng verbunden mit der Kritik an der massenhaft standardisierten modernen Kultur und dem sich in ihrem Schoß bildenden „regressiven Hören“, das die Wahrnehmung in stereotype Elemente dissoziiert. Adornos Werke wirkten sich positiv auf die Ästhetik, Musikwissenschaft und Ideologie der Jugendbewegungen seiner Zeit aus.

Die Probleme der Sozialisation des Individuums in Deutschland wurden in den Arbeiten eines anderen Vertreters der Frankfurter Schule, eines Philosophen und Soziologen, aktiv behandelt Jürgen Habermas (geb. 1929). Als Anhänger von T. Adorno, Anhänger frühbürgerlicher Bildungsideen, Ideologe der Studentenbewegungen der 1960er Jahre, der Rechtsstaatsbildung im Nachkriegsdeutschland, gilt Habermas als prominenter Vertreter der „zweiten Generation“. “ der Frankfurter Schultheoretiker. Ausgehend vom Konzept der „Freiheit und des kommunikativen Handelns“ formt er seine ablehnende Haltung gegenüber der technokratischen Denkweise der westlichen Technikphilosophie. Habermas hält an dem Konzept fest, wonach Technik zu einer Kraft erklärt wird, die einem Menschen seinen freien schöpferischen Geist raubt, ihm die Möglichkeit des freien Handelns, der Selbstentfaltung und Selbstorganisation nimmt und ihn letztlich zum Sklaven seiner selbst macht Kreationen. Habermas verbindet die Emanzipation des Menschen mit der Verdrängung der „instrumentellen Vernunft“, ihrer Unterordnung unter den menschlichen Geist als eine Integrität, die individuelles und gesellschaftliches Denken vereint. Er verbindet damit die Etablierung einer „kommunikativen Demokratie“, die wissenschaftlichen und technologischen Fortschritt mit den Werten und Normen der menschlichen Zivilisation verbindet, eine „linguistische Wende“ in der Philosophie und den Sozialwissenschaften, die die Abkehr von einer subjektivistischen Phänomenologie begründet Zur Analyse des inneren Zeitbewusstseins. Rationalität konzentriert sich nicht auf die Sphäre der Vernunft, sondern auf sprachliche Formen des gegenseitigen Verstehens.

Habermas kontrastiert das kommunikative Paradigma mit dem Produktionsparadigma des Marxismus. Er forscht zur Theorie des kommunikativen Handelns in fünf Hauptbereichen. Erstens schlagen sie eine neue Theorie der Gesellschaft vor, die sich von dem Projekt von Adorno und Horkheimer unterscheidet. Zweitens wird der Begriff der kommunikativen Rationalität mit Hilfe der Hermeneutik, verschiedener Sprachtheorien, entwickelt. Drittens wird die Theorie des sozialen (kommunikativen) Handelns entwickelt. Viertens wird auf der Grundlage neuer Konzepte von „Lebenswelt“ und „System“ geforscht und ihr Verhältnis in historischer Perspektive analysiert. Schließlich, fünftens, werden mit Hilfe dieser Konzepte die Trends und Krisen der Moderne analysiert.

Habermas' Haltung gegenüber der Theorie von K. Marx änderte sich im Laufe der Jahre von enthusiastisch zu kritisch. Marx sah im Kapitalismus die Merkmale einer politisierten Gesellschaft auf der Grundlage kollektiver Arbeit. Der Sozialismus muss sich laut Marx durch systemisches Management stetig weiterentwickeln. Probleme der Kommunikationsform blieben laut Habermas jedoch außerhalb des Blickfelds von Marx, liefern aber den Schlüssel zu einer vernünftigen Neuordnung der Gesellschaft. Habermas versuchte, die Marxsche Theorie mit Hilfe seines Konzepts des „kommunikativen Handelns“ zu korrigieren.

Habermas kritisiert auch die Theorie von T. Adorno als pessimistisch und unfruchtbar, da sie nicht in der Lage sei, die in der Gesellschaft bestehenden Widersprüche zu überwinden. Wie Habermas schreibt, versuchten Adorno und Horkheimer, die von ihnen erfundene „instrumentelle Vernunft“ mit Hilfe der instrumentellen Vernunft selbst zu retten, d. h. ihm Aufgaben auferlegen, die offensichtlich unmöglich sind. In seiner zweibändigen Theorie des kommunikativen Handelns stützt sich Habermas auf die Regeln der Kommunikation in den Bedingungen von Sprechhandlung, Gespräch, Diskussion und Diskurs. Für ihn ist Diskurs mehr als freie Konversation. Hierbei handelt es sich um einen Dialog, der auf einer normativen Aussage auf einem hohen theoretischen Reifegrad basiert, d. h. ein Gespräch zwischen „Erwachsenen“ (Mundigkeit), an dem möglichst viele Menschen teilnehmen. Solch ein „weltlicher“ Dialog, Diskurs, wie die Kommunikation zwischen einem Arzt und einem Patienten, sollte zu einer Heilung von Krankheiten führen. Nach Ansicht des Autors ist ein solcher Diskurs ein Beispiel, ein Modell für die Entwicklung kommunikativer Kompetenz.

Thema 11. Humanitär-anthropologische Richtung in der Philosophie der Technik

11.1. Technikphilosophie von Karl Jaspers: Beherrschung der Natur mit Hilfe der Natur selbst

Deutscher existentialistischer Philosoph, Psychiater Karl Jasper (1883-1969) war Professor für Psychologie an der Universität Heidelberg. 1937 wurde er aus politischen Gründen seines Amtes enthoben. Nach dem Krieg lehrte er an der Universität Basel. Zu seinen Hauptwerken zählen „Philosophie“ (in 3 Bänden, 1932), „Ursprünge und Zweck der Geschichte“ (1949), „Große Philosophen“ (in 2 Bänden, 1957), die Monographie „Where Germany is Moving“ (1969). ), „Moderne Technologie“ (russische Ausgabe – 1989). Uns interessiert vor allem sein neuestes Werk. Erstmals werden aus technophilosophischer Sicht die Werke von Fichte, Hegel und Schelling analysiert, die sich der Begründung der sogenannten Achsenzeit widmen, die mit der Entstehung des Christentums begann. Ein charakteristisches Merkmal dieser Zeit ist die katastrophale Verarmung auf dem Gebiet des geistigen Lebens, der Menschlichkeit, der Liebe und die gleichzeitige Steigerung des Erfolgs auf dem Gebiet der Wissenschaft und Technologie. Die geistige Armut vieler Naturwissenschaftler und Techniker ist geprägt von ihrer verborgenen Unzufriedenheit vor dem Hintergrund der verschwindenden Menschheit. Jaspers betrachtet Technik als die Gesamtheit jener Handlungen, die ein sachkundiger Mensch mit dem Ziel vornimmt, die Natur zu beherrschen, d. h. um seinem Leben „eine Form zu geben, die es ihm ermöglicht, die Last der Not zu beseitigen und die gewünschte Form der Umwelt zu finden.“ In Übereinstimmung mit Marx‘ Einschätzung der industriellen Revolution schreibt Jaspers über Veränderungen in der Beziehung zwischen Mensch und Natur, über seine Unterordnung unter die Natur und die Folgen dieser „Tyrannei“. Der Planet ist, wie Jaspers schreibt, zu einer einzigen Fabrik geworden!

Jaspers konkretisiert sein Verständnis von Technik wie folgt. Seiner Meinung nach zeichnet es sich durch zwei Merkmale aus: einerseits die Vernunft, andererseits die Macht. Die Technik beruht auf der Tätigkeit der Vernunft, weil sie Teil der allgemeinen Rationalisierung ist. Aber gleichzeitig ist es eine Fähigkeit, die Fähigkeit, die Natur gegen die Natur selbst einzusetzen. In diesem Sinne ist Wissen Macht, Macht! Die Hauptbedeutung der Technik ist die Befreiung des Menschen von der Macht der Natur. Das Prinzip der Technologie ist die Manipulation der Naturkräfte, um die Ziele des Menschen aus dem Blickwinkel seiner Sicht zu verwirklichen.

Jaspers identifiziert zwei Haupttypen von Technologie – Technologie, die Energie produziert, und Technologie, die Produkte produziert, sowie drei Faktoren, die die Entwicklung von wissenschaftlichem und technischem Wissen beeinflussen:

1) Naturwissenschaften, die ihre eigene künstliche Welt schaffen und Voraussetzungen für ihre Weiterentwicklung sind;

2) der Erfindergeist, der zur Verbesserung bestehender Erfindungen beiträgt;

3) Arbeitsorganisation, die darauf abzielt, die Rationalisierung wissenschaftlicher und industrieller Tätigkeiten zu fördern.

Menschliche Arbeit erscheint auch in einer dreidimensionalen Dimension: als Aufwand körperlicher Kraft, als geplante Tätigkeit und als wesentliche Eigenschaft eines Menschen. Zusammengenommen ist Arbeit eine systematische Tätigkeit, die darauf abzielt, Arbeitsgegenstände mithilfe von Arbeitsmitteln umzuwandeln.

Die eigene Welt eines Menschen – der von ihm geschaffene künstliche Lebensraum und die künstliche Existenz – ist nicht das Ergebnis individueller, sondern gemeinsamer menschlicher Arbeit (schließlich kann ein einzelner Mensch nicht alles!). Jaspers kommt in Anlehnung an Marx zu dem Schluss: „Die Struktur der Gesellschaft und das Leben der Menschen in all seinen Dimensionen und Auswirkungen hängen von der Natur der Arbeit und ihrer Teilung ab.“ Im Laufe der menschlichen Entwicklung hat sich die gesellschaftliche Bewertung der Arbeit verändert. Die Griechen verachteten körperliche Arbeit und betrachteten sie als das Schicksal der unwissenden Masse. Nach der christlichen Version war der Mensch dazu verdammt, sein Brot im Schweiße seines Angesichts zu verdienen, die Sühne für seinen Sündenfall, d. h. Arbeit ist mit Bestrafung verbunden. Die Ausnahme in diesem Sinne bilden die Protestanten, die in der Arbeit einen Segen sehen, und insbesondere die Calvinisten, die die Arbeit als eine göttliche Tat, als Beweis der Auserwähltheit betrachten. Allerdings ist die Einstellung zur Technik selbst bei Protestanten nicht so positiv. „In den letzten hundert Jahren“, schreibt Jaspers, „wurde Technologie entweder verherrlicht, verachtet oder mit Respekt betrachtet.“ Aber Technologie selbst ist neutral: Sie ist weder böse noch gut. Es hängt alles davon ab, was mit seiner Hilfe erreicht werden kann. Jaspers setzt dabei auf das menschliche Bewusstsein. So gelang es Jaspers, eine besondere philosophische Glaubensintuition zu isolieren: Eine philosophische Idee offenbart sich uns zunächst intuitiv und sucht erst dann ihren Ausdruck in Bildern und Konzepten. Die Geschichte ist nicht mehr nur die Geschichte der Kultur und Zivilisation, sondern stellt sich als eine spezifische Form der universellen Evolution dar. Das Hauptinstrument des historischen Bewusstseins und der sozialen Erkenntnis ist nicht mehr die „reine Vernunft“, sondern das individuelle Bewusstsein, das sich in das universelle Leben eingebunden fühlt. Der natürliche menschliche Sinn für Arten, gepaart mit rational-theoretischen, wissenschaftlichen Erkenntnissen, verleiht dem Menschen synthetische Intuition als grundlegenden Vorteil bei der Konfrontation mit der Spontaneität kosmischer und historischer Prozesse.

11.2. Das technophilosophische Konzept von Lewis Mumford: Die Doktrin der "Megamaschine"

US-amerikanischer Philosoph und Soziologe Lewis Muford (1895-1988), ein Anhänger von F.D. Roosevelts „New Deal“, änderte seine Ideen später deutlich in Richtung Konservatismus. Seine zahlreichen Werke widmeten sich der Technikphilosophie: „Technik und Zivilisation“ (1934), „Kunst und Technik“ (1952), „Der Mythos der Maschine“ (2 Bände, 1967-1970). Mumford gilt als Vertreter des negativen Technologiedeterminismus. Er sah die Hauptursache aller gesellschaftlichen Übel und Umwälzungen in der wachsenden Kluft zwischen dem Stand der Technik und der Moral. Er nannte den wissenschaftlichen und technologischen Fortschritt seit der Zeit von G. Galileo und F. Bacon „intellektuellen Imperialismus“, dessen „Opfer“ der Humanismus und die soziale Gerechtigkeit fielen. Die Wissenschaft ist ein Ersatz für die Religion, und Wissenschaftler sind eine Klasse neuer Priester – so beurteilte Mumford die Wissenschaft und ihre Diener.

Mumford hatte ernsthafte Meinungsverschiedenheiten mit Marx über die Rolle der Technologie in der Gesellschaft. Er glaubte, dass es unmöglich sei, die tatsächliche Rolle der Technologie zu verstehen, wenn man den Menschen als „Werkzeug herstellendes Tier“ betrachtete. Der alte Mensch hatte nur eine Waffe – seinen Körper, der vom Gehirn und dem Geist kontrolliert wurde. Seine geistige Energie überstieg seine Bedürfnisse und Waffentechnologie war Teil der Biotechnologie des Gehirns. Mumford sieht die Ursprünge dieser „zusätzlichen mentalen Energie“ nicht nur in der Arbeit, sondern auch in anderen Komponenten der kollektiven Existenz und Kommunikation, etwa den spielerischen, ästhetischen und religiösen Aspekten des menschlichen Lebens und anderen nicht arbeitsbezogenen Formen, die durch die Erfahrung bestimmt werden Lebensunterhalt zu erlangen. Er unterteilt die Geschichte der europäischen Zivilisation in drei Hauptphasen. Die erste Phase (von 1000 bis 1750) ist durch die Kultivierung der sogenannten intuitiven Technik gekennzeichnet, die mit der Nutzung der Kraft des fallenden Wassers, des Windes und der Verwendung natürlicher Materialien verbunden ist: Holz, Stein usw., was nicht der Fall war zerstörten die Natur, waren aber im Einklang mit ihr. Die zweite Stufe (1969. – 1970. Jahrhundert) basiert auf der Paläotechnik (d. h. der Fossilientechnologie); es ist die empirische Technik von Kohle und Eisen. Diese Phase war durch eine Abkehr von der Natur und den Versuch der menschlichen Herrschaft über die Natur gekennzeichnet. Mumford nennt diese Zeit die „Bergbauzivilisation“. Die dritte Phase (vom Ende des 1950. Jahrhunderts bis zur Gegenwart) ist die letzte Phase des Funktionierens und der Entwicklung der westlichen Zivilisation, in der die Wiederherstellung der in der vorherigen Phase gestörten Harmonie von Technologie und Natur strikt erfolgt wissenschaftliche Basis. Mumford widmete seine Bücher „The Myth of the Machine“ (XNUMX, XNUMX), „Man as Interpreter“ (XNUMX) und andere Werke der Analyse dieser Zeit. Er distanziert sich von populär gewordenen Definitionen wie „Homo Faber“ und verteidigt das Konzept des „Homo Sapiens“, da das Wesen des Menschen seiner Meinung nach im Denken liegt und die Grundlage der Menschheit der Geist ist – der Verstand. Der Mensch ist in erster Linie ein Dolmetscher. Diese Eigenschaft eines Menschen zeigt sich in der Selbstkreativität: Ein Mensch projiziert sich selbst und erschafft sich selbst.

Bemerkenswert ist Mumfords Herangehensweise an die Geschichte der Technologieentwicklung. Er unterscheidet zwei Haupttypen: Biotechnologie und Monotechnologie. Biotechnologie ist eine Art von Technologie, die sich auf die Befriedigung der Lebensbedürfnisse sowie der natürlichen Bedürfnisse und Wünsche eines Menschen konzentriert. Monotechnik konzentriert sich hauptsächlich auf wirtschaftliche Expansion, materielle Sättigung und militärische Produktion. Sein Ziel ist es, das System der persönlichen Macht zu stärken, und daher ist es autoritärer Natur. Es ist nicht nur feindlich gegenüber der Natur, sondern auch gegenüber dem Menschen. Sein autoritärer Status geht auf die frühe Periode der menschlichen Zivilisation zurück, als die „Megamaschine“ erstmals erfunden wurde – eine neue Art sozialer Organisationsmaschine, die in der Lage ist, das menschliche Potenzial zu steigern und Veränderungen in allen Aspekten der Existenz herbeizuführen.

Die menschliche Maschine hat von Anfang an zwei Faktoren kombiniert: 1) negativ, zwanghaft und destruktiv; 2) positiv, lebensspendend, konstruktiv. Beide Faktoren wirkten zusammen. Der von Franz Reuleaux (1829-1905) stammende Begriff einer Maschine bedeutet Kombinationen von "streng spezialisierten, widerstandsfähigen, unter menschlicher Kontrolle funktionierenden Teilen für den Einsatz von Energie und die Verrichtung von Arbeit". Dazu schreibt Mumford: „Die große Arbeitsmaschine blieb in jeder Hinsicht eine echte Maschine, zumal ihre Bestandteile, obwohl sie aus menschlichem Fleisch, Nerven und Muskeln bestanden, auf rein mechanische Elemente reduziert und für die Erfüllung begrenzter Aufgaben starr standardisiert wurden ."

Alle Arten moderner Maschinen sind arbeitssparende Geräte. Von ihnen wird erwartet, dass sie mit minimalem menschlichem Einsatz den größtmöglichen Arbeitsaufwand leisten. In der Antike gab es keine Frage der Einsparung von Arbeitskräften, und wie Mumford schreibt, konnten Maschinen in der Antike als arbeitsverbrauchende Geräte bezeichnet werden. Für das normale Funktionieren der „menschlichen Maschine“ waren zwei Mittel erforderlich: eine zuverlässige Organisation des Wissens (natürliches und übernatürliches) und ein entwickeltes System zur Erteilung, Ausführung und Überprüfung der Ausführung von Befehlen. Die erste verkörperte sich im Priestertum, ohne dessen aktive Unterstützung die Institution der Monarchie nicht existieren könnte; Der zweite liegt in der Bürokratie. Beide Organisationen waren hierarchisch aufgebaut, mit einem Hohepriester und einem König an der Spitze der Hierarchie. Ohne ihre gemeinsamen Anstrengungen könnte die Machtinstitution nicht effektiv funktionieren. (Diese Bedingung gilt übrigens auch heute noch.) Folglich musste das erste dieser beiden Mittel – Wissen, sowohl natürliches als auch übernatürliches – in den Händen der Priesterelite bleiben, d. h. ein Priestermonopol oder Priestereigentum sein. Nur unter einer solchen Voraussetzung und damit unter strikter totaler Kontrolle der Informationen und deren Bereitstellung für weite Teile der Bevölkerung konnte die Kohärenz der Megamaschine sichergestellt und vor der Zerstörung bewahrt werden. Ansonsten, d.h. Wenn die „Geheimnisse des Tempels“ gelüftet und „geheime Informationen“ entdeckt werden, wird die „Megamaschine“ mit Sicherheit verfallen und schließlich zusammenbrechen und zugrunde gehen. In diesem Zusammenhang macht Mumford darauf aufmerksam, dass die Sprache der höheren Mathematik in Form der Computerisierung heute sowohl die Geheimhaltung als auch das Monopol des Wissens wiederhergestellt hat und anschließend die totalitäre Kontrolle darüber wieder auferstanden ist. Memford weist auch auf ein weiteres Merkmal der „Megamaschine“ hin: die Verschmelzung des Machtmonopols mit dem Persönlichkeitsmonopol. Der Autor träumt von der Zerstörung einer solchen „Megamaschine“ in all ihren institutionellen Formen. Dies entscheidet seiner Meinung nach darüber, ob Technologie „im Dienste der menschlichen Entwicklung“ funktioniert und ob die Welt der Biotechnologie für den Menschen offener wird.

11.3. Die Philosophie der Technik von J. Ortega y Gasset: Technik als Produktion von Exzess

Philosophische Ansichten des spanischen Publizisten, Persönlichkeit des öffentlichen Lebens und Philosophen José Ortega und Gasset (1883-1955) entstanden unter dem Einfluss der Konzepte der Marburger Schule. Die entscheidende Rolle spielten dabei die Ideen von Hermann Cohen (1842-1918), Paul Natorp (1854-1924), Ernst Cassirer (1874-1945), Nikolai Hartmann (1882-1950). Der Zweck der Marburger Schule war es, die philosophischen Kategorien, Konzepte des ethischen Sozialismus zu analysieren. Ortega y Gasset war fasziniert von der These der Selbstsetzung des erkennenden Subjekts im Prozess der kulturellen Entwicklung. Er stand der Theorie des Erfahrens spiritueller Erfahrung als Hören auf das Leben (M. Heidegger) positiv gegenüber, war besorgt über das Problem der Uneinigkeit zwischen den Kulturschaffenden und ihren „Konsumenten“, den negativen Ergebnissen der Kultur, die sich in der Form manifestierten der sozialen Orientierungslosigkeit im System der "Massengesellschaft". Seine Feder gehört zu dem Buch „Reflections on Technology“ (1933).

Ortega y Gasset betrachtete das Leben als ein „Bedürfnis der Bedürfnisse“ und verteidigte die Autonomie des Individuums in seiner Beziehung zu seinem eigenen Schicksal als Repertoire von Lebenshandlungen. Diese einzigartige Liste enthält sowohl natürliche, organische und biologische Bedürfnisse als auch Handlungen, die diese Bedürfnisse befriedigen. Tatsächlich ist in diesem Sortiment sowohl für Tiere als auch für Menschen alles gleich. Der Unterschied besteht jedoch darin, dass der Mensch bestimmte Maßnahmen ergreift – er selbst produziert etwas, das es in der Natur nicht gibt. Das ist sein Repertoire. Dies ist jedoch nicht seine wichtigste Handlung: Nachdem sich ein Mensch vom Defizit lebenswichtiger Bedürfnisse befreit hat, hat er die Möglichkeit, das Spektrum seiner Bedürfnisse zu erweitern, d.h. Erweitern Sie Ihr Repertoire. Aus dieser Eigenschaft der menschlichen Natur schließt der Autor, dass menschliche Bedürfnisse widersprüchlich sind. Das Repertoire menschlicher Bedürfnisse deckt sich nicht mit dem Menü lebenswichtiger Bedürfnisse. Dieser gegenwärtige Wunsch, gemäß dem zweiten (erweiterten) Repertoire zu handeln, stellt die sogenannte Aktivität der Transformation der Natur dar. Um seine Bedürfnisse zu befriedigen, ihnen zu gefallen, drängt der Mensch der Natur seine Wünsche auf, wenn sie noch nicht bereit ist, ihnen zu dienen. Ortega y Gasset beobachtet in diesem Gottesdienst, wie sich die Natur selbst verändert. Es stellt Anforderungen an den Menschen in Form natürlicher Bedürfnisse. Eine Person reagiert darauf, indem sie ihr Veränderungen auferlegt und sie mithilfe von Technologie umwandelt. Durch diese Transformation unterstützt die Technologie das menschliche Verlangen. Und diese Verbindung, die die Natur mit dem Menschen verbindet und umgekehrt, ist eine Art Vermittler – eine Übernatur, die auf der „ersten“ Natur aufgebaut ist.

Ein Tier hat seine eigene Natur vorbestimmt. Es ist ein nicht-technisches Wesen – gerade weil ihm ein Wirkprinzip fehlt. Dank seiner natürlichen technischen Begabung schafft der Mensch das Fehlende, schafft neue Umstände und passt die Natur an seine Bedürfnisse an. Mensch und Technik verschmelzen. Technisches Handeln soll erstens etwas erfinden, zweitens Bedingungen schaffen und drittens neue Möglichkeiten schaffen. Die Aufgabe der Technik besteht darin, Anstrengungen zu unternehmen, um Einsparungen zu erzielen. Nach Ansicht des Autors steht der Mensch dann vor dem Problem, wie er mit der freigewordenen Zeit umgehen soll, nachdem er dieses Tierleben überwunden hat. Dank der Technologie geht das menschliche Leben über die Natur hinaus, der Mensch schwächt seine Abhängigkeit von der Natur. Doch vor ihm stellt sich ein neues Problem: Wie soll man weiterleben? Ortega y Gasset beantwortet diese Frage wie folgt. Die Realität ist, dass die Welt dem Menschen sowohl Bequemlichkeit bietet als auch ihn behindert. In einer solchen Welt lebt der Mensch; Seine Existenz ist sowohl von Annehmlichkeiten als auch von Schwierigkeiten umgeben. Dies ist es, was der menschlichen Existenz einen ontologischen Sinn verleiht. Der Mensch ist dazu bestimmt, ein „übernatürliches“ und zugleich natürliches Wesen zu sein – ein ontologischer Zentaur!

Somit ist das menschliche „Ich“ ein ständiges Streben, ein bestimmtes Projekt, ein Existenzprogramm zu verwirklichen, einschließlich dessen, was noch nicht existiert, sowie dessen, was wir für uns selbst schaffen müssen. Die Umstände sind dem Menschen als "Rohstoff" und Mechanismus gegeben. Ein Mann-Techniker versucht, ein verstecktes Gerät in der Welt zu entdecken, das für sein Leben notwendig ist. Für den Autor hat das Lebensprogramm eine nichttechnische, d.h. vortechnischer Herkunft. Seine Wurzeln reichen tief in die Ära der vortechnischen Erfindungen. Folglich ist die Wahrscheinlichkeit einer Technokratie äußerst gering: Per Definition kann ein menschlicher Techniker nicht die höchste Autorität sein, seine Rolle ist zweitrangig. Technik setzt einerseits ein Wesen voraus, das einen Wunsch hat, aber noch kein Projekt, keine Idee, kein Programm und andererseits die Existenz einer Verbindung zwischen der Entwicklung der Technik und der Seinsweise eine Person. Ortega de Gasset betrachtet in diesem Zusammenhang den indischen Bodhisattva, den spanischen Hidalgo und den englischen Gentleman der 1950er Jahre. Ein Bodhisattva reduziert seine materiellen Bedürfnisse auf ein Minimum und ist Technologie gegenüber gleichgültig. Nur der englische Gentleman ist aktiv, der danach strebt, in der realen Welt in vollen Zügen zu leben. In der Beschreibung des Autors ist der Herr selbstbewusst, ehrlich, er hat einen Sinn für Gerechtigkeit, Aufrichtigkeit, Selbstbeherrschung, ein klares Verständnis seiner Rechte und der Rechte anderer sowie seiner Pflichten gegenüber anderen. Eine solche Analyse war notwendig, um die Periodisierung der Technikgeschichte zu bestimmen, wo das Verhältnis von Mensch zu Mensch und von Mensch zu Technik wesentlich ist. Der Autor identifiziert drei wesentliche Etappen in der historischen Entwicklung der Technik:

1) Die Technik des Zufalls ist historisch gesehen die erste Existenzform der Technik, die der primitiven Gesellschaft innewohnt und für den Urmenschen charakteristisch ist. Es zeichnet sich durch Einfachheit und Knappheit der Ausführung und äußerst begrenzte technische Aktionen aus (L. Noiret und andere schrieben darüber);

2) Handwerkstechnik ist die Technik des antiken Griechenlands, des vorkaiserlichen Roms, des europäischen Mittelalters. Während dieser Zeit wird die Reihe technischer Tätigkeiten erheblich erweitert, deren Assimilation eine spezielle Ausbildung erfordert, und die Beschäftigung mit technischen Tätigkeiten wird zu einem Beruf und wird vererbt;

3) Die Mensch-Technik-Technik ist eine Maschinentechnik mit technischen Geräten, die ihren Ursprung in der zweiten Hälfte des 1743. Jahrhunderts hat, als Edmund Cartwrights mechanischer Webstuhl erfunden wurde (XNUMX).

Die Maschine verändert das Verhältnis zwischen Mensch und Werkzeug maßgeblich. Die Maschine "arbeitet", und der Mensch bedient sie. Er ist ein Anhängsel der Maschine. Ein Nebeneffekt dieses Prozesses ist die „Wunschkrise“, ein Mangel an Spiritualität. Ortega y Gasset nennt seine Doktrin Rationalismus, obwohl er dem Existentialismus nahe steht.

Thema 12. Technologischer Determinismus und Technophobie

12.1. Das Konzept des Determinismus

Determinismus (von lat. determino – ich bestimme) ist die Lehre vom Zusammenhang und der gegenseitigen Abhängigkeit der Phänomene der Wirklichkeit. Er beschäftigt sich mit Fragen zu den Naturgesetzen, zum Zusammenspiel von Natur und Gesellschaft, zu den Triebkräften der gesellschaftlichen Entwicklung, zum Einfluss der Gesellschaft und ihrer einzelnen Subsysteme auf Kunst, Wissenschaft, Moral, auf die Entstehung und Tätigkeit menschlicher Individuen. Das zentrale Problem des Determinismus ist die Frage nach der Existenz und Wirkungsweise von Gesetzen. Die Anerkennung von Gesetzen bedeutet im Wesentlichen die Möglichkeit wissenschaftlicher Erkenntnis von Natur und Gesellschaft, die Möglichkeiten der Wissenschaft, die wissenschaftlich orientierte Anpassung eines Menschen an verschiedene Prozesse. Die Leugnung von Gesetzen hingegen stimuliert die Sicht auf Natur und Gesellschaft als völlig unkontrollierbare und unvorhersehbare Prozesse. In Bezug auf die Gesellschaft entstand eine solche Sichtweise oft aus Versuchen, die Besonderheiten sozialer Prozesse im Vergleich zu natürlichen zu identifizieren, die Bedeutung der Aktivitäten der Menschen, der individuellen Kreativität für die Sozialgeschichte zu betonen. Diese Tendenz ist nicht vollständig überwunden, obwohl die Vereinfachung sozialer Gesetze nicht von der Mechanik, sondern hauptsächlich von der Biologie angeregt wird.

Eine besondere methodische Schwierigkeit ist die Interpretation der Gesetze, die sich aus der Interaktion menschlicher Beziehungen ergeben. So glaubte K. Marx, dass die Handmühle ein Spiegelbild des Gesellschaftsmodells mit dem Oberherrn an der Spitze ist, die Dampfmaschine entspricht der Gesellschaft des Industriekapitalismus (obwohl diese Analogien nicht fortgesetzt werden, was auf die Grenzen einer solchen hinweist Festlegung). Nach dem Konzept des technologischen Determinismus ergibt sich ein anderes Bild. Dieser Determinismus verleiht der Technik und der technischen Tätigkeit einen absoluten Status als Grundlage für das Funktionieren und die Entwicklung der Gesellschaft. Als philosophische Haltung erhebt er die Technik in den Rang der Hauptursache, die alle Aspekte des gesellschaftlichen und kulturellen Lebens bestimmt, von der Wirtschaft über die Politik bis hin zu Kunst und Philosophie.

In der Technikphilosophie werden zwei Hauptformen des Technikdeterminismus unterschieden: der Technik-Eudaimonismus (von griech. eudaimonia – Glückseligkeit) und der Technik-Alarmismus. Die erste Richtung eliminiert („entfernt“) alle negativen Folgen menschlichen technischen Handelns und sieht daher im technischen Fortschritt nur positive Aspekte: Sie vergöttert die Technik, verabsolutiert ihre Bedeutung als Quelle des Wohlbefindens. Die zweite Richtung zeigt eine skeptische Haltung gegenüber technischen Innovationen: Für sie sei „alles schlecht“; alles verspricht Katastrophe und Zerstörung der Spiritualität eines Menschen, Entfremdung von seinem eigenen Wesen usw. Beide Richtungen haben ihre Anhänger und Apologeten, und in jeder von ihnen steckt ein Körnchen Wahrheit.

12.2. Die Theorie der technokratischen Transformation der Gesellschaft

In Norwegen geborener amerikanischer Ökonom Thorstein Veblen (1857-1929) gilt als Begründer und Theoretiker des Institutionalismus, als Befürworter der technokratischen Transformation der Gesellschaft unter Berücksichtigung des Einflusses der kulturellen Traditionen sozialer Institutionen. Das Konzept des Institutionalismus (von lateinisch institutio – Unterricht) geht auf Institutionen zurück – Lehrbücher römischer Juristen, die einen systematischen Überblick über bestehende Rechtsnormen geben. Im XNUMX. Jahrhundert Institutionen existierten als Komplex verschiedener Bürgervereinigungen (Familie, Parteien, Gewerkschaften usw.), die für die Erhebung von Traditionen und Bräuchen in den Rang von Gesetzen kämpften und diese in Form von Institutionen festigten. Veblen analysiert die Natur dieses sozialen Phänomens und kommt zu dem Schluss, dass die Ansichten der Menschen hinter den Veränderungen in Technologie und Produktion zurückbleiben.

In seiner Leisure-Class-Theorie analysiert Veblen den Antagonismus zwischen produktiver Arbeit und auffälligem Konsum in der modernen Gesellschaft, den er als institutionalisierte „Perversion“ des dem Menschen innewohnenden Erfindungstriebs sieht. Er stellt die Geschichte als das Ergebnis des Kampfes von Unternehmern auf dem Gebiet der Behandlung mit Unternehmern auf dem Gebiet der Produktion dar, von denen erstere die reaktionärsten sind. Geschäft führt zu Privateigentum, Nationalismus, religiöser Ignoranz, deshalb fordert Veblen die Errichtung einer Diktatur in der Gesellschaft, angeführt von der technischen Intelligenz. Laut Veblen stellt der Kapitalismus Wirtschaft und Industrie scharf einander gegenüber. Er mag das Geschäftsmotiv nach dem Prinzip "Kauf und Verkauf" nicht. In The Theory of the Leisure Class (1899) schreibt er: „Die Bräuche der Geschäftswelt haben sich unter der Führung und selektiven Wirkung der Gesetze der Raubtierhaltung und des Parasitismus entwickelt.“ Die Oberschicht der kapitalistischen Gesellschaft ist im Wesentlichen eine „parasitäre“ Klasse. Der Autor wendet sich gegen den Eigentumsfaktor, der es der „parasitären“ Schicht erlaubt, in Luxus zu baden, ohne sich an der Schaffung materiellen Reichtums zu beteiligen. Veblen wirft dieser Klasse die folgenden Anschuldigungen vor: erstens Besitz der Produktionsmittel; zweitens die Nichtteilnahme am Produktionsprozess; drittens eine müßige Lebensweise; viertens Parasitismus und Geldraub; fünftens auffälliger Konsum und Verschwendung. Um einen solchen sozialen „Parasitismus“ zu überwinden, schlägt Veblen eine technokratische Revolution und die Etablierung der Macht der wissenschaftlichen und technischen Intelligenz (Technokratie) vor, lässt jedoch die Arbeiterklasse nicht an die Macht, was laut Veblen seine Kontraindikationen hat. Er bietet sein eigenes Szenario für diese technokratische Revolution an. Seiner Meinung nach würde ein mächtiger Streik der Ingenieure die alte Ordnung lahmlegen und die "Müßiggangsklasse" zwingen, freiwillig ihr Machtmonopol zugunsten der wissenschaftlich-technischen Intelligenz aufzugeben. In der „Technostruktur“, zu der Ingenieure, Wissenschaftler, Manager, Aktionäre gehören, sah der Autor die treibende Kraft einer solchen technokratischen Revolution, deren Zweck es ist, das Eigentum des Eigentümers zu beschlagnahmen und es in die Hände der Technokratie zu überführen.

Intellektuelle in europäischen Ländern mochten diese Fantasie Veblens so sehr, dass sogar ein so prominenter Ideologe der Technokratie wie J. Gilbraith, der Autor des Buches „The New Industrial Society“, sie unterstützte. Im Allgemeinen stimmen die Ideen mit der externen Kritik der politischen Ökonomie von Gabriel Tarde (1843-1904) überein. Die Anhänger von Veblens Technokratie waren J. Gilbraith, D. Bell, W. Rostow, E. Toffler und andere.

12.3. „Postindustrielle“ und „Informationsgesellschaft“.

Das Konzept einer postindustriellen Gesellschaft wurde von einem amerikanischen Soziologen und Politikwissenschaftler entwickelt Daniel Glocke (geb. 1919), Professor an den Universitäten Harvard und Columbia. In seinem Buch „The Coming Post-Industrial Society“ wurde die Größe des Bruttoinlandsprodukts (BIP) pro Kopf als Kriterium für die Einstufung des Staates als solche Gesellschaft herangezogen. Basierend auf diesem Kriterium wurde auch eine historische Periodisierung von Gesellschaften vorgeschlagen: vorindustriell, industriell und nachindustriell. Bell betrachtet den "axiologischen Determinismus" (die Theorie der Natur der Werte) als ideologische Grundlage einer solchen Klassifizierung. Eine vorindustrielle Gesellschaft ist durch einen niedrigen Entwicklungsstand der Produktion und ein geringes BIP gekennzeichnet. Diese Kategorie umfasst die meisten Länder Asiens, Afrikas und Lateinamerikas. Europäische Länder, USA, Japan, Kanada und einige andere befinden sich im Stadium der industriellen Entwicklung. Die postindustrielle Phase beginnt im XNUMX. Jahrhundert.

Laut Bell wird diese Phase hauptsächlich mit Computertechnologie und Telekommunikation in Verbindung gebracht. Es basiert auf vier innovativen technologischen Verfahren. Erstens hat der Übergang von mechanischen, elektrischen, elektromechanischen zu elektronischen Systemen zu einer unglaublichen Steigerung der Geschwindigkeit der Informationsübertragung geführt. Beispielsweise wird die Betriebsgeschwindigkeit eines modernen Computers in Nanosekunden und sogar Pikosekunden gemessen. Zweitens ist diese Stufe mit der Miniaturisierung verbunden, d.h. eine erhebliche Größenänderung, „Komprimierung“ von Strukturelementen, die elektrische Impulse leiten. Drittens ist es durch die Digitalisierung gekennzeichnet, d. h. diskrete Übertragung von Informationen durch digitale Codes. Schließlich ermöglicht Ihnen moderne Software, verschiedene Probleme schnell und gleichzeitig zu lösen, ohne eine spezielle Sprache zu beherrschen. Somit stellt die postindustrielle Gesellschaft ein neues Prinzip der soziotechnischen Organisation des Lebens dar. Bell identifiziert die wichtigsten Veränderungen, die in der amerikanischen Gesellschaft durchgeführt wurden, die in die Zeit der postindustriellen Entwicklung eingetreten war: a) neue Industrien und Spezialgebiete wurden in den Dienstleistungssektor einbezogen (Analyse, Planung, Programmierung usw.); b) die Rolle der Frau in der Gesellschaft hat sich radikal verändert – dank der Entwicklung des Dienstleistungssektors wurde die Gleichstellung der Frauen institutionalisiert; c) im Bereich des Wissens hat eine Wende stattgefunden – der Zweck des Wissens ist der Erwerb neuen Wissens, Wissen zweiter Art, geworden; d) Die Computerisierung hat den Begriff „Arbeitsplatz“ erweitert. Als Hauptproblem des Übergangs zu einer postindustriellen Gesellschaft sieht Bell die erfolgreiche Umsetzung der folgenden vier gleichberechtigten Faktoren: 1) Wirtschaftstätigkeit; 2) Gleichheit der sozialen und zivilen Gesellschaft; 3) Gewährleistung einer zuverlässigen politischen Kontrolle; 4) Gewährleistung der Verwaltungskontrolle[28].

Laut Bell zeichnet sich die postindustrielle Gesellschaft durch den Entwicklungsstand der Dienstleistungen, deren Dominanz gegenüber allen anderen Wirtschaftszweigen im Gesamtvolumen des BIP und dementsprechend durch die Zahl der in diesem Bereich beschäftigten Personen (bis zu 90 %) aus der Erwerbsbevölkerung). In einer solchen Gesellschaft kommt der Organisation und Verarbeitung von Informationen und Wissen eine besondere Bedeutung zu. Im Zentrum dieser Prozesse steht der Computer – die technische Basis der Telekommunikationsrevolution. Nach Bells Definition zeichnet sich diese Revolution durch folgende Merkmale aus:

1) das Primat des theoretischen Wissens;

2) Verfügbarkeit von intellektueller Technologie;

3) Wachstum der Zahl der Wissensträger;

4) Übergang von der Warenproduktion zur Dienstleistungsproduktion;

5) Veränderungen in der Art der Arbeit;

6) Veränderung der Rolle der Frau im Arbeitssystem.

Das Konzept einer postindustriellen Gesellschaft wurde auch in den Arbeiten von E. Toffler, J. K. Gilbraith, W. Rostow, R. Aron, Z. Brzezinski und anderen diskutiert Alvin Töffler (geb. 1928) Die postindustrielle Gesellschaft bedeutet den Eintritt von Ländern in die dritte Welle ihrer Entwicklung. Die erste Welle ist die landwirtschaftliche Phase, die etwa 10 Jahre dauerte. Die zweite Welle ist mit der industriell-fabrikmäßigen Form der sozialen Organisation verbunden, die zu einer Gesellschaft des Massenkonsums und der Massenverdichtung der Kultur führte. Die dritte Welle ist gekennzeichnet durch die Überwindung entmenschlichter Arbeitsformen, die Bildung eines neuen Arbeitstyps und damit eines neuen Arbeitertyps. Die Knechtschaft der Arbeit, ihre Monotonie und der Ausbeutungscharakter gehören der Vergangenheit an. Arbeit wird begehrenswert und schöpferisch aktiv. Der Arbeiter der Dritten Welle ist kein Objekt der Ausbeutung, kein Anhängsel von Maschinen; er ist unabhängig und einfallsreich. Der Geburtsort der Dritten Welle sind die USA, der Geburtszeitpunkt sind die 1950er Jahre.

Im Zeitalter der postindustriellen Gesellschaft hat auch der Begriff des Kapitalismus einen bedeutenden Wandel erfahren. Die Eigenschaften des Kapitals als ökonomische Kategorie, die verschiedenen Formen der gesellschaftlichen Reproduktion entspricht, werden historisch durch die Entstehung einer Industriegesellschaft bestimmt. In einer postindustriellen Gesellschaft werden die ökonomischen Formen des Kapitals als sich selbst steigernder Wert in der Informationswerttheorie auf neue Weise offenbart: Der Wert menschlichen Handelns und seiner Ergebnisse wird nicht nur und nicht so sehr durch die Arbeitskosten bestimmt , sondern durch verkörperte Informationen, die zu einer Quelle des Mehrwerts werden. Informationen und ihre Rolle als quantitatives Merkmal, das für die Analyse der sozioökonomischen Entwicklung notwendig ist, werden neu überdacht. Die Informationswerttheorie charakterisiert nicht nur die im Ergebnis von Produktionsaktivitäten verkörperte Informationsmenge, sondern auch den Entwicklungsstand der Informationsproduktion als Grundlage für die Entwicklung der Gesellschaft. Die sozioökonomischen Strukturen der Informationsgesellschaft werden auf der Grundlage der Wissenschaft als direkter Produktivkraft entwickelt. In dieser Gesellschaft wird der eigentliche Handelnde „eine Person, die weiß, versteht“ – „Homo intelligeens“. Somit sind ökonomische Formen des Kapitals sowie das damit eng verbundene politische Kapital, das in der Vergangenheit eine wichtige Rolle spielte, zunehmend auf nichtökonomische Formen angewiesen, vor allem auf intellektuelles und kulturelles Kapital.

D. Bell nennt fünf Hauptprobleme, die in einer postindustriellen Gesellschaft gelöst werden:

1) die Verschmelzung von Telefon- und Computerkommunikationssystemen;

2) Ersatz von Papier durch elektronische Kommunikationsmittel, einschließlich in Bereichen wie Bankwesen, Post, Informationsdienste und Fernkopieren von Dokumenten;

3) Erweiterung des Fernsehdienstes durch Kabelsysteme; Ersatz des Transports durch Telekommunikation mit Videofilmen und Indoor-TV-Systemen;

4) Reorganisation der Informationsspeicherung und der Systeme seiner Anfrage auf der Grundlage von Computern und interaktiven Informationsnetzen (Internet);

5) Erweiterung des Bildungssystems auf der Grundlage von Computerlernen; die Nutzung von Satellitenkommunikation für die Bildung von Landbewohnern; Verwendung von Videodiscs für den häuslichen Unterricht.

Im Prozess der Informatisierung der Gesellschaft sieht Bell auch einen politischen Aspekt, indem er Information als Mittel zur Erlangung von Macht und Freiheit betrachtet, was die Notwendigkeit einer staatlichen Regulierung des Informationsmarktes impliziert, d.h. die wachsende Rolle der Staatsmacht und die Möglichkeit nationaler Planung. In der Struktur der nationalen Planung hebt er die folgenden Optionen hervor: a) Koordinierung im Informationsbereich (Bedarf an Arbeitskräften, Investitionen, Räumlichkeiten, Computerdiensten usw.); b) Modellierung (z. B. nach dem Modell von V. Leontiev, L. Kantorovich); c) indikative Planung (stimulieren oder verlangsamen durch die Methode der Kreditpolitik) usw.

Optimistisch sieht Bell die Weltentwicklung auf dem Weg des Übergangs von einer "nationalen Gesellschaft" zur Bildung einer "internationalen Gesellschaft" in Form einer "organisierten internationalen Ordnung", "räumlich-zeitlicher Integrität", aufgrund der globalen Art der Kommunikation." Er stellt jedoch fest, dass "... die US-Hegemonie in diesem Bereich zum akutesten politischen Problem der kommenden Jahrzehnte werden kann". Als Beispiel nennt Bell die Probleme des Zugangs zu computergestützten Systemen, die in fortgeschrittenen Industriegesellschaften entwickelt wurden, mit der Aussicht, ein globales Netzwerk von Datenbanken und Diensten zu schaffen.

Daniel Bell bezeichnete sich selbst als Sozialisten in der Wirtschaft, als Liberalen in der Politik und als Konservativen in der Kultur und war einer der prominenten Vertreter des amerikanischen Neokonservatismus in Politik und Ideologie.

12.4. Technophobie als Mittel zur Dämonisierung von Technologie

Technophobie oder Angst vor Technik ist eine Haltung, die Technik als Hauptgrund für die Entfremdung des Menschen von der Natur, von sich selbst, ansieht. Diese Position drückt eine negative Einstellung gegenüber der Technologie aus: Alle Probleme und Unglücke kommen von ihr, von der Technologie. Technophobie entstand im Jahr der Geburt der Technologie und war mit der Fähigkeit verbunden, Technologie sowohl zum Guten als auch zum Schaden einzusetzen. Elemente der Dämonisierung der Technik finden sich im primitiven Mythos; in biblischen Texten wie dem Turmbau zu Babel, der verbotenen Frucht und dem Sündenfall; in der Legende von Prometheus, der den Göttern das Feuer stahl und es den Menschen gab, wofür er verflucht und bestraft wurde; in Anlehnung an den lahmen Gott Hephaistos, der mit seinem ungeschickten Gang „das unkontrollierbare Gelächter der Götter“ hervorrief. Bacons Daedalus, „ein bemerkenswert talentierter, aber niederträchtiger Mann“, vereinte in sich sowohl ein gutes als auch ein böses Genie. Ebenso weist die moderne Technologiephilosophie sowohl auf gute als auch auf böse Prinzipien hin: Technologie ist ambivalent! Einerseits fungiert die Technologie als Faktor der Befreiung des Menschen, andererseits ist sie die Ursache für seinen Tod, wenn er es wagt, in seiner Beziehung zu den „Göttern“ (Naturgewalten) eine gefährliche Grenze zu überschreiten. Wie wir sehen, ist es gleichzeitig Segen und Fluch für den Menschen.

Einen starken Aufschwung erhielt die Technikfeindlichkeit im mittelalterlichen Europa durch die eigentlich von der Kirche geförderte Vorstellung vom satanischen Ursprung technischer Innovationen. Talentierten Erfindern, Architekten, Bauherren und anderen Menschen, die echte kreative Tätigkeiten ausübten, wurde offen oder heimlich vorgeworfen, mit dem Teufel zusammenzuarbeiten, an den sie angeblich ihre Seelen verkauft hatten. Ihr verallgemeinertes Bild findet anschließend im Helden des Buches „Die Geschichte des Doktor Faustus“ einen lebendigen Ausdruck – ein deutsches Volksmärchen, das die Geschichte eines Zauberers erzählt, der ein Bündnis mit dem Teufel eingeht und schließlich mit ihm weggebracht wird. Im Zeitalter der primitiven Kapitalakkumulation in Europa nimmt Technophobie eine neue Dimension an, die als sozioökonomisch charakterisiert werden kann. Die damals übliche zünftige Form der Arbeitsorganisation konnte nur überleben, indem sie sich dem technischen Fortschritt widersetzte, da die freie Entwicklung der Technik unweigerlich zur Zerstörung und Liquidierung der traditionellen Produktion führen würde. Daher waren technische Neuerungen nur insoweit zulässig, als sie den Bestand der Werkstattorganisation nicht gefährdeten. Andernfalls wurden sie zerstört oder verboten und es kam zu Repressalien gegen ihre Schöpfer. Es ist beispielsweise bekannt, dass der Erfinder der Tonbandmaschine auf Anweisung der Stadtverwaltung der Stadt Danzig (heute Danzig) ertränkt wurde und seine Maschine für zwei Jahrhunderte verboten wurde. In den USA manifestierte sich die Technophobie in Form einer Maschinenphobie bereits während der Weltwirtschaftskrise (1920-1930er Jahre).

Französischer Enzyklopädist Jean-Jacques Rousseau (1712-1778) schrieb, dass die Technik ebenso wie die Wissenschaft jene Geheimnisse der Natur offenbart und verwirklicht, die für den Menschen von Natur aus böse sind. Er warnte: "Wisse ein für alle Mal, dass die Natur dich vor der Wissenschaft schützen wollte, so wie eine Mutter ihrem Kind eine gefährliche Waffe entreißt. Alle Geheimnisse, die sie vor dir verbirgt, sind das Böse, vor dem sie dich schützt , und die Schwierigkeit des Studiums ist eine ihrer beachtlichen guten Taten. Die Menschen sind verwöhnt, aber noch schlimmer wären sie, wenn sie das Unglück hätten, geborene Wissenschaftler zu sein“ („Emil oder Über die Erziehung“, 1762). In der modernen Philosophie wird die unkontrollierte Entwicklung der Technologie als einer der Hauptfaktoren angesehen, die die menschliche Individualität unterdrücken und ihre Existenz wirklich bedrohen. Daniel Bell prognostizierte, dass „der Zug der Geschichte in Zukunft aus den Fugen geraten muss, weil die Menschheit, nachdem alle Energieressourcen endgültig erschöpft sind, nicht mehr in der Lage sein wird, die immer größer werdenden Probleme zu lösen und auf die Herausforderungen der Zukunft zu reagieren.“ Alvin Toffler argumentierte, dass die Vereinigten Staaten die Krise der Zweiten Welle um die Wende des 29. Jahrhunderts überwunden hatten. tritt die Ära der Dritten Welle ein: "... Wir leben in einer Welt, die die Kontrolle verloren hat und zuversichtlich auf eine Katastrophe zusteuert ... nur das postindustrielle Niveau der technologischen Entwicklung kann eine Lösung für alle Probleme der Welt bieten Existenz der modernen Menschheit und die weitere normale Entwicklung der menschlichen Gesellschaft." Der Autor führt aus: „Die zerfallende Industriegesellschaft ist ganz auf schnelle, zielgerichtete und effiziente Information, auf Energieressourcen und ein verlässliches Geldsystem angewiesen, das veraltete Strukturen nicht mehr bieten können“[XNUMX] .

Die Zivilisation der Ersten Welle belohnte bestimmte Qualitäten und Fähigkeiten, insbesondere nackte Muskelkraft. Industrielle Zivilisation oder Zivilisation der zweiten Welle, bezahlt für verschiedene Berufe. Die Dritte-Welle-Zivilisation zahlt auch mehr für bestimmte Eigenschaften und Fähigkeiten als andere. Diese Übergänge von einer Welle zur anderen werden historisch von verstärktem internationalen Wettbewerb, Dumping und unerwarteten Produktionsrückgängen begleitet. Mit steigendem Technologieniveau werden weniger Arbeitskräfte benötigt, um die Industrie am Laufen zu halten, d.h. Es ist Zeit für technologische Arbeitslosigkeit. Moderne Qualifizierungsanforderungen erfordern komplexere Berufsinformationen. Da dies Zeit braucht, entsteht eine Situation der sogenannten Informationsarbeitslosigkeit. Die Umstrukturierung von Wirtschaftssektoren beim Übergang von der Zweiten Welle zur Dritten Welle erzeugt strukturelle Arbeitslosigkeit aufgrund struktureller Transformationen im technologischen Prozess.

Massive Arbeitslosigkeit, ohne jegliche Form von Subventionen oder anderen Einkommensformen, schafft gefährliche politische Instabilität. Aus dieser Situation erwächst der Wunsch, die Old Economy der vergangenen Welle zu unterstützen und zu bewahren. Alvin Toffler schreibt in seinem Buch „Flash with the Future“ in diesem Zusammenhang: „Wir können nicht zurückgehen. Wir müssen den Schwerpunkt auf die Entwicklung des Third-Wave-Sektors legen, auch wenn dies zu einem ernsthaften Kampf mit Second-Wave-Industrien und -Gewerkschaften führt ." Tofflers wissenschaftliche Empfehlungen reduzieren sich auf die folgenden Hauptpunkte. Zunächst gilt es, Begriffe wie „Arbeitsplatz“, „Beschäftigung“, „Arbeitslosigkeit“ zu überdenken. Zweitens gilt es, die Basisbranchen der Zweiten Welle (Telekommunikation, Biotechnologie, Programmierung, Informatik, Elektronik etc.) auf einen reibungslosen Übergang zu neuen Arbeitsbedingungen vorzubereiten. Drittens müssen günstige Bedingungen für die Bildung dieser Grundstoffindustrien geschaffen werden. Viertens müssen sich die Bemühungen auf die Erfindung und Verbreitung von Dienstleistungen konzentrieren, die die neue Grundlage und den Schlüssel für zukünftige Beschäftigung darstellen. Fünftens ist kontinuierliches Lernen unerlässlich. Es kann selbst ein wichtiger Arbeitgeber sein, aber auch ein riesiger Verbraucher von Videogeräten, Computern, Spielen, Filmen und anderen Produkten, die auch Arbeitsplätze schaffen. Sechstens sollte das System der Massenerziehung grundlegend geändert werden. Moderne Schulen bringen zu viele Fabrikarbeiter für Jobs hervor, die es nicht mehr geben wird. Siebtens muss darauf geachtet werden, zusätzliche Arbeitsplätze für diejenigen zu schaffen, die im System der Dritten Welle keinen Platz finden werden. Schließlich, achtens, ist es notwendig, jedem ein garantiertes Mindesteinkommen zu bieten (durch Familien, Schulen, Unternehmen und andere mögliche Kanäle). Die Wirtschaft der Dritten Welle muss den Anforderungen und Prinzipien des Humanismus und der Moral entsprechen.

Westliche Zukunftsforscher, die sich mit der Prognose der Entwicklungsperspektiven einer postindustriellen Gesellschaft befassen, glauben, dass die Krise der modernen Zivilisation nicht lokal, sondern universell ist und dass ihre Quellen außerdem eine technische Komponente haben. Ihrer Meinung nach eilt die Menschheit in Richtung einer sicheren und vielleicht totalen Katastrophe. Die Technik, die allein auf der Wissenschaft und ihren Errungenschaften beruht, hat den Charakter eines dominierenden und praktisch unabhängigen Elements angenommen, ist zu einem absolut unkontrollierbaren, anarchischen Faktor geworden, der der Existenz der Menschheit ein Ende bereiten kann. Heute steht der Mensch vor einer Alternative: Entweder er verändert sich als Individuum und als Teil der menschlichen Gemeinschaft oder er verschwindet von der Erdoberfläche. Es werden Konzepte entwickelt, um zumindest einen Teil der Menschheit zu retten, wenn es unmöglich ist, alle zu retten. Die Doktrin der globalen ökologischen Katastrophe wird von Forschern wie D. Meadows, J. Forrester, Paul Ehrlich u. T. Adorno und andere angesehene Forscher im Westen. Der Weg zur Erlösung liegt ihrer Meinung nach in einer Veränderung der autoritären gesellschaftlichen Realität, in der Zerstörung der autoritären „Monotechnik“, der Zerstörung der „Megamaschine“ (L. Mumford). Auch ein solches Rezept gibt es: die Weiterentwicklung der Technik dem Prinzip der Rationalität und Nützlichkeit, Unbedenklichkeit für Gegenwart und Zukunft unterzuordnen, ganz nach dem Motto von J. J. Rousseau „Zurück zur Natur!“

Theodor Adorno schrieb über die Kosten der Technisierung des Bewusstseins. Seiner Meinung nach ist die Arbeit der Techniker einerseits äußerst streng und rational. Andererseits leiden sie besonders unter der Einseitigkeit, Trockenheit und Unmenschlichkeit dieser Rationalität. Daher ist es für sie besonders wichtig, den „Ballast der Vernunft und Kritik“ in allen Bereichen abzuwerfen, die nicht direkt solche technische Arbeit sind. Dennoch sollten sie sich die Aufteilung der Existenz in eine „vernünftige“ Hälfte, die mit dem Beruf verbunden ist, und eine „unverantwortliche“ Hälfte, die mit der Freizeit verbunden ist, nicht gefallen lassen. I. Weizbaum dachte in seinem Buch „Über die Macht des Computers und die Machtlosigkeit des Geistes“ über die Massifizierung von Verantwortungslosigkeit, über Verantwortung aus Pflichtgefühlen und über die Notwendigkeit der Rechenschaftspflicht gegenüber moralischer und ethischer Verantwortung nach. A. Jonas schreibt in dem Buch „Das Prinzip der Verantwortung. Erfahrung der Ethik für eine technologische Zivilisation“ über die Notwendigkeit, von der vergangenheitsorientierten Verantwortung zur zukunftsorientierten Selbstverantwortung überzugehen, die durch die Fähigkeit zur Kontrolle und das Können bestimmt wird Macht ausüben. Laut Friedrich Rap erfordern technologische Fortschritte einen unvermeidlichen Preis. Diese durch die Technik verursachte Zwangsläufigkeit kann abgemildert, aber nicht grundsätzlich beseitigt werden, da sie ihre eigene Grundlage hat. Dabei ist zu bedenken, dass Bacons „natura non nisi parendo vincitur“[30] auch heute noch Gültigkeit hat. Wahrlich: Ohne Menschen, die die Technik beherrschen, ist die Technik tot...

Thema 13. Merkmale nicht-klassischer naturwissenschaftlicher und technischer Disziplinen

13.1. Natur, Besonderheit und Wesen des modernen naturwissenschaftlichen und technischen Wissens

Die Bestimmung des Wesens der Wissenschaft ist mit der Beantwortung der Frage verbunden, wo sie beginnt. Laut K. Popper „beginnt die Wissenschaft mit Problemen und entwickelt sich dann von ihnen zu konkurrierenden Theorien, die kritisch bewertet werden.“ Doch H. G. Gadamer ist mit diesem Urteil nicht einverstanden. Er glaubt, dass Probleme auf alternative Meinungen zurückzuführen sind, auf zu allgemeine Fragen. Für Gadamers Hermeneutik beginnt die Wissenschaft mit der Frage nach ihrer gesellschaftlichen Bedeutung, d.h. mit der Lösung einer bestimmten Situation, die einen Mangel an Informationen offenbart, wenn es eine Frage, aber keine Antwort gibt. Popper schlägt vor, von Problemen zur Wahrheit zu gelangen. Um diesen Weg zu meistern, ist die Kenntnis der Bewegungsregeln erforderlich: Zeichen und Begriffe. Am Beispiel der Zahnarztpraxis erklärt V.A. Kanke es so: „Wenn Zahnschmerzen sporadisch auftreten und nur beim Essen auftreten, dann deutet das auf das Vorhandensein einer kariösen Höhle im Zahn hin.“ Ein Mathematiker kann diese Situation mit einer Formel erklären. Der Humanist wird es mit logischen Argumenten erklären: akuter, dumpfer, unerträglicher, leicht störender Schmerz. Wir können daraus schließen: Alle Wissenschaften, unabhängig von ihrer Spezifität, zeichnen sich in gewissem Maße durch dasselbe Merkmal aus – die Vereinigung von Allgemeinem und Individuellem durch wissenschaftliches Denken.

Auch eine andere Argumentation ist möglich: Gestern in der Disco war es so gut wie noch nie, d.h. wir sprechen von einem Zustand, der einzigartig, unnachahmlich ist und scheinbar nichts mit dem Allgemeinen zu tun hat. Es lässt sich einwenden: Der Sprecher vergleicht tatsächlich seine zu unterschiedlichen Zeiten aufgetretenen Gefühlszustände, und hier kann er nicht darauf verzichten, das Allgemeine und seine Abstufung („wie nie zuvor“) hervorzuheben. Das Besondere kennt man vor dem Hintergrund des Allgemeinen! Eine solche Gleichung verspricht große Vorteile, da viele ähnliche, ähnliche Phänomene von einem Schema abgedeckt werden.

Nach Ansicht des Nominalisten, der die ontologische Bedeutung allgemeiner Begriffe (Universalien) leugnet, liegt die Grundlage für die Postulierung der Realität des Allgemeinen in einem Missverständnis der Funktionsweise der Abstraktion der Identifikation. Zur Verteidigung seiner Position kann er auf die Diskrepanz zwischen theoretischen Berechnungen und experimentellen Daten verweisen – das ist die Natur der mentalen Idealisierung, die die Realität verzerrt. Idealisierungen sind beispielsweise die Konzepte eines Punktes, eines absolut starren Körpers, eines idealen Gases und des Kommunismus. In Wirklichkeit gibt es keine punktförmigen Objekte, absolut starre Körper oder den idealen Kommunismus. Aber wenn wissenschaftliche Idealisierungen produktiv genutzt werden, tauchen einige verdammt schwierige Fragen auf. Es erwies sich als unlösbare Aufgabe, das Wesen einer idealisierten Reproduktion des untersuchten Phänomens zu verstehen. Bei der Idealisierung kommt es zu einer gewissen Vergröberung der Realität, obwohl die Idealisierung in der Wissenschaft zur Entwicklung genauer theoretischer Erkenntnisse beiträgt. Idealisierung ist die mentale Konstruktion von Konzepten über Objekte, die nicht existieren und in der Realität nicht verwirklicht werden können, für die es jedoch Prototypen in der realen Welt gibt. Ein Zeichen der wissenschaftlichen Idealisierung, das sie von der sterilen Fantasie unterscheidet, besteht darin, dass die darin erzeugten idealisierten Objekte unter bestimmten Bedingungen als nicht ideologisierte (reale Objekte) interpretiert werden. Das Problem der Idealisierung in der Wissenschaft besteht seit der Zeit von John Locke, der die Abstraktion liebte. V. V. Kudryavtsev erklärt: „Wenn ein abstraktes Objekt mindestens die Eigenschaften hat, die sich in seinem Konzept widerspiegeln, dann hat ein idealisiertes Objekt nur diese Eigenschaften.“ V. A. Kanke glaubt, dass „wissenschaftliche Idealisierung eine Form der Hervorhebung des Allgemeinen und, was auch wichtig ist, in einem bestimmten Bereich von Abstraktionen ist... Idealisierung vergröbert oder gar „verwaschen“ die Realität nicht, sondern ermöglicht es uns, sie hervorzuheben. ..gemeinsame Aspekte.“ [31].

Als Kriterium für den wissenschaftlichen Charakter betrachtet V. V. Ilyin die folgenden Bedingungen: In der modernen Wissenschaft gilt „das Ergebnis, das auf der Grundlage eines konstruktiven Verfahrens, eines mathematischen Experiments, eines natürlichen Experiments und der Reihenfolge wissenschaftlicher Informationen erzielt wird, als wirklich korrekt.“ und streng“[32]. Es wird darauf hingewiesen, dass die Hauptaufgabe der Wissenschaft darin besteht, objektives, gesellschaftlich nützliches Wissen zu erlangen. Die kognitive Ebene der Wissenschaft ist geistige Arbeit, die auf suchenden, experimentellen, technischen und analytischen Aktivitäten basiert. Die wissenschaftliche Tätigkeit zeichnet sich durch folgende Merkmale aus:

1) Universalität – sie vollzieht sich als allgemeine kulturelle Zusammenarbeit von Zeitgenossen und Vorgängern;

2) Einzigartigkeit – innovative Verfahren der Erweiterung der Synthese sind einzigartig, exklusiv, nicht reproduzierbar. Das Denken wird nicht aus dem Denken geboren, sondern aus der motivierten Sphäre. Kreativität, Vorstellungskraft haben keine Regeln, sie enthalten nur Andeutungen der Geschichte;

3) Nichtwertproduktivität – kreative Aktionen können nicht mit Kostenäquivalenten belegt werden;

4) Personifikation – freie spirituelle Produktion ist immer persönlich; Kreativtechniken sind individuell; die "Kollektivpersönlichkeit" in der Wissenschaft entsteht in ganz alltäglichen Kontexten der Begründung und Beglaubigung;

5) Disziplin – ziviles Ethos regelt Wissenschaft als soziale Institution, erkenntnistheoretisches Ethos regelt Wissenschaft als Forschung;

6) Demokratie – Schutz der Kritik und Gedankenfreiheit;

7) Kommunalität – Kreativität ist Co-Creation, Wissen kristallisiert sich in einer Vielzahl von Kontexten der Kommunikation, Sinnstiftung (Partnerschaft, Dialog, Diskussion), ausgerichtet auf ein würdiges, gleichberechtigtes und gleichberechtigtes Bewusstsein. Eine solche Sphäre wie die "Republik der Wissenschaftler" besteht aus allerlei "unsichtbaren" Kollegen, Salons, Logen, Vereinen, Laboratorien, Abteilungen, Redaktionen und anderen kleinen und großen Formen, die die Regelung des leichten Austausches regeln Wissen[33] .

Die Spezifität naturwissenschaftlich-technischer Disziplinen befindet sich noch im Stadium der Klärung. Sie haben eine komparative Eigenständigkeit in Bezug auf die Naturwissenschaft, obwohl sie manchmal identifiziert werden. Die technischen Wissenschaften sind keine Fortsetzung der Naturwissenschaften. Die Methoden der Naturwissenschaften und der Technikwissenschaften unterscheiden sich erheblich. Die technischen Wissenschaften vermitteln ein Bild menschlicher Handlungen, der Konstruktion technischer Artefakte und stellen die effektive Nutzung dieser Artefakte in Übereinstimmung mit menschlichen Präferenzen sicher. Die Naturwissenschaft beantwortet die Frage, was Natur ist. Die technischen Wissenschaften gehen der Frage nach, was der Mensch aus Naturmaterial machen kann, um sein Los zu lindern. In der Naturwissenschaft ist technische Rationalität Zielstrebigkeit, die sich durch pragmatische Ordnung auszeichnet.

Der deutsche Technikphilosoph Günter Ropol wandte sich auf der Suche nach einer Antwort auf die Frage, ob Technik ein philosophisches Problem sei, dem schöpferischen Erbe seines Landsmannes Immanuel Kant zu. Wie Sie wissen, argumentierte Kant in seiner Einführung in die Logik, dass das Gebiet der Philosophie aus vier Fragen besteht, auf die es eine Antwort geben muss:

1) Was kann ich wissen?

2) was soll ich tun?

3) worauf kann ich hoffen?

4) Was ist ein Mensch?

Die moderne Philosophie, schreibt Ropol'l, rechtfertige ihren Namen nur dann, wenn sie auch die Technik in den Bereich ihrer Reflexionen einbeziehe. Und die Probleme der Technik können bei der Beantwortung von Kant's Fragen sehr fruchtbar berücksichtigt werden. So...

Was weiß ich? Diese Frage richtet sich an das Problem der Wahrheit, des Wissens, das als Abbild der Welt das Ergebnis kontemplativer Wahrnehmung ist: „Verstehen heißt produzieren“ (so hieß es schon unter Descartes). Das Problem liegt offenbar im Wissen! Pragmatisches Ordnen fungiert als Schritt-für-Schritt-Design, das einen dem Ziel näher bringt, das entweder die Theorie der Herstellung eines technischen Artefakts oder die Theorie der Gewährleistung seines effektiven, optimalen Funktionierens sein kann. Die Naturwissenschaften sind nach den Gesetzen der entsprechenden Wahrheit aufgebaut, die technischen Wissenschaften nach den Gesetzen der Effizienz und Nützlichkeit. In den technischen Wissenschaften und nicht in den Naturwissenschaften dominiert die pragmatische Methode. Leider wird dieser Umstand oft missverstanden.

Was soll ich tun? Die Antwort auf diese Frage ist mit der Möglichkeit der moralischen Rechtfertigung, mit der Legitimierung verbunden. Technologie kann, wie Sie wissen, auch eine Quelle des Bösen werden, nicht nur des Guten. Es geht um Moral, um die Verantwortung des Menschen gegenüber der Menschheit. Es gibt viele Möglichkeiten in der Technologie, die in Vergessenheit geraten sollten. Das Ignorieren der Besonderheiten der technischen Wissenschaften geht nicht spurlos vorüber, aus Ingenieuren und Technikern werden Physiker, der technische Bereich verarmt. In den technischen Wissenschaften beschränken sie sich nie darauf, das eine oder andere technische Artefakt oder technologische Ketten zu beschreiben, hier dominiert stets das Interesse an der Nützlichkeit, Effizienz, Zuverlässigkeit, Sicherheit und Zweckmäßigkeit des Weiterbetriebs technischer Geräte.

Was kann ich hoffen? Es gab eine Zeit, in der sie auf Gott vertrauten. Aber in unserer Zeit ist das nicht genug. Es besteht keine Notwendigkeit, unsere Verantwortung auf die göttliche Vorsehung abzuwälzen, während die schlecht kontrollierte Entwicklung der Technologie weiterhin Erde, Luft und Wasser, unseren gesamten Planeten verschmutzt, das Ozonloch ausdehnt und eine Klimaerwärmung mit all den traurigen Folgen verursacht, die daraus resultieren. Der technologische Fortschritt ist atemberaubend! Sie bedrohen auch die menschliche Souveränität. Wie sich herausstellt, können menschliche Hoffnungen mit Hilfe von Technologie gerechtfertigt werden, aber Sie können mit Hilfe derselben Technologie auch scheitern.

Was ist ein Mensch? Die Antwort auf diese Frage hängt mit den vorherigen drei zusammen. Es zielt auf das Selbstverständnis einer Person ab, d.h. auf sein Selbstbewusstsein, in dem das Phänomen der Verantwortung implizit präsent ist. Zu diesem Selbstbewusstsein und Selbstverständnis gehört eine ganz dünne Schicht zum technischen Selbstbewusstsein. Dies gilt gleichermaßen für die Moral, das Selbstbewusstsein ganzer Kollektive, Nationen, Völker. Das Feld der moralischen Faktoren erweitert sich tendenziell. Wie man sieht, entfremdet sich die Technikphilosophie nicht von ihren anthropologischen Aspekten.

13.2. Sozialphilosophische Merkmale theoretischer Forschung in naturwissenschaftlichen und technischen Disziplinen

Das System „Wissenschaft – Technik“ umfasst die Gesamtheit der grundlegenden naturwissenschaftlichen Disziplinen, das Wissen um die unmittelbare Anwendung ihrer Ergebnisse, die Gesamtheit der technischen Wissenschaften und schließlich die Technik selbst. Technische Disziplinen sind zunächst z. B. Elektrotechnik, Mathematik, Mechanik- und Maschinentheorie etc. Der technische Aspekt wird auch in den Wissenschaften gesehen, die zuvor keine technische Anwendung hatten, insbesondere in den biologischen Wissenschaften: in Arbeiten zur Gentechnik, zur Umordnung der Zelle eines lebenden Organismus und einer Reihe anderer Studien, in der Entwicklung von Biotechnologie. Die technische Ausstattung der Geowissenschaften ist stark gewachsen. Zielten sie in der Vergangenheit hauptsächlich auf die Erforschung der Erdoberfläche ab und beschränkten sich ihre praktische Anwendung auf die Suche nach Mineralien, so ist der Komplex der Geowissenschaften heute eng mit den Problemen der Veränderung der Natur unter dem Einfluss menschlicher Aktivitäten verbunden. Solche Zweige der Geologie wie Geochemie, Geophysik usw. werden direkt bei der aktiven Umgestaltung der Natur und bei der Entwicklung von Wegen zur Überwindung der negativen Folgen des menschlichen Einflusses auf die Natur eingesetzt.

J. Ortega y Gasset hat zu Recht auf den Zusammenhang zwischen Technologie und der kreativen Transformationsnatur des Menschen hingewiesen: „Technische Handlungen implizieren keineswegs das Ziel, die Bedürfnisse, zu deren Erleben die Natur oder die Umstände einen Menschen zwingen, direkt zu befriedigen. Im Gegenteil, das Ziel.“ technischer Handlungen ist die Transformation von Umständen, die nach Möglichkeit zu einer deutlichen Reduzierung der Rolle des Zufalls, der Zerstörung von Bedürfnissen und den mit ihrer Befriedigung verbundenen Anstrengungen führt“[34]. Mit Hilfe der Technik passt der Mensch die Natur an sich an.

Wissenschaft in ihrem tiefsten Wesen ist ein Mittel zur Beherrschung der Welt. Sie strebt nach der Wahrheit. Und Wahrheit ist, wie Aristoteles schrieb, „die Übereinstimmung unseres Wissens über die Dinge mit den Dingen selbst“. Die Wahrheit zu kennen ist kein Selbstzweck! Es wird zum Sprungbrett für die Entwicklung technischer Geräte. Um Herr der Natur zu werden, muss man sie kennen. Die Natur wird erobert, indem man ihr gehorcht.

Es ist zu beachten, dass die Zeitspanne zwischen dem Moment der theoretischen Entdeckung und der darauf basierenden Entwicklung neuer technischer Geräte eine stetig abnehmende Tendenz hat. Beispielsweise glaubte der englische Physiker und Atomforscher Ernest Rutherford (1871-1937), dass seine Forschung rein kognitiver Natur sei und praktische Ergebnisse von ihnen nicht zu erwarten seien. 1933 sagte er: "Wer erwartet, Energie aus der Umwandlung von Atomen zu gewinnen, redet Unsinn." Aber zehn Jahre später wurde die Produktion von Atomenergie auf ein praktisches Flugzeug übertragen! Der Entdecker ist sich offenbar der Folgen seiner Entdeckung nicht bewusst. Die Verkürzung der Zeit von der Erfindung bis zur Umsetzung verwirklicht das Problem der gesellschaftlichen Verantwortung eines Wissenschaftlers.

In der theoretischen Forschung zur Technikphilosophie besteht ein Interesse daran, die Unterschiede zwischen Wissenschaft und Technik herauszuarbeiten. Es wurde festgestellt, dass nicht alle Technologiezweige wissenschaftsnah sind, obwohl das Bestehen einer Beziehung offensichtlich ist. Insbesondere gibt es eine Debatte über die Definition des philosophischen und wissenschaftlichen Status der Biologie als Modell der Technik.

Auch Diskussionen über die gesellschaftliche Verantwortung der Wissenschaft reißen nicht ab. In dieser Hinsicht bleibt die von Albert Einstein demonstrierte prinzipielle Herangehensweise an soziale Probleme relevant. In den 1930ern an seinen Freund, den Physiker Max von Laue, schrieb er: „Ich teile nicht Ihre Ansicht, dass ein Mann der Wissenschaft in politischen, d Wohin führt solche Selbstbeherrschung. Fehlt da nicht Verantwortungsbewusstsein? Wo stünden wir jetzt, wenn Menschen wie Giordano Bruno, Spinoza, Voltaire, Humboldt so denken und handeln würden?" Die Entwicklung der Wissenschaft hat immer wieder ethische Verantwortungsprobleme erzeugt und wird dies auch weiterhin tun. Die ins Unendliche gewachsene technologische Macht des Menschen kann zu einem solchen Risiko führen, dass neue ethische Sichtweisen auf das Problem der Wechselwirkung zwischen Mensch und Natur erforderlich werden. Beispielsweise schlägt der deutsche Technikphilosoph Hans Lenk angesichts einer solchen Situationsentwicklung vor, zum Konzept der präventiven Verantwortung überzugehen und die Eigenverantwortung als Fähigkeit zur Beherrschung der Situation in den Mittelpunkt zu rücken.

13.3. Entwicklung systemischer und kybernetischer Vorstellungen von Technik

Wie Sie wissen, ist ein System ein integrales Objekt, das aus Elementen besteht, die in gegenseitigen Beziehungen stehen (siehe Abschnitt 3.2). Englischer Philosoph und Soziologe, einer der Begründer des Positivismus Herbert Spencer (1820-1903) verwendeten funktionale Analogien zwischen den Prozessen eines Organismus und der Gesellschaft. In Anbetracht dessen, dass „die Gesellschaft ein Organismus ist“, ging er von der organischen Verbindung von Teilen und der relativen Unabhängigkeit des Ganzen und der Teile sowohl im Organismus als auch in der Gesellschaft aus. Als Ergebnis seiner konsequenten Analogie kommt er zu dem Schluss, dass der Fortschritt der strukturellen Differenzierung in beiden Fällen mit einer fortschreitenden Differenzierung der Funktionen einhergeht. Spencers Ideen wurden im Strukturalismus (A. R. Radcliffe-Brown, C. Levi-Strauss, M. Foucault, J. Lacan usw.) und im Funktionalismus (E. Durkheim, B. K. Malinovsky, R. Merton) entwickelt.

Analysiert der Strukturalismus die Struktur als invariantes Merkmal der Beziehungen zum System (die Funktionalität der Elemente fungiert nur als Ausgangsvoraussetzung), dann basiert die Funktionalität auf der Betrachtung eines Teils der Struktur anhand seiner funktionalen Bedeutung. Die Entstehung der Allgemeinen Systemtheorie (der Begriff wurde 1933 von L. von Bertalanffy eingeführt) führt zur Schaffung methodischer Voraussetzungen für die Bildung eines neuen Begriffssystems („System“, „Ganzes“, „Integrität“, „Element“) „, „Struktur“, „Funktion“, „Funktionieren“, „zielgerichtetes Verhalten“, „Systemziel“, „Feedback“, „Integraleffekt“, „Gleichgewicht“, „Anpassungsfähigkeit“), für die die Hauptunterscheidung Nein ist länger „Teil – Ganzes“, sondern „System – die umgebende Welt“. Die Einführung einer neuen Unterscheidung in der Systemtheorie führt dazu, dass die Hauptprobleme zu den Problemen offener Systeme werden, insbesondere zu deren äußerer Differenzierung und Wahrung von Grenzen. Im Rahmen der allgemeinen Systemtheorie entsteht ein neues Wissenschaftsgebiet – die Kybernetik, die darauf abzielt, das Verhalten offener Systeme mit Rückkopplung zu untersuchen. Die Grundprinzipien der allgemeinen Systemtheorie und der kybernetischen Ideen fanden ihren größten Ausdruck in der Struktur des Funktionalismus des amerikanischen Soziologen Talcott Parsons (1902-1979).

Nach Parsons ist ein System eine universelle Art und Weise, das soziale Leben zu organisieren. Jedes soziale System hat eine physische Basis, in deren Rolle Individuen agieren. Sie erfüllen bestimmte Funktionen, organisieren und verbinden sich im Prozess der Interaktion zu Kollektiven, die ihrerseits von immer höheren Ordnungen verallgemeinerter und institutionalisierter Normen regiert werden. An der Spitze des Systems steht die Gesellschaft als einheitliches System, organisiert als integrales politisches Kollektiv und institutionalisiert auf der Grundlage eines einzigen oder mehr oder weniger integrierten Wertesystems. Durch die Aufnahme standardisierter Normen und Werte sowie der Aktivitäten von Individuen in Form von vorgeschriebenen Rollen in das System ist der Forscher in der Lage, individuelle Aktivitäten als durch die Eigenschaften des Systems bestimmt zu betrachten. Strukturen erscheinen als Produkt sozialer Interaktionen und werden in den Aktivitäten von Individuen als Rollendarsteller realisiert.

Der Strukturfunktionalismus betont die Integration von Individuen in das soziale System und die Unterordnung ihrer funktionalen Integrität, um dessen ausgewogene und nachhaltige Selbsterhaltung aufrechtzuerhalten. Die Analyse eines sozialen Systems ist daher in erster Linie mit der Identifizierung grundlegender funktionaler Anforderungen verbunden, die der Gesamtheit der Elemente die Eigenschaft der Integrität verleihen. Parsons ging von vier Funktionszuständen aus: Adaption, Zielorientierung, Integration, Mustererhaltung. Die Einhaltung dieser Bedingungen ist eine Garantie für die Systemstabilität.

Mit der Entwicklung der Kybernetik zweiter Ordnung wurde Autopoiesis als grundlegendes Merkmal des Systems vorgeschlagen, d.h. die Fähigkeit eines Systems, sich selbst zu reproduzieren. Autopoiesis betont die Autonomie lebender Systeme in ihrer Beziehung zur Umwelt. Solche Systeme zeichnen sich durch die Fähigkeit zur ständigen Selbsterneuerung aus. Da sie nur die Funktionen erfüllen, die die Struktur des Systems selbst erfordert, werden sie üblicherweise als selbstreferenziell bezeichnet. Der Hauptunterschied für autopoietische selbstreferenzielle Systeme ist der Identitätsunterschied. Insbesondere der deutsche Soziologe und Philosoph Niklas Luhmann (1927-1998), basierend auf der biologischen Theorie der Selbstreferenz von U. Maturan und F. Varela und der mathematischen Theorie der Information, entwickelte die Theorie der selbstreferenziellen Systeme. Laut Luhmann sind soziale Systeme im Gegensatz zu physikalisch-chemischen und biologischen Systemen auf der Grundlage von Bedeutung konstruiert. Und letzteres wird als Verarbeitung von Unterschieden verstanden. Soziale Systeme bestehen aus Kommunikation und werden durch ihre Bedeutung konstituiert, daher muss der Kommunikationsbegriff der Produktion und Selbstreproduktion der Gesellschaft zugrunde gelegt werden. Gesellschaft, betrachtet als soziale Kommunikation, als ein Strom sich selbst reproduzierender Botschaften, spiegelt die Besonderheiten des sozialen Systems wider, das sich selbst zu reproduzieren und zu beobachten scheint. Irreversible Prozesse sind die Quelle der Ordnung. Unter stark ungleichgewichtigen Bedingungen kann ein Übergang von Unordnung, Chaos, zu Ordnung stattfinden. Es können neue dynamische Materiezustände entstehen, die die Wechselwirkung eines gegebenen Systems mit der Umwelt widerspiegeln. Ilya Prigogine nannte diese neuen Strukturen dissipativ, da ihre Stabilität auf der Dissipation von Energie und Materie beruht.

Theorien der Nichtgleichgewichtsdynamik und Synergetik setzen ein neues Paradigma für die Evolution eines Systems und überwinden das thermodynamische Prinzip des fortschreitenden Gleitens in Richtung Entropie. Aus Sicht dieses neuen Paradigmas wird die Ordnung, das Gleichgewicht und die Stabilität des Systems durch ständige dynamische Nichtgleichgewichtsprozesse erreicht. Kybernetischer Optimismus basiert auf einer Reihe von Annahmen:

a) ontologisches - vernünftiges Verhalten kann in Form einer Menge wohldefinierter unabhängiger Elemente dargestellt werden;

b) erkenntnistheoretisch – Menschen handeln nach heuristischen Regeln und führen unbewusst eine bestimmte Abfolge von Operationen aus, die formalisiert und auf einem Computer reproduziert werden können;

c) psychotechnisch - Manifestationen des Geistes und der Seele sind Epiphänomene des Erlebens semantischer Informationsprozesse, die vollständig verschlüsselt und reproduzierbar sind;

d) biologisch-evolutionär - das menschliche Gehirn ist ein Steuergerät, ein großer Computer zur Verarbeitung von Informationen. Dank einer langen Evolution hat das Gehirn eine Reihe von Vorteilen erhalten, wie Kontinuität, Assoziativität, systemisches Denken, die aber auch technisch umsetzbar sind.

Philosophische und innerwissenschaftliche kritische Analyse der oben diskutierten Einstellungen in den 1980er-1990er Jahren. zu einem deutlichen Rückgang der optimistischen Erwartungen geführt. So heißt es in einem der Theoreme von J. von Neumann (1903-1957), dass es eine Komplexitätsschwelle gibt, oberhalb derer jedes Modell eines Steuerungssystems offensichtlich komplizierter ist als das modellierte System. Daher wird die Konstruktion eines solchen Modells bedeutungslos. Es gibt auch wissenschaftsexterne Argumente, die darauf abzielen, die oben genannten Annahmen des kybernetischen Optimismus über das menschliche Denken und Handeln zu kritisieren (psychologische, ethische, ideologische und politikwissenschaftliche Aspekte). In der Mitte des zwanzigsten Jahrhunderts. Die Begründer der Kybernetik stellten die Frage nach der Autonomie der kybernetischen Technologie, der Möglichkeit, die Autonomie des menschlichen Willens, den Determinismus des menschlichen Lebens durch künstliche Intelligenz zu verletzen. Gleichzeitig hat der amerikanische Soziologe, Nobelpreisträger, Herbert Simon (geb. 1916) zeigte in seinem Werk „Sciences of the Artificial“ (1969) die Grenzen der kybernetischen Rationalität auf. Er bewies, dass die philosophischen Fragen der Kybernetik nur ein Sonderfall der Technikphilosophie sind.

Aus der Entwicklungsgeschichte der Technik wissen wir, dass sie drei Stufen durchlaufen hat – von der Nachahmung natürlicher Formen, über die Gestaltung der Organe des menschlichen Körpers, bis hin zur Beherrschung von Informationsprozessen und der kybernetischen Konstruktion von Modellen Denken und Psyche. In Zukunft könnte die Kybernetik, wie F. Dessauer schreibt, grundlegendere Probleme lösen, die die Welt in Richtung einer Informationsgesellschaft bewegen.

Thema 14. Gesellschaftliche Technikbewertung als angewandte Technikphilosophie

14.1. Wissenschafts- und Technologiepolitik und das Problem der Verwaltung des wissenschaftlichen und technologischen Fortschritts

Wissenschaftliches Potenzial und seine Struktur. Die realen Möglichkeiten der Gesellschaft, wissenschaftliche Forschung zu betreiben und ihre Ergebnisse in der Sozialpolitik zu nutzen, machen ihr wissenschaftliches Potenzial aus. Die Weltgemeinschaft versucht regelmäßig, das Niveau des wissenschaftlichen Potenzials in der Welt als Ganzes und in einzelnen Staaten zu ermitteln. So zum Beispiel in den 1960er Jahren. In den Dokumenten der Organisation für Europäische wirtschaftliche Zusammenarbeit und Entwicklung (OECD) und in den Materialien der UNESCO wurden ähnliche Versuche unternommen, die wissenschaftlichen Ressourcen der Länder zu berücksichtigen. Außerdem wurde eine Berechnungsmethode entwickelt. Danach umfasst das wissenschaftliche Potenzial die Gesamtheit der Ressourcen, die einem Land für wissenschaftliche Entdeckungen sowie für die Lösung nationaler und internationaler Probleme der Wissenschaft souverän zur Verfügung stehen. Kriterien zur Beurteilung des wissenschaftlichen Potenzials sind quantitative und qualitative Indikatoren und Leistungen. Die Untersuchung des wissenschaftlichen Potenzials der Gesellschaft aus philosophischer Perspektive ist ein Schritt zur Vertiefung der sozialphilosophischen Reflexion der Wissenschaft. Die Philosophie braucht dies für ein umfassenderes Wissen über die Wissenschaft und die Entwicklung fortschrittlicherer Formen der Steuerung des wissenschaftlichen und technischen Fortschritts. Wissenschaft ist eine der wichtigen sozialen Ressourcen der Gesellschaft, wissenschaftliches Wissen ist ihre Informationsressource. Aber Wissen neigt dazu, zu altern. Das Vorhandensein von aktuellem Wissen (Hintergrundwissen) wirkt sich direkt auf den Zustand seines Potenzials aus, daher neigt die Wissenschaft dazu, eine Art „Vorrat“ zu haben – Geheimnisse (für einen regnerischen Tag!). Dies gilt vor allem für die Grundlagenforschung.

Träger des wissenschaftlichen Potenzials sind Menschen, wissenschaftliches Personal und das System ihrer Ausbildung. Die zweite Komponente des wissenschaftlichen Potenzials sind die materiellen und materiellen Elemente der Wissenschaft, die ihre materielle Grundlage bilden: Gebäude, Geräte, Hilfsdienste, Instrumente, Computer und Computertechnologie, ohne die moderne Wissenschaft nicht denkbar ist. Das dritte Element des wissenschaftlichen Potenzials ist das Geld, also die Höhe der Förderung. Der vierte Faktor „Arbeiten“ zum Erhalt des Potenzials der Wissenschaft ist eine klare Planung, Bestimmung der aktuellen Richtung in der Entwicklung der Wissenschaft, organisatorische Faktoren usw. Eine besondere Rolle in der Wissenschaft spielt die informationelle Unterstützung wissenschaftlicher Tätigkeit, ihrer Organisation und ihres Managements.

Die Bedeutung des wissenschaftlichen Potenzials für die Entwicklung der Gesellschaft. Manchmal gibt es vorübergehende Schwierigkeiten in der Gesellschaft, einen Produktionsrückgang und so weiter. Um diese negativen Phänomene in verschiedenen Ländern zu überwinden, gibt es meine eigenen empirisch erprobten Rezepte. Zum Beispiel 1965-1968. In Japan wurde die Aufgabe gestellt, kreative Menschen auszubilden. Regierungsexperten argumentierten in jenen Jahren, damit Japan hohe Wachstumsraten aufrechterhalten könne, sollte ein technisches Bildungssystem geschaffen werden, das die Kultivierung kreativer Fähigkeiten vorsieht, anstatt die Kultivierung der Fähigkeit, die technischen Errungenschaften anderer Länder wahrzunehmen oder zu kopieren. Es wurde angenommen, dass die Hochschulbildung in dieser Hinsicht ihre eigenen Besonderheiten hat, die im pädagogischen und pädagogischen Prozess nicht ignoriert werden können. Ein bedeutender Teil des Faches Hochschulbildung hat einen abstrakten Inhalt auf hohem und höchstem spirituellen, intellektuellen und kulturellen Niveau. Von einem solchen "Subjekt" ist es schwierig (und manchmal unmöglich), eine unmittelbare praktische Wirkung und materielle Renditen zu erwarten. Materielles Interesse kann nur dann durch geistig-emotionales Interesse ersetzt werden, wenn neben einem ausreichend hohen Maß an Allgemein- und Fachkultur auch ein entsprechendes Maß an Achtung vor der Kultur des Menschen selbst vorhanden ist. Und dies wiederum ist unmöglich ohne die richtige Entwicklung ("Fülle die Lampe") und das Verständnis ("Zünde die Lampe") des Phänomens der Kultur als eines superkomplexen systemischen nichtlinearen Phänomens. Der Erreichung genau dieses Ziels dient die moderne Technikphilosophie als akademische Disziplin, zu der unter anderem das im Universitätssystem der westlichen Länder aktiv weiterentwickelte Konzept der synergetischen Kulturologie gehört.

Englischer Ökonom Friedrich von Hayek (1898-1993) schrieb: „Die meisten Schritte in der Evolution der Kultur wurden von Individuen gemacht, die mit traditionellen Regeln brachen und neue Verhaltensweisen einführten. Sie taten dies nicht, weil sie den Vorteil des Neuen verstanden. neue Formen wurden nur dann festgelegt, wenn die Gruppen, die sie annahmen, erfolgreich waren und anderen voraus waren“[35] . Hayek glaubte, dass der Zivilisationsprozess nur durch die Unterordnung angeborener tierischer Instinkte unter irrationale Bräuche, unbewusste, spontan entstandene Meme möglich ist, wodurch sich geordnete Menschengruppen immer größerer Größe bilden.

Zu den vielversprechenden Zielen des Staates gehören die Verbesserung der Lebensqualität der Bevölkerung, die Gewährleistung der Rechte und Freiheiten des Einzelnen, soziale Gerechtigkeit, sozialer und kultureller Fortschritt in der Gesellschaft als Ganzes. Es sei darauf hingewiesen, dass der Staat bei der Lösung dieser Probleme ständig die Formen der öffentlichen Verwaltung verbessert, dh die günstigsten Bedingungen für die Verwirklichung der Menschen- und Bürgerrechte schafft. Diese Probleme werden gelöst, indem die Macht durch den Einsatz moderner Kommunikationsmittel so nahe wie möglich an eine Person gebracht wird. Die Kehrseite dieser Sozialpolitik ist die „Verfügbarkeit“ einer Person für die Macht auch in den territorial entlegensten Regionen von Machtstrukturen.

Die Praxis des Managements im System des wissenschaftlichen und technischen Prozesses macht Bogdanovs Konzept des System Engineering relevant. Inländischer Philosoph und Politiker A. A. Bogdanov (Malinowski) (1873-1928) erlangte Berühmtheit durch die Kritik, der W. I. Lenin ihn in dem Buch „Materialismus und Empiriokritizismus“ (ein Lehrbuch während der Jahre der Sowjetmacht) aussetzte. Damals, zu Beginn des XNUMX. Jahrhunderts. Bogdanov prognostizierte die Entwicklung der Technologie in Richtung Kybernetik und Systemtechnik (nach Bogdanov „Tektologie“), die die Übertragung der Regeln des Technologiemanagements auf das Management der Gesellschaft vorsah. Dieser Trend, so glaubte man, würde letztlich zur Abschaffung von Staat und Politik führen, wodurch die Technokratie siegen würde, ohne bürokratische Willkür, ohne Bürokratie und Abenteurertum. Es gibt einen gewissen Unterschied zwischen Kybernetik und Technokratie. Es liegt darin, dass in der Technokratie die öffentliche Verwaltung mit der Bedienung einer Maschine gleichgesetzt wird, mit der anschließenden Aufhebung rechtlicher und moralischer Normen. Obwohl einige Elemente des technokratischen Managements nicht dem Prinzip der Effizienz widersprechen, besteht der Nachteil dieser Art des Managements in der Abschaffung der Selbstverwaltung, der Löschung der Ebenen der Verwaltung, der Selbstverwaltung, der Wahl und der öffentlichen Meinung, die sich auf die Institution beziehen der Demokratie. Diese Probleme sind gesamteuropäischer, um nicht zu sagen universeller Natur. Sie sind gleichermaßen auch die Probleme des modernen Russlands.

14.2. Ingenieurethik und die Verantwortung eines Wissenschaftlers

Ethik ist ein Konzept der allgemeinen Kultur; einer der ältesten Zweige der Philosophie. Es regelt die gegenseitige Verantwortung der Menschen untereinander. Aus der Ethik erhält der Einzelne moralische Anweisungen darüber, wie er leben soll, woran er sich orientieren und was er anstreben soll (siehe auch Abschnitt 7.5). Die professionelle und angewandte Definition von Ethik in Bezug auf den Ingenieurberuf bedeutet, dass einem Ingenieur nichts Menschliches fremd ist. Der Begriff „Ethik“ wurde von Aristoteles in seinem ausführlichen Buch „Nikomachische Ethik“ eingeführt, was bedeutet, dass das griechische Wort ethika Gesinnung, Charakter, menschliche Tugenden bedeutet und sich auf den Charakter einer Person und ihre spirituellen Qualitäten bezieht. Bei der Klassifizierung der Wissenschaften stellte Aristoteles die Ethik zwischen Politik und Psychologie. Seine Ethik enthielt moralische Anweisungen und Lehren für verschiedene Anlässe im Leben. Das Ziel der Ethik ist also nicht nur Wissen, sondern auch Handeln: Sie wird nicht nur auf Wissen, sondern auch auf Tugend untersucht.

Als Philosophie der Moral hat die Ethik einen langen Entwicklungsweg hinter sich. Denker aller Zeiten haben versucht, seinen Inhalt zu erweitern. Zum Beispiel betonte Immanuel Kant die Begriffe Pflicht, Verpflichtung und Verantwortung. Während der Mensch in die Geheimnisse der Natur eindringt, wächst seine Verantwortung für den Besitz dieser Geheimnisse. Beim synergetischen Zusammenwirken vieler Menschen ist es schwierig, Verantwortung zu personifizieren, wenn die Entwicklung der Technologie die Schwelle der Verantwortung überschreitet. Wer ist zum Beispiel für sauren Regen verantwortlich? Für die Klimaerwärmung? Abschmelzende Polkappen, steigender Meeresspiegel und damit verbundene Überschwemmungen? Wenn jeder für alles verantwortlich ist, wenn jeder Einzelne für die ganze Welt verantwortlich ist, dann ist niemand für irgendetwas verantwortlich.

Was bedeutet „verantwortlich sein“? Das bedeutet - bereit oder verpflichtet zu sein, jemandem und für etwas eine Antwort zu geben. Die rechtsphilosophische Forschung vermerkt die kausale Verantwortlichkeit für pflichtmäßiges Handeln, wonach jemand für einen unerwünschten oder nachteiligen Sachverhalt verantwortlich ist. Es gibt Verantwortung für die Fähigkeit, eine Aufgabe oder Rolle zu erfüllen, die Fähigkeit, ein Problem zu lösen, Ereignisse zu verstehen, zu planen, umzusetzen und zu bewerten, über angemessene kognitive und Managementqualitäten, Qualifikationen und schließlich die Rechenschaftspflicht gegenüber den zuständigen Behörden zu verfügen. Moralische Verantwortung ist immer individuell, sie ist nicht in einen strengen Rahmen gesetzt, sie wird nicht durch äußere Normen kontrolliert. Der Träger der moralischen Verantwortung kann ein Individuum sein, sie kann Verbänden und formellen Organisationen nicht sinnvoll zugeordnet werden, obwohl sie nicht vom Kollektiv isoliert ist. Ethik weist normalerweise auf das Gewissen hin, vor dem eine Person eine Antwort hält – der letzte Ausweg für Verantwortung. Aber ihr privater Charakter erschwert den intersubjektiven Umgang damit.

Verantwortung hat ethische Dimensionen. Dies ist mehr als die Stimme des Gewissens als „Tatsache der moralischen Vernunft“ (I. Kant). Beispielsweise bekräftigt die Ethik eines Mitarbeiters des Ministeriums für Notsituationen (MES) die Ideen von Relativismus, Pluralismus und Toleranz im System „Individuum – Gesellschaft“, „Gut – Böse“. Die Zielsetzung eines paramilitärischen Kollektivs setzt die gegenseitige Anpassung allgemeiner zivilisatorischer und berufsspezifischer Kulturen voraus, die in einer sich verändernden Welt relevant bleiben. In Bezug auf die Berufskultur eines Mitarbeiters des Ministeriums für Notsituationen sind charakteristische Eigenschaften wie Gerechtigkeit, Patriotismus, die Fähigkeit, den Vorrang des Allgemeinen vor dem Persönlichen zu erkennen und die daraus resultierende Vorstellung von Dienst, Barmherzigkeit und Fähigkeit Einfühlungsvermögen, Toleranz gegenüber anderen Menschen, Völkern, Kulturen, der Vorrang des spirituellen und moralischen Prinzips gegenüber dem Materiell-Pragmatischen. Diese Werte können mit den etablierten Werten der Weltzivilisation verglichen werden, zu denen Humanismus und Anthropozentrismus, Gewissensfreiheit, individuelle Freiheit, Menschenrechte, Achtung des Eigentums, materielles Wohlergehen usw. gehören. Der Punkt ist, dass im globalen Aspekt nicht nur die Werte der westlichen Zivilisation, sondern auch die Werte der russischen Kultur und der Kulturen anderer Völker Russlands gefragt sein können und sollten. Im neuen Wertesystem sollten die Prioritäten nachhaltige Entwicklung, gesunder Lebensstil, Intelligenz, natürliches Talent, Professionalität, Kompromissbereitschaft und Sozialpartnerschaft, Ehrlichkeit und Engagement, gegenseitiges Vertrauen, Toleranz und Pluralismus, Gesetzestreue usw. sein.

Im Kontext der Realitäten der modernen Welt können solche Urteile natürlich als utopisch empfunden werden, aber es gibt keine vernünftige Alternative zu diesem Ansatz. Und wenn wir die Möglichkeit eines mentalen Einflusses auf den Evolutionsprozess erkennen, können wir nicht umhin, die enorme Rolle zu erkennen, die die besondere Hochschulbildung bei der Bildung eines neuen Wertesystems spielen soll. In seiner Entwicklung ist es mit einem exorbitanten Wachstum und einer exorbitanten Komplexität des Technologie- und Informationsumfelds konfrontiert. Das rasante Wachstum des Bildungssystems, seine Umwandlung in einen der größten Bereiche menschlichen Handelns, die Trennung der Bildung von ihren historischen Wurzeln, die Unreife der soziokulturellen Politik im Bildungsbereich – all das ist eine Krankheit der Zeit.

Die Probleme der Ingenieurethik gehen auf die Widersprüche der Hochschulbildung zurück. Ihre Bildung ist direkt mit der Bildung der sowjetischen wissenschaftlichen Intelligenz verbunden. Alles, was der wissenschaftlichen Intelligenz in Russland in der Sowjetzeit passiert ist, passt in das Konzept der Formation, nicht Formation (in diesem Fall bedeutet es "noch nicht vorhanden", nicht geformt). In den Jahren der Sowjetmacht befand sich die wissenschaftliche Intelligenz, die die Auswirkungen der Modernisierung erlebte, bekanntlich mehr als einmal am Rande des Verlustes ihrer Selbstidentität und Identität. Wissenschaftler galten als Schöpfer der vorherrschenden Ideologie der Arbeiterklasse, aber gleichzeitig wurden sie von der Arbeiterklasse geführt, ohne ihre eigene Stimme zu haben, und verbüßten oft ihre Strafe, bevor sie ein Verbrechen begingen. Sie waren gleichzeitig Spezialist und Pest, Kommunist und Volksfeind, sowjetischer Wissenschaftler und wurzelloser Kosmopolit, Michurinist und Darwinist. Die Anforderungen der Modernisierung erkannten nur die Abhängigkeit vom Institut für Wissenschaft, aber die Ingenieurethik wurde durch die Ignoranz des "Hegemons" unterdrückt. Konflikte traten häufiger auf individueller Ebene auf, waren aber auch auf kollektiver Ebene nicht ungewöhnlich: Erinnern wir uns an das Schicksal russischer Genetiker in den 1930er-1940er Jahren, Philosophen (1950er-1970er), Soziologen (1920er-1930er; 1960er). ). All dies geschah mit der sowjetischen Intelligenz, und das war erst vor kurzem. Und eine Rückkehr scheint es nicht zu geben.

Es gibt keine unüberwindbare Grenze zwischen Zivilethik und Ingenieurethik, da Ingenieure aus der Mitte der Bürger rekrutiert werden. Es gibt noch keine schriftlichen Regeln der Ingenieurethik (vielleicht weil man noch keine Zeit hatte, sie zu verfassen). Das Programm des Studiengangs Technikphilosophie setzt jedoch die Existenz ethischer Standards ingenieurwissenschaftlicher Tätigkeit voraus. Und es existiert wirklich. Wie Sie wissen, ist das Buch der Natur in einer präzisen, ökonomischen Sprache geschrieben – der Sprache der Mathematik. Somit offenbart die Mechanik das Prinzip der geringsten Wirkung oder des kürzesten Weges. Das Prinzip von „Occams Rasiermesser“ [36] wird bestätigt, wobei die Anzahl der Elemente bei der Konstruktion einer Theorie minimal sein sollte. Das Lehrbuch von G. G. Skvornyakov-Pisarev „Statistische Wissenschaft oder Mechanik“ (1722) definiert den Inhalt der in den täglichen Gebrauch eingeführten Konzepte: Erfindung, Körper, Kern, Nuss usw. und die Einheit der verbalen und modalen Aspekte des Denkens und Aktion offenbart wesentliche Zusammenhänge Objekt.

Wir können auch von einem komplexeren Prozess der Bildung eines besonderen Typs eines modernen Menschen mit wissenschaftlicher und technischer Ausrichtung sprechen. Hier stellt sich die Frage nach der Theorie zweier Kulturen – der technischen und der humanitären. Derzeit sind die Auswirkungen der technologischen Entwicklung auf den Menschen und seine Lebensweise weniger spürbar als die Auswirkungen auf die Natur. Dennoch ist es bedeutsam. Unkontrollierte Veränderungen in der Natur wurden zu einem der am intensivsten untersuchten Themen, als klar wurde, dass Mensch und Natur keine Zeit haben, sich an die rasante Entwicklung der technischen Zivilisation anzupassen. Für viele unerwartet stellte sich heraus, dass Ingenieurtätigkeit, naturwissenschaftliches Wissen und Technik die Natur und den Menschen maßgeblich beeinflussen und verändern. In diesem Zusammenhang schreibt D. I. Kuznetsov: „Das moderne menschliche Denken hat begonnen, die Natur anders wahrzunehmen als beispielsweise vor zweihundert Jahren. Der moderne Mensch betrachtet die Natur bereits als Technologie. Daher ist es sehr wichtig, das traditionelle wissenschaftliche und technische Bild zu ändern.“ der Welt und ersetzt sie durch neue Vorstellungen über Natur, Technologie, Methoden zur Problemlösung und eine würdige menschliche Existenz. Um zu verhindern, dass Technologie die Menschheit zerstört und verkrüppelt, müssen die Menschen sowohl die Natur der Technologie als auch die Folgen der technischen Entwicklung verstehen. Ohne eine umfassende humanitäre und juristische Ausbildung ist es unmöglich, dieses Problem zu lösen“[37] .

Technologie offenbart das humanitäre Erscheinungsbild eines Ingenieurs, enthüllt die verborgene Existenz eines Menschen in der Welt der Bilder, Muster, Rhythmen und Bedeutungen, weshalb es so wichtig ist, sich nicht nur auf kognitive Verfahren, sondern auch auf den axiologischen Aspekt von zu konzentrieren Beurteilung von Technologie, bei der die höchsten menschlichen Fähigkeiten und Verhaltensmuster ein Beispiel für die Hingabe an die Wahrheit sind. Die Anreicherung technischen Wissens mit Inhalten aus Philosophie, Psychologie, Ökonomie, technischer Ästhetik und Ergonomie erweitert den Einfluss technischer Tätigkeit auf das soziale und spirituelle Leben. Gleichzeitig entstehen durch den technischen Fortschritt viele Probleme, die eine neue Anwendung der Ethik zur Vermeidung von Risikosituationen erfordern. Hans Lenk, Vizepräsident der Europäischen Akademie der Wissenschaften, fasst diese Trends in der folgenden Reihenfolge zusammen.

1. Die Zahl der Menschen, die Nebenwirkungen durch technische Eingriffe erlitten haben, nimmt zu.

2. Das Ausmaß der Zerstörung des natürlichen Systems unter dem Einfluss menschlicher Aktivitäten nimmt weiter zu und nimmt eine globale Tragweite an.

3. Die Verschlechterung der medizinischen, biologischen und ökologischen Situation aktualisiert das Problem der Verantwortung für die ungeborenen Generationen.

4. Eine Person erfährt zunehmend Manipulationen sozialer und medizinisch-pharmakologischer Art. Als Folge dieser Art von Experimenten am Menschen werden die ethischen Probleme solcher Studien verschärft.

5. Durch Eingriffe in den genetischen Code droht dem Menschen die Verwandlung in ein „Objekt der Technik“.

14.3. Soziale Bewertung von Technik und Sozial- und Umweltexpertise

Die gesellschaftliche Bewertung von Technik ist die Feststellung qualitativer Veränderungen in ihrer Entwicklung, die die gesamte Technosphäre erfasst. Diese Art der Bewertung ähnelt dem Konzept der Neubewertung, dessen Folge ein Entwicklungssprung in seinen materiellen Elementen ist. Technologie, Energie und Informationssysteme verändern sich. Die Geschichte der Technik kennt mehrere Phasen einer solchen Aufwertung. Am bedeutsamsten in materialtechnischer Bedeutung waren die Übergänge von der Werkzeugtechnik zur Maschinentechnik und von dieser zur Automatisierungstechnik. Der Ausgangspunkt für solche Veränderungen, die revolutionärer Natur sind, ist die Energie: die Beherrschung der Kraft von Dampf, Elektrizität und Atomenergie. Alle diese Veränderungen stellen periodische Veränderungen der Einflusskraft auf die Natur dar: von Muskelenergie zu technischer Energie. Die Übergänge zwischen ihnen markierten technische und wissenschaftliche Revolutionen. Es gab zwei große Sprünge in der Entwicklung der menschlichen Fähigkeit, die Natur zu beeinflussen: 1) die neolithische Revolution, verbunden mit dem Übergang vom Sammeln zur Landwirtschaft, ausgestattet mit geeigneten Arbeitsmitteln; 2) eine Revolution, die durch das Aufkommen der maschinellen Produktion verursacht wurde und bei der das Ausmaß des Einflusses der Gesellschaft auf die Natur dank grundlegend neuer technischer Mittel dramatisch zunahm und mit dem Ausmaß geologischer und sogar kosmischer Prozesse vergleichbar wurde. In sozialer Hinsicht stellten diese Übergänge eine technische Revolution dar, deren Bedeutung darin besteht, dass sie als Grundlage für qualitative Transformationen der Gesellschaft diente. Die Beherrschung der Technologie der Eisenproduktion in europäischen Ländern war gleichbedeutend mit der Beherrschung des Bewässerungssystems in Asien, mit dem Unterschied, dass letzteres die Entwicklung nicht beschleunigte, sondern bewahrte. Die Grundlage der technischen Revolution sind technologische Veränderungen: Die maschinelle Produktion der Londoner oder Manchester-Stadthandwerker brachte den Kapitalismus hervor. Dahinter steckt ein Mensch, der die Technik nicht ertragen kann, da sie ihn überall hin verdrängt, und der Mensch selbst (wie E. Kapp schrieb – Homo sapiens technicus) findet sich in der Technik wieder. Alle gesellschaftlichen Revolutionen waren das Ergebnis technischer Stagnation und trieben so eine Revolution in Technik und Wissenschaft voran. Eine solche Stagnation tritt auf, wenn in einer bestimmten Gesellschaft die Angemessenheit der Organisation der Technosphäre, der sozialen und politischen Organisation erreicht wird. Charakteristische Anzeichen einer Stagnation sind: a) umfassende Entwicklung der Technologie, Ablehnung grundlegend neuer Dinge in der Technosphäre; b) technische Gigantomanie.

Die aktuelle Stufe der Technologieentwicklung wird oft als wissenschaftliche und technologische Revolution (STR) bezeichnet. Die meisten inländischen Quellen behaupten, dass das Hauptmerkmal der wissenschaftlichen und technologischen Revolution die Umwandlung der Wissenschaft in eine direkte Produktivkraft ist. Beachten wir jedoch, dass es sich bei diesem Attribut erstens um einen bildlichen Ausdruck handelt, da Wissenschaft nicht im wahrsten Sinne des Wortes eine Produktivkraft sein kann. Zweitens weist es nicht auf den revolutionären Charakter der modernen Bühne hin, da die Entwicklung der Technologie auf wissenschaftlicher Grundlage im Zeitalter der industriellen Revolution des XNUMX. Jahrhunderts begann. In diesem Sinne können wir von einer Stärkung des bestehenden Trends in der Technologieentwicklung sprechen und nicht von einem radikalen Wandel. Der revolutionäre Charakter liegt vielmehr darin, dass die Entstehung des Industrialismus im technischen Sinne eine qualitative Veränderung der Arbeitsorganisation voraussetzt, bei der die für den Maschinismus traditionelle Zuweisung eines engen Teilbetriebs an jeden Arbeiter einer relativ ganzheitlichen Arbeit weicht, einschließlich eine Reihe von Operationen und stellt dadurch den Wert und die Attraktivität lebendiger Arbeit wieder her.

Die Ablehnung der Technologie und ihre Verurteilung stammen aus verschiedenen Quellen, wie der Liebe zur Natur und dem einfachen Leben; die Notwendigkeit einer klaren Vorstellung vom Stand der Dinge; betriebswirtschaftliche Überlegungen zu Rohstoffvorräten und Abfallentsorgung; ein Gerechtigkeitssinn, der dagegen protestiert, dass bestimmte Menschengruppen viel besser leben als andere, sowie der Wunsch nach Systemveränderungen, die zu einer grundlegenden Veränderung der Gesellschaftsstruktur führen könnten. All dies wirkt sich auf die Einstellung zur Technologie aus, auf die Anforderungen zur Einführung des Nullwachstumsprinzips, während die Behörden im Gegenteil über das langsame Wachstum der Wirtschaft und die Entwicklung der Technologie besorgt sind. Der deutsche Technikanthropologe Hans Sachse erklärt diese Situation wie folgt.

1. Es gibt eine gewisse Unausweichlichkeit des Wachstums. Für die kommenden Jahre sind Wunscheinkommen geplant. Dazu wird Geld investiert, Investitionen unter Berücksichtigung des erwarteten Einkommens. Diesen Prozess zu stoppen, die Wirtschaft auf einem konstanten Niveau zu halten, kommt ihrem Kollaps gleich: Aus Stagnation wird Kollaps.

2. Forderungen der Armen - Angleichung des Einkommensniveaus. Es wird jedoch davon ausgegangen, dass die Umverteilung nicht zu einer wesentlichen Verbesserung der Situation der Armen führen wird. In den USA beispielsweise müssten bei einer Angleichung des Stromverbrauchs die Reichen auf 5/6 ihres Verbrauchs verzichten, während die Armen nur 1/6 des derzeitigen Niveaus erhalten würden. Ist das Spiel die Kerze wert?

3. Die Selbstbehauptungsfähigkeit von Nationen hängt fast ausschließlich von ihrem technischen und wirtschaftlichen Potenzial ab. Wenn eine Nation (ein Staat) ihr Wachstum einseitig stoppen würde, würde sie mit Sicherheit von anderen Nationen abhängig werden. Forderungen nach einer Wachstumsbegrenzung werden mit Umweltbedenken gerechtfertigt. Doch dieses Argument wird von den Industrieländern als Trick angesehen, um arme Länder vom technologischen Fortschritt fernzuhalten. Es gibt jedoch natürliche Grenzen für technisches Wachstum – der Mangel an Rohstoffen. Die Schlussfolgerung ist klar: Es ist unmöglich, den technischen Fortschritt aufzuhalten, genauso wenig wie es unmöglich ist, die Zeit anzuhalten.

Andererseits droht ein Überkonsum. „Wohlfahrtsstaaten“ sind Länder, die Krankenversicherung, mehr Freizeit, eine große Abwanderung von Menschen an sonnige Strände, eine Fülle von Informationen im Fernsehen usw. bieten. All dies wird letztendlich zu einer Bremse für den weiteren Fortschritt, da einem Menschen bereits die Initiative entzogen ist , Unabhängigkeit. Die vollständige Befriedigung seiner primitiven Bedürfnisse hinterlässt ein Gefühl der Leere und Sinnlosigkeit der Existenz und führt zu Gleichgültigkeit, Frustration oder Aggressivität. Es stellt sich das Problem: Wie nutzt man das wertvolle Werkzeug der Technologie für neue Aufgaben, die noch weiter führen? Die Lösung liegt in der Nutzung des Prinzips der intensiven Technologieentwicklung durch eine intensive Hebung des Lebensstandards der Armen. Dies wird laut Sachse den Bewusstseinsbereich erweitern, die Lebendigkeit und Intensität des Lebens steigern und zu einem authentischen Dasein führen. Eine solch rosige Aussicht wird jedoch nur dann Wirklichkeit werden, wenn: 1) Möglichkeiten zur Bildung und beruflichen Weiterentwicklung für die arbeitende Bevölkerung geschaffen werden; 2) Erhöhung des Niveaus der wissenschaftlichen Forschung entlang des gesamten Umfangs wissenschaftlicher Erkenntnisse; 3) das Niveau der technischen Ausstattung des Lernprozesses erhöhen; 4) Gewährleistung der Straffung und Verbesserung des Niveaus der Kommunikationstechnologie zur Vertiefung der zwischenmenschlichen Beziehungen auf der ganzen Welt.

Die gesellschaftliche und ökologische Expertise wissenschaftlicher, technischer und wirtschaftlicher Projekte ist mit einer fachlichen Einschätzung nicht direkt messbarer Prozesse und Phänomene verbunden. Sie basiert auf den Meinungen von Fachleuten und ist vermittelt durch das Problem der Verantwortung eines Wissenschaftlers, der Wissenschaft gegenüber der Gesellschaft. Die absehbare Vergangenheit zeigt, dass sich die Situation im System der menschlichen Umwelt, das sich auf die Aufrechterhaltung seiner aktiven Langlebigkeit konzentriert, nicht zum Besseren verändert hat. Die gesellschaftlichen Veränderungen der letzten Jahre haben bereits bestehende negative Tendenzen ausgelöst oder vertieft. So hat die Verschlechterung der ökologischen Umwelt zu einer Zunahme der Risikofaktoren für das menschliche Leben geführt. Die Aufmerksamkeit für Umweltprobleme, die sich nachteilig auf die menschliche Gesundheit auswirken, ist verloren gegangen. Das Wesen der ökologischen Krise hat keine wissenschaftliche Erklärung in Bezug auf die Auswirkungen auf die menschliche Gesundheit erhalten.

14.4. Wissenschaftlicher und technologischer Fortschritt und das Konzept der nachhaltigen Entwicklung

Wissenschaftlich-technischer Fortschritt (GfbV) kann nicht verstanden werden, ohne ihn auf Raum-Zeit-Dimensionen zu beziehen, d. h. zum Zeitpunkt seines postklassischen oder postnichtklassischen Entwicklungsstadiums. Daniel Bell betrachtete es im Klischee der „dritten technologischen Revolution“ mit ihren möglichen sozialen Folgen. W. Dizard stellte es in Anlehnung an Arnold Toynbee als „Informationszeitalter“ dar und verknüpfte den wissenschaftlichen und technischen Fortschritt mit der Entwicklung eines elektronischen Informationsnetzwerks, das die ganze Welt miteinander verbinden kann. Bell untersuchte das Phänomen des wissenschaftlichen und technischen Fortschritts als Beginn der Ära der „Eierköpfe“. Aber die „Eierköpfe“ (Peter Sterns, Michael Harrington usw.) bestreiten dieses Urteil aus der Position des aufschlussreichsten Kritikers der Industriegesellschaft des XNUMX. Jahrhunderts, Lewis Mumford. Die Vereinigten Staaten gelten als das einzige Land, das einen dreistufigen Übergang von einer Agrargesellschaft zu einer Industriegesellschaft und von dort zu einer Gesellschaft vollzogen hat, deren Name noch immer nicht klar definiert ist. Das Hauptmerkmal dieser Gesellschaft besteht jedoch darin, dass sie sich hauptsächlich mit der Produktion, Speicherung und Verbreitung von Informationen beschäftigt. Diejenigen, die diesen Trend untersucht haben, nennen R. Durrendorf die Vereinigten Staaten postkapitalistisch, A. Etzioni – postmodern, K. Boulding – postzivilisatorisch, G. Kahn – postökonomisch, S. Ahlstrom – postprotestantisch, R. Soydenberg – posthistorisch schlägt R. Barnett vor, die USA eine „Post-Öl-Gesellschaft“ zu nennen. Hierbei handelt es sich um eine Ansammlung von Definitionen, von denen jede ihre eigene Grundlage hat und den Anspruch erhebt, autark zu sein.

D. Bell, der das Konzept einer postindustriellen Gesellschaft vertritt, die alle „Eierköpfe“ vereint, ist nicht optimistisch, was die Zukunft dieser Gesellschaft angeht. In seiner kritischen Einschätzung der modernen Vereinigten Staaten ging L. Mumford noch weiter und sah eine gefährliche Tendenz hin zum militärisch-industriellen Establishment, das den gesamten Informationsbereich monopolisierte, und zum repressiven System der Bürokratie. Die sogenannte Informationsgesellschaft ist das Ergebnis des modernen technologischen Fortschritts, doch ihre Theoretiker weigern sich, ihr klare Merkmale zu geben. Computerpionier John von Neumann stellt fest, dass diese Gesellschaft ihren Einfluss systematisch auf politische, wirtschaftliche und kulturelle Bereiche ausweitet. Aber eine fortschrittliche Bewegung ist bei der Produktion und Verbreitung von Informationen, dem Ausbau von Informationsdiensten für Industrie und Regierung und der Schaffung eines breiten Netzwerks verbraucherorientierter Informationsmedien deutlich erkennbar. Es wird als vorteilhaft erachtet, dieser Tendenz gegenüber wachsam zu sein.

In Russland wird das Thema des wissenschaftlichen und technologischen Fortschritts, das wir erklärt haben, am ausführlichsten in der Monographie von VV Ilyin „Philosophie der Wissenschaft“[38] untersucht.

Laut Ilyin ist die Entwicklung der Wissenschaft eine permanente Steigerung ihres Inhaltspotentials: instrumentell, kategorisch, sachlich, woraus als Ergebnis ein angemessenes Eindringen in die Natur der Dinge und eine evidenzbasierte Beherrschung der Wahrheit erfolgt. Es gibt zwei Wege der Wissensentwicklung: evolutionär (umfangreich) und revolutionär (intensiv). Evolutionäre Entwicklung impliziert keine radikale Erneuerung des theoretischen Wissensfundus. Sie erfolgt als Ergebnis der Anpassung der allgemeinen Theorie an die Lösung bestimmter Probleme durch Hinzufügen geeigneter Annahmen, Verschmelzung mit der spezifischen Theorie des mathematischen Formalismus, durch Einführung neuer Annahmen (Keplers Verbesserung des Heliozentrismus) usw. Das Hauptmerkmal der evolutionären Entwicklung ist das Vorhandensein einer deduktiven Verbindung zwischen der grundlegenden und der abgeleiteten Theorie. Die revolutionäre Entwicklung der Wissenschaft setzt eine wesentliche Erneuerung und Modifikation ihres begrifflichen Arsenals voraus. Es besteht darin, frühere Vorstellungen über das Wesen der untersuchten Phänomene zu vertiefen. Die Gründe für die Revolution in der Wissenschaft sind folgende: Einerseits geht jede evolutionäre Entwicklung mit Umstrukturierungen logischer Grundlagen einher, die die immanenten Möglichkeiten der Selbstentfaltung erschöpfen, andererseits besteht die Unfähigkeit der aktuellen Theorie dazu assimilieren die verfügbaren empirischen Fakten. Was ihr widerfahren ist, ist die sogenannte „Sättigung“ (Sättigung mit Kohlendioxid). Dadurch verliert die Theorie ihr Vorhersagepotential. Die operative Nutzung der Theorie wird unmöglich. Voraussetzungen für eine Revolution in der Wissenschaft sind erstens Selbsterschöpfung, Mangel an heuristischem Potential, Beschreibung, Vorhersage von Phänomenen; zweitens die „Müdigkeit“ der Theorie, ihre Unfähigkeit, innertheoretische Probleme zu lösen; drittens Widersprüche, Antinomien und andere Unvollkommenheiten, die die traditionellen Algorithmen zum Stellen und Lösen von Problemen diskreditieren.

Das sind die Voraussetzungen. Aber das reicht nicht für eine Revolution. Wir brauchen Gründe! Es muss eine neue Idee entstehen, die die Richtung der Umstrukturierung des bestehenden Wissens vorgibt, auch wenn es noch in den Kinderschuhen steckt. Eine neue Theorie kann nicht als logische Folge einer alten gewonnen werden. Das Verhältnis von Alt und Neu lässt sich nur mit dem Korrespondenzprinzip (N. Bohr) beschreiben. Zusammenfassung der evolutionären Entwicklungsmodelle, die von K. Popper, I. Lakatos und T. Kuhn, dem österreichischen Wissenschaftsmethodologen, vorgeschlagen wurden E. Eser kam zu dem Schluss, dass in der Wissenschaftsgeschichte vier Haupttypen von Phasenübergängen realisiert werden: 1) von der vortheoretischen Stufe der Wissenschaft zur Primärtheorie; 2) von einer Theorie zu einer alternativen (Paradigmenwechsel); 3) von zwei getrennt entstehenden und sich parallel entwickelnden privaten Theorien zu einer universellen Theorie; 4) von einer visuellen Theorie, die auf sinnlicher Erfahrung basiert, zu einer abstrakten nicht-visuellen Theorie mit einer totalen Änderung grundlegender Konzepte[39] .

Konzept für nachhaltige Entwicklung. Der Begriff „Entwicklung“ ist im alltäglichen Sprachgebrauch eng mit dem Begriff des Fortschritts verbunden. Aber im Bereich des philosophischen und wissenschaftlichen Wortgebrauchs erfasst es die Existenz des Systems als eine Einheit von Fortschritt und Rückschritt, Erneuerung und Zerstörung, Selbstbehauptung und Selbstzerstörung. Das philosophische Verständnis von Entwicklung basiert zunächst auf den traditionellen Gegensätzen von Bewegung und Ruhe, Variabilität und Stabilität, Transformation und Bewahrung, Systemizität, Nichtlinearität und Inkonsistenz der Entwicklung. Das Konzept der nachhaltigen Entwicklung beinhaltet die Erhaltung, Reproduktion des Systems, Selbstveränderung, seine gemeinsame Veränderung mit anderen Systemen. Das System wird nicht vom Menschen getrieben, er passt sich ihm an.

Die Natur der Entwicklung wissenschaftlicher Erkenntnisse wird von VV Ilyin als ein Prozess der Akkumulation von Wissen betrachtet. Sein Konzept lehnt sich an die Theorie von T. Kuhn, K. Popper und in geringerem Maße von P. Feyerabend an. Es gibt konzeptionelle, kategoriale Unterschiede zwischen diesen Ansätzen. Die Theorie des Fortschritts der Wissenschaft, vorgeschlagen von V.V. Ilyin zeichnet sich durch die Tiefe der Argumentation und die detailliertere Präsentation und Beweisführung aus.

Thema 15. Das Problem der Verantwortung in der Wissenschafts- und Technikphilosophie

Im Leben gab es schon immer Widersprüche zwischen dem, was sein sollte und dem, was ist. Dieses Leiden des Alltags betrifft auch das Problem der Verantwortung, das mit dem Funktionieren der Technik verbunden ist, mit der Lösung der Nutzen-Schaden-Frage. Deutscher Physiker, Nobelpreisträger Max Born (1882-1970) betonten, dass die wirkliche Wissenschaft und ihre Ethik Veränderungen erfahren haben, die es unmöglich machen, das alte Ideal, dem Wissen um seiner selbst willen zu dienen, aufrechtzuerhalten. Wir waren davon überzeugt, dass dies niemals zum Bösen werden kann, da die Suche nach der Wahrheit an sich gut ist. Es war ein schöner Traum, aus dem wir durch das Weltgeschehen geweckt wurden. US-amerikanischer Physiker Robert Oppenheimer (1904-1967), der Schöpfer der Atombombe, war noch intoleranter und erklärte, dass die Physiker nach den amerikanischen Atombombenangriffen auf japanische Städte im Jahr 1945 ihre Unschuld verloren hätten und zum ersten Mal die Sünde kannten. Schuldgefühle zwangen ihn, die Idee, eine Wasserstoffbombe zu bauen, aufzugeben. Die US-Behörden reagierten auf diese Entscheidung, indem sie ihn aus allen wissenschaftlichen Aktivitäten entfernten und ihm den Zugang zu geheimen Informationen entzogen. Der deutsche Soziologe und Wirtschaftswissenschaftler sprach über die Notwendigkeit einer proaktiven Bewertung der vielfältigen Folgen der technologischen Entwicklung. Werner Sobart (1883-1941). In seinem Buch „Deutscher Sozialismus“ im Abschnitt „Reining Technology“ vertrat er die Idee, dass die Einführung neuer Technik immer von einer Wertanalyse ihrer möglichen Folgen begleitet oder sogar vorausgegangen sein wird. Diese Position, die von vielen seiner Anhänger unterstützt wurde, wurde zu einer der wichtigsten Thesen der Philosophie der Technik, und die Erkenntnis der lebenswichtigen Bedeutung ihrer praktischen Umsetzung führte 1972 zur Schaffung der ersten offiziellen Struktur für den amerikanischen Kongress Technikbewertung "Büro für Technikfolgenabschätzung" ("Büro für Technikfolgenabschätzung"). Technik"). Später entstanden ähnliche Organisationen in Schweden (1973), Kanada (1975) und einer Reihe anderer entwickelter Länder.

Der „Vater“ der Kybernetik Norbert Wiener (1894-1964) beschränkte sich in seiner wissenschaftlichen Tätigkeit nicht darauf, jegliche Zusammenarbeit mit dem militärisch-industriellen Komplex der USA abzulehnen, sondern forderte auch seine Kollegen auf, seinem Beispiel zu folgen. In Kybernetik oder Kontrolle und Kommunikation in Tier und Maschine (1948) forderte er, im vollen Bewusstsein der Tatsache, dass diese neue Wissenschaft „zu technologischen Fortschritten führt, die … große Möglichkeiten für Gut und Böse schaffen“, ihre Kollegen dazu auf Forschung in der Kybernetik aufgeben. Wiener stellte den Grundsatz auf, dass es notwendig sei, (a) sicherzustellen, dass die breite Öffentlichkeit die allgemeine Richtung und Bedeutung dieser Studien verstehe, und (b) „ihre eigenen Aktivitäten auf Nichtkriegsgebiete wie Physiologie und Psychologie zu beschränken“. Wir können wegen ihrer Geheimhaltung keine ähnlichen Beispiele aus der sowjetischen Realität anführen. Wir glauben jedoch, dass sie stattgefunden haben. Obwohl es andere Beispiele gibt, bei denen Scharlatane in der Wissenschaft dafür waren.

1945 schrieb eine Gruppe von Atomingenieuren in den Vereinigten Staaten an ihren Verteidigungsminister Henry L. Stimson, in dem sie warnten, dass die Kernenergie mit unendlich größeren Gefahren behaftet sei als alle früheren Erfindungen, und dass sie nicht direkt ausweichen könnten Verantwortung dafür, wie die Menschheit ihre uneigennützigen Erfindungen nutzt. 1957 gab die III. Pugwash-Konferenz in Wien eine Erklärung heraus, in der Wissenschaftler aufgefordert wurden, zur Bildung der Menschen beizutragen und unter ihnen ein Verständnis für die Gefahren zu verbreiten, mit denen die Weiterentwicklung von Wissenschaft und Technologie behaftet ist. 1974 stellte die von Weltwissenschaftlern unterstützte „Mount Karmel Declaration on Technology and Moral Responsibility“ die moralische und ethische Widersprüchlichkeit der Nutzung der Atomenergie für militärische Zwecke fest. In den 1970ern Eine Gruppe von Genetikern und Mikrobiologen verhängte ein Moratorium für einige Experimente und Forschungsarbeiten, als sich herausstellte, dass die erhaltenen Hybridmoleküle dazu verwendet werden konnten, in die Gene eines lebenden menschlichen Organismus einzugreifen. 1975 organisierte eine Gruppe von Wissenschaftlern unter der Leitung von Paul Berg eine internationale Konferenz in Asilomar (USA), an der 150 Genetiker aus der ganzen Welt teilnahmen. Um die Sicherheit dieser Forschungsrichtung für menschliches Leben zu gewährleisten, wurde ein System von Vorsorgemaßnahmen entwickelt.

Möglich wurden solche aktiven Initiativen dadurch, dass die Tage des Einzelwissenschaftlers bereits vorbei sind. Wissenschaftliche Entdeckungen und Umsetzungen waren das Ergebnis einer kollektiven Suche nach Wissen. Die wissenschaftliche Grundlagenforschung erfordert die Konzentration der Anstrengungen auf angrenzende Bereiche der wissenschaftlichen Forschung. Vor dem Hintergrund dieser Prozesse konnte sich die Technikphilosophie nicht auf Außenbeobachtungen beschränken. Karl Jaspers war einer der ersten, der sich mit der damaligen Situation auseinandersetzte. Er proklamierte die Technologie als ideologisch neutral im System des Kampfes zwischen zwei Weltsystemen und schlug vor, die Verantwortung für die Folgen vollständig den Menschen selbst zuzuschieben. Er erklärte die Technik zum Derivat des Gesellschaftssystems und übertrug diesem die volle Verantwortung. Seine These „Es gibt keine wirklich existierende Technologie, die wertneutral ist“ wurde zum Motto für Wissenschaft und Technik. Jaspers entwickelte das Problem der Kommunikation im Zusammenhang mit den Problemen von Freiheit und Wahrheit. Die Kommunikation eines Individuums, seine Verbindung mit anderen konstituiere die Struktur seines eigenen Seins, seiner Existenz, behauptet der Philosoph. Menschliche Existenz ist in Jaspers‘ Konzept, wie auch in Heideggers, immer „Mit“ (anderen) sein. Ohne Kommunikation gibt es Freiheit und kann es auch nicht geben. Existenzverweigerung ist die Möglichkeit, sich selbst zu objektivieren und so ein Sein zu gewinnen, das Universalität besitzt. Jaspers unterscheidet die freie Existenz vom blinden Willen durch die Möglichkeit der Kommunikation mit anderen, die Möglichkeit, „gehört“ zu werden. Existenz kann nicht definiert werden, kann nicht mit anderen Existenzen „kommunizieren“, und das reicht aus, um als Realität und nicht als subjektive Illusion zu existieren. Kommunikation ist eine Möglichkeit, Vernunft zu schaffen, indem sie einerseits Verständnis, „Erleuchtung“ einführt, und andererseits Existenz, indem sie das Wesen selbst vorstellt, das verstanden werden muss. Aus der Sicht von Jaspers ist Kommunikation eine Kommunikation, bei der ein Mensch nicht die von der Gesellschaft für ihn vorbereiteten „Rollen“ spielt, sondern entdeckt, wie der „Schauspieler“ selbst ist. Das existenzielle Konzept von Jaspers ist das Gegenteil der „Massenkommunikation“, in der sich das Individuum verliert und sich in der Masse auflöst. Auch die Wahrheit selbst betrachtet Jaspers im Zusammenhang mit Kommunikation: Kommunikation ist ein Mittel zur Wahrheitsgewinnung, Kommunikation „in Wahrheit“. Nach Jaspers bestätigten M. Heidegger, A. Huning und S. Florman die Idee der Unabhängigkeit der Technologie von sozialen und politischen Systemen.

Wie Sie wissen, ist Intentionalität (dh Streben) ein Konzept, das ausschließlich dem menschlichen Bewusstsein innewohnt. Dieses Konzept wird in der Forschung von J. Searle positiv berücksichtigt. Es wurde jedoch nach dem Erscheinen eines Computers in Frage gestellt, der in der Lage ist, zu lernen und sich an die äußere Umgebung anzupassen und folglich das eigentliche Programm seines Verhaltens zu ändern, wenn die sich ändernden Umgebungsbedingungen dies erfordern (als ob Computer einige Wünsche haben ihre eigenen). Dadurch begann sich die Verantwortung für das Handeln der Technik vom Menschen auf das System zu verlagern. Der gesellschaftliche Hintergrund einer solchen Logik ist verständlich, aber sehr gefährlich.

Abschluss

An ein Lehrbuch als Literaturart werden seit jeher bestimmte methodische Anforderungen gestellt: Klarheit und Klarheit der Darstellung des Stoffes, seine Struktur, Allgemeingültigkeit und Gültigkeit der Hauptbestimmungen, Übereinstimmung seines Inhalts mit bestimmten Standards einer bestimmten angenommenen Disziplin die Berufsgemeinschaft. Wir hoffen, dass die erforderliche Übereinstimmung mit diesen Anforderungen im Schulungshandbuch erreicht wurde. Wobei natürlich die methodischen, literarischen und sinnvollen Stilmerkmale des Buches dem aufmerksamen Leser im Vergleich zu den Lehrbüchern anderer Autoren nicht entgangen sind. Dies liegt nur an unserem Wunsch, das Lehrmaterial so zugänglich wie möglich zu präsentieren und es dem Leser zu vermitteln.

Wir skizzierten die wichtigsten Bestimmungen der Wissenschafts- und Technologiephilosophie insgesamt und hielten uns an die einheimischen Traditionen des Aufbaus eines Kurses, der sich in den Werken von P. P. Gaidenko, V. V. Ilyin, T. G. Leshkevich, T. T. Matyash, V. P. Kokhanovsky, T. V. Fathi widerspiegelte , N. M. Al-Ani und andere Autoren. Von besonderer methodischer Bedeutung in unserer Studie waren die grundlegenden Arbeiten des Akademiemitglieds der Russischen Akademie der Wissenschaften V. S. Stepin. Im Interesse des Lesers halten wir es für zweckmäßig, einige der Gedanken des Akademikers als Pionier auf diesem Gebiet der Wissenschaftsphilosophie in seiner Monographie „Theoretische Erkenntnis“[40] wiederzugeben.

1. Theoretisches Wissen entsteht als Ergebnis der historischen Entwicklung von Kultur und Zivilisation. Seine primären Muster werden durch philosophisches Wissen repräsentiert, das die einzige Form des Theoretischen auf der Stufe der Vorwissenschaft war.

2. Entwickelte Wissenschaft beschränkt sich im Gegensatz zur Vorwissenschaft nicht darauf, nur jene objektiven Zusammenhänge zu modellieren, die bereits in der tatsächlichen Produktionspraxis und Alltagserfahrung enthalten sind. Sie ist in der Lage, die Grenzen jeder historisch definierten Praxis zu überschreiten und der Menschheit neue objektive Welten zu erschließen, die erst in späteren Stadien der zivilisatorischen Entwicklung zu Objekten praktischer Massenentwicklung werden können. Leibniz charakterisierte die Mathematik einst als Wissenschaft von möglichen Welten. Diese Eigenschaft kann im Prinzip jeder Grundlagenwissenschaft zugeschrieben werden.

3. Durchbrüche zu neuen objektiven Welten werden in der entwickelten Wissenschaft durch eine besondere Art der Wissensgenerierung möglich. Auf der Stufe der Vorwissenschaft wurden Modelle für die Transformation von in Aktivitäten einbezogenen Objekten durch Schematisierung der Praxis geschaffen. Die Gegenstände des praktischen Handelns wurden in der Erkenntnis durch ideelle Gegenstände, Abstraktionen ersetzt, die vom Denken betrieben werden. Obwohl diese Methode in der entwickelten Wissenschaft verwendet wird, verliert sie ihre dominierende Stellung. Die Hauptsache ist die Methode der Wissenskonstruktion, bei der Modelle objektiver Realitätsverhältnisse erst sozusagen von oben in Bezug auf die Praxis geschaffen werden. Ideale Objekte, die als Elemente solcher Modelle fungieren, werden nicht durch Abstraktion der Eigenschaften und Beziehungen von Objekten der realen Praxis geschaffen, sondern werden auf der Grundlage der Arbeit mit zuvor geschaffenen idealen Objekten konstruiert. Auch die Struktur (Verbindungsgeflecht), in die sie eintauchen, wird nicht direkt aus der Praxis (durch Abstraktion und Schematisierung der realen Zusammenhänge von Objekten) extrahiert, sondern aus bereits etablierten Wissensgebieten überliefert. Die auf diese Weise erstellten Modelle fungieren als Hypothesen, die dann, nachdem sie begründet wurden, zu theoretischen Schemata zur Untersuchung des Fachgebiets werden. Es ist eine theoretische Forschung, die auf einer relativ unabhängigen Operation idealisierter Objekte basiert, die in der Lage ist, neue Themenbereiche zu entdecken, bevor sie von der Praxis bewältigt werden. Theoretisieren fungiert als eine Art Indikator für eine entwickelte Wissenschaft.

4. Die theoretische Forschungsmethode und damit der Übergang von der Vorwissenschaft zur Wissenschaft im eigentlichen Sinne wurde zunächst in der Mathematik, dann in den Naturwissenschaften und schließlich in den Technik-, Sozial- und Geisteswissenschaften verwirklicht. Jede dieser Stufen der Wissenschaftsentwicklung hat ihre eigenen soziokulturellen Voraussetzungen. Die Entstehung der Mathematik als theoretische Wissenschaft war verbunden mit der Kultur der antiken Polis, den darin etablierten Werten der öffentlichen Diskussion, den Idealen der Begründung und Evidenz, die Wissen von Meinung unterscheiden.

Die Voraussetzungen für die Naturwissenschaft, die mathematische Beschreibung mit Experiment verband, waren die Bildung der wichtigsten weltanschaulichen Universalien der technogenen Kultur: das Verständnis des Menschen als eines aktiven, aktiven Wesens, das die Welt verändert; Verständnis von Aktivität als kreativem Prozess, der menschliche Macht über Objekte verleiht; Einstellung zu jeglicher Art von Arbeit als Wert; Verständnis der Natur als ein natürlich geordnetes Feld von Objekten, das sich dem Menschen widersetzt; Interpretation der Erkenntnisziele als gleichwertiges Verständnis der Naturgesetze etc. All diese Werte und Lebensbedeutungen, die in der Epoche der Renaissance, der Reformation und der frühen Aufklärung geformt wurden, unterschieden sich radikal von dem Verständnis von Mensch, Natur, menschlichem Handeln und Wissen, das die traditionalistischen Kulturen dominierte.

In der weiteren Entwicklung der technogenen Zivilisation, auf der Stufe ihrer industriellen Entwicklung, entstehen die Voraussetzungen für die Herausbildung technischer Sozial- und Geisteswissenschaften. Aus der intensiven Entwicklung der industriellen Produktion ergibt sich die Notwendigkeit zur Erfindung und Vervielfältigung immer neuer technischer Geräte, was Anreize zur Ausbildung technischer Wissenschaften mit ihrem inhärenten theoretischen Forschungsniveau schafft. In derselben historischen Periode schaffen die relativ schnelle Transformation sozialer Strukturen, die Zerstörung traditioneller Gemeinschaftsbindungen, die durch Beziehungen "echter Abhängigkeit" ersetzt werden, das Aufkommen neuer Praktiken und Diskurstypen, die menschliche Qualitäten objektivieren, die Voraussetzungen dafür die Bildung der Sozial- und Geisteswissenschaften.

Es gibt Bedingungen und Bedürfnisse, um herauszufinden, wie die standardisierten Funktionen und Handlungen von Personen, die zu bestimmten sozialen Gruppen gehören, rational reguliert werden, wie verschiedene soziale Objekte und Prozesse verwaltet werden. Im Zusammenhang mit diesen Bedürfnissen werden die ersten Programme für den Aufbau von Wissenschaften über die Gesellschaft und den Menschen gebildet.

5. Wissenschaftliches Wissen ist ein komplexes sich entwickelndes System, in dem mit fortschreitender Evolution neue Organisationsebenen entstehen. Sie wirken umgekehrt auf zuvor etablierte Ebenen und transformieren diese. Dabei verändern sich ständig neue Techniken und Methoden der theoretischen Forschung und die Strategie der wissenschaftlichen Forschung verändert sich. In ihren entwickelten Formen erscheint die Wissenschaft als disziplinär organisiertes Wissen, in dem einzelne Zweige – wissenschaftliche Disziplinen (Mathematik, Naturwissenschaften – Physik, Chemie, Biologie usw.; technische und soziale Wissenschaften) – als relativ autonome, miteinander interagierende Subsysteme fungieren. Wissenschaftliche Disziplinen entstehen und entwickeln sich ungleichmäßig. In ihnen werden verschiedene Arten von Wissen gebildet, von denen einige bereits einen längeren Weg der Theoretisierung durchlaufen haben und Beispiele für entwickelte mathematische Theorien bilden, während andere diesen Weg gerade erst betreten.

Als Ausgangseinheit der methodischen Analyse der Struktur theoretischen Wissens sollte man nicht eine einzelne Theorie in ihrem Verhältnis zur Erfahrung nehmen (wie es im sogenannten Standardkonzept hieß), sondern eine wissenschaftliche Disziplin. Die Wissensstruktur einer wissenschaftlichen Disziplin wird durch die Ebenenorganisation von Theorien unterschiedlicher Allgemeinheit – grundlegender und besonderer (lokaler) Theorien – sowie durch ihre Beziehungen untereinander und mit der komplexen Ebene empirischer Forschung (Beobachtungen und Fakten) bestimmt als ihre Beziehung zu den Grundlagen der Wissenschaft. Die Grundlagen der Wissenschaft sind der systembildende Faktor einer wissenschaftlichen Disziplin. Diese beinhalten:

1) ein spezielles wissenschaftliches Weltbild (disziplinäre Ontologie), das ein verallgemeinertes Bild des Gegenstandes dieser Wissenschaft in seinen wesentlichen systemstrukturellen Merkmalen einführt;

2) Ideale und Normen der Forschung (Ideale und Normen der Beschreibung und Erklärung, Beweise und Begründung sowie Ideale der Struktur und Organisation von Wissen), die das verallgemeinerte Schema der Methode der wissenschaftlichen Erkenntnis bestimmen;

3) die philosophischen Grundlagen der Wissenschaft, die das akzeptierte Weltbild begründen, sowie die Ideale und Normen der Wissenschaft, aufgrund derer die von der Wissenschaft entwickelten Ideen über die Realität und die Methoden ihrer Erkenntnis in den kulturellen Strom aufgenommen werden Übertragung.

Die naturwissenschaftlichen Grundlagen haben neben einer disziplinären auch eine interdisziplinäre Komponente. Es bildet sich das allgemeine wissenschaftliche Weltbild als besondere Form der Systematisierung naturwissenschaftlicher Erkenntnisse, die ein ganzheitliches Bild des Universums, des Lebens, der Gesellschaft und des Menschen bilden (disziplinäre Ontologien erscheinen in Bezug auf das allgemeine wissenschaftliche Weltbild als Aspekt oder Fragment), sowie eine besondere Schicht des Inhalts von Idealen, Wissensnormen und philosophischen Grundlagen der Wissenschaft, die die unveränderlichen Merkmale des wissenschaftlichen Charakters hervorhebt, die in einer bestimmten historischen Epoche angenommen wurden. Die interdisziplinäre Komponente der Grundlagen der Naturwissenschaften gewährleistet das Zusammenspiel verschiedener Wissenschaften, den Transfer von Ideen und Methoden von einer Wissenschaft zur anderen. Theoretisches Wissen funktioniert und entwickelt sich als komplexes System intra- und interdisziplinärer Wechselwirkungen.

6. Die inhaltliche Struktur wissenschaftlicher Theorien wird durch die systemische Organisation idealisierter (abstrakter) Objekte (theoretischer Konstruktoren) bestimmt. Die Aussagen der theoretischen Sprache werden direkt in Bezug auf theoretische Konstrukte formuliert und beschreiben diese Realität nur indirekt durch ihren Bezug zur außersprachlichen Realität. Im Netzwerk der abstrakten Objekte der Wissenschaftstheorie lassen sich spezielle Teilsysteme unterscheiden, die aus einer kleinen Menge von Grundkonstrukten aufgebaut sind. In ihren Verbindungen bilden sie theoretische Modelle der untersuchten Realität. Diese Modelle sind in der Theorie enthalten und bilden ihr internes "Skelett". Modelle dieser Art, die den Kern einer Theorie bilden, können als theoretische Schemata bezeichnet werden. Sie sind von analogen Modellen zu unterscheiden, die als Mittel zur Konstruktion einer Theorie dienen, deren „Gerüst“ sind und nicht Teil davon sind.

In einer entwickelten Theorie kann man ein grundlegendes theoretisches Schema finden, in Bezug auf das die Grundgesetze der Theorie formuliert werden, und bestimmte theoretische Schemata, in Bezug auf die Gesetze mit einem geringeren Grad an Allgemeingültigkeit formuliert werden, werden von der Basis abgeleitet Einsen. Diese Schemata und die ihnen entsprechenden Gesetze bilden eine Ebenenhierarchie. Als Teil des theoretischen Wissens einer wissenschaftlichen Disziplin können einzelne private theoretische Schemata und Gesetze einen eigenständigen Status haben. Sie gehen den entwickelten Theorien historisch voraus. Theoretische Schemata werden auf das wissenschaftliche Weltbild abgebildet (disziplinäre Ontologie) und das empirische Material durch die Theorie erklärt. Beide Abbildungen werden durch spezielle Aussagen fixiert, die die abstrakten Gegenstände der Theorien im Sinne eines Weltbildes und im Sinne idealisierter Experimente auf der Grundlage realer Erfahrung charakterisieren. Die letzten Aussagen sind operative Definitionen. Sie sind komplex aufgebaut und beschränken sich nicht auf Beschreibungen realer Messsituationen, obwohl sie solche Beschreibungen in ihren Aufbau einbeziehen.

Die Verbindung des mathematischen Apparats mit dem auf das wissenschaftliche Weltbild abgebildeten theoretischen Schema liefert dessen semantische Interpretation, und die Verknüpfung des theoretischen Schemas mit der Erfahrung liefert die empirische Interpretation.

7. Theoretische Schemata spielen eine entscheidende Rolle bei der Entfaltung der Theorie, die nicht nur durch die Methoden des deduktiven Schließens unter Verwendung formaler Operationen, sondern auch auf genetisch konstruktive Weise durch Gedankenexperimente mit theoretischen Schemata durchgeführt wird. Die Vorstellung, dass die Theorie als hypothetisch-deduktives System funktioniert, muss grundlegend korrigiert werden. In Theorien, die nicht zu den formalisierten Systemen gehören, beinhaltet die Ableitung ihrer theoretischen Konsequenzen aus den Grundgesetzen komplexe Transformationsprozesse theoretischer Schemata, die Reduktion eines grundlegenden theoretischen Schemas auf bestimmte Schemata. Eine solche Reduktion verbindet deduktive und induktive Forschungsmethoden und bildet die Grundlage für die Lösung theoretischer Probleme, die zum Teil als paradigmatische Muster in die Theorie eingehen (T. Kuhn).

Vorstellungen über den Aufbau theoretischer Schemata und genetisch konstruktiver Methoden der Theoriebildung ermöglichen es, die von Kuhn gestellte Probenproblematik als obligatorisches Element im Aufbau der Theorie der experimentellen Wissenschaften maßgeblich zu konkretisieren.

8. Das Problem der Theoriebildung und ihres Begriffsapparates erscheint in erster Linie als ein Problem der Genese theoretischer Schemata. Solche Schemata werden zunächst als Hypothesen erstellt und dann durch Erfahrung untermauert. Die Konstruktion theoretischer Schemata als Hypothesen erfolgt durch die Übertragung abstrakter Objekte aus anderen theoretischen Wissensgebieten und deren Verknüpfung in einem neuen "Beziehungsnetz". Diese Methode der hypothetischen Modellbildung kann in zwei Versionen durchgeführt werden: durch sinnvolle Operationen mit Begriffen und durch die Weiterentwicklung mathematischer Hypothesen (im zweiten Fall wird neben hypothetischen Gleichungen implizit ein hypothetisches Modell eingeführt, um eine vorläufige Interpretation der Gleichungen). Bei der Bildung einer hypothetischen Version des theoretischen Schemas spielen die Grundlagen der Wissenschaft eine aktive Rolle. Sie bestimmen die Formulierung von Problemen und Aufgaben und die Wahl der Mittel, die notwendig sind, um eine Hypothese aufzustellen. Die Grundlagen der Wissenschaft fungieren als globales Forschungsprogramm, das die wissenschaftliche Forschung leitet.

9. Bei der Konstruktion hypothetischer Modelle werden abstrakte Objekte mit neuen Eigenschaften ausgestattet, da sie in ein neues Beziehungssystem eingeführt werden. Die Begründung hypothetischer Modelle durch Erfahrung setzt voraus, dass neue Merkmale abstrakter Objekte als Idealisierung auf der Grundlage jener neuen Experimente gewonnen werden sollten, zu deren Erklärung das Modell geschaffen wurde. Es wird vorgeschlagen, dieses Verfahren als Methode der konstruktiven Begründung des theoretischen Schemas zu bezeichnen. Schemata, die dieses Verfahren durchlaufen haben, erhalten in der Regel einen neuen Inhalt im Vergleich zu ihrer ursprünglichen hypothetischen Version. Im Bild der Welt abgebildet, führen sie zu Veränderungen in diesem Bild. Aufgrund all dieser Operationen erfolgt die Entwicklung wissenschaftlicher Konzepte. Bei der Schaffung des Begriffsapparates einer Theorie spielt nicht nur die Weiterentwicklung, sondern auch die Untermauerung einer Hypothese eine entscheidende Rolle. Die Begründung von Hypothesen und ihre Transformation in eine Theorie wiederum schaffen die Mittel für zukünftige theoretische Forschung.

10. Die Methode der konstruktiven Begründung ermöglicht es, „Schwachstellen“ in der Theorie zu identifizieren und sorgt so für eine effektive Umstrukturierung wissenschaftlicher Erkenntnisse. Sie eröffnet die Möglichkeit einer adäquaten Überprüfung der Konsistenz des theoretischen Wissens und ermöglicht es, verborgene Paradoxien in der Theorie zu entdecken, bevor sie durch den spontanen Verlauf der Wissensentwicklung aufgedeckt werden. Die Methode der Konstruierbarkeit ist als Weiterentwicklung der rationalen Elemente des Prinzips der Beobachtbarkeit zu betrachten.

11. Die Entdeckung des Verfahrens der „konstruktiven Begründung“ ermöglicht es, das Problem der Genese paradigmatischer Muster theoretischer Probleme zu lösen. Die Konstruktion einer entwickelten Theorie erfolgt als schrittweise Synthese und Verallgemeinerung bestimmter theoretischer Schemata und Gesetzmäßigkeiten. Bei jedem neuen Schritt dieser Verallgemeinerung wird die Erhaltung des bisherigen konstruktiven Gehalts überprüft, wodurch automatisch Reduktionen des verallgemeinernden theoretischen Schemas auf besondere eingeführt werden. In der Endphase der theoretischen Synthese, wenn ein grundlegendes theoretisches Schema erstellt und die Grundgesetze der Theorie formuliert werden, wird die Überprüfung ihrer konstruktiven Bedeutung als Konstruktion auf der Grundlage des erhaltenen grundlegenden theoretischen Schemas aller einzelnen Theorien durchgeführt von ihm assimilierte Schemata. Als Ergebnis entstehen Paradigmenmuster zur Lösung theoretischer Probleme. Die Weiterentwicklung der Theorie und die Erweiterung ihres Anwendungsbereichs beziehen neue Modelle in ihre Zusammensetzung ein. Aber die grundlegenden bleiben diejenigen, die im Prozess der Theoriebildung entstanden sind. Die Theorie bewahrt Spuren ihrer Vorgeschichte, indem sie die Hauptstadien ihrer Entstehung als typische Aufgaben und Modelle für ihre Lösung wiedergibt.

12. Strategien zur theoretischen Suche nach Veränderungen in der historischen Entwicklung der Wissenschaft. Solche Veränderungen gehen mit einer Umstrukturierung der Grundlagen der Wissenschaft einher und werden als wissenschaftliche Revolutionen bezeichnet. Es lassen sich zwei Arten solcher Revolutionen unterscheiden. Die erste davon, beschrieben von Thomas Kuhn, ist mit der Entstehung von Anomalien und Krisen verbunden, die durch die Ausweitung der Wissenschaft auf neue Fachgebiete verursacht werden. Ihre Mechanismen können unter Berücksichtigung der Struktur der Grundlagen der Wissenschaft und der Verfahren zur ständigen Korrelation mit den Grundlagen neu entstehender Theorien spezifiziert werden. Der zweite Typ, der in der methodischen Literatur nur sehr unzureichend analysiert wird, kann aufgrund interdisziplinärer Interaktionen ohne Anomalien und Krisen entstehen. Dabei erfolgt der Transfer verschiedener Elemente disziplinärer Ontologien, Ideale und Normen sowie philosophischer Grundlagen von einer Wissenschaft zur anderen. Eine solche paradigmatische „Pfropfung“ führt zu einer Neuformulierung der bisherigen Aufgaben einer wissenschaftlichen Disziplin, zur Formulierung neuer Probleme und zur Entstehung neuer Lösungsansätze. Ein Beispiel für die erste Art wissenschaftlicher Revolution ist die Entstehung der Relativitätstheorie und der Quantenmechanik. Ein Beispiel für das zweite ist die Entstehung der disziplinär organisierten Wissenschaft am Ende des XNUMX. und der ersten Hälfte des XNUMX. Jahrhunderts sowie moderne „Austauschprozesse“ zwischen Kybernetik, Biologie und Linguistik.

13. Die Umstrukturierung der Grundlagen der Wissenschaft in Zeiten wissenschaftlicher Revolutionen erfolgt einerseits unter dem Druck neuen empirischen und theoretischen Materials, das innerhalb der wissenschaftlichen Disziplinen entsteht, und andererseits unter dem Einfluss soziokultureller Faktoren. Wissenschaftliche Revolutionen stellen eine Art Gabelungspunkt in der Wissensentwicklung dar, an dem verschiedene mögliche Richtungen (Szenarien) für die Entwicklung der Wissenschaft entdeckt werden. Von ihnen aus werden diejenigen Richtungen (Forschungsprogramme) umgesetzt, die nicht nur eine positive empirische und theoretische Verschiebung der Probleme bewirken (I. Lakatos), sondern auch in die Kultur der Zeit passen und mit möglichen Modifikationen der Bedeutung ihrer ideologischen Bedeutung vereinbar sind Universalien. Grundsätzlich könnten mit anderen Wendungen in der historischen Entwicklung von Kultur und Zivilisation auch andere (potenziell mögliche) Geschichtswissenschaften verwirklicht werden. In Zeiten wissenschaftlicher Revolutionen wählt die Kultur aus den vielen möglichen Szenarien für die zukünftige Geschichte der Wissenschaft sozusagen diejenigen aus, die ihren Grundwerten am besten entsprechen.

14. Im Zeitalter globaler wissenschaftlicher Revolutionen, wenn alle Bestandteile der Grundlagen der Wissenschaft neu aufgebaut werden, ändert sich die Art der wissenschaftlichen Rationalität. Wir können drei Haupttypen der historischen Wissenschaft unterscheiden: klassische, nichtklassische und post-nichtklassische Wissenschaft. Die klassische Wissenschaft glaubt, dass die Voraussetzung für die Erlangung wahrer Erkenntnisse über ein Objekt die Eliminierung (Ausschluss, Entfernung) in der theoretischen Erklärung und Beschreibung von allem ist, was mit dem Subjekt, seinen Zielen und Werten, Mitteln und Abläufen seiner Aktivitäten zusammenhängt. Die nichtklassische Wissenschaft (ihr Beispiel ist die relative Quantenphysik) berücksichtigt den Zusammenhang zwischen dem Wissen über ein Objekt und der Art der Mittel und Operationen der Aktivität, mit der das Objekt entdeckt und erkannt wird. Doch Zusammenhänge mit innerwissenschaftlichen und gesellschaftlichen Werten und Zielen sind noch immer nicht Gegenstand wissenschaftlicher Reflexion, obwohl sie implizit die Natur des Wissens bestimmen (sie bestimmen, was genau und wie wir in der Welt hervorheben und begreifen). Der post-nichtklassische Typus der wissenschaftlichen Rationalität erweitert das Feld der Reflexion über Aktivität. Es berücksichtigt die Korrelation des erworbenen Wissens über einen Gegenstand nicht nur mit den Merkmalen der Mittel und Operationen der Tätigkeit, sondern auch mit ihren Wert-Ziel-Strukturen. Gleichzeitig wird der Zusammenhang zwischen innerwissenschaftlichen Zielen und außerwissenschaftlichen, gesellschaftlichen Werten und Zielen deutlich gemacht. In komplexen Untersuchungen komplexer sich selbst entwickelnder Systeme, die zunehmend zu dominanten Objekten der modernen Naturwissenschaft und Technik werden (Gegenstände der Ökologie, Genetik und Gentechnik, technische Komplexe „Mensch – Maschine – Umwelt“, moderne Informationssysteme usw.), Die Explikation innerwissenschaftlicher Zusammenhänge und gesellschaftlicher Werte erfolgt mit der gesellschaftlichen Auseinandersetzung mit relevanten Forschungsprogrammen. Der Historismus moderner Naturwissenschaften und die Reflexion über die Wertgrundlagen der Forschung verbinden Natur-, Sozial- und Geisteswissenschaften. Ihre für das XNUMX. Jahrhundert gültige Opposition hat in unserer Zeit weitgehend an Bedeutung verloren.

Die Entstehung eines neuen Rationalitätstyps zerstört nicht historisch frühere Typen, sondern schränkt ihren Wirkungsbereich ein. Jede neue Art wissenschaftlicher Rationalität führt ein neues System von Idealen und Wissensnormen ein, das die Entwicklung der entsprechenden Art von Systemobjekten gewährleistet: einfache, komplexe, sich historisch entwickelnde (sich selbst entwickelnde) Systeme. Dementsprechend verändert sich das kategoriale Raster der philosophischen Grundlagen der Wissenschaft – das Verständnis einer Sache, eines Prozesses, eines Raums, einer Zeit, einer Kausalität usw. (ontologische Komponente). Schließlich ändern sich mit dem Aufkommen einer neuen Art von Rationalität auch die ideologischen Anwendungen der Wissenschaft. In den klassischen und nichtklassischen Stadien ihrer Entwicklung fand die Wissenschaft nur Halt in den Werten der technogenen Zivilisation und lehnte die Werte traditionellistischer Kulturen als im Widerspruch dazu ab. Die postnichtklassische Wissenschaft verkörpert die Ideale der „offenen Rationalität“ und beteiligt sich aktiv an der Suche nach neuen ideologischen Leitlinien, die die Strategien der modernen Zivilisationsentwicklung bestimmen. Sie offenbart die Verhältnismäßigkeit ihrer Leistungen nicht nur zu den Werten und Prioritäten der technogenen Kultur, sondern auch zu einer Reihe von philosophischen und weltanschaulichen Ideen, die in anderen kulturellen Traditionen entwickelt wurden (weltanschauliche Ideen traditioneller Kulturen des Ostens und Ideen der Philosophie von Russischer Kosmismus). Die post-nichtklassische Wissenschaft ist organisch in die modernen Prozesse der Bildung des planetarischen Denkens und des Dialogs der Kulturen eingebunden und wird zu einem der wichtigsten Faktoren in der interkulturellen Interaktion zwischen dem Westen und dem Osten.

Literatur

1. Agashin, E. Moralische Dimension von Wissenschaft und Technologie / E. Agashin. M., 1998.

2. Globale Probleme universeller Werte. M., 1990.

3. Zotov, A. F. Moderne westliche Philosophie / A. F. Zotov. M., 2001.

4. Kazin, A. V. Wissenschaft im Spiegel der Philosophie / A. V. Kazin. M., 1990.

5. Koyre, A. Aufsätze zur Geschichte des philosophischen Denkens / A. Koyre. M., 1980.

6. Kosareva, LN Soziokulturelle Genese der Wissenschaft: philosophischer Aspekt des Problems / LN Kosareva. M., 1989.

7. Lektorsky, V. A. Klassische und nichtklassische Erkenntnistheorie / V. A. Lektorsky. M., 2000.

8. Moiseev, N. N. Moderner Rationalismus / N. N. Moiseev. M., 1995.

9. Nikiforov, A. L. Wissenschaftsphilosophie. Geschichte und Methodik / A. L. Nikiforov. M., 1998.

10. Ogurtsov, A. P. Disziplinäre Struktur der Wissenschaft / A. P. Ogurtsov. M., 1988.

11. Grundsätze der historischen Naturwissenschaft. XX Jahrhundert. M., 2001.

12. Moderne Wissenschaftstheorie: Leser. M., 1996.

13. Traditionen und Revolutionen in der Entwicklung der Wissenschaft. M., 1991.

14. Philosophie und Methodologie der Wissenschaften / hg. V. I. Kuptsova. M., 1996.

Aufzeichnungen

  1. Cogito ergo sum.
  2. Im Allgemeinen ist Mythologie eine Form des sozialen Bewusstseins, eine Möglichkeit, die Natur und die soziale Realität in den frühen Stadien der sozialen Entwicklung zu verstehen. Grundlage der Mythologie war die Unfähigkeit des Menschen, sich von der Umwelt zu unterscheiden, die Untrennbarkeit des Denkens, seine Untrennbarkeit von der emotionalen Sphäre, und die Folge sind Phänomene wie metaphorische Vergleiche natürlicher und kultureller Objekte, die Humanisierung der natürlichen Umwelt , die Animation von Fragmenten des Kosmos.
  3. Die eleatische Philosophie entstand durch die Verschmelzung des pythagoreischen Kategoriensystems, das eigentlich eine transformierte Mythenstruktur ist, mit der wissenschaftlich gestalteten und ebenfalls mythologisierten pythagoräischen Mathematik (vor allem Arithmetik).
  4. Siehe: Polanyi M. Persönliches Wissen / M. Polanyi. -M., 1985.
  5. Für weitere Einzelheiten siehe: Noiret L. Werkzeug der Arbeit und seine Bedeutung in der Geschichte der menschlichen Entwicklung. Kiew, 1925.
  6. Kanke V. A. Grundlegende philosophische Richtungen und Konzepte der Wissenschaft: Lehrbuch. Zulage / V. A. Kanke. M., 2004. S. 242-243.
  7. Ibid.
  8. Für weitere Einzelheiten siehe: Porus, V. N. Nauka. Kultur / V. N. Porus. M., 2002.
  9. Leshkevich, T. G. Wissenschaftsphilosophie / T. G. Leshkevich. M., 2006. S. 137.
  10. Bell, D. Gesellschaftlicher Rahmen der Informationsgesellschaft / D. Bell // Neue technokratische Welle im Westen. M., 1986. S. 333.
  11. Ibid.
  12. Feyerabend, P. Die Struktur wissenschaftlicher Revolutionen / P. Feyerabend. M., 1977. S. 109.
  13. Siehe: Popper, K. Logik und das Wachstum wissenschaftlicher Erkenntnis / K. Popper. M., 1983. S. 332.
  14. Berdyaev, N. A. Das Schicksal Russlands / N. A. Berdyaev. M., 1990. S. 248-249.
  15. Fayol, A. Management ist Wissenschaft und Kunst / A. Fayol, G. Emerson, F. Taylor, G. Ford. M., 1992. S. 12.
  16. Gadamer, H. G. Wahrheit und Methode / H. G. Gadamer. M., 1988. S. 419.
  17. Ebd. S. 586.
  18. Kanke, V.A. Philosophische Grundrichtungen und Wissenschaftskonzepte / V. A. Kanke. M.: Logos, 2004. S. 89.
  19. Heidegger, M. Sein und Zeit / M. Heidegger. M., 1997. S. 128.
  20. Kuhn, T. Die Struktur wissenschaftlicher Revolutionen / T. Kuhn. M., 1977. S. 63.
  21. Siehe: Al-Ani, N. M. Philosophie der Technik: Lehrbuch. Zulage / N. M. Al-Ani. SPb., 2004. S. 34.
  22. Siehe: Stork, H. Einführung in die Philosophie der Technik / H. Stork. Darmstadt, 1977.
  23. Siehe: Lenk, H. Reflexionen über moderne Technik / H. Lenk. M., 1996.
  24. Marx, K. Kapital / K. Marx. T. 1. S. 171.
  25. Ebd. S. 173.
  26. Näheres siehe: Technikphilosophie in Deutschland: [Sammelmonographie]. M., 1989.
  27. Ebd. S. 370.
  28. Für weitere Einzelheiten siehe: Bell, D. The Third Technological Revolution and Its Possible Socio-Economic Consequences / D. Bell. M., 1990.
  29. Siehe: Toffler, E. Neue technokratische Welle im Westen / E. Toffler. M., 1986. S. 97.
  30. Die Natur wird nur erobert, indem man sich ihr unterwirft (lat.).
  31. Kanke, V. A. Dekret. op. S. 219.
  32. Ilyin, V. V. Wissenschaftsphilosophie / V. V. Ilyin. M., 2003. S. 73.
  33. Ebd. S. 84.
  34. Ortega y Gasset, X. Reflexionen über Technologie // Ortega y Gasset X. Ausgewählte Werke / X. Ortega y Gasset. M., 2000. S. 172.
  35. Hayek, F. A. Gesellschaft der Freien / F. A. Hayek. M., 1990. S. 309.
  36. Ockham (Ockham, Occam) William (ca. 1285-1349), englischer scholastischer Philosoph, Logiker und kirchenpolitischer Schriftsteller, Hauptvertreter des Nominalismus des XNUMX. Jahrhunderts, Franziskanermönch. Nach dem Prinzip von „Occams Rasiermesser“ sollen Konzepte, die nicht auf intuitives und experimentelles Wissen reduzierbar sind, aus der Wissenschaft entfernt werden.
  37. Kuznetsov, D. I. Krise des klassischen Ingenieurwesens und humanistische Ideale der technischen Bildung // Philosophie und die Zukunft der Zivilisation. Bd. 4 / IV Philosophischer Kongress. M. : Verlag der Staatlichen Universität Moskau, 2005. S. 497.
  38. Ilyin, V. V. Dekret. op. M., 2003.
  39. Siehe: Ezer, E. Logik der Wissenschaftsgeschichte // Fragen der Philosophie. 1995. Nr. 10. S. 37-44.
  40. Siehe: Stepin, V. S. Theoretisches Wissen / V. S. Stepin. M., 2000. S. 703-714.

Autoren: Khabibullin K.N., Korobov V.B., Lugovoi A.A., Tonkonogov A.V.

Wir empfehlen interessante Artikel Abschnitt Vorlesungsunterlagen, Spickzettel:

Generelle Operation. Vorlesungsnotizen

Anwaltschaft und Notare. Krippe

Kinderchirurgie. Vorlesungsnotizen

Siehe andere Artikel Abschnitt Vorlesungsunterlagen, Spickzettel.

Lesen und Schreiben nützlich Kommentare zu diesem Artikel.

<< Zurück

Neueste Nachrichten aus Wissenschaft und Technik, neue Elektronik:

Alkoholgehalt von warmem Bier 07.05.2024

Bier, eines der häufigsten alkoholischen Getränke, hat einen ganz eigenen Geschmack, der sich je nach Temperatur des Konsums verändern kann. Eine neue Studie eines internationalen Wissenschaftlerteams hat herausgefunden, dass die Biertemperatur einen erheblichen Einfluss auf die Wahrnehmung des alkoholischen Geschmacks hat. Die vom Materialwissenschaftler Lei Jiang geleitete Studie ergab, dass Ethanol- und Wassermoleküle bei unterschiedlichen Temperaturen unterschiedliche Arten von Clustern bilden, was sich auf die Wahrnehmung des alkoholischen Geschmacks auswirkt. Bei niedrigen Temperaturen bilden sich eher pyramidenartige Cluster, wodurch die Schärfe des „Ethanol“-Geschmacks abnimmt und das Getränk weniger alkoholisch schmeckt. Im Gegenteil, mit steigender Temperatur werden die Cluster kettenförmiger, was zu einem ausgeprägteren alkoholischen Geschmack führt. Dies erklärt, warum sich der Geschmack einiger alkoholischer Getränke, wie z. B. Baijiu, je nach Temperatur ändern kann. Die Erkenntnisse eröffnen Getränkeherstellern neue Perspektiven, ... >>

Hauptrisikofaktor für Spielsucht 07.05.2024

Computerspiele werden bei Teenagern zu einer immer beliebteren Unterhaltungsform, die damit verbundene Gefahr einer Spielsucht bleibt jedoch ein erhebliches Problem. Amerikanische Wissenschaftler führten eine Studie durch, um die Hauptfaktoren zu ermitteln, die zu dieser Sucht beitragen, und um Empfehlungen für ihre Vorbeugung abzugeben. Über einen Zeitraum von sechs Jahren wurden 385 Teenager beobachtet, um herauszufinden, welche Faktoren sie für eine Spielsucht prädisponieren könnten. Die Ergebnisse zeigten, dass 90 % der Studienteilnehmer nicht von einer Sucht bedroht waren, während 10 % spielsüchtig wurden. Es stellte sich heraus, dass der Schlüsselfaktor für die Entstehung einer Spielsucht ein geringes Maß an prosozialem Verhalten ist. Jugendliche mit einem geringen Maß an prosozialem Verhalten zeigen kein Interesse an der Hilfe und Unterstützung anderer, was zu einem Verlust des Kontakts zur realen Welt und einer zunehmenden Abhängigkeit von der virtuellen Realität durch Computerspiele führen kann. Basierend auf diesen Ergebnissen, Wissenschaftler ... >>

Verkehrslärm verzögert das Wachstum der Küken 06.05.2024

Die Geräusche, die uns in modernen Städten umgeben, werden immer durchdringender. Allerdings denken nur wenige Menschen darüber nach, welche Auswirkungen dieser Lärm auf die Tierwelt hat, insbesondere auf so empfindliche Tiere wie Küken, die noch nicht aus ihren Eiern geschlüpft sind. Aktuelle Forschungsergebnisse bringen Licht in diese Frage und weisen auf schwerwiegende Folgen für ihre Entwicklung und ihr Überleben hin. Wissenschaftler haben herausgefunden, dass der Verkehrslärm bei Zebraküken zu ernsthaften Entwicklungsstörungen führen kann. Experimente haben gezeigt, dass Lärmbelästigung das Schlüpfen der Küken erheblich verzögern kann und die schlüpfenden Küken mit einer Reihe gesundheitsfördernder Probleme konfrontiert sind. Die Forscher fanden außerdem heraus, dass die negativen Auswirkungen der Lärmbelästigung auch auf die erwachsenen Vögel übergreifen. Reduzierte Fortpflanzungschancen und verringerte Fruchtbarkeit weisen auf die langfristigen Auswirkungen von Verkehrslärm auf die Tierwelt hin. Die Studienergebnisse unterstreichen den Bedarf ... >>

Zufällige Neuigkeiten aus dem Archiv

Epson AcuLaser 2600 Drucker 19.04.2005

EPSON hat den Drucker Epson AcuLaser 2600 auf den Markt gebracht, der sowohl im Schwarzweiß- als auch im Farbmodus arbeitet und in Schwarzweiß bis zu 30 Seiten pro Minute und in Farbe bis zu 7,5 Seiten pro Minute druckt.

Es ist möglich, 4 monochrome Patronen gleichzeitig zu installieren, wodurch das Druckvolumen erhöht wird. Der Drucker kann bis zu 120000 Schwarzweißseiten pro Monat drucken.

News-Feed von Wissenschaft und Technologie, neue Elektronik

 

Interessante Materialien der Freien Technischen Bibliothek:

▪ Abschnitt der Website Schutz elektrischer Geräte. Artikelauswahl

▪ Artikel Hauptkategorien der Informationssicherheit. Grundlagen des sicheren Lebens

▪ Artikel Ist ein Delfin ein Säugetier? Ausführliche Antwort

▪ Artikel Verletzungen der Wirbelsäule. Gesundheitspflege

▪ Artikel Computerbasierter Logikanalysator. Enzyklopädie der Funkelektronik und Elektrotechnik

▪ Artikel Feedback bei HF-Empfängern. Enzyklopädie der Funkelektronik und Elektrotechnik

Hinterlasse deinen Kommentar zu diesem Artikel:

Name:


E-Mail optional):


Kommentar:





Alle Sprachen dieser Seite

Startseite | Bibliothek | Artikel | Sitemap | Site-Überprüfungen

www.diagramm.com.ua

www.diagramm.com.ua
2000-2024