Sprache und Intelligenz in der Computerwelt

1 Beitrag / 0 neu
Bild des Benutzers Peter Kern
Peter Kern
Offline
Verbunden: 15.12.2011 - 11:30
Sprache und Intelligenz in der Computerwelt
DruckversionPDF version


Sprache und Intelligenz in der Computerwelt



„High Tech“ und „High Chem“ haben in Finanz-, Wirtschafts- und Politikerkreisen eine Wissenschafts-Gläubigkeit und Technik-Euphorie wieder belebt, der man sich nur um den Preis entziehen kann, als fortschritts- und technikfeindlich zu gelten. „Optimismus“ ist gefragt; wer Kritik übt, gilt als rückwärtsgewandter alternativer Spinner, als Schwarzmaler, als Pessimist, der von der „German Angst“ infiziert wurde.

Doch mit dem Einsatz der Informationstechnologien und mit dem technisch-ökonomischen Fortschrittsglauben  wird unterstellt, dass diese Auslegung von „Fortschritt“ massgebend für den Menschen in unseren Gesellschaften sei. Technisch-ökonomischer Fortschritt ist im Blick auf seine Ziele jedoch mehr als ambivalent. Dient dieser technisch-ökonomische Fortschritt wirklich einem gelingenden Leben?

Die Anwendung der Kategorien des anthropologischen Dreischritts hätte mindestens drei Fortschrittsbegriffe zu unterscheiden: Fortschritt im „Werk der Natur“ als Wachstum physischer Stärke im Horizont der menschlichen Leiblichkeit. Fortschritt im „Werk der Gesellschaft“ als technisch-ökonomischer Fortschritt im Horizont funktionierender Politik- und Sozialsysteme. Da ist es durchaus denkbar, dass beispielsweise eine formal-rechtlich funktionierende Demokratie dennoch als Gesamtsystem Zielen folgt, die Entfremdungsprozesse des Einzelnen beschleunigen und die vor allem mit ihren luxurierenden Lebensstilen in gar keiner Weise zukunftsfähig ist. Dies zu beurteilen kommt erst im dritten Fortschrittbegriff in den Blick. Fortschritt im „Werk seiner selbst“ ist das Fortschreiten im Sinne der Emporbildung des einzelnen Menschen. Dann erst macht der Einzelne die Erfahrung, dass wir nur um den Preis der Zerstörung der Lebensbedingungen auf dieser Erde fortfahren können wie bisher. Die Computerwelt dient in dieser Optik der Wahrnehmung dann möglicherweise keinen zukunftsfähigen Lebensstilen.

Wenn Fortschritt nur das Weitergehen in den alten Denkstilen von „Mehr“ und „Haben“ bedeutet, dann betreiben wir nur immer effizienter den kollektiven Exitus. Erst aus dem dritten Fortschrittsbegriff können wir uns aus dieser fatalen Spirale in den selbst verursachten Untergang herausdrehen. Es ist ein Fortschritt anzustreben, der die Frage

beantwortet, wie wir sinnvoll und darin zukunftsfähig auf dieser Erde leben können. Dieser dritte Fortschritt macht sich auf den Weg nach einer Ökologie als Wohnheilkunde. Grundbildung als ethisch legitimierte Bildung, die Nachhaltigkeit ermöglicht, wird dann zur Endzeitbildung, die es uns erlauben könnte, das heute jederzeit mögliche Zeitenende zu verhindern. Die fortschrittliche Vision einer solchen Endzeitbildung ist „Herzensbildung“, éducation sentimentale. Sie zielt auf moralische Sensibilität. Sie überwindet die krankmachenden und todbringenden Leidenschaften wie Masslosigkeit und Gier. Sie versteht sich auf Gabe und Gegengabe.

Reflektiert man vor diesem Hintergrund die Frage nach der Bedeutung von Sprache und (künstlicher) Intelligenz für das Leben, dann erscheint der Umgang mit Sprache und Intelligenz in der Computerwelt recht naiv.

Nun trifft es sich, dass einer der führenden Computerwissenschaftler der Welt, einer ihrer Pioniere, Joseph Weizenbaum, schon früh vor der Hybris der modernen Naturwissenschaften in der Computerwelt warnte: „Die Macht der Computer und die Ohnmacht der Vernunft“, deutsch 1978. 1984 liess er diesem gewichtigen Einspruch noch einen Warnschrei folgen: „Kurs auf den Eisberg“. Seine Einlassungen blieben weitgehend ungehört; seine Befürchtungen haben sich weitgehend bestätigt. Es ist deshalb an die Kritik von Joseph Weizenbaum, der am 5. März 2008 verstarb, zu erinnern.

Zunächst: War Weizenbaum auch nur einer dieser verirrten Aussteiger, die das Establishment damals wie heute als zukunftsfeindlichen Irrationalisten abzutun versuchte? Nun, wer wissenschaftlich und ökonomisch vom Boom der neuen Leittechnik „Computers and Communications“ profitiert, der sollte es sich nicht zu leicht machen mit Joseph Weizenbaums Kritik an einem zügellosen Szientismus, der wieder einmal seinen Markt gefunden hat. Die Konsequenzen der Umwandlung der Industriegesellschaften in Informationsgesellschaften können nicht nur in die Richtung der von John Naisbitt beschriebenen „Megatrends“ gehen, sondern, wie Weizenbaum urteilte,  in kulturellen, politischen und schliesslich ökologischen Katastrophen enden. Jedenfalls haben die inzwischen etablierten Industriegesellschaften weder zu mehr Gerechtigkeit, noch zu mehr Frieden, weder zu mehr Humanität noch zu mehr Zukunftsfähigkeit geführt.

Den Grund für die Kritik an der Computerwelt sah der renommierte Computerwissenschaftler, der als Professor am Massachusetts Institute of Technology (M.I.T.) arbeitete, in der Umdefinition der alteuropäischen Vorstellung vom Menschen durch viele seiner Kollegen. Diesen erscheine der Mensch im Prinzip als nichts anderes als ein informationsverarbeitendes System, das vollständig mit einem hinreichend leistungsfähigen Computer simuliert werden könne.

Der Streit entzündete sich vor allem am Thema „Künstliche Intelligenz“. Vielen, die von der Arbeit über künstliche Intelligenz beseelt waren und es immer noch sind, geht es um nichts weniger als um die „Konstruktion einer Maschine nach dem Bilde des Menschen, eines Roboters, der seine eigene Kindheit hat, Sprache wie ein Kind lernen und sein Wissen von der Welt dadurch erlangen soll, dass er die Welt durch seine eigenen Sinnesorgane erfährt und schliesslich zu Betrachtungen über den gesamten Bereich menschlichen Daseins imstande ist.“ Joseph Weizenbaum hielt diesem ehrgeizigen Programm die immer noch gültige Frage entgegen: Alles hänge davon ab, ob der Mensch tatsächlich nur eine Spezies der Gattung „informationsverarbeitendes System“ sei oder ob er qualitativ mehr als das ist.

Bevor eine Maschine nach dem Bilde des Menschen konstruiert wird, ist zunächst nach eben diesem Menschenbild selbst zu fragen. Wer das Menschenbild von vornherein einer anthropologischen Reduktion unterzieht (der Mensch ist nichts anderes als…), bis die maschinelle Nachkonstruktion möglich wird, ist möglicherweise längst in die Fallstricke der self-fulfilling-prophecy geraten: Der Mensch ist nichts mehr und nichts anderes als das, was sich maschinell nachkonstruieren lässt. In der Auffassung der Vertreter der Clans der „Artificial Intelligentsia“, wie sie Weizenbaum spöttisch nannte, formuliert: Es wird behauptet, dass es keinen Bereich des menschlichen Denkens gebe, der nicht maschinell erfassbar sei.

Das ist das Credo eines mechanistischen Menschenbildes, wie es aus der entzauberten Welt der positivistischen Wissenschaften hervorgeht.

Dagegen steht die These, dass Computer und Menschen eben gerade nicht verschiedene Arten derselben Gattung seien. Der Mensch komme im positivistischen Wissenschaftsverständnis nur als Fragment seiner selbst in den Blick. Erst die Veränderung und Erweiterung der Optik der Wahrnehmung, erst ein mehrperspektivisches Wahrnehmen und die Fähigkeit des integralen Blickes lassen den qualitativen Unterschied von Computer und Mensch wieder verständlich werden.

Weizenbaums Kritik, es sei nochmals betont, wurde aus keiner technikfeindlichen Haltung heraus formuliert, und schon gar nicht aus wissenschaftlich-technischem Unverstand, den man mancher theologischen oder philosophischen Verurteilung von Technik nachsagen mag. Im Gegenteil. Joseph Weizenbaum war schliesslich derjenige, der den ersten „sprechenden“ Computer der Welt mit dem Sprach-Analyse-Programm „Eliza“ entwickelt hatte. Er wusste also aus eigener Erfahrung, dass moderne Computersysteme hinreichend komplex und autonom sind, so dass sie für ihn immerhin, fragwürdig genug, als „Organismus“ gelten konnten. Er wusste, dass solche Systeme die Umwelt sensorisch erfassen und beeinflussen können. Er wusste, dass es Computer geben werde, die sich selbst zum Thema werden können – und dennoch war der Computer für Weizenbaum bestenfalls, wie er sagte, „eine Art Tier“.

Künstliche Intelligenz bleibe, so sein Urteil, prinzipiell von der menschlichen Intelligenz unterschieden. Der Nachweis und die Begründung dieser Behauptung wurden überzeugend geführt im Blick auf  kategorial unterschiedliche Phänomene: Mechanische Akte werden von menschlichen Akten abgehoben. Funktionale Entscheidungen werden von verantworteten Wahl-Handlungen sauber getrennt. Dem vereinfachten, reduktionistisch gefassten Intelligenzbegriff der Computerwissenschaftler wird ein differenzierter, mehrdimensionaler Intelligenzbegriff entgegengehalten, in dem Wirklichkeiten wie Gedächtnis, Sprache und dialogische Bezugssysteme ganzheitlich erfasst werden. Das menschliche Gedächtnis ist dann mehr und qualitativ anderes als der Speicher eines Computers, schon deshalb, weil die „gespeicherten Daten“ in Grundgestimmtheiten wie Angst, Liebe, Glück, Freude, Hoffnung eingebettet sind. Der menschliche Gebrauch von Sprache erscheint dann nicht in demselben Sinne funktional, wie Computersprachen funktional sind. Die Informationstheorie begreift das Natürliche der menschlichen Sprache als Mangel an Formalisierung und übersieht, dass natürliche  Sprache nur um den Preis von Realitätsverlust formalisiert werden kann.

Letztlich gilt: Natürliche Sprache ist nicht formalisierbare Sprache, denn natürliche Sprache ist geschichtlich, kinästhetisch vermittelt, von den unterschiedlichen Modalitäten des Denkens in beiden Hirnhälften bestimmt, vom Unbewussten mit gesteuert. Intelligenz und damit auch Sprache sind keine linear messbaren Erscheinungen, die unabhängig von jeglichem Bezugssystem sind, denn auch der menschliche Gebrauch von Sprache ist nicht in demselben Sinne funktional, wie Computersprachen funktional sind.

Gerade im Blick auf die Auffassung von Sprache unterscheidet sich das mechanistische Menschenbild der „Artificial Intelligentsia“ von einem nicht-mechanistischen, ganzheitlichen Bild des Menschen. Für die Verfechter der künstlichen Intelligenz ist die Formalisierung der Sprache das massgebende Ziel. Mehrdeutigkeit der Sprache auf der lexikalisch-semantischen Wortebene und die Mehrdeutigkeit auf der syntaktischen Satzebene müssen durch eine formalisierte und kontextfreie Grammatik schrittweise reduziert werden, bis eindeutige Aussagen möglich sind. Sprache wird in solchem Vorgehen auf ihre blosse Berechenbarkeit hin herausgefordert. Allein der quantifizierbare Aspekt der Sprache zählt. Künstliche Intelligenz denkt nicht, sie rechnet bloss. Denken als Rechnen, so urteilte Martin Heidegger bereits 1959, treibt mit einer steigenden Geschwindigkeit und Besessenheit der Eroberung des kosmischen Raumes zu. Dieses rechnende Denken selber sei schon die Explosion jener Gewalt, die alles ins Nichtige jagen könnte: Nagasaki, Hiroshima, Tschernoby, Fukushima sind Zeichen dieser todbringenden Gewalt.

Gegen dieses rechnende Denken stellt Heidegger das besinnende Denken. Im besinnenden Denken erscheint die Sprache dann als „Haus des Seins“, in dem wir Menschen zu wohnen vermöchten. Von den existentiell und ontologisch bedeutsamen Gehalten, die in dieser metaphorischen Formel aufgehoben sind, weiss die Computersprache nichts.

Operationalisierte und berechenbar gemachte Computersprache hat die wissenschaftstheoretische Verstocktheit jener hinter sich, die sich auf objektive Tatsachen berufen, ohne Verständnis dafür, dass jede „Tatsache“ bereits durch eine Auslegung hindurchgegangen ist. Was eine Tatsache ist, ist immer nur in Bezug auf die von Menschen gedeutete Welt zu verstehen. Insofern kann auch kein Begriff einer Theorie vollständig „verstanden“ werden. Das gilt vor allem für Begriffe wie Vertrauen, Freundschaft, Hoffnung, Liebe, Glück, Angst, aber eben auch für den Begriff „Intelligenz“. Solche Worte haben ihre Bedeutung aus biographischen und gattungsgeschichtlichen Grunderfahrungen; sie sind deshalb selbst metaphorisch. Insofern nun Weltverständnis überhaupt über Sprache vermittelt wird, ist dieses als Ganzes auch metaphorisch.

Durch den berechnenden Umgang mit der Sprache ist das Verhältnis des Menschen zur Sprache in einer tief greifenden Wandlung begriffen, in deren Prozess das allmähliche Verschwinden von Wirklichkeit (Hartmut von Hentig) auszumachen ist.

Es war eine der wichtigsten Stationen in der Evolutionsgeschichte der Menschheit, als unsere Vorfahren aufrecht zu gehen begannen und dadurch die Hände freibekamen. Im sinnlichen Begreifen und im damit verbundenen Verstehen ihrer selbst und der sie tragenden Natur wurde der Mensch zum „homo faber“, zum Werkzeuge schaffenden Menschen. Fortan definierte sich unsere Gattung in dem strukturellen Verhältnis von „Natur-Werkzeug-Mensch“ durch Arbeit. Im Stoffwechsel mit der Natur blieb der Mensch eingebunden in die Natur. Er begriff sie und sich in sinnlichen Wahrnehmungsqualitäten, die stets das Ganze von Mensch, Welt und „Gott“ umgriffen.

Erst in der europäischen Neuzeit macht der Mensch die Natur zum rein berechenbaren „Gegen-Stand“ für sein willengesteuertes Vorstellen, Herstellen und Bestellen als den Parametern der technischen Weltauslegung. Arbeit erscheint jetzt als eine abstrakt-allgemeine Disziplinierung der Natur. Sie gilt nur dann als real, wenn sie für das Vorstellen als ein berechenbarer Gegenstand sichergestellt ist.

In diesem Prozess wird heute die natürliche Sprache zur künstlichen Sprache als „Information“ umgesetzt. Sprache als Information bleibt an die praktisch-technische Dienstbarkeit ausgeliefert und damit rückgebunden an die Machtförmigkeit neuzeitlicher Naturwissenschaft überhaupt. In einem Gang beispielloser Verarmung der sinnlichen Wahrnehmungsqualitäten betreibt der europäisch ausgebildete, wissenschaftsorientierte Mensch der Gegenwart die Zerstörung der menschlichen, natürlichen und kosmischen Welt. Neuzeitliche, vor allem mathematisierende Naturwissenschaft und moderne Technik, unter anderem in Form der „Künstlichen Intelligenz“ (KI), sind Ausdruck dieses Abstraktionsprozesses.

Das wechselseitige Aufeinander-Angewiesen-Sein alles Lebendigen als Erfahrung, die das Leben trägt und erhält, erlischt zunehmend, weil alles Natürliche, also auch die natürliche Intelligenz und die natürliche Sprache, nur noch in ihrer berechenbaren Abstraktion erscheint, die kein Mit-Leben und Mit-Leiden mehr ermöglicht. Empathie entzieht sich eben der Berechenbarkeit, sie ist kein quantitatives, sondern ein qualitatives Phänomen.

Künstliche Operationen der formalen Logik ohne Finalität lassen das Natürliche nur noch in der Optik der Berechenbarkeit zu, die sich, sofern kompetent gerechnet wurde, als „richtig“ erweist. Der berechenbare Umgang auch mit Sprache und Intelligenz erlaubt schliesslich prognostisches Wissen und bestätigt sich selbst im Funktionieren der neuzeitlichen Technik.

Verbirgt sich in der „Richtigkeit“ dieser Technik auch „Wahrheit“? Das Richtige ist längst noch nicht das Wahre. Das Richtige ist immer nur richtig in Bezug auf methodisch ausgegrenzte Wirklichkeiten, in Bezug auf Teile, aber nicht mit Blick auf das existenztragende Ganze.

Was aus der Perspektive neuzeitlicher Computersysteme richtig sein mag, ist im Blick auf ganzheitlich erfahrene Weltprobleme oft tief unwahr. Denken wir aus dem Geist der natürlichen Sprache das Wort „Erdreich“, so klingt es ganzheitlicher als das vom neuzeitlichen Menschen herausgeforderte Erdreich als „Kohlerevier“. „Mensch“ ist mehr und qualitativ anders als das neuzeitliche „Menschenmaterial“. Das bäuerliche Tun im Umfeld der natürlichen Sprache gedacht, fordert als „Ackerbau“ die Natur nicht heraus, wohl aber als motorisierte und chemisch betriebene „Ernährungsindustrie“. „Künstliche Intelligenz“ mag einmal funktionieren. Sie wird auch gewinnmaximierend verwertbar sein. Man wird auf sie zählen, man wird mit ihr rechnen können. In der berechenbaren Optik der positivistischen Weltauslegung erscheint sie als „richtig“ – und dennoch kann sie im Blick auf die Wahrheit des Ganzen tief dysfunktional sein und sich letztlich zerstörerisch für Mensch und Natur auswirken. Ist es dann noch Zufall, dass der Computer „ganz eigentlich für militärische Zwecke entwickelt wurde“, wie Joseph Weizenbaum ausdrücklich festhält?

Wer menschlich-natürliche Intelligenz zur künstlichen Intelligenz umdefiniert, der betreibt nach dem Urteil des Physikers und Philosophen Carl Friedrich von Weizsäcker „Erkenntnis ohne Liebe“. Und Martin Heidegger fragt: „Ob man die radikale Unmenschlichkeit der jetzt bestaunten Wissenschaft einmal einsieht und noch rechtzeitig zugibt?“ Und er notiert auch dieses: „Die Übermacht des rechnenden Denkens schlägt täglich entschiedener auf den Menschen selbst zurück und entwürdigt ihn zum bestellbaren Bestandstück eines masslosen operationalen Modelldenkens. Durch die Wissenschaft wird die Flucht vor dem nichtrechnenden Denken organisiert und zur Institution verfestigt.“

Der neuzeitliche Mensch, der mit der modernen Naturwissenschaft die Herrschaft über die ganze Erde angetreten hat, ist für diese Aufgabe überhaupt noch nicht vorbereitet. Ihm mangelt es nicht an Wissen und Können, wohl aber an Weisheit, an „sophia“. Und so war es der Mensch selbst, der die systemökologisch erforderliche Balance zwischen „Mensch-Werkzeug-Natur“ zerstörte. Die Folge: Möglicher atomarer Holocaust, Einsatz letztlich unbeherrschbarer Kernkraftwerke zur Energiegewinnung, ökonomische Wucherungsprozesse mit ungeheuren Belastungen der uns alle tragenden Natur, das Elend von Armut, Unterdrückung und Ausbeutung, inzwischen in allen Gesellschaften.

Die technologisch organisierte Friedlosigkeit trifft uns auch im 21. Jahrhundert unvermindert. Es gilt also, die selbst verschuldeten Nöte zu wenden.

Das aber vermögen nicht Computer, und seien sie noch so „intelligent“. Bei der Auseinandersetzung um die künstliche Intelligenz geht es deshalb letztlich nicht um mathematische oder technische, sondern um ethische Probleme.

Die natürlich Intelligenz umschliesst im Logos-Begriff beides: den instrumentalen Verstand und die vernehmende Vernunft. Während der Verstand lediglich an der toten Richtigkeit der Dinge orientiert bleibt, vernehmen wir in der Vernunft die lebendige Wahrheit der Dinge. Der Verstand denkt instrumental, er sucht Kausalzusammenhänge und wendet sie technisch an, er fragt nach den Ursachen von Wirkungen und setzt sie ein als Mittel zu Zwecken, auf deren Sinn er nicht mehr reflektiert. Auf Zwecke und Ziele reflektiert die Vernunft: Sie denkt integrativ, indem sie versucht, das Ganze wahrzunehmen, von dem ihr eigener Träger nur ein Teil ist. Vernunft ist nicht nur theoretisch, sondern sie hat auch unsere Praxis zu leiten, sie ist also zugleich Wahrnehmung des Gesamtinteresses, das es dann durchzusetzen gilt.

Als Menschen sind wir, um leben zu können, auf Wahrheit angewiesen. Um diese möglichst unverzerrt durch eigene Partikularinteressen und Ideologien wahrnehmen zu können, müssen wir die Ich-Befangenheit überwinden und preisgeben, in der wir gewöhnlich leben. So hängt der kognitive Aspekt der Vernunft mit einer bestimmten Grundhaltung oder „Gestimmtheit“ zusammen. Vernunft setzt die Gestimmtheit der Gelöstheit, der Gelassenheit voraus, ja Carl Friedrich von Weizsäcker formuliert sogar: „Vernunft, als Wahrnehmung, hat etwas mit den Affekten gemeinsam... In der Sprache der christlichen Tradition ist der Affekt, der die Vernunft ermöglicht, die Liebe. Glaube… ist… ein Offensein für die Liebe, das die Angst überwindet.“ Diese Vernunft kommt aber nie zur Vollendung. Sie kann ihren Blick immer weiter ausdehnen und zu immer höheren Reflexionsstufen aufsteigen, aber als Vernunft unterliegt sie nicht mehr der Ambivalenz des blossen Verstandes, sondern stellt im Gegenteil die einzige Möglichkeit dar, damit der Mensch Frieden mit sich selbst und den Einklang mit der Natur findet. Vernunft ist also Wahrnehmung des Ganzen, mit einbegriffen sind dabei auch Wahrnehmung und Durchsetzung des Gesamtinteresses.

Diese Formen der Vernunft weisen auf jenen sachnotwendigen Zusammenhang hin, der bei Kant durch die Termini „theoretische Vernunft“ und „praktische Vernunft“ bezeichnet wird. Die Wahrnehmung des Ganzen gehört auf die Seite der theoretischen, erkennenden Vernunft, die Durchsetzung des Gesamtinteresses auf die Seite der praktischen, das Handeln leitenden Vernunft. Die Wahrnehmung des Gesamtinteresses verknüpft beide Seiten.

Vor dem Hintergrund solcher Einsichten stellt sich nicht länger die theoretische Frage, was der Computer kann, sondern die praktische, was er soll. Der Vernunft-Aspekt der natürlichen Intelligenz unterliegt nun nicht mehr der quantifizierenden Berechenbarkeit. Intelligente Computer sind also lediglich verstandesorientierte, nie aber kluge oder gar weise Computer. Folglich kam auch Joseph Weizenbaum zu dem Schluss, „dass, auch wenn Computer jetzt oder künftig noch soviel Intelligenz (als auf Richtigkeit orientierten Verstand) erweben, diese Intelligenz jedoch stets gegenüber menschlichen Problemen und Anliegen (als in vernehmender Vernunft zu lösende) fremd bleiben muss.“

Die unbekümmerte Anthropomorphisierung des Computers birgt also tödliche Gefahren in sich. Der Apologet der künstlichen Intelligenz lässt sich nämlich gar nicht so weit erschüttern, um die entsprechende Blickweite zu bekommen für das Ungeheure und zugleich Elementare der ablaufenden Entwicklung.

Mit solchen Hinweisen ist noch nichts gesagt über den Umgang mit dem Computer in der Informationsgesellschaft – hier wurde lediglich die problematische und verhängnisvolle Gleichsetzung von „natürlicher Intelligenz“ und „künstlicher Intelligenz“ nachgewiesen.

Ob sich damit das instrumentelle Verständnis von Technik überhaupt verbietet, wäre gesondert zu diskutieren. Immerhin häufen sich die Stimmen derer, die es ablehnen, Technik inhaltlich als invariant zu beurteilen, die bezweifeln, dass Technik nicht determinierend wirke, und die Gründe beibringen, dass Technik mehr sei als ein blosses neutrales Instrument, mit dem der Mensch „vernünftig“ oder „unvernünftig“ umgehen könne. Sollte Technik selbst eine Art der Weltauslegung sein, etwa im Sinne des Heideggerschen „Ge-stells“, dann wäre unsere Einstellung zur modernen Technik, auch und gerade zur Computertechnik, neu zu überdenken unter dem Anspruch einer Wiederverzauberung der Welt.

Peter Kern
 


 

Quelle:

Für das „haus-des-verstehens“ überarbeitete Fassung eines Aufsatzes von Peter Kern unter dem Titel: „Vom menschlichen Verstand und der künstlichen Intelligenz“, in: Computerworld Schweiz. Nr.39, 1986, S.9-12.


Literaturhinweise:


Uwe Lämmel; Jürgen Cleve: Künstliche Intelligenz, München 2008³

Karl Leidlmair: Künstliche Intelligenz und Heidegger, München 1991

Joseph Weizenbaum: Die Macht der Computer und die Ohnmacht der Vernunft, Frankfurt/M. 1978

Joseph Weizenbaum: Kurs auf den Eisberg, Zürich 1984

Peter Kern; Hans-Georg Wittig: Pädagogik im Atomzeitalter, Freiburg i.Br. 1984²