You can edit almost every page by Creating an account. Otherwise, see the FAQ.

Philosophie der Künstlichen Intelligenz

Aus EverybodyWiki Bios & Wiki
Wechseln zu:Navigation, Suche

Die Philosophie der künstlichen Intelligenz (KI) ist ein Teilgebiet der Technikphilosophie, das sich mit den erkenntnistheoretischen Grundlagen der KI, ihren Möglichkeiten und Grenzen sowie ihren Auswirkungen auf die Gesellschaft befasst.

Themen der KI-Philosophie[Bearbeiten]

„Künstliche Intelligenz ist wahrscheinlich einzigartig unter den technischen Disziplinen, da sie sehr grundlegende Fragen über die Natur des Rechnens, der Wahrnehmung, des Denkens, des Lernens, der Sprache, des Handelns, der Interaktion, des Bewusstseins, des Menschen, des Lebens usw. usw. aufgeworfen hat – und gleichzeitig hat sie wesentlich zur Beantwortung dieser Fragen beigetragen (tatsächlich wird sie manchmal als eine Form der empirischen Forschung angesehen). Es gibt also eine beachtliche Tradition von Arbeiten, sowohl von Philosophen über KI als auch von Theoretikern innerhalb der KI selbst.“

Vincent C. Müller: Introduction: Philosophy and Theory of Artificial Intelligence[1]

Die Philosophie der künstlichen Intelligenz sucht Antworten auf Fragen wie die folgenden:[2]:1176

Die Philosophie der Künstlichen Intelligenz hat enge Verbindungen zur Philosophie des Geistes und der Philosophie der Kognition sowie zu den Konzepten des Funktionalismus, Reduktionismus, Konnektionismus und des subjektiven Erlebnisgehalts (Qualia).

Eine enge Beziehung der KI zur Philosophie rührt auch daher, dass viele Formalismen und Techniken der KI aus der Philosophie stammen: Aussagenlogik, Prädikatenlogik und ihre Erweiterungen: Modallogik für die Modellierung von Möglichkeit und Notwendigkeit; Deontische Logik für die Modellierung von Gebot, Verbot und Erlaubnis; Induktive Logik für das Schließen von einzelnen Beobachtungen auf allgemeine Aussagen; Doxastische Logik für die Modellierung des Glaubens und Meinens; außerdem die philosophische Interpretation von Wahrscheinlichkeit, Konzepte der Praktische Intelligenz und das Planen von Handlungen.

Die Ethik der künstlichen Intelligenz ist der Teilbereich der Technikethik, der sich speziell mit KI-Systemen befasst. Ihre Themenbereiche sind:[3]

  • die Rolle von KI-Systeme in der Gesellschaft und ethische Werte, die ihrem Einsatz zugrunde liegen
  • ethische Normen für Menschen, die künstliche intelligente Systeme entwerfen, herstellen, testen, zertifizieren und benutzen
  • ethisches Verhalten von KI-Systemen (Maschinenethik)

Schwache KI und starke KI[Bearbeiten]

Die Behauptung, dass Maschinen agieren könnten, als ob sie intelligent wären, wird als schwache KI-Hypothese bezeichnet.[2]:1176 Der Antrag für die Dartmouth Conference behauptete bereits 1956, das schwache KI möglich ist: „Die Studie geht von der Annahme aus, dass jeder Aspekt des Lernens oder jedes andere Merkmal der Intelligenz im Prinzip so genau beschrieben werden kann, dass eine Maschine in der Lage ist, ihn zu simulieren.“[4]

Nach der starken KI-Hypothese ist der Computer nicht nur ein Werkzeug für die Erforschung des Geistes; vielmehr ist der richtig programmierte Computer wirklich ein Geist, in dem Sinne, dass Computer mit den richtigen Programmen buchstäblich verstehen und andere kognitive Zustände haben.[5]:417 D. h., starke KI kann wirklich denken und nicht nur Denken simulieren.

Können Maschinen denken?[Bearbeiten]

Die Frage „Können Maschinen denken?“ behandelte Alan Turing 1950 in seiner Arbeit Computing Machinery and Intelligence.[6] Wegen der Schwierigkeit, „denken“ klar zu definieren, schlägt er vor, die Frage durch einen Verhaltens-Intelligenztest zu ersetzen, der heute allgemein als Turing-Test bezeichnet wird: Ein Fragesteller unterhält sich schriftlich mit zwei ihm unbekannten Gesprächspartnern, einem Menschen und einem Computer. Nach fünf Minuten muss der Fragesteller entscheiden, wer der Mensch und wer der Computer ist. Turing erwartet, dass es in etwa fünfzig Jahren möglich sein wird, Computer … so zu programmieren, dass sie das Imitationsspiel (den Turing-Test) so gut spielen können, dass ein durchschnittlicher Fragesteller nach fünf Minuten Befragung nicht mehr als 70 Prozent Chance hat, die richtige Identifizierung vorzunehmen.[6] Die Maschine besteht den Test also, wenn sie den Fragesteller in 30% der Fälle täuschen kann. Das Ergebnis hängt nicht davon ab, ob der Computer die Fragen richtig beantwortet, sondern nur davon, wie sehr seine Antworten denen eines Menschen ähneln. Wie Turing nachweist, genügt es, ausschließlich Computer als intelligente Maschinen zu betrachten.

Turing untersucht in seiner Arbeit ein Reihe denkbarer Einwände gegen die Möglichkeit intelligenter Maschinen, darunter fast alle Argumente, die in den nächsten 50 Jahren vorgebracht wurden.

Argumente von der Form „Maschinen werden niemals x können“[Bearbeiten]

Dabei steht x für: freundlich, einfallsreich, schön oder initativ sein, Humor haben, richtig von falsch unterscheiden, Fehler machen, aus Erfahrungen lernen, Wörter korrekt anwenden, etwas wirklich Neues tun. Turing hält diese Argumente für weitgehend unbegründet.[6]. Aus der heutigen Perspektive urteilen Russell und Norvig: „Es ist offensichtlich, dass Computer viele Dinge genauso gut oder besser als Menschen können, unter anderem auch Dinge, von denen die Menschen glauben, es wäre sehr viel Verstand und Wissen für die Ausführung erforderlich.“[2]:1178

Argument der Formlosigkeit des Verhaltens[Bearbeiten]

Im Wesentlichen handelt es sich bei diesem Argument um die Behauptung, dass das menschliche Verhalten viel zu komplex ist, als dass es durch eine einfache Regelmenge abgedeckt werden könnte, und weil Computer nichts weiter tun, als Regelmengen zu folgen, können sie kein Verhalten erzeugen, das so intelligent wie das der Menschen ist. Die Unfähigkeit, alles in einer Menge logischer Regeln auszudrücken, wird auch als Qualifizierungsproblem der KI bezeichnet.[2]:1180 Der wichtigste Vertreter dieses Arguments ist Hubert Dreyfus. In seinen einflussreichen Büchern What Computers Can’t Do: The Limits of Artificial Intelligence[7] und What Computers Still Can’t Do: A Critique of Artificial Reason[8] bezweifelt er, dass eine Maschine gesunden Menschenverstand (englisch common sense) haben kann und vertrat die Ansicht, dass menschliche Intelligenz und Expertise vor allem auf schnellen intuitiven Urteilen beruht und nicht auf schrittweiser symbolischer Manipulation, Menschen arbeiten mit einem „ganzheitlichen Kontext“ oder „Hintergrund“.

In Mind over machine – the power of human intuition and expertise in the era of the computer[9] schlägt er gemeinsam mit seinem Bruder, dem Informatiker Stuart Dreyfus, einen fünf Phasen umfassenden Prozess für das Sammeln von Erfahrungen vor, der mit einer regelbasierten Verarbeitung (analog der Hypothese über physische Symbolsysteme) beginnt und mit der Fähigkeit, die richtigen Antworten unmittelbar auszuwählen, endet. Dabei weisen sie auf eine Reihe von Problemen hin, die Masschinen nach ihrer Ansicht nicht leisten können: Verallgemeinerung von Beispielen, Lernen in neuronalen Netzen ohne externen Trainer, Lernalgorithmen für große Merkmalsmengen und die im menschlichen Gehirn vorhandene Fähigkeit, Sensoren so auszurichten, dass in der gegebenen Situation relevante Informationen gesucht und verarbeitet werden.[2]:1181 Insgesamt sind viele der Aspekte, auf die sich Dreyfus konzentriert hat – Hintergrundwissen, das Qualifikationsproblem, Unsicherheit, Lernen, kompilierte Arten der Entscheidungsfindung – in der Tat wichtige Fragen und sie werden inzwischen beim Standardentwurf intelligenter Agenten berücksichtigt. Unserer Meinung nach ist dies der Beweis für den Fortschritt der KI, nicht für ihre Unmöglichkeit.[2]:1182

Mathematisches Argument[Bearbeiten]

In der mathematischen Logik gibt es eine Reihe von Resultaten, die zeigen, dass es Grenzen für die Fähigkeiten von Digitalrechnern gibt. Am bekanntesten ist der Gödelsche Unvollständigkeitssatz von 1931, der zeigt, dass man in einem widerspruchsfreien formalen System – das die Arithmetik der natürlichen Zahlen enthält – immer eine Aussage (sog. Gödel-Aussage) konstruieren kann, die in diesem System weder formal bewiesen noch widerlegt werden kann, obwohl sie wahr ist. Ähnliche Ergebnisse stammen von Alonzo Church[10] und von Turing selbst[11]. In der letztgenannten Arbeit zum Halteproblem beweist er folgendes paradoxe Ergebnis: Wenn es eine Turingmaschine T gäbe, die für jede beliebige andere Turingmaschine entscheiden könnte, ob sie bei gegebenen Anfangswerten zu einem Ende kommt oder endlos weiterläuft, dann könnte man für sie eine „pathologische“ Maschine P konstruieren, die anhält, wenn T die Haltefrage mit „Nein“ beantwortet, und die endlos weiterläuft, wenn T sie mit „Ja“ beantwortet. Der mathematische Einwand lautet dann: „Es gibt Grenzen für Maschinen, denen der menschliche Verstand nicht unterliegt“.

Gödel selbst hat 1951 in einem Vortrag aus dem Unvollständigkeitssatz die Schlussfolgerung abgeleitet:

  • (a) Entweder der menschliche Geist ist keine konsistente endliche Maschine oder
  • (b) Es existieren diophantische Gleichungen, für die nicht entschieden werden kann, ob es Lösungen für sie gibt.

Da ihm (b) unplausibel schien, glaubte er, dass der menschliche Geist nicht mit einer endlichen Maschine gleichzusetzen ist, war sich aber bewusst, dass sich eine solche Behauptung niemals beweisen lässt.[12]

Argumentattion von John Lucas[Bearbeiten]

Der britische Philosoph John Randolph Lucas stellte 1959 in seinem Vortrag Minds, Machines and Gödel[13] die Behauptung auf, dass Maschinen dem Menschen mental unterlegen sind, weil Maschinen wie formale Systeme durch den Unvollständigkeitssatz beschränkt sind, während Menschen keinen solchen Einschränkungen unterliegen. In seiner Argumentation geht Lucas davon aus, dass jede Maschine im Prinzip durch ein formales System dargestellt werden kann.

  • Lucas’ These war von Beginn an umstritten und verursachte jahrzehntelange Debatten. Die Einwände gegen das Lucas’sche Argument setzen bei der Konsistenz des menschlichen Verstands an, die Lucas voraussetzen muss, um den Unvollständigkeitssatz anwenden zu können. Da aber ein formales System seine eigene Konsistenz nicht beweisen kann, wie Gödel ebenfalls gezeigt hat, bleibt diese wesentliche Voraussetzung offen und die viele Kritiker erkennen auch gute Gründe, den menschlichen Verstand für inkonsistent anzusehen. Lucas hat diesen Einwand akzeptiert und sich auf den Standpunkt zurückgezogen: [Vielleicht] müssen wir unsere eigene Konsistenz voraussetzen, wenn Denken überhaupt möglich sein soll. Sie ist, vielleicht wie die Gleichförmigkeit der Natur, nicht etwas, das am Ende einer sorgfältigen Argumentationskette festgestellt werden kann, sondern eine notwendige Annahme, die wir machen müssen, wenn wir überhaupt mit dem Denken beginnen wollen.[14]
  • Paul Benacerraf wies darauf hin, dass die Konstruktion einer Gödel–Aussage für ein formales System keine einfache Aufgabe ist, sondern ein tiefes Verständnis des Systems voraussetzt. Darüber hinaus ist das formale System, das den menschliche Verstand darstellen könnte, wahrscheinlich so komplex, dass wir vielleicht nie die Einsicht in seinen Charakter erhalten, die wir brauchen, um eine Gödel–Aussage dafür zu konstruieren.[15]

Argumentation von Roger Penrose[Bearbeiten]

Roger Penrose publizierte seine Ansichten zum Thema Bewusstsein und Überlegenheit des menschlichen Denkens über den Computer erstmals 1989 in „The Emperor’s New Mind“[16] (deutsche Ausgabe: „Computerdenken. Des Kaisers neue Kleider oder Die Debatte um Künstliche Intelligenz, Bewusstsein und die Gesetze der Natur“)[17] Darin argumentierte er: Obwohl nach dem Gödelschen Unvollständigkeitssatz ein (hinreichend ausdrucksfähiges) formales System seine eigene Konsistenz nicht beweisen kann, sind menschliche Mathematiker in der Lage, die Richtigkeit von im System nicht ableitbaren Aussagen zu beweisen. Für ihn bedeutet diese Diskrepanz, dass menschliche Mathematiker nicht als formale Systeme beschreibbar sind und keinen Algorithmus ausführen, sodass die computergestützte Theorie des Geistes falsch ist und computergestützte Ansätze zur künstlichen allgemeinen Intelligenz unbegründet sind. Er stellt die Hypothese auf, dass die Quantenmechanik eine wesentliche Rolle für das Verständnis des menschlichen Bewusstseins spielt. In dem 1994 veröffentlichten Buch „Shadows of the Mind“[18] (deutsche Ausgabe: „Schatten des Geistes. Wege zu einer neuen Physik des Bewusstseins“)[19] stellt er folgende Hypothesen auf:

  • Das menschliche Bewusstsein ist nicht algorithmisch und kann daher nicht von einem herkömmlichen digitalen Computer vom Typ Turing-Maschine modelliert werden.
  • Die Quantenmechanik spielt eine wesentliche Rolle für das Verständnis des menschlichen Bewusstseins; insbesondere glaubt er, dass Mikrotubuli in Neuronen Quantenüberlagerungen unterstützen (siehe auch Thesen zum Quantenbewusstsein).
  • Der objektive Kollaps der Quantenwellenfunktion der Mikrotubuli ist entscheidend für das Bewusstsein.
  • Bei diesem Kollaps handelt es sich um ein physikalisches Verhalten, das nicht algorithmisch ist und die Grenzen der Berechenbarkeit überschreitet.
  • Der menschliche Geist verfügt über Fähigkeiten, die keine Turing-Maschine aufgrund dieses Mechanismus der nicht berechenbaren Physik besitzen könnte.

Die Orchestrated objective reduction genannte Theorie zum Quantenbewusstsein entwickelte Penrose gemeinsam mit dem amerikanischen Arzt Stuart Hameroff. Sie kombiniert Ansätze aus der Molekularbiologie, den Neurowissenschaften, der Pharmakologie, der Philosophie, der Quanteninformationstheorie und der Quantengravitation.[20][21]

Können Maschinen Bewusstsein und mentale Zustände haben?[Bearbeiten]

Der Funktionalismus vertritt die These, dass mentale Zuständen funktionale Zustände sind, wobei ein funktionaler Zustand dadurch definiert ist, dass er auf einen bestimmten Input mit einem bestimmten Output reagiert und in einen anderen funktionalen Zustand übergeht. Nach dieser Theorie hätten zwei Systeme mit isomorphen kausalen Prozessen dieselben mentalen Zustände. Aus diesem Grund könnte ein Computerprogramm dieselben mentalen Zustände wie eine Person haben. Einer der einflussreichsten Kritiker dieser Auffassung ist der amerikanische Philosoph John Searle. Um seine Ansicht zu unterstützen, entwirft er das Gedankenexperiment des Chinesischen Zimmers,[5] eines hypothetischen Systems, das ein Programm ausführt und den Turing-Test besteht, aber nach Searles Überzeugung keine seiner Eingaben und Ausgaben versteht und deshalb keine mentalen Zustände und kein Bewusstsein haben kann. Die anhaltende Kontroverse über dieses Experiment beginnt bereits im Orginalartikel, der Kommentare von mehr als 20 Peer-Reviewern und Searles Erwiderungen darauf enthält.

Das Experiment des Chinesischen Zimmers[Bearbeiten]

Für das Experiment stützt sich Searle auf das sprachwissenschaftliche Skript-Konzept von Roger Schank,[22] mit dem die menschliche Fähigkeit simuliert wird, Geschichten zu verstehen und Frage darüber zu beantworten, auch wenn die gefragte Information nicht explizit in der Geschichte erwähnt wird.

Searle, der weder chinesische Schrift noch Sprache beherrscht, stellt sich vor, er sei in ein Zimmer eingeschlossen. Im Zimmer findet er einen Stapel chinesischer Schriftstücke (Skript), einen Stapel englisch geschriebene Regeln (Programm) und einen chinesischen Text (Story). Die Regeln ermöglichen es mir, eine Gruppe von formalen Symbolen mit einer anderen Gruppe von formalen Symbolen in Beziehung zu setzen, und ‹formal› bedeutet hier, dass ich die Symbole ausschließlich anhand ihrer Form identifizieren kann. Nehmen wir nun an, ich erhalte einen dritten Stapel chinesischer Symbole (Fragen) zusammen mit einigen Anweisungen, wiederum in englischer Sprache, die es mir ermöglichen, Elemente dieses dritten Stapels mit den ersten beiden Stapeln zu verknüpfen, und diese Regeln leiten mich an, wie ich bestimmte chinesische Symbole mit bestimmten Formen zurückgeben kann als Antwort auf bestimmte Formen, die mir in der dritten Charge gegeben werden. … Nehmen wir außerdem an, dass ich nach einer Weile so gut darin werde, die Anweisungen zur Manipulation der chinesischen Symbolen zu folgen …, dass sie von außen betrachtet, also d. h. aus der Sicht von jemandem außerhalb des Raumes, in dem ich eingesperrt bin, meine Antworten auf die Fragen von denen chinesischer Muttersprachler absolut nicht zu unterscheiden sind. Niemand, der sich meine Antworten ansieht, kann erkennen, dass ich kein einziges Wort Chinesisch spreche.[5]:418 Searle im Chinesischen Zimmer hätte den Turing-Test bestanden, und die starke KI würde behaupten, dass er chinesische Texte verstanden hat.

Searles Argumente gegen Starke KI[Bearbeiten]

Aus dem Experiment des Chinesischen Zimmers leitet Searle folgende Schlüsse:[23]

  1. Der Mann im Zimmer führt rein formale Symbolmanipulation durch, er verhält sich wie ein Computer. Ein digitaler Computer, auf dem ein äquivalentes Programm zum Verstehen von Chinesisch implementiert wäre, würde dann ebenso wenig Chinesisch verstehen.
  2. Der Verstand (Geist englisch minds) hat einen mentalen oder semantischen Inhalt. Um zu denken oder eine Sprache zu verstehen muss man mehr als nur die Syntax kennen, man muss eine Bedeutung, einen gedanklichen Inhalt mit den Wörtern oder Zeichen verbinden.
  3. Die Syntax allein ist weder ausreichend noch konstitutiv für Semantik. Rein formale, syntaktisch definierte Symbolmanipulationen garantieren nicht von sich aus eine Verbindung mit einem Gedankeninhalt.
  4. Schlussfolgerung: Implementierte Programme sind nicht konstitutiv für den Geist. Starke KI ist falsch.

„Solange das Programm in Form von Rechenoperationen auf rein formal definierten Elementen beschrieben wird, legt das Beispiel nahe, dass diese für sich genommen keine interessierende Verbindung zum Verstehen haben. Sie sind sicherlich keine hinreichenden Bedingungen, und es wurde nicht der geringste Grund für die Annahme genannt, dass sie notwendige Bedingungen sind oder dass sie sogar einen signifikanten Beitrag zum Verstehen leisten. … Der programmierte Computer versteht, was ein Auto und ein Tischrechner verstehen, nämlich exakt nichts. Das Verstehen des Computers ist nicht partiell oder unvollständig; es ist Null.“

John Searle: Minds, Brains, and Programs[5]

Kritik an Searle[Bearbeiten]

  1. System-Argument: Der Mann im Zimmer ist nur eine Komponente (der Hauptprozessor) eines größeren Systems, zu dem auch das Skript, Notizzettel als Zwischenspeicher und das Programm gehören. „Searl im Zimmer“ allein versteht nicht Chinesisch, das gesamte System hingegen versteht sehr wohl Chinesisch. Searle entgegnet, wenn er die Anweisungen und die Datenbasis auswendig lernte und alle Berechnungen in seinem Kopf ausführte, dann wäre er das gesamte System und würde trotzdem nicht chinesisch verstehen, weil er den formalen Symbolen keinerlei Bedeutung zuordnen kann. Die Erwiderung, dass der englisch sprechende Searle nicht für den chinesische Zeichen manipulierenden Searle im Zimmer sprechen kann, weist er zurück.
  2. Roboter-Argument: Wenn, wie Searle annimmt, Verstehen eine Beziehung der Symbole zur Außenwelt (Intentionalität) voraussetzt, dann sollte Searle, eingebaut in einen Roboter mit Sinnesorganen und Bewegungsfähigkeit, echtes Verstehen und andere mentale Zustände haben. Searle behauptet dagegen: dass die Hinzufügung solcher „sensorischen“ und „motorischen“ Fähigkeiten nichts hinzufügt, was das Verstehen im Besonderen oder Intentionalität im Allgemeinen betrifft. … Ich manipuliere lediglich formale Symbole: Ich weiß nichts von diesen anderen Fakten. Ich empfange „Informationen“ aus dem „Wahrnehmungsapparat“ des Roboters, und ich erteile „Anweisungen“ an seinen motorischen Apparat, ohne eine dieser Tatsachen zu kennen. … der Roboter hat überhaupt keine mentalen Zustände[5]:420
  3. Gehirn-Simulator: Wenn man ein Programm entwickelte, das genau das Feuern der Synapsen im Gehirn nachbildete, dann sollte es auch Chinesisch verstehen. Searle versucht, dieses Argument ins Lächerliche zu ziehen: Man könne sich ja gleich ein System aus Wasserrohren und Ventilen vorstellen, die nach Programm gesteuert werden. Solange es nur die formale Struktur der Abfolge des Feuerns der Neuronen an den Synapsen simuliert, hat es nicht das simuliert, was das Gehirn ausmacht, nämlich seine kausalen Eigenschaften, seine Fähigkeit, intentionale Zustände zu erzeugen.[5]:421
  4. Kombiniertes Argument: Man stelle sich einen Roboter vor mit einem Computer in seinem Inneren, der das Gehirn mit all seinen Synapsen nachbildet. Searle akzeptiert, dass man diesem System Intentionalität zuschreiben würden, solange nichts über sein Inneres bekannt ist. Weiß man aber, dass in dem System nur bedeutungslose Symbole manipuliert werden, dann kann man ihm keine intentionalen Zustände zuschreiben. Anders liegen die Verhältnisse bei Primaten oder Haustieren. Wir können das Verhalten der Tiere ohne die Zuschreibung von Intentionalität nicht erklären und wir können sehen, dass die Tiere aus ähnlichem Material bestehen wie wir … [deshalb] gehen wir davon aus, dass das Tier mentale Zustände haben muss, die seinem Verhalten zugrunde liegen, und dass die mentalen Zustände durch Mechanismen erzeugt werden müssen, die aus dem gleichen Material stammen wie bei uns.[5]:421 Richard Rorty stellt fest: Searle weiß im voraus, dass „nur etwas, das die gleichen kausalen Kräfte wie das Gehirn hat, Intentionalität haben kann“.[5]:446 Andere ordnen diese Auffassung als biologischen Naturalismus ein.[2]:1188

Ethik der Künstlichen Intelligenz[Bearbeiten]

Die Ethik der künstlichen Intelligenz ist der Teilbereich der Technikethik, der sich speziell mit künstlich intelligenten Systemen befasst. Sie beschäftigt sich auf der einen Seite mit dem moralischen Verhalten von Menschen, die künstlich intelligente Systeme entwerfen, herstellen, nutzen und behandeln, und auf der anderen Seite mit dem Verhalten von Maschinen, der Maschinenethik. Dazu gehört auch die Frage einer möglichen Singularität aufgrund einer superintelligenten KI.

Ethische Grundsätze für den Einsatz der Künstlichen Intelligenz[Bearbeiten]

Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung empfiehlt wertebasierte Grundsätze für KI-Anwendungen: [24]

  1. Integratives Wachstum, nachhaltige Entwicklung und Wohlstand
  2. Auf den Menschen ausgerichtete Werte und Fairness
  3. Transparenz und Erklärbarkeit
  4. Robustheit, Sicherheit und Unbedenklichkeit
  5. Rechenschaftspflicht

Auf der Asilomar Conference on Beneficial AI war eine vom Future of Life Institute organisierte Konferenz, die vom 5. bis 8. Januar 2017 auf den Asilomar Conference Grounds in Pacific Grove stattfand, haben über 100 Forscher aus den Bereichen Wirtschaft, Recht, Ethik und Philosophie Grundsätze für nutzbringenden Einsatz der KI erörtert und Leitlinien formuliert.[25]

  1. Sicherheit: KI-Systeme sollten während ihrer gesamten Betriebsdauer nachprüfbar sicher und zuverlässig sein, sofern dies möglich und sinnvoll ist.
  2. Fehlertransparenz: Wenn ein KI-System einen Schaden verursacht, sollte es möglich sein, die Gründe dafür zu ermitteln.
  3. Gerichtliche Transparenz: Jede Beteiligung eines autonomen Systems an gerichtlichen Entscheidungen sollte eine zufriedenstellende Erklärung liefern, die von einer zuständigen menschlichen Behörde überprüft werden kann.
  4. Verantwortung: Die Entwickler und Konstrukteure fortschrittlicher KI-Systeme sind Stakeholder bei den moralischen Auswirkungen der Nutzung, des Missbrauchs und der Handlungen dieser Systeme und haben die Verantwortung und die Möglichkeit, diese Auswirkungen zu gestalten.
  5. Werteausrichtung: Hochgradig autonome KI-Systeme sollten so konzipiert sein, dass ihre Ziele und ihr Verhalten während ihres gesamten Betriebs mit den menschlichen Werten in Einklang gebracht werden können.
  6. Menschliche Werte: KI-Systeme sollten so konzipiert und betrieben werden, dass sie mit den Idealen der Menschenwürde, der Rechte und Freiheiten sowie der kulturellen Vielfalt vereinbar sind.
  7. Persönliche Privatsphäre: Die Menschen sollten das Recht haben, auf die von ihnen erzeugten Daten zuzugreifen, sie zu verwalten und zu kontrollieren, da KI-Systeme in der Lage sind, diese Daten zu analysieren und zu nutzen.
  8. Freiheit und Privatsphäre: Die Anwendung von KI auf personenbezogene Daten darf die tatsächliche oder gefühlte Freiheit der Menschen nicht unangemessen einschränken.
  9. Gemeinsamer Nutzen: KI-Technologien sollten so vielen Menschen wie möglich zugute kommen und sie unterstützen.
  10. Geteilter Wohlstand: Der durch KI geschaffene wirtschaftliche Wohlstand sollte breit gestreut werden, damit die gesamte Menschheit davon profitiert.
  11. Menschliche Kontrolle: Der Mensch sollte entscheiden, wie und ob er Entscheidungen an KI-Systeme delegiert, um von ihm gewählte Ziele zu erreichen.
  12. Keine Gefährdung der Gesellschaft: Die durch die Kontrolle hochentwickelter KI-Systeme übertragene Macht sollte die sozialen und staatsbürgerlichen Prozesse, von denen das Wohlergehen der Gesellschaft abhängt, respektieren und verbessern, anstatt sie zu untergraben.
  13. KI-Wettrüsten: Ein Wettrüsten bei tödlichen autonomen Waffen sollte vermieden werden.

Der Deutsche Ethikrat veröffentlichte am 20. März 2023 seine Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“.[26] „Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern. KI darf den Menschen nicht ersetzen. Das sind grundlegende Regeln für die ethische Bewertung.“[27] Die Stellungsnahme gibt Empfehlungen für den Einsatz der KI in den Bereichen Medizin, schulische Bildung, öffentliche Kommunikation und öffentliche Verwaltung.

Aufruf zu einer Entwicklungspause für KI-Systeme[Bearbeiten]

Das Future of Life Institute veröffentlichte am 23. März 2023 einen offenen Brief, der zu einer Entwicklungspause für fortgeschrittene Systeme der Künstlichen Intelligenz (KI) aufruft. Innerhalb von 10 Tagen haben fast 1.800 Personen den Brief unterschrieben, darunter Yuval Noah Harari, Elon Musk, Stuart Jonathan Russell und Steve Wozniak.[28]

Die Autoren erkennen einen „außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer KI-Systeme, die niemand verstehen, vorhersagen oder zuverlässig kontrollieren kann“. Sie sehen darin tiefgreifende Risiken für die Gesellschaft und die Menschheit. Es bestehe die Gefahr, dass Informationskanäle mit Propaganda und Unwahrheiten geflutet und auch erfüllende Jobs wegrationalisiert würden. Sie fragen: „Sollen wir riskieren, die Kontrolle über unsere Zivilisation zu verlieren?“[28]

Alle KI-Labore werden in dem Schreiben aufgefordert, „das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, unverzüglich für mindestens sechs Monate zu unterbrechen“. Dabei gehe es nicht um eine generelle Pause in der KI-Entwicklung, sondern lediglich um eine „Abkehr vom gefährlichen Wettlauf zu immer größeren, unberechenbaren Modellen mit emergenten Fähigkeiten“. „Die KI-Forschung und -Entwicklung sollte sich darauf konzentrieren, die heutigen leistungsfähigen, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.“[28]

Die Pause soll dem Text des Schreibens gemäß für folgende Aufgaben genutzt werden:[28]

  • Erarbeitung von Sicherheitsprotokollen für Design und Entwicklung fortgeschrittener KI
  • Schaffung robuster KI-Governance-Systeme, von Regulierungsbehörden, sowie eines Prüfungs- und Zertifizierungssystems für KI
  • Entwicklung von Herkunfts- und Wasserzeichensystemen zur Unterscheidung zwischen echten und synthetischen Daten und zur Nachverfolgung von Modelllecks
  • Einführung von Haftungsregelungen für durch KI verursachte Schäden
  • Sicherung einer öffentlichen Finanzierung für technische KI-Sicherheitsforschung

Weblinks[Bearbeiten]

  • Selmer Bringsjord, Naveen Sundar Govindarajulu: Artificial Intelligence. In: The Stanford Encyclopedia of Philosophy (Fall 2022 Edition). Edward N. Zalta, Uri Nodelman, abgerufen am 23. März 2023 (english, Related Entries verweisen auf weitere relevante Artikel).
  • Larry Hauser: Artificial Intelligence. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (english).
  • Thomas W. Polger: Functionalism. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (english).
  • Larry Hauser: Chinese Room Argument. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (english).
  • Jonathan Waskan: Connectionism. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (english).
  • John-Stewart Gordon, Sven Nyholm: Ethics of Artificial Intelligence. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (english).
  • Jason Megill: The Lucas-Penrose Argument about Gödel’s Theorem. In: Internet Encyclopedia of Philosophy. Abgerufen am 23. März 2023 (english).
  • Map of the Great Debates of AI. Abgerufen am 20. März 2023 (english).

Einzelnachweise[Bearbeiten]

  1. Vincent C. Müller: Introduction: Philosophy and Theory of Artificial Intelligence. In: Minds & Machines. Band 22, 2012, S. 67–69, doi:10.1007/s11023-012-9278-y.
  2. 2,0 2,1 2,2 2,3 2,4 2,5 2,6 Stuart Russell, Peter Norvig: Künstliche Intelligenz. 3. Auflage. Pearson, München 2012, ISBN 978-3-86894-098-5.
  3. Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien: Erklärung zu künstlicher Intelligenz, Robotik und „autonomen“ Systemen. Europäische Kommission, Generaldirektion Forschung und Innovation, abgerufen am 1. Mai 2023.
  4. John McCarthy, Marvin Minsky, Nathaniel Rochester, Claude Shannon: A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. Abgerufen am 12. März 2023.
  5. 5,0 5,1 5,2 5,3 5,4 5,5 5,6 5,7 John R. Searle: Minds, Brains, and Programs. In: The Behavioral and Brain Sciences. Band 3, Nr. 3, 1980, S. 417–457, doi:10.1017/S0140525X00005756.
  6. 6,0 6,1 6,2 Alan M. Turing: Computing Machinery and Intelligence. In: Mind. Band LIX, Nr. 236, 1950, ISSN 0026-4423, S. 433–460 ([1]).
  7. Hubert Dreyfus: What Computers Can’t Do: The Limits of Artificial Intelligence. 1972, ISBN 0-06-090613-8. Deutsche Ausgabe: Was Computer nicht können. Die Grenzen künstlicher Intelligenz. Athenäum, Königstein/Ts. 1985. ISBN 3-7610-8369-6.
  8. Hubert Dreyfus: What Computers Still Can’t Do: A Critique of Artificial Reason. MIT Press, 1979, ISBN 0-262-04134-0 (3. Auflage 1992).
  9. Hubert Dreyfus, Stuart E. Dreyfus: What Computers Still Can’t Do: A Critique of Artificial Reason. Basil Blackwell, Oxford 1986. Deutsche Ausgabe: Künstliche Intelligenz – Von den Grenzen der Denkmaschine und dem Wert der Intuition, ISBN 978-3-499-18144-3, Rowohlt Hamburg 1991:
  10. Alonzo Church: An Unsolvable Problem of Elementary Number Theory. In: American Journal of Mathematics. Band 58, Nr. 2, 1936, S. 345–363, doi:10.2307/2371045.
  11. A. M. Turing: On Computable Numbers, with an Application to the Entscheidungsproblem. In: Proceedings of the London Mathematical Society. s2-42, Nr. 1, 1937, S. 230–265, doi:10.1112/plms/s2-42.1.230.
  12. Kurt Gödel: Some basic theorems on the foundations of mathematics and their implications. In: Solomon Feferman (Hrsg.): Kurt Gödel Collected works. Band III. Oxford University Press, 1995, ISBN 0-19-514722-7, S. 304–324.
  13. John R. Lucas: Minds, Machines and Gödel. In: Philosophy. Band 36, Nr. 137, 1961, S. 112–127, doi:10.1017/S0031819100057983.
  14. John R. Lucas: This Gödel is killing me: A rejoinder. In: Philosophia. Band 6, Nr. 1, 1976, S. 145–148.
  15. Paul Benacerraf: God, The Devil, And Gödel. In: The Monist. Band 51, Nr. 1, 1967, S. 9–31, doi:10.5840/monist196751112.
  16. Roger Penrose: The Emperor’s New Mind. Oxford University Press, Oxford 1989, ISBN 0-14-014534-6.
  17. Roger Penrose: Computerdenken. Des Kaisers neue Kleider oder Die Debatte um Künstliche Intelligenz, Bewusstsein und die Gesetze der Natur. Spektrum der Wissenschaft, Heidelberg 1991, ISBN 3-8274-1332-X.
  18. Roger Penrose: Shadows of Mind. Oxford University Press, Oxford 1994, ISBN 0-19-853978-9.
  19. Roger Penrose: Schatten des Geistes. Wege zu einer neuen Physik des Bewusstseins. Spektrum der Wissenschaft, Heidelberg 1995, ISBN 3-86025-260-7.
  20. Stuart Hameroff, Roger Penrose: Reply to seven commentaries on “Consciousness in the universe: Review of the ‘Orch OR’ theory”. In: Physics of Life Reviews. 11, Nr. 1, 2014, S. 94–100. bibcode:2014PhLRv..11...94H. doi:10.1016/j.plrev.2013.11.013.
  21. Roger Penrose: On the Gravitization of Quantum Mechanics 1: Quantum State Reduction. In: Foundations of Physics. 44, Nr. 5, 2014, S. 557–575. bibcode:2014FoPh...44..557P. doi:10.1007/s10701-013-9770-0.
  22. Roger C. Schank, Robert P. Abelson: Scripts, Plans, Goals, and Understanding. 1. Auflage. Psychology Press, New York 1977.
  23. John R. Searle: Chinese Room Argument. In: Robert A. Wilson, Frank C. Keil (Hrsg.): The MIT Encyclopedia of the Cognitive Sciences (MITECS). 1999, ISBN 0-262-33816-5, S. 115–116 (mit.edu [abgerufen am 2. April 2023]).
  24. OECD AI Principles. Abgerufen am 30. März 2023 (english).
  25. AI Principles. Future of Life Institute, abgerufen am 29. März 2023 (english).
  26. Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. (PDF) Deutscher Ethikrat, abgerufen am 7. April 2023.
  27. Pressemitteilung 02/2023. Deutscher Ethikrat, abgerufen am 7. April 2023.
  28. 28,0 28,1 28,2 28,3 Pause Giant AI Experiments: An Open Letter. Future of Life Institute, abgerufen am 29. März 2023 (english).


Diese artikel "Philosophie der Künstlichen Intelligenz" ist von Wikipedia The list of its authors can be seen in its historical and/or the page Edithistory:Philosophie der Künstlichen Intelligenz.



Read or create/edit this page in another language[Bearbeiten]