Die Dummheit künstlicher Intelligenz

Die Dummheit künstlicher Intelligenz


zu Wissen und Gewissheit artifizieller Kognitionssysteme
(AK Phänomenologie)

  Peter Stegmaier und Michaela Pfadenhauer

Session 1-4: Die Dummheit künstlicher Intelligenz 1/2

E 314

Donnerstag, 11:00-13:00 Uhr

 

Thorsten Szydlik (Marburg)

KIs und User: Zur Repräsentation des interaktionalen Gegenübers in Mensch-Maschine-Dyaden

Antonia Schirgi
(Graz)

Sprachlich-intersubjektive „Dummheit“ der Künstlichen „Intelligenz“. Eine Erkundung der sprachlich-sozialen Limitationen von KI mithilfe der Philosophie Merleau-Ponty 

Oliver Schürer
(Wien) & 

Christoph Hubatschke
(Wien)

Aliens unter uns; Artifizielle Ignoranz, Artifizielle Introspektion oder Artifizielle Intuition

 

Session 2-4: Die Dummheit künstlicher Intelligenz 2/2 

E 314

Donnerstag, 14:00-16:00 Uhr

 

Jeffrey White 
(Twente)

Artificial Objectification, its potential and reality

 

Peter Stegmaier (Twente)

The stupidity of artificial and human intelligence – on the limitations of certainty

 

Die Behauptung von Intelligenz provoziert zur Suche nach der Dummheit. Dahinter steht mehr als ein Wortspiel. Es geht um die Frage, wie soziotechnische Systeme, die intelligentes Verhalten und Lernen automatisieren sollen, wissen; wie sie „wahrnehmen“; wie sie Informationen verarbeiten; wie sie „entscheiden“; wie „unwissend“ sie sind und wie sie „unwissend“ sind.

Wenn der Fokus hier auf Gewissheit liegen soll, dann steht gleichermaßen die Frage nach der Ungewissheit künstlicher Intelligenz (KI) im Raum. Zu fragen wäre: Ist Gewissheit das Wissen um das Wissen? Das Wissen um die Ungewissheit, in die man sich begibt, wenn man handelt? Das Streben nach Gewissheit statt je über dieses vollkommen zu verfügen (analog der ‚bounded rationality‘-Prämisse)? Wird Gewissheit bereits vorsprachlich/prä-reflexiv „erfahren“, bevor sie überhaupt „erlebt“ werden kann?

Es könnte ratsam sein, sich zum einen Schritt für Schritt an die Problematik heranzuarbeiten und dabei damit zu beginnen, einen menschenbezogenen Begriff von Gewissheit bzw. Ungewissheit zu entwickeln, um ihn dann auf KI anzulegen und anschließend die Unterschiede herauszuarbeiten. Eine Herausforderung dabei wird sein, sowohl die Angebote verschiedener phänomenologischer Strömungen zu nutzen ohne die systematischen Unterschiede zu verwischen; eine andere, weder die Maschinenintelligenz zu vermenschlichen noch das menschliche Bewusstsein zu „maschinalisieren“. Das könnte eventuell weder dem menschlichen Bewusstsein noch dem Äquivalent der KI, sollte es dies einmal geben, gerecht werden.

Wir fragen also erstens, in welcher Weise man die oben nur ganz pauschal angedeutete Problematik phänomenologisch deuten kann: Was und wie soziotechnische Systeme, die als KI entwickelt werden, „wissen“ und ob sie über so etwas wie Gewissheit verfügen können – falls die Begriffe überhaupt anwendbar sind. „Wissen“ KI-Automaten? Wie verarbeiten sie Informationen, die sie aus der Umwelt oder auch dem eigenen System aufnehmen, wenn man die Vorgänge von der Warte einer menschenbezogenen Phänomenologie aus betrachtet? Wie „lernen“ sie – was bedeutet lernen, wenn man vom Verständnis eines lernenden Menschen ausgeht? Sind KI-Maschinen moralische Intelligenzautomaten – ist in eine KI eine Art von Wissen darüber, was richtig ist, eingebaut? Sind sie moralisch lernfähig? Wann könnte sich etwas Analoges zum menschlichen Bewusstsein einstellen, unter welchen Bedingungen, und wie würde man dies feststellen können? Wie sieht es aus mit verschiedenen Arten von KI, wenn man sie phänomenologisch durchleuchtet – wie universal ist das, was KI konstituiert, und wo fangen die Varianzen an, die Intelligenzautomaten in Interaktion mit ihrer Umgebung (auch Menschen) mitkonstruieren (und schon wieder eher wissenssoziologisch zu fassen ist): schon auf der Konstitutionsebene oder erst in der sozialen Welt?

Zum anderen könnte auch untersucht werden, wie und inwieweit die Phänomenologie instruktiv sein kann, die Entwicklung der besonderen Qualität künstlicher Intelligenz voranzutreiben, oder ob und ab welchem Punkt eine im engeren Sinne zur Phänomenologie analoge Wissenschaft künstlicher Intelligenz zu entwerfen ist. Fragen in dieser Richtung könnten etwa lauten: Ist eine Automaten-Phänomenologie überhaupt denkbar? Wäre sie post-phänomenologisch, wie schon einmal vorgeschlagen für Technikbezüge, oder eher „anders-phänomenologisch“, zu einer parallelen Phänomenologie führend mit ganz eigentümlichen KI-Qualitäten, damit auch viel spezifischer als die Post-Phänomenologie?

Wir würden es begrüßen, wenn phänomenologisch Denkende eine möglichst große Bandbreite von Spielarten des Begreifens von KI in phänomenologischen Begriffen in diesem Arbeitskreis diskutieren wollten und zugleich auch für (wissens-) soziologische Anschlussfragestellungen offenblieben (da wir hier Phänomenologie nicht als Selbstzweck betreiben). Wir würden es außerdem begrüßen, keine wertend verstandene Bezugnahme auf die mögliche Dummheit der KI vorgelegt zu bekommen, denn es könnte in höchstem Maße dumm sein, die (kaum zu vermeidenden) blinden Flecken der KI für einfach nur dysfunktional zu halten. Sie würden die KI überdies so vergleichbar mit dem Menschen machen. Und von dieser Vergleichbarkeit lebt die Chance, das Andere (den Anderen, die Andere) wenigstens annäherungsweise verstehen zu können.

Die Organisatorinnen und Organisatoren des Arbeitskreises Phänomenologie freuen sich über aussagekräftige einseitige Abstracts bis zum 31.03.2019 an Peter Stegmaier (p.stegmaier@utwente.nl) und Michaela Pfadenhauer (michaela.pfadenhauer@univie.ac.at).