Können Maschinen rassistisch sein?

Exkursionen sind Zeiten einer Pandemie schwierig. Doch so manchen erfreulichen Nebeneffekt bringt der Digitalisierungsschub sicherlich mit sich. So hatte der Grundkurs von Hr. Kurz die Möglichkeit die öffentliche Anhörung zum Thema Schnittstellen von Mensch-Maschine und Künstlicher Intelligenz des Deutschen Ethikrates im Livestream zu verfolgen. Der Deutsche Ethikrat ist ein unabhängiger Sachverständigenrat, welcher in jüngster Zeit vor allem durch die Ausarbeitung ethischer Kriterien für die Impfreihenfolge medial präsent war. Doch die Themen, mit denen sich dieses Gremium auseinandersetzt, sind breit, so breit wie die Palette ethisch relevanter Diskussionsfelder nun einmal ist. Die von uns besuchte Anhörung behandelte „die gesellschaftlichen Auswirkungen der Digitalisierung und den damit verbundenen ethischen Fragen des Verhältnisses von Mensch und Maschine. Im Mittelpunkt (standen) (..) Entwicklungen auf dem Gebiet der Künstlichen Intelligenz und die immer stärkere Durchdringung aller Lebensbereiche mit digitalen Technologien.“

Nicht immer muss es dabei um science fiction gehen. Ein konkretes Beispiel ist etwa ein automatischer Seifenspender, welcher nicht auf Hände dunkler Hautfarbe reagiert, da bei der Entwicklung offensichtlich diese Option nicht getestet wurde und der Sensor nicht immer anspringt. In der anschließenden Reflexion im Grundkurs ergab sich dabei eine lebhafte Diskussion verschiedener Optionen: Kann eine Maschine rassistisch sein oder sind es vielmehr die Hersteller, welche hier eine gesellschaftliche Struktur implizit reproduzieren? Algorithmen, die in etwa Suchbegriffe mit bestimmten Geschlechtskategorien und Hautfarben automatisch vervollständigen, in denen der Anwalt ein weißer Mann, der Fußballer ein schwarzer Sportler und die Putzkraft eine Frau ist. Harmlose Beispiele unausgegorener Technik oder eine problematische Verstärkung von Vorurteilen? Eine Schülerin äußerte die These, dass sowohl Menschen als auch Künstliche Intelligenz fehlbar und voreingenommen sind. Warum sollten Maschinen ein untrügliches Konzept fairer Gerechtigkeitsprinzipien haben, wenn sich die Menschen schon nicht darüber einig werden können? Bei Maschinen finden wir es aber problematischer, weil wir ihnen keine Verantwortung zuschreiben können oder wollen, so ein Schüler. Könnte man den Maschinen einen ethischen Kodex einschreiben? In Zeiten von maschinellem Lernen, bei dem das Programm selbst lernt und Regeln fortschreibt, ein schwieriges Unterfangen. Zur gesellschaftlichen Überwindung und dem Verzeihen von erlittenen Diskriminierungserfahrungen gehört sicherlich als zentraler Begriff die Einsicht in Unrecht. Doch ist dieser nicht nur für Menschen anwendbar? Verantwortung braucht ein Gewissen, so die These einer Schülerin. Überhaupt: Gibt es nicht bestimmte Bereiche der Gesellschaft, die prinzipiell nicht berechenbar sind, welche sich einer Digitalisierung also prinzipiell verschließen? Welche Rolle spielen die Gefühle an der Schnittstelle Mensch – Maschine?

Schließlich war das Stimmungsbild im Grundkurs geteilt. Wurde auf der einen Seite vor der zunehmenden Auswirkung der Digitalisierung gewarnt, nicht zuletzt durch die Gefahr der Manipulierbarkeit von Technik, gab es auch Stimmen, welche die technischen Fortschritte optimistisch einschätzen, da in der Tat viele berechenbare Prozesse automatisiert ablaufen und uns dadurch das Leben erleichtern. Verantwortung übernehmen, so die einhellige Meinung des Kurses, müssen letztendlich die Entwickler und Nutzer.

G. Kurz