close
Stern

Gutachten der Datenethikkommission: Wie stoppt man Hassmaschinen? Christiane Woopen über die Macht der Maschinen

Gutachten der Datenethikkommission: Wie stoppt man Hassmaschinen? Christiane Woopen über die Macht der Maschinen




In dem Gutachten der Datenethikkommission prangern Sie ein “Vollzugsdefizit” gegenüber “marktmächtigen Unternehmen” an. Tut die Politik bisher zu wenig, um Facebook, Google und Amazon Grenzen zu setzen?Ja, nach unserer Auffassung tut die Politik zu wenig, um den massiven Machtverschiebungen im wirtschaftlichen und gesellschaftlichen Bereich entgegenzuwirken. Das untergräbt das Vertrauen in die politische Gestaltungskraft. Deswegen ist die Kommission überzeugt, dass hier auch der Vollzug der guten Regeln, die es schon gibt, besser umgesetzt werden muss.  Wir benötigen allerdings auch neue Regeln.Auf knapp 240 Seiten geben Sie 75 “Handlungsempfehlungen“, wie die Politik mit Daten und vor allem “algorithmischen Systemen” umgehen soll. Sie empfehlen zum Beispiel, dass Messenger-Dienste und soziale Netzwerk zur Interoperabilität verpflichtet werden sollen. Das würde etwa bedeuten, dass Facebook den direkten Austausch zwischen Whatsapp und Telegram ermöglichen müsste.Bürger und Verbraucher sollen die Wahl haben und nicht von einzelnen Unternehmen gleichsam gefesselt werden,  mit so genannten Lock-in-Effekten. Deshalb ist es wichtig, dass Daten interoperabel sind und man einen Dienstewechsel vollziehen kann.In dem Gutachten empfehlen Sie auch eine Kennzeichnungspflicht für besonders kritische algorithmische Systeme. Was soll da gekennzeichnet werden?Social Bots zum Beispiel. Auf den ersten Blick muss mir klar sein, dass hier keine Person mit mir spricht, sondern ein algorithmisches System Nachrichten versendet.Bestimmte digitale Technologien stuft die Kommission als “systemrelevant für die Demokratie” ein, Sie schreiben, etwas kryptisch, von “Medienintermediären mit Torwächterfunktion für die Demokratie”. Wen genau meinen Sie damit?Wir meinen Medienintermediäre, die eine große Reichweite haben, die also viele, viele Menschen erreichen und die durch ihre algorithmischen Systeme definieren, mit welchen Inhalten wir zuerst und besonders eindringlich konfrontiert werden. Damit prägen sie die gesellschaftliche Debatte, die eine zentrale Bedeutung für unserer Demokratie hat.Also wieder Facebook, Youtube …… ja, auch solche Intermediäre, die die Kommunikation zwischen den Menschen weitreichend und tiefgehend beeinflussen.Die digitalen Firmen nutzen Empfehlungsalgorithmen, quasi Redakteure neuen Typs.Mir wäre daran gelegen, dass menschliche Redakteure die Medienlandschaft dominieren.Mir auch. Aber in Ihrem Gutachten fordern sie einen tiefen Einblick, wie die maschinellen Auswahlsysteme funktionieren. Sollen die sozialen Netzwerke ihre Empfehlungsalgorithmen offenlegen?Ja, nicht gegenüber jedem, aber gegenüber einer Aufsichtsbehörde. Wir haben für algorithmische Systeme insgesamt ein Bewertungsmodell mit fünf Risikostufen vorgeschlagen – die fünfte ist am kritischsten und mit Verboten oder Teilverboten verbunden. Die machtvollen, sozialen Medienintermediäre würden mit manchen ihrer Anwendungen ganz sicher unter die Stufe 4 fallen. Das bedeutet, dass sie sich einer ausführlichen Kontrolle unterziehen müssten. Das kann auch so weit gehen, dass sie sich bestimmte Algorithmen ex-ante, also vorab, lizensieren lassen müssten.Sprachassistenten weiblich_9.35Das wäre dann ähnlich wie bei der Zulassung von Medikamenten. Ein Algorithmus wird darauf untersucht, ob er die Demokratie vergiftet.So ist es. Das ist jedenfalls eine der Maßnahmen, die die Datenethikkommission für hoch risikobehaftete algorithmische Systeme vorsieht.Wenn man Facebook zwingt, seine Algorithmen offen zu legen, dann ist das extrem wirtschaftsfeindlich.Warum? Zu zeigen, dass man kein Risiko für die demokratisch-freiheitliche Grundordnung darstellt, halte ich durchaus für angemessen. Die Sicherung der Demokratie ist wichtiger als der wirtschaftliche Erfolg eines Unternehmens – und kommt zudem auch der Wirtschaft zugute.Aber auf welcher Grundlage soll man das überprüfen? In Ihrem Gutachten fordern Sie “eine tendenzfreie, ausgewogene und plurale Meinungsvielfalt abbildende Zusammenstellung von Beiträgen und Informationen”. Soll das ein Wahrheitsministerium regeln?Es geht nicht darum, dass irgendjemand die Inhalte festlegt, die berichtet werden. Es soll nur geschaut werden, ob tatsächlich Pluralität, also Vielfalt, gewahrt ist.Sie fordern für die sozialen Netzwerke auch Instrumente, die dem Presserecht entlehnt sind, etwa ein Recht auf Gegendarstellung. Wie soll das gehen?Wenn eine Falschnachricht erscheint und auffällt, ist das Recht gegeben, eine Gegendarstellung zu veröffentlichen. Der Betroffene – eine Person oder eine Organisation – kann sich so mit einer Gegendarstellung wehren. Das ist auch technologisch gut machbar.Facebook und Google sind für Sie zu behandeln wie klassische Medien?Nicht generell, aber sie müssen sich den Prinzipien unterwerfen, die auch für klassische Medien gelten, um eine demokratisch-freiheitliche Grundordnung zu gewährleisten und zu fördern. Da spielen die sozialen Medien eine ausgesprochen wichtige Rolle. Und es kann nicht sein, dass ausgerechnet für diejenigen andere Regeln gelten, die über die meisten Daten verfügen, die technologisch am weitesten sind, die im Geld schwimmen und damit eine unglaubliche Gestaltungsmacht haben.Die Kommission empfiehlt ausdrücklich, von der “Bezeichnung von Daten als Gegenleistung” abzusehen. Das ist merkwürdig, denn damit stellen Sie sich gegen alle, die sagen, Kunden würden für ihre Dienste de facto mit ihren Daten bezahlen. So sieht das etwa Kartellamtschef Andreas Mundt. Warum sperren Sie sich so gegen den Begriff von Daten als Gegenleistung? Weil diese Daten etwas mit Privatsphäre zu tun haben. Und mit Privatsphäre als einem wesentlichen Element der persönlichen Integrität zu bezahlen, das hieße, sich selber im Kern zu kommerzialisieren. Das halten wir für den falschen Ansatz. Auch wenn die Datenfreigabe faktisch derzeit weit verbreitet ist, heißt das ja nicht, dass wir das durch unsere Sprache und daran anknüpfende Konzepte noch befördern sollten.Okay. Das ist die Bewertung. Aber Sie scheinen zu sagen: Es kann nicht sein, was nicht sein darf.Nein, wir haben nicht gesagt, dass es nicht so ist. Wir sind ja nicht naiv. Viele Menschen tun das aber, weil es oft eben keine Alternativen gibt. Deswegen empfiehlt die Datenethikkommission, dass in bestimmten Bereichen auch Bezahlmodelle angeboten werden müssen.Sie lehnen auch den Begriff des Dateneigentums ab. Dabei beginnen viele kritische Analysen genau hier. Shoshana Zuboff etwa prangert den “Überwachungskapitalismus” an. Sie argumentiert, dass soziale Ungleichheit durch die ungleiche Ausbeutung von Datenschätzen entsteht. Warum wehren Sie sich gegen die Eigentumsanalogie?Weil die nicht differenziert genug ist und mehr Probleme schafft als löst. Wir haben in dem Gutachten erhebliche Bemühungen angestellt, um ein ausgewogenes System vorzustellen, das den Zugang zu Daten sowie damit verbundene Rechte und Pflichten definiert. Es soll dazu dienen Wertschöpfung zu fördern und Datennutzungen zu ermöglich, die dem Gemeinwohl dienen.Die Bundesregierung hat Sie gebeten, sich mit der Frage auseinanderzusetzen, unter welchen Bedingungen Algorithmen – also Maschinen – Entscheidungen treffen können. In manchen Bereichen ist es weitgehend unkritisch, wenn Programme etwa einen Getränkeautomaten managen. In anderen Bereichen, vor allem in der Medizin, ist es sehr kritisch. Sie sprechen hier von “Systemkritikalität” – zumindest begrifflich ein Ungetüm.Man gewöhnt sich dran.Diese Kritikalität bestimmt, wie wahrscheinlich ein Schaden ist, den ein Algorithmen anrichten kann, und wie groß er sein kann. Geht es nach Ihnen, soll die Politik ein Prüfschema entwickeln mit den erwähnten fünf Stufen, von harmlos bis hin zu Programmen mit unvertretbarem Schädigungspotenzial. Was wären Beispiele für Stufe fünf?Totalüberwachungssysteme oder “Dark Patterns”, die Nutzer durch Täuschung oder Manipulation zu einer – meist wirtschaftlich relevanten – Entscheidung bringen sollen oder “Addictive Designs”, die eine suchtartige Nutzung des Angebots herbeiführen sollen, auch Profilbildungen, die die persönliche Integrität verletzen.Sie fordern keine zentrale Stelle, die diese Kritikalität bewertet, sondern Sie setzen auf einen “Kontrollverbund für kritische algorithmische Systeme.” Auf Deutsch heißt das doch: Jeder wurschtelt so weiter wie bisher. Keiner hat das Sagen, oder? Nein, das heißt es nicht. Wir kennen ein vergleichbares Vorgehen etwa bei der Medizinprodukteverordnung. Dort müssen Sie Systeme, die Sie entwickeln und einführen, selber bewerten und einordnen. Wenn Sie das falsch machen oder betrügen, dann sind Sie dran. Außerdem wird es den sektoral ohnehin zuständigen Behörden auffallen. Der Kontrollverbund soll nur der Koordination der sektoral zuständigen Behörden dienen. Insofern kann man darauf vertrauen, dass ein solches System in der Praxis gut funktionieren wird.Es soll auch ein “bundesweites Kompetenzzentrum algorithmische Systeme” geben. Das klingt nach föderalem Hickhack, nach Beratergremien, nach ziemlich viel Dickicht und Chaos und nicht nach Durchsetzung und Vollzug. Warum haben Sie sich für diese Variante entschieden?Wir würden unseren Vorschlag selbstverständlich nicht so schildern, wie Sie das getan haben, sondern wir haben einen sehr klaren, sachdienlichen Vorschlag gemacht: Wir haben in den unterschiedlichen Bereichen Finanzen, Mobilität und so weiter funktionierende Aufsichtsbehörden.Die BaFin etwa, die Bundesanstalt für Finanzdiensleistungsaufsicht.Genau. Warum sollten wir da eine weitere Behörde daneben setzen? Das wäre doch Unsinn. Das vorgeschlagene Kompetenzzentrum soll eine Unterstützungseinheit mit sachlich-technologischer Expertise sein und keine eigene Aufsichtsfunktion haben.Sie haben sich im vergangenen Jahr sehr viel mit Algorithmen beschäftigt, auch mit selbst lernenden Algorithmen? Machen die Ihnen Angst?Ich bin kein angstbesetzter Mensch. Aber bestimmte algorithmische Systeme bringen große Gefahren mit sich. Mir macht es zum Beispiel tatsächlich große Sorge, dass man anhand von wenigen Facebook-Likes ohne weitere personenbezogene Daten in die persönliche Integrität eines Menschen so tief eindringen kann, dass das für mich eine Persönlichkeitsverletzung  darstellt. Man gibt Informationen in der Öffentlichkeit bekannt, absichtlich, weil man gerne zum Ausdruck bringt, dass man dieses Bild schön findet, dass man diese Nachricht interessant findet und so weiter. Gleichzeitig wird dann am Ende ausgerechnet, welche sexuellen Neigungen man hat, welche persönliche Lebenssituation, welche Persönlichkeitsmerkmale. Und daraufhin wird dann ausgerichtet, welche Nachrichten und welche Werbung ich bevorzugt erhalte und in welcher Art und Weise ich angesprochen werde, um etwas zu kaufen oder eine bestimmte Partei zu wählen. Diese Art der Profilbildung kann hochgradig manipulativ sein. Aus meiner Sicht gehört das verboten. Die Personalisierung und die Profilbildung dürfen auch nach Ansicht der Datenethikkommission nicht in den Kern der privaten Lebensführung eingreifen.ZuckerbergSie schreiben in dem Gutachten auch, dass es eine klare Zuordnung von Verantwortung und Rechenschaftspflichten geben muss, von Haftung. Wer haftet dann, wenn – klassisches Beispiel – ein Roboterauto im Selbstfahrmodus einen Menschen tötet. Der Fahrer, der Hersteller, der Programmierer?Die Datenethikkommission hat sich – auch aus Zeitgründen – nicht darauf verständigen können, ein dezidiertes Haftungsregime vorzuschlagen. Wir haben bestimmte Grundprinzipien dargestellt. Die machen etwa klar, dass da, wo man etwa eine Gehilfenhaftung hat, wo sich also jemand einer Hilfe bedient, dass diese Gehilfenhaftung auch auf digitale Systeme angewendet werden kann. Ob ich jetzt einen Menschen zu Hilfe nehme, der etwas für mich ausführen soll, oder ein algorithmisches System, kann durchaus nach ähnlichen Kriterien bewertet werden.Einige intelligente Systeme lernen, sie verändern sich zum Teil so, dass selbst ihre Programmierer gar nicht mehr in der Lage sind, genau nachzuvollziehen, was sich genau verändert hat. Wie wollen Sie diesem Eigenleben begegnen?Dem setzt die Datenethikkommission Einiges entgegen. Algorithmische Systeme müssen transparent und erklärbar sein, ihre Ergebnisse nachvollziehbar. Dazu gehören etwa die Daten, mit denen Algorithmen trainiert werden. Es kann durchaus zu verzerrten und diskriminierenden Entscheidungen kommen, weil in den Daten, mit denen trainiert wurde, ein bestimmter Typ Mensch besonders häufig vorkommt. Wenn Sie etwa einen Algorithmus für die Bewerberauswahl einsetzen und dieses System mit Daten lernen lassen, die vor allem Männer zwischen 30 und 40, am besten noch weißhäutig, betreffen, dann dürfen Sie sich nicht wundern, wenn im Ergebnis weibliche Bewerberinnen, die 50 sind, überhaupt nicht berücksichtigt werden.Auch die Frau Doktor mit dem türkischen Nachnamen kommt da nicht vor.Genau. Und deshalb muss der ursprüngliche Datensatz bei sensiblen algorithmischen Systemen auch überprüft werden können.Es ist möglich, dass Systeme auch ein gefährliches Eigenleben entwickeln. Das Europäische Parlament hat  vor einiger Zeit vorgeschlagen, deshalb verpflichtend einen “Kill Switch” einzubauen, einen Ausschaltknopf. Wollen Sie den auch?Ein technisches System kann keine Verantwortung übernehmen. Der Mensch muss immer die Möglichkeit haben, es abzuschalten oder in irgendeiner Weise zu umgehen.Algorithmische Systeme kennen keine Verantwortung? Warum eigentlich nicht, wenn die doch irgendwann so intelligent sind?Maschinen sind keine moralischen Wesen. Sie haben keine Gefühle, keine Präferenzen, sie können keine Güter gegeneinander abwägen. Sie haben kein Selbstbewusstsein. Insofern können sie auch keine moralische Verantwortung übernehmen. Wir schließen als Datenethikkommission deshalb auch aus, dass Roboter oder technische Systeme eine Rechtspersönlichkeit erhalten, so wie es bei Unternehmen und Organisationen der Fall sein kann. Wir dürfen hier die Kategorien nicht verwischen. Der Mensch ist das einzige Lebewesen, das eine moralische Verantwortung übernehmen kann, zwischen Gut und Böse unterscheidet, das sich selber Ziele setzt, das seine Lebensweise wählen kann und wählen muss.In Ihrem Gutachten schreiben Sie: “Dabei ist zu berücksichtigen, dass unmittelbare zwischenmenschliche Interaktion eine Vielzahl von Funktionen erfüllt, die weit über das Fällen guter Entscheidungen hinausgehen.” Soll heißen: Ein gutes Leben musst selbst in Zeiten der ständigen Selbstoptimierung nicht unbedingt ein optimal geführtes Leben sein. Ist das nicht ein bisschen gestrig?Ich halte das nicht für gestrig, ich halte das für ewig wahr. Denn bei aller Diskussion um Details müssen wir uns schon auch im Großen damit auseinandersetzen, wie wir uns selbst sehen und welche Auswirkungen die Technologisierung auf das Menschenbild hat. Der Mensch hat eine Sinn-Dimension. Wir können unserem Leben einen Sinn geben. Ein Roboter kann seinem Roboterdasein keinen Sinn verleihen, sondern er funktioniert. Er lebt nicht als eine Einheit aus Körper, Geist und Seele. Er funktioniert nach Prinzipien, die ihm von außen gegeben worden sind. Wir als Menschen verstehen uns als freie Menschen. Natürlich haben wir auch Dinge, die uns vorgegeben sind, wie etwa unsere biologische Ausstattung. Wir sind aber nicht determiniert, und wir funktionieren auch nicht ausschließlich. Wenn jeder mal in sich geht und sich überlegt, was er in seinem Leben als besonders sinnvoll empfindet, dann werden das sehr unterschiedliche Dinge sein, weil wir alle andere unterschiedliche Lebensvorstellungen haben. Aber es wird sich letztlich nicht in Funktionalitäten erschöpfen.Aber wir folgen dennoch Mustern? Warum?Es gibt Leute, die sagen, der Mensch lässt sich durch die irren Datenmengen auf Muster reduzieren, selbst die Liebe folgt diesen Mustern. Demnach ist keiner von uns etwas Besonderes, sondern komplett vorhersagbar – eben von Algorithmen. Die Einzigartigkeit, von der Sie sprechen, ist demnach Fiktion.Wir müssen da aufpassen. Eine Theorie über den Kosmos ändert nicht den Lauf der Planeten. Eine Theorie über die menschliche Natur jedoch ändert die menschliche Natur – so hat es Barry Schwartz formuliert. Wenn wir also den Menschen nur als ein Konglomerat aus Mustern begreifen, dann werden wir ihn auch so behandeln und unsere gesellschaftlichen Institutionen dementsprechend gestalten – und dann passt er sich dem nach und nach an, wenn er sich nicht ausdrücklich verweigert. Wir sehen ja genau das im Internet. Insofern ist mein großes Anliegen, dass wir den Menschen in seiner ganzen Vielschichtigkeit und Mehrdimensionalität betrachten. Nur wenn wir miteinander als Menschen und nicht als Sammlung von Mustern umgehen, werden wir uns auch je einzeln als Menschen entfalten können.Sie unterstützen in Ihrem Gutachten ausdrücklich einen “europäischen Weg” beim ethischen Umgang mit Technologien. Woran erkennt man die Europäer? Daran, dass sie immer dann hinterherhinken, wenn es um digitale Technik und Innovation geht?Nein, daran, dass der europäische Weg sich an grundlegenden Rechten und Freiheiten orientiert, dass er sich auf die Charta der Grundrechte und die Europäische Menschenrechtskonvention bezieht. Vielleicht ist dieser Weg manchmal an der einen oder anderen Stelle langsamer. Er wird aber nachhaltiger sein, weil er die Menschen mitnimmt und weil er zu Vertrauen, zu mehr Entfaltung und einer reichhaltigeren Gestaltung führt.Tatsache ist aber auch, dass wir mit Amerikanern und Chinesen auch bei der Entwicklung von Algorithmen längst nicht mehr mithalten können. Warum reden Sie so einem Weg das Wort?Europa hängt nicht in allem zurück. In der Produktion beispielsweise, in der Industrie 4.0, sind wir nach wie vor führend. Wir sind bei bestimmten Sensoren führend. Ich würde das nicht so schwarzmalen. Gleichwohl müssen wir bei bestimmten Umsetzungsfragen Gas geben, die Datenethikkommission gibt dazu auch Empfehlungen ab. Wir müssen schon darauf achten, dass wir Infrastrukturen aufbauen und Regularien haben, die uns bei aller internationalen Vernetzung trotzdem auch unabhängig machen. Die digitale Souveränität Deutschlands und Europas ist der Datenethikkommission ein zentrales Anliegen.Rund um die Bundesregierung gibt es jede Menge Beratergremien, was das Digitale betrifft. Warum glauben Sie denn, dass die Politik auf Ihren Bericht hören wird?Wir hoffen zumindest, dass auf uns gehört wird. Erstens, weil es uns versprochen worden ist, zweitens, weil es im Koalitionsvertrag steht. Und drittens, weil der Bericht, wenn ich das mal so platt sagen darf, so gut ist, dass es einfach naheliegt, ihm zu folgen.



Source link : https://www.stern.de/digital/datenethikkommission–wie-stoppt-man-hassmaschinen–8964914.html?utm_campaign=alle&utm_medium=rss-feed&utm_source=standard

Author : Florian Güßgen

Publish date : 2019-10-23 12:30:00

Copyright for syndicated content belongs to the linked Source.

Tags : Stern

The author News2

https://shop.mgfetes.fr   https://igolfga.com   https://www.campingetrandonnee.com/   https://leguideselect.com   https://www.clemspolitique.net   https://www.matt-daly.com   https://www.echaussures.net/   https://n6d.info   https://boutique-maillot-bain.com   https://maillot-de-bain.biz