Deprecated: str_replace(): Passing null to parameter #3 ($subject) of type array|string is deprecated in /homepages/43/d98889876/htdocs/Datenreiserecht/wp-content/plugins/fusion-core/fusion-slider/class-fusion-slider.php on line 77

Warning: Cannot modify header information - headers already sent by (output started at /homepages/43/d98889876/htdocs/Datenreiserecht/wp-content/plugins/fusion-core/fusion-slider/class-fusion-slider.php:77) in /homepages/43/d98889876/htdocs/Datenreiserecht/wp-content/plugins/all-in-one-wp-security-and-firewall/classes/wp-security-utility.php on line 216

Warning: Cannot modify header information - headers already sent by (output started at /homepages/43/d98889876/htdocs/Datenreiserecht/wp-content/plugins/fusion-core/fusion-slider/class-fusion-slider.php:77) in /homepages/43/d98889876/htdocs/Datenreiserecht/wp-content/plugins/all-in-one-wp-security-and-firewall/classes/wp-security-utility.php on line 216

Warning: Cannot modify header information - headers already sent by (output started at /homepages/43/d98889876/htdocs/Datenreiserecht/wp-content/plugins/fusion-core/fusion-slider/class-fusion-slider.php:77) in /homepages/43/d98889876/htdocs/Datenreiserecht/wp-content/plugins/all-in-one-wp-security-and-firewall/classes/wp-security-utility.php on line 216

Warning: Cannot modify header information - headers already sent by (output started at /homepages/43/d98889876/htdocs/Datenreiserecht/wp-content/plugins/fusion-core/fusion-slider/class-fusion-slider.php:77) in /homepages/43/d98889876/htdocs/Datenreiserecht/wp-includes/feed-rss2.php on line 8
TKeber, Autor bei Datenreiserecht https://datenreiserecht.de/author/tkeber/ Tue, 31 Jan 2023 07:26:05 +0000 de-DE hourly 1 https://wordpress.org/?v=6.5.3 Ethics by Design – Key Asset 4 AI https://datenreiserecht.de/das-erste-blatt-dimensionen-der-freiheit-2/ https://datenreiserecht.de/das-erste-blatt-dimensionen-der-freiheit-2/#respond Mon, 01 Jun 2020 14:48:13 +0000 https://datenreiserecht.de/?p=379 Ethics by Design – Key Asset for AI made in Europe Vortrag auf Veranstaltung: S-TEC Spitzentreffen Künstliche Intelligenz Veranstaltungsort: Fraunhofer-Institut IAO Datum: 07.11.2019 Meine sehr geehrten Damen und Herren, Die Ethik als Verhinderer, als Schranke unternehmerischer Freiheit. Das führt uns schon direkt zum Kern des Problems. Vor einigen Tagen hat die Staatsministerin für Digitalisierung [...]

Der Beitrag Ethics by Design – Key Asset 4 AI erschien zuerst auf Datenreiserecht.

]]>

Ethics by Design – Key Asset for AI made in Europe

Vortrag auf Veranstaltung: S-TEC Spitzentreffen Künstliche Intelligenz
Veranstaltungsort: Fraunhofer-Institut IAO

Datum: 07.11.2019

Meine sehr geehrten Damen und Herren,

Die Ethik als Verhinderer, als Schranke unternehmerischer Freiheit. Das führt uns schon direkt zum Kern des Problems. Vor einigen Tagen hat die Staatsministerin für Digitalisierung im Bundeskanzleramt, Dorothee Bär auf Twitter davor gewarnt, Ethik als Argument gegen Innovationen vorzuschieben. Unweigerlich fühlte ich mich an einen entsprechenden Slogan aus dem letzten Bundestagswahlkampf erinnert. Der kam zwar nicht aus dem konservativen Lager. Digitalisierung First, Bedenken Second hielt die FDP damals für ein zukunftsfähiges Mantra.

Wissen Sie, Ich von meiner Seite kann mit derartigen Vorwürfen umgehen, Juristen (vor allem die Datenschützer) sind Kummer gewöhnt, sie gelten als Berufsbedenkenträger und so manches Projekt soll schon dem Datenschutzbeauftragten zum Opfer gefallen sein. Wenn man ihn gefragt hat.

Ziel der mir zur Verfügung stehenden 15 Minuten muss sein, Sie hier und heute vom Gegenteil zu überzeugen. Es stimmt nicht. Ethik verhindert nicht. Ethik macht besser, macht nachhaltiger, macht wettbewerbsfähiger.

Wir wollen aber nicht über Ethik allgemein sprechen, sondern den Bezug zur Künstlichen Intelligenz herstellen und der Frage nachgehen, was es mit dem Modus „by Design“ auf sich hat. Eingehen möchten ich abschließend auch auf einige bad / worst practice Beispiele. (best practice kann jeder)

Starten wir mit der Ethik. Ich beschränke mich an dieser Stelle auf den Hinweis, dass im öffentlichen Diskurs die Begriffe Ethik und Moral ebenso oft verwechselt werden, wie selbst gesetzte ethische Kodizes (gerade von Unternehmen) dazu missbraucht werden, einer anderenfalls befürchteten hoheitlichen Regulierung (Bußgelder) zuvorzukommen. Letztgenanntes wird gerne auch als „Ethics Washing“ oder Feigenblattethik bezeichnet. Wer den Begriff der Feigenblattethik (Worthülsen als Alibiübung) kennt und sich das Designs der aktuellen Hochglanzbroschüre der Deutschen Telekom „AI Ethics Guidelines“ ansieht, wird sich ein Schmunzeln nicht verkneifen können. Gestalterisch aufgehübscht ist das Papier mit einer Reihe herbstlich anmutender Blätter. Ob sie von Feigenbäumen stammen – ich weiß es nicht.

Die Gleichsetzung von Ethik und Moral und Feigenblattethik haben mit Wissenschaft nichts zu tun. Ethik ist Reflexion und die Analyse der Begründbarkeit richtigen Handelns, also das wissenschaftliche Hinterfragen von Moral.

Eine weiterer, gerade im Bereich innovativer Entrepreneure verbreiteter Irrglaube ist, Technik (egal welche, also auch KI) sei wertneutral und es hänge nur davon ab, was Menschen damit tun. Auch das ist falsch, wie der Technikhistoriker Malvin Kranzberg pointiert formuliert hat. Technik ist nie neutral. Sie ist immer von Wertvorstellungen getragen und reflektiert diese bei ihrer Anwendung in die Gesellschaft zurück. Technik stammt von und betrifft Menschen. Das klingt trivial, ist es aber nicht. Lassen Sie mich diesen Gedanken weiter illustrieren.

Ein erstes Beispiel datiert aus dem Jahr 1380 und betrifft „German Planning by ist best“. In Regensburg wurde der Schließmechanismus der Eingangstür eines Hauses offensichtlich von einem sehr um das Wohl seines Auftraggebers bemühten und weitblickenden Schlosser gefertigt. In bester Kenntnis des Lebenswandels des Hausherrn brachte er die – heute würde man wahrscheinlich sagen „Schlüsselführungsassistenz“ an, so dass sein Schützling trotz alkoholbedingter Treffunsicherheit allabendlich in der Lage war, die Tür zu öffnen. Human centered design 1380.

Ein weiteres, etwas moderneres Beispiel macht noch deutlicher, dass Design und Technik nicht wertneutral, sondern value sensitive sind. 1974 erscheint das Buch „The Power Broker“ über den New Yorker Stadtplaner Robert Moses. Vorgeworfen wird ihm u.a., bestimmte Bevölkerungsgruppen durch den Bau von Brücken diskriminiert zu haben. Wie das geht, werden Sie fragen. Es geht, indem die Brücken nur eine bestimmte Höhe haben und alle Zuwege zu einem attraktiven Ort (Park am Strand) nur über Brücken erreichbar sind. Das allein ist noch nicht diskriminierend werden sie sagen. Praktisch doch, wenn unter der Brücke zwar die Autos der gut situierten Upper Class zum Strand fahren können, nicht aber die Busse der ärmeren, überwiegend schwarzen Bevölkerung. Das ist Diskriminierung by design meine Damen und Herren.

Warum also ethics by design? Um es besser zu machen. Ethics by design liegt gegenwärtig im Trend, wenn man prominenten Firmenstrategen glauben darf. Das tue ich grundsätzlich nicht, weshalb ich ein (weiteres) und ganz entscheidendes Argument habe. Ethics by design schafft Vertrauen und darauf ist gerade die KI als ebenso vielschichtige wie komplexe Technik zwingend angewiesen.

Vertrauen ist eine der wichtigsten externe Einflussvariablen im Technikakzeptanzmodell. Vertrauen ist Wettbewerbsvorteil. Umgekehrt gilt: schwindendes Vertrauen resultiert in Ablehnung. Einen Nachweis hat jüngst Kate Crawford vom AI Now Institute (New York University) in ihrer Studie mit dem Titel „Pushback against harmful AI“ für die KI Anwendung Gesichtserkennung geführt. Im Jahr 2019 haben nach kritischer Berichterstattung einige Metropolen in den USA gesetzliche Verbote für den Einsatz von Gesichtserkennung (Facial Recognition) im urbanen Sicherheitsbereich eingeführt.

AI braucht Vertrauen und ethische Leitplanken sind vertrauensbildende Maßnahmen. Wie aber bestimmen wir ethische Prinzipien für Künstliche Intelligenz? Als Wissenschaftler müsste ich an dieser Stelle den bis dato nicht abschließend definierten Begriff der künstlichen Intelligenz problematisieren, der vor allem zwischen den Disziplinen (Informatik, Philosophie, Recht) in bemerkenswerter Vielfalt erscheint. Wir haben das in einem Forschungsprojekt einmal tabellarisch adressiert. Nur so viel: die Komplexität sprengt die Leistungsfähigkeit von PowerPoint in Sachen Visualisierbarkeit. Am Ende des Tages ist ein Streit um Begrifflichkeiten aber auch nicht zielführend. In der Sache sprechen wir nach wie vor nur über Werkzeuge, wenn auch über kompliziertere. Andernorts verhalten wir uns dann auch wesentlich weniger grundsätzlich. Niemand käme auf die Idee, das Werkzeug Brille begrifflich mit künstlichem Sehen zu verbinden. Was ich damit sagen will: Letztlich brauchen wir keine allgemeine Definition, sondern müssen anwendungsspezifisch denken.

Zurück zum Punkt: wie bestimmen wir universelle ethische Prinzipien für KI-Anwendungen? Induktiv wäre ein Lösungsansatz. Wir schauen, welche Prinzipien bereits formuliert wurden. Glauben Sie mir: es sind viele. Allein Algorithm Watch hat bis zum Sommer 83 Frameworks gezählt. Wenn man aber und das haben andere Think Tanks bereits getan, die bestehenden Vorschläge herunterbricht auf einen gemeinsamen Nenner lassen sich die Big Five herausarbeiten, die sie auch im Europäischen Ansatz der High Level Expert Group on Artificial Intelligence finden.

1 Tue Gutes #Fürsorge

2 Tue niemandem weh #Schadensvermeidung

3 Bewahre die menschliche Handlungsfähigkeit #Autonomie

4 Sei fair #Gerechtigkeit #Nichtdiskriminierung

5 Funktioniere. Transparent #Erklärbarkeit #Robustheit #Prüfbarkeit

Testen wir das Gesagte in der Praxis und schauen wir uns einige Anwendungen an, die unter dem Label „KI“ (berechtigt oder unberechtigt) diskutiert wurden.

Zwei Jungs entwickeln einen smarten Handschuh, der Gesten mit den Händen (Gebärdensprache) maschinenlesbar macht und damit in Echtzeit „übersetzen“ kann. Das ist gut werden sie sagen. Stimmt grundsätzlich. Und hätten sich die beiden neben ihrer guten Absicht zugleich dem Prinzip von ethics by design verschrieben, wäre das Produkt noch besser geworden. Ethics by design bedeutet (Prinzip 1 #Fürsorge und 4 #Nichtdiskriminierung) auch partizipative, inklusive Produktentwicklung. Das hätte bedeutet, Gehörlose, also diejenigen, die sich der Gebärdensprache bedienen, einzubeziehen. Jene hätten die jungen Entrepreneure darauf hingewiesen, dass es mit einem „intelligenten“ Handschuh nicht getan ist. Entscheidend ist auch die Mimik, die den Gesten der Hand ggfls. eine ganz andere Bedeutung zuweisen kann. Es geht immer auch um den (weiteren) Kontext. Ohne ethics by design ist das Produkt nach alledem: gut gemeint, aber nicht gut gemacht.

Schlimmer, weil offensichtlich ohne jede ethische Reflexion ausgekommen sind die (pseudo)wissenschaftlichen Versuche, auf Grundlage biometrischer Vermessung des Gesichts die sexuelle Orientierung oder gar ein Kriminalitäts-Profiling abzulesen. Die Thesen von Wang/Kosinski sind zu Recht scharf kritisiert worden. Schlimmer geht immer: Das israelische Start-Up „Faception wirbt mit „machine learning technology for profiling people and revealing their personality based only on their facial image.“

Auf der Webseite heißt es vollmundig weiter: „Public Safety agencies, city police department, smart city service providers and other law enforcement entities are increasingly strive for Predictive Screening solutions, that can monitor, prevent, and forecast criminal events and public disorder without direct investigation or innocent people interrogations.“

„without direct investigation or innocent people interrogations“ Vielleicht fragt man das Unternehmen einmal, ob sie das tatsächlich garantieren und für die Folgen gegebenenfalls persönlich einstehen (Haftung!) wollen. Ich denke, die Töne würden schnell leiser.

Der Ansatz meine sehr geehrten Damen und Herren ist historisch auch nicht ohne Präzedenz, sie sehen es rechts auf der Folie und ich muss es nicht weiter kommentieren.

Wie man es besser macht?

Nun, Explainable-AI, Transparency-by-Design, Accountablity-by-Design und Kennzeichnungspflichten für relevante KI-Anwendungen werden diskutiert. Auf die in meinem Beispiel angesprochene partizipative Produktentwicklung weist übrigens ganz aktuell auch der Bericht der Datenethikkommission hin.

Was diese Vorgaben genau bedeuten, werden wir in den Unternehmen bereichsspezifisch diskutieren müssen. Explainable-AI beschränkt sich jedenfalls nicht auf den Hinweis, Nutzern zu erklären, warum sie eine Werbebotschaft auf Facebook sehen. Immerhin ist es ein Anfang.

Insgesamt brauchen wir mehr Grundlagenforschung zur Operationalisierung ethischer Reflexion Im Unternehmen – Ethik muss in die unternehmerischen Prozesse! Wie das geschehen kann möchte ich gleich mit Ihnen (wenn sie wollen und nach dem Kaffee) in einem Workshop diskutieren.

Ansonsten verbleibt mir nur mit einem Wort von Joseph Weizenbaum zu schließen.

„Von wem und wie wurde überhaupt entschieden, dass wir das wollen?“

Das Zitat bitte ich, weder technik-, noch innovationsfeindlich zu verstehen.

Wir sollten uns die Zeit zum Überlegen nehmen, welche Technik wir in welchem Bereich wollen. So viel Zeit muss sein, meine sehr geehrten Damen und Herren.

Vielen Dank.

Literatur, Quellen (Auswahl):

Deutsche Telekom (2019), Guidelines for Artificial Intelligence, abrufbar unter https://www.telekom.com/en/company/digital-responsibility/details/artificial-intelligence-ai-guideline-524366

Kranzberg (1986), Technology and History: „Kranzberg´s Laws“, Technology and Culture Vol. 27, No. 3, S. 544-560.

Van den Hoven u.a. (2017), Designing in Ethics, S. 29 ff.

Caro (1974), The Power Broker: Robert Moses and the Fall of New York

Gartner (2019), Top 10 Strategic Technology Trends for 2019, abrufbar unter: https://www.gartner.com/smarterwithgartner/gartner-top-10-strategic-technology-trends-for-2019/

Jockisch (2010) Das Technologieakzeptanzmodell, in: Bandow G., Holzmüller H. (eds) „Das ist gar kein Modell!“

Crawford/Whittaker, 2019 Year in Review, abrufbar unter https://ainowinstitute.org/symposia/videos/2019-year-in-review.html

DEK (2019), Gutachten der Datenethikkommission vom 23.10.2019, abrufbar unter: https://datenethikkommission.de/gutachten/

Algorithm Watch (2019), AI Ethics Guidelines Global Inventory, abrufbar unter: https://algorithmwatch.org/en/project/ai-ethics-guidelines-global-inventory/

Research Center for Brain-inspired Intelligence (2019), Institute of Automation, Chinese Academy of Sciences, Linking Artificial Intelligence Principles, abrufbar unter: http://linking-ai-principles.org

High-Level Expert Group on Artificial Intelligence (AI HLEG) (2019) The Ethics Guidelines for Trustworthy Artificial Intelligence, abrufbar unter: https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top

o.V. Incredible Sign Language Gloves, Video abrufbar unter: https://www.brealeys.com/incredible-sign-language-gloves/

Kosinski / Wang (2018), Deep Neural Networks Are More Accurate Than Humans at Detecting Sexual Orientation From Facial Images, Journal of Personality and Social Psychology. Vol. 114, Issue 2, Pages 246-257

Geigner (2016), Israeli Company Claims Its Software Can Look At Your Face And Determine If You’re A Terrorist Or Murderer, Artikel abrufbar unter: https://www.techdirt.com/blog/?company=faception

Bundesregierung (2019), Die nationale KI-Strategie der Bundesregierung, Dokument abrufbar unter: https://www.ki-strategie-deutschland.de/home.html

Der Beitrag Ethics by Design – Key Asset 4 AI erschien zuerst auf Datenreiserecht.

]]>
https://datenreiserecht.de/das-erste-blatt-dimensionen-der-freiheit-2/feed/ 0
Fünf Blatt Freiheit https://datenreiserecht.de/fuenf-blatt-freiheit/ https://datenreiserecht.de/fuenf-blatt-freiheit/#respond Thu, 12 Sep 2019 03:49:06 +0000 https://datenreiserecht.de/?p=114 5 Blatt Freiheit Prof. Dr. iur. Tobias Keber Vortrag im Rahmen der Kunstaktion FREIHEIT 2.0 am 23.6.2018 im StadtPalais Stuttgart Das erste Blatt: Dimensionen der Freiheit Wenn ich Sie frage, was Sie mit dem Begriff der Freiheit verbinden, werde ich von Ihnen mit absoluter Sicherheit höchst verschiedene, sehr individuelle Antworten erhalten. Mit Sicherheit ist [...]

Der Beitrag Fünf Blatt Freiheit erschien zuerst auf Datenreiserecht.

]]>

5 Blatt Freiheit

Prof. Dr. iur. Tobias Keber

Vortrag im Rahmen der Kunstaktion FREIHEIT 2.0 am 23.6.2018 im StadtPalais Stuttgart

Das erste Blatt: Dimensionen der Freiheit

Wenn ich Sie frage, was Sie mit dem Begriff der Freiheit verbinden, werde ich von Ihnen mit absoluter Sicherheit höchst verschiedene, sehr individuelle Antworten erhalten. Mit Sicherheit ist insoweit ein gutes Stichwort, weil Sicherheit im Verdacht steht, mit Freiheit zu kollidieren. Dazu aber später, beginnen wir von vorn.

Was ist Freiheit? Zu Recht werden Sie denken, das will er in diesem Vortrag jetzt nicht ernsthaft analysieren. Grund Ihrer Sorge ist die Erkenntnis, dass es sich um ein hochkomplexes und daher wohl zeitintensives Unterfangen handelt und Sie pünktlich um 20.00 Uhr den Anpfiff des Länderspiels Deutschland gegen Schweden sehen wollen. Ich verspreche also erstens: ich verzichte auf Details und zweitens: Fußball wird auch in diesem Kurzvortrag eine Rolle spielen.

Freiheit als großer, vor allem in westlichen Systemen gehegter Wert ist ein Begriff mit vielen Dimensionen. Vielleicht sogar so vielschichtig, dass man eine ganze Wissenschaft (die Philosophie) an ihr orientieren muss. Gottlieb FICHTE (1762-1814) hat das getan und versichert, dass die Philosophie, recht verstanden nichts Anderes als eine „Analyse des Begriffs der Freiheit“ sei.[1]

Ich will es konkreter halten. Freiheit kann man zunächst als die Abwesenheit von Zwang verstehen. Dies wird auch als negative Freiheit bezeichnet. Dieses Verständnis klingt bei Thomas Hobbes an, der in Kapitel 21 des Leviathans (1660) Freiheit definiert als: „das Fehlen von Widerstand, wobei ich unter Widerstand äußere Bewegungshindernisse verstehe“.

Thomas Hobbes wird für gewöhnlich nicht in einem Atemzug mit Vertretern des (klassischen) Liberalismus wie John Locke Immanuel Kant, Adam Smith, oder John Stuart Mill genannt. Das liegt daran, dass seine Konzeption von Freiheit und zwar sowohl derjenigen im Naturzustand als auch derjenigen nach der Vergesellschaftung unter Ägide eines starken Staates (dem Leviathan) für gewöhnlich so interpretiert wird, dass sie im Zweifel der vordergründig zu garantierenden Sicherheit wird weichen müssen. Schon Hobbes hat aber klar herausgearbeitet, dass Freiheit durch den Staat gesichert und damit erst ermöglicht wird. Im Grunde ist der Mensch im vorstaatlichen Naturzustand nämlich nicht frei, sondern muss befürchten, dass andere Menschen ihm Freiheit und gegebenenfalls auch das Leben willkürlich nehmen. Der Staat ist es, der den Einzelnen vor diesen Willkürlichen Übergriffen schützt.

Freiheit ist aber mehr als die Abwesenheit von äußerem Zwang. Nicht frei ist nach Immanuel Kant (1724–1804) auch derjenige, der stets allen Eingebungen des Augenblicks und ausschließlich seinen jeweils spontanen Antrieben folgt. Die Freiheit zu (Positive Freiheit) nach Kant ist einfach gesprochen (autonom) solchen Gesetzen zu folgen, welche sich der Mensch kraft seiner Vernunft selbst gegeben hat. Die höchste Form der Freiheit ist dann das Handeln nach solchen Regeln, von denen wir wollen können, dass sie allgemeines Gesetz wären. (Kants kategorischer Imperativ)

Auch das müssen wir nun herunterbrechen und etwas griffiger machen. Dass äußere Zwänge der Freiheit (im Sinne negativer) Freiheit entgegenstehen, formulierte Rousseau prominent 1762 in seinem Contrat Social, „Der Mensch wird frei geboren, und überall ist er in Ketten.“ Pointiert knüpft dann aber genau an dieser Stelle der Aphorismus „Wer sich nicht bewegt, spürt seine Fesseln nicht“ an, der Rosa Luxemburg (1870 – 1919) zugeschrieben wird.

Noch markanter adressiert Edward Snowden 2013 die multipolare Dimension des Freiheitsbegriffs:

Arguing that you don’t care about the right to privacy because you have nothing to hide is no different than saying you don’t care about free speech because you have nothing to say. A free press benefits more than just those who read the paper.

Freiheit ist indes noch vielschichtiger. Es ist ein kontextabhängiges Konzept, es kommt darauf an, wer sich auf welche Freiheit beruft: haben Unternehmen Persönlichkeitsrechte?

Es gibt nicht die eine Freiheit, sondern viele: die Religions- und Gewissensfreiheit, die Meinungsfreiheit, Vertragsfreiheit, Versammlungsfreiheit, Berufsfreiheit. Dabei geht es auch nicht nur um individuelle, subjektiv einklagbare Rechte. Es geht auch um objektive Wertentscheidungen die unabhängig davon sind, ob sich jemand darauf beruft oder nicht. Nehmen Sie die Garantie des Privateigentums und das Institut einer freien Presse.

Freiheit ist indes noch mehr, als es die negative und die positive Begriffsbestimmung abbilden könnten. Nach dem modernen Verständnis heißt frei sein nicht nur, tun können, was man will, sondern tun können, was man wirklich will.[2]

Freilich fragt sich sodann, was es mit diesem „wirklich“ auf sich hat. Ich will nun keinen Exkurs in die Neurowissenschaft unternehmen, die behauptet hat, Willensfreiheit sei eine Illusion und un- bzw. vorbewusste Prozesse in unserem Gehirn determinierten unsere Entscheidungen.[3]

Muss wirklich wollen im Sinne von Selbstbestimmt wollen nicht bedeuten, dass es (echte) Alternativen gibt? Lassen sie mich auch dieses Problem illustrieren. Haben Sie (wirklich?) die Wahl, sich der Digitalisierung mit all ihren Erscheinungsformen, sei es durch Nutzung von Smart Phones oder Social Media Plattformen wie Facebook oder Whatsapp in Gänze zu entziehen? Gibt es die Freiheit oder gar ein Recht auf eine analoge Welt, wie es Heiko Maas 2015 in seinem Digitalen Grundrechtekatalog behauptet hat? Die Frage ist ernst gemeint, gleichwohl gebe ich zu bedenken: versuchen einmal, ihre Steuererklärung analog (auf Papier) abzugeben.

Auch die Plattformen scheinen Ihnen die Wahl zu lassen. Die Nutzungsbedingungen von Facebook, Instagramm & Co nebst aller dort geregelten Befugnisse, ihre Daten zu verwenden akzeptieren Sie im Rahmen der Registrierung. Dann dürfen Sie sich über ihre Auswertung nicht beschweren. Dem Einwilligenden geschieht kein Unrecht, Volenti non fit iniuria, oder?

Das zweite Blatt: Freiheit durch Recht

Noch einmal zurück zu negativer und zu positiver Freiheit und zur Frage, was das alles mit Recht zu tun hat. Recht, namentlich das Datenschutzrecht, wird in der öffentlichen Wahrnehmung bisweilen vornehmlich als Verhinderer wahrgenommen. Im Alltag begegnet uns das Parkverbotsschild, das die an sich mögliche Handlung, das Auto an einem bestimmten Ort abzustellen, verbietet und eine Zuwiderhandlung mit einem Bußgeld belegt. Der Staat greift mit diesem Verbot in unsere Handlungsfreiheit ein und rechtfertigt dies beispielsweise mit der Verkehrssicherheit, weil es (für andere Verkehrsteilnehmer) gefährlich ist, wenn an der fraglichen Stelle geparkt wird. Damit nehmen wir Recht oftmals erst dann wahr, wenn es zu einem Konflikt kommt, etwa weil wir einen Bußgeldbescheid erhalten, gegen den wir vorgehen möchten.

Bestimmte Formen des Freiheitsgebrauchs werden durch Recht aber erst ermöglicht. Insoweit kann und muss Recht auch als „Enabler“, als Ermöglicher verstanden werden. Auch dies will ich mit konkreten Beispielen illustrieren.

Ich hatte Ihnen Fußball versprochen. Das Spiel funktioniert nur, weil es Regeln gibt. Das Regelwerk ist ein gemeinsamer Kommunikationsstandard, auf den sich beide Teams, gegenwärtig alle Teams der FIFA, verständigt haben. Fehlt es an dieser Verständigung, wird das Spiel und die damit verbundene Ausübung von Freiheit unmöglich. Sehr deutlich haben dies meine beiden Kinder neulich nachgewiesen. Nicht mit Fußball, aber auch im Rahmen eines Spiels. Die beiden sind 2 und 4 Jahre alt. Sie, bzw. federführend die 4-jährige Tochter hatten beschlossen, gemeinsam Memory zu spielen. Die Vierjährige liebt das Spiel und begann hochmotiviert, die Memory-Karten zu mischen und unaufgedeckt auf dem Tisch zu verteilen. Natürlich unaufgedeckt, denn so ist die Regel. Ihr zweijähriger Bruder, der dem Spiel bis dato wenig bis gar keine Aufmerksamkeit geschenkt hat (er spielt lieber Fußball), fand offensichtlich, dass die Karten mit der Bildseite nach oben wesentlich attraktiver wirkten und begann, die umgedrehten Karten allesamt wieder aufzudecken. Weil er die Bilder sehen wollte, das war seine Regel. Sichtlich genervt kommentierte meine Tochter in ihrer unverwechselbar resoluten Art mit einer deterministischen Trias: „Du verstehst das nicht. Dafür bist du noch zu klein. So macht das keinen Spaß.“ Das Spiel war beendet.

Freiheit durch Recht. Freiheit durch Regulierung.

Das klingt zunächst paradox, ist aber genau der Ansatz, den das Bundesverfassungsgericht mit Blick auf die Rundfunkfreiheit stets betont und wie folgt begründet. Die Rundfunkfreiheit nach Art. 5 Abs. 1 S. 2 GG dient der freien, individuellen und öffentlichen Meinungsbildung, als wesentlichem Element einer funktionierenden Demokratie. Die Rundfunkfreiheit beschränkt sich aufgrund dieser besonderen Eigenschaft nicht (im Sinne negativer Freiheit) auf die Abwehr staatlicher Einflussnahme, sondern erfordert es, eine positive Ordnung (Regeln) zu schaffen, in der die Meinungsvielfalt (positiv) gewährleistet wird. Von Verfassungs wegen ist sicherzustellen, dass der Rundfunk nicht dem Staat oder gesellschaftlichen Gruppen ausgeliefert wird.[4]

An dieser Stelle unterscheidet sich das deutsche Mediensystem ganz wesentlich von dem US-Amerikanischen, wo man nahezu ausschließlich auf die selbststeuernde Macht des Marktes vertraut.

Als eine dienende Freiheit kann man auch die Privatheit begreifen.

Das Recht auf Privatheit hat für die Verwirklichung des Rechts auf freie Meinungsäußerung tragende Bedeutung und ist so ebenfalls wichtige Grundlagen einer demokratischen Gesellschaft.

Nehmen Sie das Beispiel anonymer oder pseudonymer Veröffentlichungen. Es kann viele Gründe geben, warum Autoren Pseudonyme nutzen oder ihre Werke anonym veröffentlichen. Das kann vergleichsweise harmlos sein, etwa im Fall der schroffen anonymen Rezensionen einiger Schriften von Sir Isaac Newton durch seinen wissenschaftlichen „Widersacher“ Gottfried Wilhelm Leibniz. In anderen Fällen dient die anonyme Schrift zum Schutz vor drastischen Konsequenzen. 1609 veröffentlichte Hugo Grotius seine Schrift Mare Liberum (von der Freiheit der Meere) anonym. Die Schrift untergrub die Weltordnung der katholischen Kirche und wurde von dieser indiziert. Grotius, der heute als einer der Begründer des Völkerrechts gilt, musste also anonym veröffentlichen.

Die Bedeutung eines privaten (Rückzugs-)bereichs für die Meinungsbildungs- und Meinungsäußerungsfreiheit unterstreicht auch der EuGH in seiner Entscheidung zur Ungültigkeit der europäischen Richtlinie zur Vorratsdatenspeicherung. Übersehen wird dabei oft, dass in dieser Entscheidung nicht nur der Schutz des Privatlebens und der Schutz personenbezogener Daten adressiert wird, sondern eben auch der Schutz der Meinungsäußerungsfreiheit, Art. 11 EUGRCharta.

Die in der Richtlinie vorgesehene Pflicht der Anbieter öffentlich zugänglicher elektronischer Kommunikationsdienste bestimmte Daten auf Vorrat zu speichern, um sie gegebenenfalls den zuständigen nationalen Behörden zugänglich zu machen, wirft Fragen hinsichtlich des in Art. 7 der Charta verankerten Schutzes sowohl des Privatlebens als auch der Kommunikation, hinsichtlich des von Art. 8 der Charta erfassten Schutzes personenbezogener Daten und hinsichtlich der durch Art. 11 der Charta gewährleisteten Freiheit der Meinungsäußerung auf. (Rn 148)

Der EuGH begründet das mit dem mit massenhafter Überwachung verbundenen abschreckenden Effekt (chilling effect). Nicht ausgeschlossen werden kann, dass wenn eine Person weiß, dass ihre bei der Nutzung verschiedener Endgeräte anfallenden Metadaten gespeichert werden, sie ganz einfach auf die Nutzung verzichtet. Verzicht bedeutet nicht mehr kommunizieren und das seine Meinung nicht mehr kundtun ist ein Problem für die Demokratie.[5]

Das Dritte Blatt: Freiheit und Reflexion

Der Staat muss handeln und es bedarf starker datenschutzrechtlicher Regeln, um Privatheit und Privatsphäre auch (vielleicht) vor allem gegenüber privaten Akteure (Unternehmen) zu sichern. Aber ist ein wirksames Datenschutzrecht genug? Mit der Datenschutzgrundverordnung haben wir seit dem 25.5.2018 ein unionsweit unmittelbar anwendbares Regime, das bei all seinen Problemen im Detail, im Grundsatz wirkt. Offenbar sogar so gut, dass in der US-amerikanischen Presse prominent die Frage gestellt wurde, warum die Hegung der Internetgiganten im Silicon Valley wohl in Europa, nicht aber im eigenen Land funktioniere. Man kann die DSGVO damit als gelungenes Werkzeug für einige Herausforderungen verstehen, vor denen die digitale Gesellschaft steht. Dabei ist sie aber nur ein Gegenstand von vielen im Werkzeugkoffer der Daten- und Informationsgesellschaft. Es reicht insgesamt nicht, die gesamtgesellschaftliche Aufgabe einer bestmöglichen Gestaltung unserer (digitalen) Zukunft bloß über das Recht oder vorgelagert durch die Politik zu adressieren. Es bedarf weiterer Impulse und alles beginnt bei jedem Einzelnen von uns.

Impulsgeber kann und muss eine digitale Ethik sein, deren Ziel Reflexion ist. Ein (methodisch) geordneter gedanklicher Prozess, eingeleitet auf individueller und gesellschaftlicher Ebene, der die Frage beantwortet: was wollen und was brauchen wir für ein erfülltes, bzw. glückliches Leben. Keine künstliche Intelligenz und keine Maschine kann uns diese Frage beantworten. Nur wir selbst können es. Der Technikphilosoph und Historiker Malvin Kranzberg hat es einst pointiert formuliert. Maschinen haben etwas von einem Zauberer in einem Märchen. Sie geben einem wohl, was man sich wünscht. Sie sagen einem aber nicht, was man sich wünschen soll. Wir müssen überlegen, was wir uns wünschen sollen, meine Damen und Herren. Tools in unserem Werkzeugkoffer hierfür sind die digitale Ethik und individuelle Digitalkompetenz.

Einmal mehr müssen wir von der abstrakten Ebene hinuntersteigen und fragen, was das konkret bedeuten kann. Nehmen wir das Beispiel der Verfolgung des Endgeräts eines Internetusers über mehrere Dienste und Webseiten hinweg (tracking). Überlegen (Reflexion) muss die Gesellschaft, ob sie diese Technik grundsätzlich oder anwendungsspezifisch für akzeptabel hält. Das Ergebnis der Überlegung wird sodann zunächst politisch und bei entsprechendem Konsens rechtlich fixiert. Ist tracking unter bestimmten Vorzeichen rechtlich zulässig, kann der einzelne User den individuell begehrten Schutz vor dem virtuellen Schulterblick durch das Ergreifen digitaler Gegenmaßnahmen selbst in die Hand nehmen. Das setzt freilich voraus, dass er die Situation (technisch) bewerten kann

Das Vierte Blatt: Privacy und Datenschutz

Privacy lässt sich wie gesehen als dienende Freiheit begreifen. Mit der vollständigen Transparenz eines Individuums geht Kontrollierbarkeit einher. Der «gläserne Mensch» ist Gift für die Freiheit.[6]

Der Nachweis hierzu wurde schon früh in den USA geführt. Der Politologe und Jurist Alan F. Westin (1967) hat vier Formen des Privaten beschrieben, Solitude, Intimacy, Reserve und Anonymity, wobei letztgenannte die Freiheit bezeichnet, in der Öffentlichkeit nicht identifiziert und somit nicht beobachtet oder kontrolliert zu werden.

Privacy markiert (räumliche bzw. soziale) Sphären und ihre Grenzen (im Gegensatz zum Öffentlichen) und definiert so einen persönlichen Rückzugsbereich, innerhalb dessen ein Individuum frei von sozialem Druck und gesellschaftlichen Erwartungen die Erfahrungen und Eindrücke aus dem Alltag reflektieren und auf dieser Grundlage Entscheidungen selbstbestimmt (autonom) treffen kann. Lange vor Westin hatten Warren und Brandeis in ihrem legendären Aufsatz im Harvard Law Journal dieses Konzept schon zu einem zu einem Recht Alleine gelassen zu werden Right to be let alone verdichtet.

Wie aber hängen nun Privacy und Datenschutz genau zusammen? Privacy definiert Sphären, beim Datenschutz geht es um personenbezogene Daten.

Fast schon eine Binsenweisheit ist dabei, dass es beim Datenschutz (obwohl der Wortlaut das nahe legt) in der Sache gerade nicht um den Schutz personenbezogener Daten geht, sondern um den Schutz von Menschen.[7] Aus nationaler Perspektive konkretisiert das Datenschutzrecht die verfassungsrechtlichen Vorgaben zum Schutz der Persönlichkeit und der informationellen Selbstbestimmung. Wenn man von informationeller Selbstbestimmung spricht, kommt man nicht umhin, aus dem berühmten Volkszählungsurteil des Bundesverfassungsgerichts zu zitieren, das 1983 (!) feststellte:

Unter den Bedingungen der modernen Datenverarbeitung wird der Schutz des Einzelnen gegen unbegrenzte Erhebung, Speicherung, Verwendung und Weitergabe seiner persönlichen Daten von dem allgemeinen Persönlichkeitsrecht des Art. 2 Abs. 1 GG in Verbindung mit Art. 1 Abs. 1 GG umfasst. Das Grundrecht gewährleistet insoweit die Befugnis des Einzelnen, grundsätzlich selbst über die Preisgabe und Verwendung seiner persönlichen Daten zu bestimmen.“

Übrigens unterstrich das Verfassungsgericht dabei zugleich, dass es sich um ein relatives, kontextabhängiges Schutzkonzept handelt, denn das Recht auf “informationelle Selbstbestimmung” ist nicht schrankenlos gewährleistet.

„Der Einzelne hat nicht ein Recht im Sinne einer absoluten, uneinschränkbaren Herrschaft über “seine” Daten; er ist vielmehr eine sich innerhalb der sozialen Gemeinschaft entfaltende, auf Kommunikation angewiesene Persönlichkeit. Information, auch soweit sie personenbezogen ist, stellt ein Abbild sozialer Realität dar, das nicht ausschließlich dem Betroffenen allein zugeordnet werden kann. Das Grundgesetz hat, wie in der Rechtsprechung des Bundesverfassungsgerichts mehrfach hervorgehoben ist, die Spannung Individuum – Gemeinschaft im Sinne der Gemeinschaftsbezogenheit und Gemeinschaftsgebundenheit der Person entschieden […]. Grundsätzlich muß daher der Einzelne Einschränkungen seines Rechts auf informationelle Selbstbestimmung im überwiegenden Allgemeininteresse hinnehmen.“

Privacy im Sinne eines auf (räumlichen oder sozialen) Sphären beruhendes Konzept kann, muss sich aber nicht mit dem Datenschutz (informationeller Selbstbestimmung) überschneiden. Werde ich am Flughafen abgetastet, berührt also ein fremder Mensch meinen Körper, so geht es um meine Privat-, bzw. meine Intimsphäre. Das geht auch ohne die Verarbeitung personenbezogener Daten, denn der Sicherheitsbeamte kennt in der Regel meinen Namen nicht. Das wird ihm auch gleichgültig sein, denn für ihn geht es nur um die Information, ob ein Mensch auf dem Weg in ein Flugzeug Waffen oder sonstige gefährliche Gegenstände mit sich führt oder nicht. Begebe ich mich an meinem Reiseziel angekommen in ein Hotel und gibt dieses meine Daten (Name und Anschrift) ohne meine Erlaubnis an Dritte weiter, so betrifft dies meine informationelle Selbstbestimmung, bzw. erscheint als Datenschutzproblem. Um Sphären geht es diesmal nicht.

Das US-amerikanische System mit seinem Right to Privacy schützt das Individuum vor Eingriffen durch den Staat (i.S.) negativer Freiheit. Im europäischen System geht man daneben auch (im Sinne positiver Freiheit) von einem staatlichen Gewährleistungsauftrag aus, der die informationelle Selbstbestimmung des Einzelnen dadurch sicherstellt, dass wirksame Datenschutzbestimmungen gegenüber Privaten (Unternehmen) Grenzen der Datenverarbeitung setzen.[8] Konsequenterweise existiert in der EU-Grundrechte-Charta neben dem Recht auf Achtung des Privatlebens und der Korrespondenz (Artikel 7 GrCH) ein eigenständiges Datenschutzgrundrecht (Artikel 8 GrCh), das auch Leitprinzip der Datenschutzgrundverordnung (DSGVO) ist (Erwägungsgrund 1 DSGVO).

Nun könnte man sagen, die Verteidigung von Privacy und Datenschutz sei ein spezifisch westlicher Ansatz und Ausdruck einer sehr individualistischen Lebensweise.

Fragen wir also: sind Privacy und Datenschutz überall auf der Welt anerkannte und geschützte Konzepte, handelt es sich also um universelle Rechte?

The Right to Privacy taucht tatsächlich in Menschenrechtsverträgen auf. So bestimmt Artikel 17 des Internationalen Pakts über wirtschaftliche, soziale und kulturelle Rechte vom 19.Dezember 1966, für 171 Staaten der Welt:

(1) Niemand darf willkürlichen oder rechtswidrigen Eingriffen in sein Privatleben, seine Familie, seine Wohnung und seinen Schriftverkehr oder rechtswidrigen Beeinträchtigungen seiner Ehre und seines Rufes ausgesetzt werden.

(2) Jedermann hat Anspruch auf rechtlichen Schutz gegen solche Eingriffe oder Beeinträchtigungen.

In ähnliche Richtung ging bereits Artikel 12 der Allgemeinen Erklärung der Menschenrechte vom 10.12.1948.

Der Datenschutz als historisch jüngeres Konzept hat sich auf universeller Ebene bis dato dagegen nicht in gleichem Maße durchgesetzt. Zwar existieren Richtlinien der UN-Generalversammlung betreffend personenbezogene Daten in automatisierten Dateien vom 14.12.1990, die unter anderem wichtige Aspekte den Grundsatz der Richtigkeit von Daten und der Zweckbestimmung enthalten. Völkerrechtlich sind sie aber ebenso wie neuere (2013/2014) Resolutionen der Generalversammlung unter dem Titel „Das Recht auf Privatheit im digitalen Zeitalter“, die auch Datenschutz explizit erwähnen, nicht bindend. Ebenfalls weder verbindlich, noch aktuell (1980) sind die Leitlinien der OECD (EU, USA, Japan, Kanada, Mexiko) für den Schutz des Persönlichkeitsbereichs und den grenzüberschreitenden Verkehr personenbezogener Daten, die 2013 immerhin fortgeschrieben wurden (OECD Privacy Framework 2013).

Auch wenn der Schutz der Privatsphäre (Privacy) dem Grunde nach also als universelles Recht betrachtet werden kann, ist die konkrete Ausgestaltung dessen, was genau in den Schutzbereich fällt, im kulturellen Kontext höchst verschieden. So gilt die Information darüber, wie viel ein Mitarbeiter verdient, im (beruflichen) Umfeld in Deutschland als sensibel, die in der Regel anderen gegenüber nicht ohne weiteres offenbart wird. Anders verhält sich dies beispielsweise in den USA. Die Frage nach dem Jahresgehalt steht dort auf der Agenda für ungezwungenen Small-Talk. Ähnlich gelten Angaben über das Alter in China als weit wenig(er) problematisch, als dies in Europa der Fall ist.

Ronald Inglehart, Christian Welzel und weitere Sozialforscher untersuchen in einem anhaltenden akademischen Projekt den Status von soziokulturellen, moralischen, religiösen und politischen Werten verschiedener Kulturen der Welt zu ermitteln (Weltweite Werte-Erhebung, kurz WVS) und in einer Kulturkarte darzustellen. Diese Weltkarte ordnet kulturelle Systeme und ihnen zugehörige Staaten in einem Koordinatensystem. Dort stehen sich Überlebenswerte (darunter auch der Wunsch nach Sicherheit) und Selbstentfaltungswerte einerseits und traditionelle (auch religiös begründete) sowie säkular-rationale Werte gegenüber. Spannend wäre es, den Wert Privacy aus der Perspektive dieses Systems zu betrachten und die nahe liegende These, wonach Privacy vor allem in Staaten mit hoher Bedeutung der Selbstentfaltung sowie säkular-rationaler Werte eine große (größere) Rolle spielen müsste.

Das führt zu weit, an dieser Stelle wird man aber sagen können: Tatsächlich handelt es sich bei der Privacy um ein dem Grunde nach universell akzeptiertes, in seiner Ausgestaltung aber höchst kontext- und kulturabhängiges Konzept.[9]

Das Fünfte Blatt: 5 Blatt Freiheit?

Fühlen Sie sich frei, wenn Sie beobachtet werden? Kommt es darauf an, ob Menschen schauen, oder ob es eine Maschine tut? Nehmen Sie Videokameras an Bahnhöfen, öffentlichen Plätzen oder in der Straßenbahn bewusst wahr? Die Diskussion um Sinn und Unsinn von Videoüberwachung durch öffentliche Stellen zum Schutz der Sicherheit wird derzeit technisch rechts überholt von smarteren Systemen. Das sind Videokameras, die ein Geschehen nicht nur aufzeichnen, sondern mit automatischer Gesichtserkennung ausgestattet sind und Menschen erkennen können.

Am Berliner Bahnhof Südkreuz läuft seit 2017 ein Pilotprojekt (Laufzeit bis Juli 2018). Mehrere Kameras filmen die Reisenden und die Software versucht, die rund 300 Testpersonen, die freiwillig an dem Test teilnehmen, automatisch zu erkennen. In Zukunft wollen die Sicherheitsbehörden mit der Software gezielt Terroristen und Schwerverbrecher erkennen.

Der bis dato noch nicht veröffentlichte Zwischenbericht soll (nach Angabe des damals noch zuständigen Innenministers Thomas de Maizière) zum Ergebnis kommen, dass die Erkennungsquote der Kameras bei ca. 70% liege. Genau weiß man das nicht, denn der Zwischenbericht ist bis dato nicht veröffentlicht und Auskünfte interessierter Kreise (netzpolitik.org) wurden (Stand April 2018) nicht beantwortet.[10]

Natürlich ist das Projekt umstritten. “Wenn massenhaft Gesichter von unbescholtenen Bürgerinnen und Bürgern an Bahnhöfen gescannt werden, dann greift der Staat schwerwiegend in Grundrechte ein”, moniert der Deutsche Anwaltverein.

Ein dem bei unterstelltem Regelbetrieb des Überwachungssystems immanenter Anfangsverdacht gegen Alle ist ein Problem. Die lausige Performance deutscher Systeme ein anderes. Technisch sind auf diesem Gebiet derzeit chinesische Systeme führend. Konsequenterweise sind es auch zwei Fälle aus der Volksrepublik, die ich an dieser Stelle anführen und sie so in die Diskussion einbringen möchte.

Wie die Washington Post berichtet, ist am 7. April 2018 ein 31-jähriger Mann, der von der Polizei wegen “Wirtschaftsverbrechen” gesucht wird, auf der Flucht. Er sucht den Schutz der Anonymität in einer Menschenmenge im Nanchang International Sports Center. Am fraglichen Abend tritt dort der Sänger Jacky Cheung auf, 60.000 Menschen sind im Stadion. So viele Menschen, da wird die Polizei ihn nicht finden, so das Kalkül des offenbar noch sehr analog denkenden Flüchtigen.

Zum Verhängnis wird dem Mann das landesweite Netz aus smarten Videokameras, das sich nach Wunsch der Machthaber zu einem System mit dem Namen Xue Liang (“Adleraugen”) auswachsen soll. Im ganzen Land hängen schon jetzt ca. 180 Millionen Überwachungskameras.[11]

Polizeibeamte griffen den Flüchtigen, identifiziert anhand seines Nachnamens Ao, noch vor verklingen der letzten Konzertklänge im Stadion auf.

Ein weiteres Beispiel betrifft einen anderen Ort (obwohl: wir bleiben in China) und ein anderes, nur auf den ersten Blick harmloseres Einsatzgebiet. Das zweite Beispiel ist übrigens auch der Titelgeber dieses Vortrags. Einige von Ihnen mögen zwischenzeitlich gedacht haben, die 5 Blatt Freiheit bezögen sich auf die Seiten meines Redemanuskripts. Das ist nicht so.

Am 20. März 2017 war in der Süddeutschen, in der Online Version später unter Hygiene verschlagwortet zu lesen: „In China tobt der Klo-Kampf“.[12]

Der Hintergrund ist folgender: In Pekings öffentlichen Toiletten gibt es erst seit 2007 (ein Jahr vor den Olympischen Spielen in Peking) Toilettenpapier. Zuvor brachten die Besucher „Ihr“ Papier einfach mit. Diese Gepflogenheit wollte man den internationalen Gästen offenbar nicht abverlangen und entschied sich so zur ebenso öffentlichen wie kostenlosen Ausstattung der stillen Örtchen mit dem für die ordnungsgemäße Verrichtung der Notdurft durchaus entscheidenden Hilfsmittel.

Dabei hatte man die Rechnung ohne Toilettenpapierdiebe gemacht. Dieses, auch in öffentlichen Institutionen in Deutschland bekannte (Unis) Phänomen wuchs sich in Peking zu einem strukturellen Problem aus. Von den 12 000 öffentlichen Toiletten der Stadt war nur jede vierte mit Papier bestückt. Die Gesellschaft und eine Allianz der Gemeinsinnigen schlug zurück:

Reporter der Pekinger Abendzeitung legten sich auf die Lauer, mit versteckter Kamera. Beobachtet wurden Menschen, die in aller Ruhe bis zu zehn Meter des kostbaren Guts abrollten, manche standen dafür Schlange und hatten Taschen für die Beute mitgebracht. Wie die Lokalpresse nachfolgend berichtete, waren es vor allem Pensionäre aus der Umgebung, die öffentliches Eigentum auf diese Weise “kollektivierte”. Auf der Hand lag eine technische Lösung, die sie gegenwärtig in öffentlichen Toiletten Pekings „bewundern“ können:

Automatische Toilettenpapierspender im Vorraum ausgestattet mit Gesichts-Scannern. Wer Toilettenpapier ziehen will, muss vor die Kamera treten und sein Gesicht einlesen lassen. Er erhält dann genau 60 Zentimeter des kostbaren Guts zugeteilt und ist für die nächsten neun Minuten gesperrt. Wohl dem, der körperlichen Zwängen widerstehen und ein zweites Mal zugreifen kann.[13]

60 Zentimeter, meine Damen und Herren: ich habe es ausgerechnet: das sind jedenfalls bei dem hierzulande üblichen Perforationsabstand (13 cm x 9,9 cm) ziemlich genau: 5 Blatt.

Jeder Einzelne von Ihnen möge nun seinen Eigengebrauch kritisch reflektieren und sich die Frage stellen, ob das reicht.

Das Dargestellte erscheint profan und eine darin anklingende kindliche Form von Toilettenhumor mag sich so gar nicht mit dem großen Wort der Freiheit verbinden lassen. Und doch: das Geschilderte wirft ebenso ernste wie tiefgründige Fragen auf. Es geht nicht nur um (staatliches) Hineinwirken bis ins Intimste. Es geht auch um (taugliche) Rechtfertigung. Wenn Gesichtserkennung probates Mittel im Kampf gegen Diebstahl (Zahlen scheinen das zu belegen) sein kann, soll sie dann eingesetzt werden? Was, wenn das System (nur) ein Gesicht ohne (weitere) personenbezogene Daten und nur für einen bestimmten Zeitraum (9 Minuten) und einen bestimmten Zweck (Toilettenbesuch) speichert?

Entscheiden und reflektieren Sie selbst, meine Damen und Herren.

Vielen Dank für Ihre Aufmerksamkeit.

[1] J.G. Fichte, Gesamtausgabe der bayerischen Akademie der Wissenschaften [=GA] III / 4, 182.

[2] Dazu Reiß, Was heißt Freiheit? Artikel abrufbar unter: https://www.zeit.de/2018/14/freiheit-werte-westen-geschichte

[3] Weiterführend Nahmias, Wie frei ist der Mensch? Artikel abrufbar unter: https://www.spektrum.de/news/wie-frei-ist-der-mensch/1361221

[4] BVerfGE 57, 295, 319 – FRAG; 83, 238, 295; 87, 181, 197 – WDR.

[5] EuGH C-293/12 und C-495-12 (Große Kammer) – Urteil der vom 8. April 2014.

[6] Dazu Schwarz, Privatheit – Sauerstoff der Freiheit, Text abrufbar unter: https://www.nzz.ch/kommentar7BYE1-1.487370

[7] Datenschutz im buchstäblichen Sinne existiert tatsächlich auch und findet sich beispielsweise im Strafgesetzbuch. Dort gibt es Tatbestände, die die Verfügbarkeit und Integrität von Daten betreffen und beispielsweise Hacking oder die Durchführung von Denial of Service Attacken unter Strafe stellen. Weiterführend Keber, Stützen der Informationsgesellschaft – zur Rolle von Datenschutz und Datensicherheit im Mediensystem, in: Burk /Hennig/Heurich (Hrsg.), Privatheit in der digitalen Gesellschaft [=Internetrecht und Digitale Gesellschaft, Bd. 10]. Berlin: Duncker & Humblot, S. 261-288. Vortrag online abrufbar unter: https://univideo.uni-passau.de/2017/02/stuetzen-der-informationsgesellschaft-zur-rolle-von-datenschutz-und-datensicherheit-im-mediensystem-prof-dr-tobias-keber/

[8] Dazu Schwartz; Das Übersetzen im Datenschutzrecht, Text abrufbar auf der Seite des Autors unter: http://paulschwartz.net/wp-content/uploads/2012/01/Konzepte-der-Privatheit_-Das-Ubersetzen-im-Datenschutzrecht.pdf. Zu den Begriffen Privacy, Privatheit, Privatsphäre vgl. auch Trültzsch-Wijnen/Pscheida, Privatheit – Privatsphäre: Normative Konzepte im Wandel, Artikel abrufbar unter: https://www.medienimpulse.at/articles/view/494

[9] Dazu Capurro, Privacy in intercultural Context. Text abrufbar unter: http://www.capurro.de/privacy.html.

[10] Weiterführend Kurz, Biometrische Überwachung am Südkreuz: Zwischenbericht bleibt geheim. Text abrufbar unter:https://netzpolitik.org/2018/biometrische-ueberwachung-am-suedkreuz-zwischenbericht-bleibt-geheim/

[11] Dazu Wang, A suspect tried to blend in with 60,000 concertgoers. China’s facial-recognition cameras caught him. Abrufbar unter: https://www.washingtonpost.com/news/worldviews/wp/2018/04/13/china-crime-facial-recognition-cameras-catch-suspect-at-concert-with-60000-people/?noredirect=on&utm_term=.8cb5e382c5b9

[12] Dazu Strittmacher, Artikel abrufbar unter: http://www.sueddeutsche.de/panorama/hygiene-in-china-tobt-der-klo-kampf-1.3428189

[13] Ein Video (dort ist von 70cm die Rede) zur Funktionsweise ist abrufbar unter: https://www.welt.de/wirtschaft/webwelt/video163730925/So-funktioniert-die-biometrische-Klopapierausgabe.html

Der Beitrag Fünf Blatt Freiheit erschien zuerst auf Datenreiserecht.

]]>
https://datenreiserecht.de/fuenf-blatt-freiheit/feed/ 0