Es ist ein Fehler anzunehmen, die CDU hätte in NRW gegen den JMStV gestimmt, weil sie inhaltlich gegen den JMStV gewesen wäre - keine der Parteien irgendwo in Deutschland hat aus inhaltlichen Gründen für oder gegen den JMStV gestimmt, sondern das ganze war eine einzige Macht-Taktiererei - eine Farce. In NRW war es so, daß die minderheitsregierenden Parteien sich mit Enthaltungen aus der Verantwortung stehlen wollten, und die CDU deswegen angekündigt hat, gegen das Ding zu stimmen, weil sie Rotgrün so zwingen konnte, Stellung zu beziehen und so im vorübergehen billig jemanden eins reinwürgen.

Es ist auch ein Fehler anzunehmen, daß eine Ablehnung des JMStV ein Sieg wäre. Damit meine ich nicht Kurt Beck, der mit seiner Ankündigung der nuklearen Sperrverfügungsoption seine Offlinigkeit dokumentiert und sich damit final in die Riege der Politikergeneration einreiht, die wegen mangelnder Zukunftstauglichkeit dringend abgetreten werden muß.

Sondern ich meine damit, daß es immer noch notwendig ist, die gesellschaftliche Diskussion über Jugendmedienschutz ins 21. Jahrhundert zu holen und klar zu machen, daß das Schutzmodell in einer vernetzten Gesellschaft auf keiner Ebene funktioniert. Weder sind noch Mittler da, die soziale Kontrolle ausüben können, noch sind die Anreize da, die das System bei Film und Spielen am Leben halten, noch ist das Bewertungssystem großflächig erfolgreich vermittelbar. Erziehung ist nicht mit Filterprogrammen automatisierbar, und die Welt ist größer als Deutschland - diese Erkenntnis muß halt rein in die Köpfe.

Ich bekam eine Anfrage per Mail:

Hallo Kristian,…Hättest du nicht Lust, einen Gastbeitrag [ zu Filtersoftware ] bei uns zu schreiben?

Das habe ich nun drei Mal angefangen und den Text wieder weg geworfen - daher auch die langsame Reaktion. Das Thema macht mich müde, oder ich werde, wenn ich nicht müde werde, zu spitzzüngig für eine sinnvolle Diskussion. Es ist nicht so, daß es kompliziert zu verstehen wäre, wenn man sich denn einmal von der Beschützen-Ideologie des existierenden Jugendschutzes frei macht und sich ansieht, was denn die zu lösenden Probleme bedeuten. Das passiert nur niemals, jedenfalls nicht auf einer gesellschaftlichen Ebene, die nahe genug an der Politik ist, denn dafür sind die Konsequenzen zu unbequem.

Die Kinder-müssen-beschützt-werden Fraktion hat versucht, Inhalte mit Schlüsselworten und dem Zählen von hautfarbenen Pixeln automatisch zu bewerten, schon 1996.

Das ist ein Unterfangen, das zwangsläufig scheitern muß, denn es versucht Syntax, Kriterien der äußeren Form, zu definieren, um davon ein moralisches oder ethisches Urteil abzuleiten (“Diese Inhalte sind schlecht oder für Kinder nicht geeignet.”).

Wäre dies so einfach, könnten wir Juristen durch Roboter ersetzen, ja sogar als menschliche Rasse zur Gänze beruhigt abtreten, da wir Maschinen geschaffen haben, die Moral und Ethik haben - das ist nichts weniger als die Singularität, das Nirvana der KI, die Vereinigung von Mensch und Maschine. Aber die Tatsache, daß dieser Ansatz aus technischer Sicht so offensichtlich lächerlich ist, hält niemanden davon ab, ihn auch 2010 noch zu propagieren - natürlich nicht mehr als ausschließliches Kriterium, sondern lediglich ‘ergänzend, wenn keine weitere Kriterien zur Verfügung stehen’.

In der zweiten Welle haben die Kinderbeschützer dann versucht, mit PICS ein System zu schaffen, mit dem man beliebige Labels an Content kleben kann - sogar das heutige “ab x Jahren”-System kann man in PICS darstellen, es besteht kein Grund, dafür de-xml dilettantisch neu zu definieren. PICS, heute POWDER, hätte im Gegensatz zu de-xml außerdem den Vorteil, daß dafür bereits haufenweise Software existiert, die solches Zeugs verstehen kann.

Damals, wir sind inzwischen so um 1999 herum, hat man Ratingsysteme mit quasi-objektiven Kriterien definiert. In RSAC zum Beispiel gab es vier Kategorien (Gewalt, Sex, Nacktheit und Sprache), und in jeder Kategorie dann wiederum fünf Stufen - Gewalt zum Beispiel wird von 0 (Harmloser Konflikt, leichte Sachbeschädigung), 1 (Lebewesen werden verletzt oder getötet, Sachbeschädigung), 2 (Menschen werden verletzt oder getötet, wenig Blut), 3 (Menschen werden getötet, Blut und Splatter) und schließlich 4 (Unnötige und graphische Gewaltdarstellung, Folter, Vergewaltigung) unterteilt. Für die anderen Kategorien werden ähnliche Unterteilungen vorgesehen.

Auch das ist natürlich wieder eine Syntax, ein formaler Regelsatz, der zu einem Werturteil führen soll. Und natürlich kann man hier bei Kenntnis der Regeln leicht pathologische Fälle finden, die sogar häufig sind, und bei denen jedes System bei korrekter Anwendung der Regeln - nein, wegen korrekter Anwendung der Regeln - zu nicht akzeptablen Ergebnissen kommt.

Was es braucht, so die Beschützerfraktion, ist also ein Bewertungssystem, das subjektiv ist, also eines bei dem der Sender (derjenige, der das Label an einen Inhalt klebt) ein Urteil im kulturellen Kontext eines Rezipienten (genauer: aller möglichen Rezipienten des betroffenen Kulturkreises) treffen muß. Das ist natürlich unmöglich - wer es nicht glaubt, mag sich gerne eine Diskussion zwischen “Gamern” und beliebigen Politikern zum Thema First Person Shooter anhören (“Killerspiele vs. Spielekiller”). Oder sich die Beispiele ansehen, die der AK Zensur und Alvar Freude herausgesucht haben, um sie durch Laien nach dem aktuell propagieren “Ab x Jahren”-System bewerten zu lassen - mit einer Fehlerquote von 80%.

Wer hier an einen erzielbaren gesamtgesellschaftlichen Konsens glaubt, der hat die Postmoderne verschlafen.

Wieder 11 Jahre zurück. Schon in der vom BMWi in Auftrag gegebenen Studie “Jugendschutz und Filtertechnologien im Internet” (PDF) kam man zu der Erkenntnis, das Kinder und Jugendliche Filter nicht zu umgehen versuchen würden, würden sie sie als nützlich empfinden. Sie werden nicht als nützlich empfunden, da die Beschützer- und Filterbefürworter offiziell noch immer die Aufgabe eines Jugendschutzprogrammes falsch formuliert.

Die Aufgabe eines Jugendschutzprogrammes ist es eben genau nicht, jugendgefährdende Inhalte zu blockieren.

Wäre es so einfach, wäre das Problem leicht lösbar: Man sperrt einfach alle Seiten ohne Label (“Keine Einstufung nach …”) wie man es bei Videospielen und Filmen auch tut, und niemand klebt ein Label an seine Inhalte. Mithin sind alle Seiten gesperrt, also auch alle jugendgefährdenden Inhalte aller Altersstufen.

Das ist Overblocking, und nicht akzeptabel.

Die korrekte Formulierung der Aufgabe ist eben “Damit Jugendschutzprogramme erfolgreich sein können, müssen ihre Filter alle jugendgefährdenden Inhalte blockieren und alle nicht jugendgefährdenden Inhalte durchlassen. Overblocking, false-positives, das Sperren von nicht jugendgefährdenden Inhalten sind genau so ein Problem wie Underblocking, false-negatives, das Durchlassen von jugendgefährdenden Inhalten.”

Das ist ein viel schwierigeres Problem als das Blockieren von jugendgefährdenden Inhalten. Daher geht mit der Propagierung des Konzeptes ‘Filterprogramm mit Label’ zwingend auch die Konstruktion einer Pflicht zur Labelung von Inhalten einher, wenn das Konzept ‘Filterprogramm mit Label’ ein Erfolg werden soll. Streng genommen müßte man idealerweise sogar dazu verpflichten, das minimale gerade noch akzeptable Label zu wählen.

In den vergangenen 11 Jahren seit der o.a. Secorvo/BMWi-Studie sind überhaupt keine Fortschritte in der öffentlichen Diskussion gemacht worden. Weder wird die Aufgabenstellung korrekt formuliert, noch werden die sich daraus ergebenden Konsequenzen thematisiert, die wegen der Overblocking/Underblocking-Problematik lauten:

  • Pflicht zur Bewertung,
  • Pflicht zur minimalen Bewertung
  • Bindung von Bewertungen an Inhalte mit einer PKI, damit eine Verfälschung oder Entfernung der Labels auf dem Web zum Rezipienten a la odem.org nicht möglich ist
  • Definition eines subjektiven Bewertungssystems, also Verpflichtung des Senders, die Erziehungs-Wünsche und Moralvorstellungen aller Empfänger zu antizipieren, da quasi-objektive Systeme nicht funktionieren

Es ist natürlich Absicht, daß das nicht thematisiert wird. Würde man es tun, wäre sofort erkennbar, daß jeder Ansatz, der auf Jugendschutzlabels und Filtern basiert zwingend zum Scheitern verurteilt wird - die Liste da oben sind offensichtlich unmögliche Forderungen.

Wir leben in einer Gesellschaft mit Technologie, die es beliebigen Personen - auch Kindern - ermöglicht, sich ad-hoc zu vernetzen und Daten auszutauschen. Das kann per Speicherkarten gehen, USB-Stick, Bluetooth, lokale Wifi-Hotspots, lokale ad-hoc Kabelnetze wie auf LAN-Parties, P2P-Netzwerkstrukturen auf dem Substrat des Internet oder Darknets wie tor und Freenet. Oh, und normalen Internet-Zugriffen, einige davon mit unverschlüsseltem http.

Das bedeutet, daß jede beliebige Person Inhalte beliebig publizieren kann. Ein Ansatz, bei dem auf Mittler eingewirkt wird, wie es beim klassischen Urheberrecht, Jugendschutz und anderen sozialen Kontrollinstanzen der Fall war, funktioniert hier nicht, da es keine Mittler mehr gibt. Anbieter und Konsumenten von Inhalten finden sich und vernetzen sich nach Bedarf und ohne Einschaltung von Dritten, müssen einander nicht persönlich kennen und für den Datentausch nicht persönlich Kontakt haben, und eine Alterung der Kopien über Generationen des Duplizierungsprozesses findet nicht statt.

Kindern und Jugendlichen Inhalte vorzuenthalten (“sperren”) funktioniert schlicht nicht mehr, schon im Ansatz nicht.

Sperren ist auch weniger wichtig als die Beschützer-Fraktion denkt. Malte Welding formuliert es in einem Blogartikel so: “Obst verdirbt, Kinder nicht, Kinder schalten ab.”. Wichtiger ist es, eine Wertung zu vermitteln, wenn Kinder Inhalte wahrnehmen. “Medienkompetenz vermitteln” ist konkret umgesetzt genau das: Kindern zu lehren, daß es erstens okay ist, bestimmte Dinge im Netz schlecht zu finden und ihnen zweitens klar zu machen, welche Dinge wir bei unserem Stamm schlecht und welche wir gut finden.

Wollte man bei dem gesellschaftlichen Diskurs um den Jugendschutz Fortschritte machen, ist es wichtig zu lernen, zu verstehen und zu akzeptieren, warum dies die einzige Möglichkeit ist, die uns im Angesicht moderner Technologie bleibt.

Ich denke, der Jugendmedienschutz ist ein gutes Beispiel dafür, wie mangelhaft die Zusammenarbeit zwischen Juristen und Technikern oft ist.

Ich denke, der Jugendmedienschutz ist ein gutes Beispiel dafür, wie Menschen versuchen, Heil in der Entwicklung von Technologien zu suchen, wenn Technologie für die Lösung der gestellten Aufgabe komplett ungeeignet ist. Aus der oben dargelegten Folge von Erfahrungen und Überlegungen wird hoffentlich klar, warum gerade Techniker bei dem Problem prinzipbedingt nichts hilfreiches beitragen können.

Schon das Wort ist falsch. Es geht nicht um JugendmedienSCHUTZ. Das kann 2010 nicht funktionieren. Es hat schon 1996 nicht funktioniert. Was wir brauchen ist JugendmedienERZIEHUNG. Durch Menschen. Mit Werten und Überzeugungen.

Und nicht einen netzwerkweiten Schutzroboter.

Egal wie es mit dem JMStV in nächster Zukunft läuft - verändern kann man nur etwas, wenn man sich über Alternativen Gedanken macht. Könntest du dir vorstellen, da mit uns zusammen einen ersten Schritt zu machen?

Wie gesagt, ich bin dieser Diskussion unsagbar müde. Ich führe sie seit fast 15 Jahren. Den Text da oben könnt Ihr verwenden, falls Ihr den brauchbar findet.

Gruß, Kris