Auf Google Plus schreibt Christoph Kappes:

“Haben alle verstanden, dass Rivva tot ist, wenn das #LSR kommt? Redet keiner drüber, hm.” Drüben bei Twitter. Hier kann diskutiert werden.

Das greift viel zu kurz.

Ich schrieb:

Christoph, ich glaube, Deine Denkweise setzt zu spät an.

Dem Gedanken des LSR zufolge gibt es Content, der dem LSR unterliegt und es gibt Content, der dem LSR nicht unterliegt, weil er nicht von einem Presseverlag im Sinne des LSR generiert wird und daher durch das LSR nicht geschützt wird.

Das LSR und seine bisher bekannten Umsetzungen definieren jedoch keinen Mechanismus, mit dem Content, der dem LSR unterliegt, in irgendeiner Weise identifizierbar wird. Daher ist es ohne manuelle Recherche auch nicht möglich, LSR-freien Blog-Content einzubinden, da es sich ja um Content handeln könnte, der dem LSR unterliegt.

Eine solche Unterscheidung automatisierbar durchführen zu können wäre auch überhaupt nicht im Sinne der Proponenten des LSR.

Daher stellt sich die Frage, wie man nach dem Inkrafttreten des bisher bekannten Entwurfes überhaupt irgendwas in Deutschland verlinken soll ohne Gefahr zu laufen, abmahnbar zu werden oder sich passende Lizenzen zu besorgen.?

und weiter

Der Default ist komplett falsch.

Interaktion im Internet lebt davon, daß sie kostenlos (im Sinne von Aufwand) ist. Das LSR definiert jetzt plötzlich Minimum-Transaktionskosten für die Verlinkung, das Zitat und andere extrem grundsätzliche Vernetzung, und droht hohe Strafen (Abmahnung, Juristen-Streß) bei Fehlern an.

Das Ergebnis muß zwangsläufig ein großflächiges Abtöten von Engagement im deutschen Rechtsraum sein - effektiv ist es ein Todesurteil für jede Form von ‘casual interaction’ und wird Deutschland Internet-Technisch endgültig aus dem Rennen werfen oder zumindest schwer behindern.?

Eine akzeptable Implementierung des LSR würde verlangen, daß Content auf den das LSR anwendbar ist, markiert ist, etwa durch eine Erweiterung der robots.txt, durch -irgendwas Header oder HTTP-Headerzeilen.

Der Default muß unbedingt ‘Dieser Content kann ohne Rücksicht auf das LSR genutzt werden’ bleiben, und die Markierung muß maschinenlesbar bleiben.

Dann aber geht LSR-Content im deutschen Teil des Internet sofort dark, will sagen, alle relevanten Nutzer würden den sofort ausfiltern.

Das hätten wir aber schon mit einer Zeile in der robots.txt vorher haben können.

Eine Implementierung in irgendwelchen Gesetzen muß also zwangsläufig in etwas enden, das entweder ein NOOP ist oder das Netz in Deutschland tötet.

Ich sehe nicht, wie es einen Mittelweg geben kann, und am Ende hängt es von diesen beiden Eigenschaften ab: Maschinenlesbarkeit und Opt-In ins LSR?

Siehe auch die Gedanken in Kostenloskultur und ähnliche Überlegungen damals zum JMStV. Es ist ein wesentliches Merkmal des Internet, daß es Interaktion und Kooperation zu minimalen Transaktionskosten zuläßt - Leute können Dinge im Vorübergehen verbessern und zu einer Verbesserung der Welt beitragen. Dies ist die Quelle für alle disruptiven Eigenschaften des Internet - und daher werden wir auch immer wieder Angriffe auf diese Eigenschaft sehen.
Das LSR ist nur ein weiterer Versuch, kostenlos teurer zu machen.