Die wunderbare Welt von Isotopp
Google opensourced VP8 Video-Codec: WebM Project
VP8 ist ein Videocodec, der von On2 entwickelt wurde. Google hatte die Firma am 17. Februar 2010 für $133 Mio gekauft. Unter dem Namen The WebM Project (Site , Blog ) wird der Codec jetzt unter einer BSD-artigen License als Open Source zur Verfügung gestellt (Tweet ). Die Lizenz hat dabei als netten Twist eine Selbstzerstörung bei Patentangriffen eingebaut:
These licenses are revocable only if the licensee files a patent infringement lawsuit against the VP8 code that Google released.
Stoppt die Katholikenflut!
Ingeborg meint: Dieses Land hat ein Katholikenproblem! :
Egal, wo man am hin gucken is’, dauernd stehn wieder irnzwelche Problemkatholiken inne Zeitung drinne. Ein Zufall kamman datt ja wohl nich mehr nenn. Auch im Internetz stehn die dauernd drinne: ers gestern haben die sich Frankreich auf ’ner Anti-Homophobie-Demo mitte Pollezei geprügelt. So geht datt nich mehr weiter!
Das ist keine neue Erkenntnis. Mal gucken, ob ich von dem alten AStA-Flyer gegen Ausländerfeindlichkeit auch noch einen Scan irgendwo finde.
Incident Management und Transparenz
In einem Kommentar zu “Wie man aus Versehen WLAN-Daten mitschneidet” schreibt Florian:
Sorry, sowas DARF nicht “passieren”. Nicht Google und keinem anderen Unternehmen, dass auch nur entfernt von Seriösität und Vertraulichkeit lebt. Hört bitte auf, die Schuld wieder den “Medien” oder der “Politik” zuzuschieben. Google hat Scheisse gebaut.
Aber so etwas passiert.
Es passiert so oft, daß es Standards dafür gibt. In der Sprache und dem Prozeßmodell von ITIL ist so etwas ein Incident : “Ein Ereignis, das nicht zum standardmäßigen Betrieb eines Services gehört und das tatsächlich oder potenziell eine Unterbrechung dieses Services oder eine Minderung der vereinbarten Qualität verursacht.” Das ist vornehm für “Scheiße gebaut oder in der Scheiße stecken”.
WLANs mappen
Als Nachtrag zu Wie man aus Versehen WLAN Daten mitschneidet hier die Erklärung zu “Weswegen fahren Leute eigentlich systematisch durch die Straßen der Großstädte der Welt und zeichnen die Kennungen von WLAN Access Points und vermutlich auch GSM Basisstationen auf?”
Nun, jedesmal, wenn Ihr ein Handy online nehmt um dort eine Kartenanwendung Eurer Wahl zu aktivieren, muß das Handy seine Position bestimmen. Das kann vollkommen freihändig passieren, also nur mit dem GPS-Chip im Handy, wie es die originale Nokia Map-Anwendung in meinem E90 getan hat. Das Handy braucht dann freie Sicht zum Himmel und circa 80 Sekunden lang eine relativ stabile Position, damit es funktioniert.
Wie man aus Versehen WLAN-Daten mitschneidet
Spiegel Online Service:
- Technische Erklärung dessen, was passiert ist: dieser Artikel.
- Wozu macht Google das eigentlich? WLANs mappen -Artikel.
- Wer ist dieser Kristian Köhntopp eigentlich? XING-Profil
- TL;DR
:
- Google sammelt wie Skyhook und andere Unternehmen die Hardware-Adressen und Netzwerknamen von WLANs, weil diese in dicht besiedelten Gebieten eine sehr schnelle und recht gute Näherung für eine Positionsbestimmung sind (GPS: 80 Sekunden, WLAN-Fingerprint der Position: <2 Sekunden, Details im Artikel WLANs mappen ).
- Dazu hat Google alle unverschlüsselten Pakete aufgezeichnet, die deren WLAN-Antenne gesehen hat: 32 Kanäle, je Kanal 1/5 Sekunde, immer im Kreis, genau wie jeder Laptop, der ein passendes WLAN sucht. Normal sind nur Beacon-Signale (“Ich bin das WLAN mit dem Namen …”) unverschlüsselt, und das sind auch die Daten, für die sich Google interessiert.
- Aber es gibt auch in 2010 noch Leute, die Klartext-Daten über unverschlüsselte WLAN-Verbindungen rausblasen. Das ist sehr leichtsinnig und komplett unsicher. Google hat durch einen Programmierfehler unzusammenhängende 1/5 Sekunden-Fragmente von solchen ungeschützter Kommunikation aus diesen Netzen aufgefangen als das Auto vorbeigefahren ist. Das ist kein gezielter Lauschangriff, sondern eine Panne.
- Es ist Google hoch anzurechnen, daß sie den Fall ehrlicherweise öffentlich gemacht haben, anstatt unter den Teppich zu kehren, wie es sonst allgemein üblich ist.
Originalartikel
Vor zwei Tagen schreibt Google im Firmenblog: Wi-Fi data collection: an update :
Wieso zehn Prozent?
In Sicherheitsmetrik heißt es als Antwort auf meinen Artikel DENIC erklärt sich :
Wir IT-Akademiker forschen gerne an Fragen herum, die einen vagen Relitätsbezug haben, die man aber in der Praxis pragmatisch handhabt. Nach ein paar Jahren haben wir die Lösungen der Pragmatiker formal dokumentiert und wissenschaftlich nachgewiesen, was die Kollegen immer schon wussten, nämlich dass das so tatsächlich funktioniert…. Die zehn Prozent sind formal betrachtet völlig willkürlich gewählt, tatsächlich aber wohl ein Erfahrungswert, der sich aus informellen Beobachtungen typischer Vorgänge ergibt. So etwas würde ein Wissenschaftler nie zulassen.
DENIC erklärt sich
Gestern ab halb zwei ging es los: Immer mehr DE-Domains waren nicht mehr erreichbar. Schlimmer noch, anstatt keine Antwort zu liefern lieferten die Nameserver für die Domain “de” die Antwort ‘Diese Domain gibt es nicht!’. Das bedeutete eine ganze Reihe von Problemen - zum Beispiel ging Mail an diese Domains mit ‘Unzustellbar wegen unbekannter Domain’ an den Absender zurück, anstatt bis zum Ende der Störung liegen zu bleiben.
Was ging schief? In einer Mail auf public-l hat die DENIC-Pressestelle eine Erklärung veröffentlicht :
Auf der Suche nach einem funktionierenden Urheberrecht
Letztes Jahr um diese Zeit schrieb ich in Politik, Polemik und eine Agenda über die Probleme, die sich aus gemeinsamer Werkschaffung und spontaner Kooperation ergeben, wenn man etwa der Herausgeber eines Buches ist oder Anime-Filme für den deutschen Markt synchronisiert, aber auch, wie solche Projekte in einzelnen Fällen anfangen, ihre ursprüngliche Zielsetzung zu transzendieren und beginnen, neue Originale zu schaffen statt anderer Leute Werke zu übersetzen, adaptieren oder erweitern. Mit ein wenig Systematik kann man das sogar in kooperative Regeln fassen und institutionalisieren.
Wikipedia - Quellenkritik
Vor einiger Zeit schrieb ich einen Artikel Wie man einen Wikipedia-Artikel… liest Jetzt erreicht mich eine Mail von Thomas Emden-Weinert, in der er mich auf Wikipedia-Quellenkritik hinweist.
da ich Ihren Beitrag “Wie man einen Wikipedia-Artikel… liest” zitiere, dachte ich, dies könnte Sie interessieren:
Wikipedia und Wahrheit - Quellen für eine Quellenkritik
Zusammenfassung: Eine reflektierte und kritische Nutzung der Wikipedia als Teil der Medienkompetenz entsteht nicht von selbst. Diese Webseite verfolgt daher das Ziel, für Schule und Unterricht Aspekte und Belege für eine Quellenkritik der deutschen Wikipedia zu sammeln.
Statifizierung für S9Y - eine Blaupause
An anderer Stelle gab es in einem komplett anderen Kontext eine Diskussion (1 , 2 , 3 ) in der es auch schon mal um die Statifizierung von Seiten ging.
In dem ersten Artikel ging es mir darum zu verdeutlichen, wie viel Mehrarbeit die Auslieferung einer Seite ist, wenn sie durch den Codepath des Webservers erfolgt statt durch den Fastpath - und das Beispiel bezieht sich noch auf die Auslieferung einer Bilddatei, also nur das Schaufeln von Daten statt die Seite zu berechnen. Sheeri war damals der Ansicht, daß das ein Problem mit dem Dateisystem gäbe, aber das ist tatsächlich nur der Fall, wenn man ein veraltetes Dateisystem verwendet, das Verzeichnisse als lineare Listen ablegt.