Archive for the ‘netzpolitik’ Category
Ist die #digitalcharta noch zu retten?
Nein. Denn:
These: Die derzeitige Verfassung des Netzes bietet der Exekutive nicht die notwendigen Mittel zur Gewährleistung von mindestens drei Säulen des Rechtsstaates: Verantwortlichkeit, Rechtssicherheit und Verhältnismässigkeit. Eine Digitalcharta ist aber kontraproduktiv. Notwendig ist ein Umbau des Netzes um dem Rechtsstaat die notwendigen Grundlagen zurückzugeben. Oder eine Aufkündigung des Rechtsstaats.
Viel wurde über die Digitalcharta geschrieben. Juristen und andere üben formale, stilistische und inhaltliche Kritik. Die Initiatoren schalteten nach einem kurzen “Ups!” auf Angriff “Hater!” und dann einen Gang runter auf “Wir lieben Euch doch alle!” und BETA!11einself.
Unabhängig von Form, Stil und Inhalt soll es daher hier um die implizierte Grundlage der Digitalcharta gehen: “Kann es ein digitales Leben im analogen geben?”
Was unterscheidet das Digitale vom Analogen?
Die Kopierbarkeit. Genauer: die geringeren Kopierkosten und die Tatsache, dass ein bestehendes Item mit vollkommener Ununterscheidbarkeit kopiert werden kann. In der analogen Welt oder besser im Real Life (RL) benötigt es Energie, Rohstoffe, Werkzeuge und Menschen, um eine oder viele Instanzen einer Ware herzustellen. Die Kosten steigen mit der Anzahl der Instanzen. Zwar flacht die Kostensteigerungsquote mit zunehmender Anzahl ab, steigt aber wegen der limitierten Verfügbarkeit von Energie, Rohstoffen, Werkzeugen und Arbeitskräften irgendwann wieder an. Ein StartUp mit einem RL-Businessmodell muss auf die Frage eines Investors “Ist ihr Modell skalierbar?” immer antworten, “Ja, aber …”.
Die Möglichkeit, Items – bei nahezu keinen Kosten – kopieren zu können, betrifft jedoch nicht nur Dinge, die auf dem Markt angeboten werden. Im Gegensatz zum RL können auch Items kopiert werden, die bereits einen Eigentümer haben. Das alltägliche Geschäft des Raubmordkopierers. Im RL müsste dieser in eine Wohnung einbrechen, an das Plattenregal gehen und umständlich Rip-Mix-Burnen. Er hätte danach noch immer keine ununterscheidbare Kopie.
Der entscheidende Punkt hier ist nur vordergründig der Kostenunterschied für die Erstellung (ein Kopierprozess) von Items. Der wichtige Punkt ist die Ununterscheidbarkeit der Items. Sie bedeutet, dass digitale Kopien nicht nur identisch sind, sondern auch keine Spuren des Herstellungsprozesses vermitteln.
Konkret: Beweismittelsicherung basiert darauf, dass die Polizei glaubhaft vermittelt, dass der Gegenstand “Brechstange” bei dem Beklagten gefunden wurde. Die Spurensicherung konnte nachweisen, dass sowohl Farbspuren des Tatorts als auch DNA des Beklagten an dieser Brechstange zu finden sind. Für die Verteidigung wird es langsam eng. Die Brechstange wird als Eigentum des Beklagten “attributiert”.
Unser Rechtssystem hat verschiedene Säulen. Eine Säule ist die Verantwortlichkeit des Individuums für sein Handeln. Nur in Ausnahmen (Kindheit, Krankheit) wird diese als nicht gegeben angenommen.
Rechtssicherheit und Verhältnismäßigkeit der Mittel sind weitere Säulen. Sie können unter anderem so interpretiert werden, dass ein Gesetz Handlungen nicht mit Strafe belegen sollte, wenn der Staat die Durchsetzung nur in wenigen Fällen gewährleisten kann und die Bestrafung bei Verfolgung bezüglich der Tat zu drakonisch ausfällt (siehe Störerhaftung).
Die oben genannte Brechstange wird zusammen mit der Verantwortlichkeit für eigenes Handeln und der allgemein garantierten Rechtssicherheit und Verhältnismäßigkeit zu einer Verurteilung des Eigentümers dieses Gegenstandes führen müssen.
In der digitalen Welt klebt weder DNA noch Farbe an einem “Gegenstand”. Eine Kopie eines privaten Dokumentes – verteilt über Tor – liefert keinerlei Beweismaterial über die Umstände des nicht legitimierten Kopierprozesses. Möglicherweise ist sogar der Vorgang selbst unbemerkt geblieben (im RL eher selten der Fall).
Die derzeitige Verfassung des Netzes bietet der Exekutive also nicht die notwendigen Mittel zur Gewährleistung von mindestens drei Säulen des Rechtsstaates: Verantwortlichkeit, Rechtssicherheit und Verhältnismässigkeit. Handlungen sind nur sehr schwer Personen zuzuordnen, Dinge sind unterschiedslos zu kopieren und die Kosten für Handlungen sind so billig, dass Strafen unverhältnismäßig hoch sind.
Technik
Die “derzeitige Verfassung des Netzes” ist jedoch kein unumstößliche Tatsache. Sie ist lediglich ein technischer Status Quo. Eine Handvoll RFCs beschreiben die technische Infrastruktur. Diese Infrastruktur ist verantwortlich für die Unvereinbarkeit essentieller Grundbausteine des Rechtsstaats mit der digitalen Sphäre.
Und die Infrastruktur des Netzes ist veränderbar. Alle Kopiervorgänge können transaktionssicher gemacht werden, können geloggt werden. Jedes Datum kann mit einem Hashcode versehen werden, kann signiert werden, verschlüsselt und mit einem Eignentümerstempel versehen werden.
Das alles klingt zunächst mal unglaublich aufwändig. So aufwändig wie es für die ersten Flugpioniere geklungen hätte, heute geltende Pilotenprüfungen abzulegen. Marie Curie hätte ihre Forschungen gar nicht machen können, hätten damals die aktuellen Sicherheitsanforderungen an den Umgang mit radioaktiven Materialien gegolten.
Aber wir befinden uns in der IT noch immer in einer “frühkindlichen” Phase. Moore hat – obwohl immer wieder totgesagt – für viele Jahre nicht ausgedient. Rechenpower, Speichergröße und Netzbandbreite werden stetig verbessert und verbilligen sich dadurch. Und transaktionssichere Implementationen für alle Layer des Netzes sind prinzipiell möglich, trotz aller Hürden die sich zum Beispiel aus der Frage der Vertrauenswürdigkeit von Blackbox-Hardware ergeben. Kann sein, dass man sich auch von von-Neumann-Architektur verabschieden muss. Who cares?
Das Verfahren für eine transaktionssichere Infrastruktur heißt – trommelwirbel – Blockchain. Wiki schreibt u.a.:
Eine wesentliche Besonderheit der Blockchain ist, dass sie Einvernehmen über geschäftliche Transaktionen herstellen kann, ohne hierzu eine zentrale Instanz oder einen vertrauenswürdigen Dritten zu benötigen.
Eine solche Infrastruktur hätte zum Beispiel einen netten Nebeneffekt: Umgeht jemand die Blockchain um an Daten zu gelangen, deren Eigentümer ihm keinen Zugriff darauf gegeben hat, macht er sich strafbar. Im Zweifelsfall könnte man Datenweitergabe sogar noch von einem Schlüsseltausch abhängig machen.
Und die Überwachung?
Überwachung könnte laut gültigen Gesetzen nicht mehr mit einem Fischernetz (wie z.B. bei G10) stattfinden. Nur Richter können bei einem begründeten Verdacht Zugriff auf die Daten erlauben. Der Netznutzer würde gewissermassen dem Staat vertrauen müssen und für ihn würde der Erlaubnisvorbehalt gelten. Durch einen Key-reject kann der Dateneigentümer sogar im Nachhinein ihn betreffende Daten von der Verarbeitung ausschliessen.
Der zu fordernde Umbau der existierenden Netzinfrastruktur ist das einzige, das derzeit notwendig ist. Als Anmerkung zur EU-Charta wäre folgendes sinnvoll:
Jeder Mensch hat das Recht auf eine transaktionssichere und geschützte Teilnahme an digitaler Kommunikation. Daten die ein Kommunikationsteilnehmer in den Kommunikationsnetzen hinterlegt sind als Teil seiner Person zu betrachten und geniessen dem gleichen Schutz wie seine Wohnung.
Wem die obige Forderung zu radikal ist kann sich gerne die Kleinklein-Kritik anderer an der Digitalcharta durchlesen:
- Thomas Stadler: “Die Charta ist in doppelter Hinsicht anmaßend.”
- Hadmut Danisch: “Entweder hat man ein Recht, und kann dann aufgrund dieses Rechtes etwas fordern. Oder man hat das Recht nicht, dann kann man darum bitten oder betteln.”
- Wolfgang Michal: “Wie man eine richtige Debatte in falsche Bahnen lenkt”
- Niko Härting: “Ganz allgemein gibt man die Devise aus, es handele sich ja nur um einen ‘Diskussionsanstoß’”
- Julia Reda: “Rückschritt gegenüber dem Status quo”
- tante: “Und hier bleibt der Entwurf weit hinter allem zurück.”
- mspr0: “Ich hoffe, dass diese Debatte totgeschwiegen wird. Wenn das irgendwann mal eine gesetzliche Regelung wird, dann: Gute Nacht!”
- Steglitz meint: “So wird das leider nix. Jedenfalls nichts mit einer wünschenswerten Beteiligung vieler EU-Bürger.”
- Algorithmwatch: “Unser Fazit: Gut gemeint ist auch hier das Gegenteil von gut gemacht.”
- Bernhard Kern: “Die Rechte der Charta gelten auch gegenüber Privaten. Das heißt also im Zweifel auch gegenüber den eigenen Nachbarn.”
- Ausbaldowert: “Es bleibt der Eindruck eines unausgegorenen Experiments.”
- Martins Blog: “Der Staat ist sehr gefährlich einerseits (Gewaltmonopol), aber andererseits die einzige heilbringende Quelle, weil nur er überhaupt Grundrechte gewähren kann.”
#Krautreporter – Oder: Haltet den Dieb!
Aktuell haben die Krautreporter noch zwei Tage Bangen vor sich. Noch fehlen dem Projekt mehr als 5000 Unterstützer, die mindestens 60€ für eine Jahresmitgliedschaft investieren. Sie fördern damit ein alternatives Marktmodell für journalistische Produkte. Mit knapp 1 Mio € für ein Jahr wäre das Projekt gut ausgestattet. Und 60€ pro Jahr sind für einen anspruchsvollen Medienkonsumenten auch nicht viel.
Aber 60€ sind – zumindest für mich – zu viel für ein Projekt, das auf weitgehend falschen Annahmen basiert. Es wurde von Journalisten initiiert, die nach meiner Meinung schon an ihrem Arbeitsplatz selbst einen beschränkten Horizont ein sehr fokussiertes Blickfeld haben.
Buhmann Onlinemarketing
Zu meinen regelmäßigen Kunden gehören seit vielen Jahren große Online-Publisher. Sie erwarten von mir, dass ich ihnen zeige, wie sie aus den Webanalytics-Daten erfahren können, wie man mehr Klicks erreichen kann. Dabei spreche ich sowohl mit der Redaktion, mit dem Vertrieb als auch mit Technik und Produktmanagement.
In den meisten Fällen erwarten meine Gesprächspartner, dass die Nutzerdaten ihnen besser sagen können, was und wie sie zukünftig schreiben sollen. Die Zahlen sollten es ihnen besser sagen als es ihr Gefühl oder die Chefredaktion kann.
Insbesondere die Redaktionen wirken häufig verunsichert. Ihnen ist die Aufmerksamkeitsökonomie der Nutzer ein Buch mit sieben Siegeln. Sie schauen tagtäglich, oft sogar mehrmals stündlich auf die Artikelperformance bei Chartbeat. Longtail halten sie für ein Mythos aus der guten alten Zeit.
Als gelernter Journalist habe ich noch eine tägliche Redaktionskonferenz für ein monatlich erscheinendes Magazin erlebt. Ja, täglich für eine Monatsausgabe. In diesen Konferenzen kämpften die Redakteure mit/gegen der/die Chefredaktion für ihre Inhalte, für ihre Sicht der Dinge, für ihre Meinung. Es war immer Platz für Nischenthemen. Es war weitgehender Konsens bei den Redakteuren, dass eben diese Nischen es den Lesern erleichterten den Mainstream der Inhalte einzuordnen. Die Chefreaktion hat gemeinsam mit den Redakteuren und den Autoren die Inhalte kuratiert.
Nicht ein mal habe ich es in einer solchen Konferenz erlebt, dass die Chefredaktion etwas über den Anzeigenverkauf hat verlauten lassen. Natürlich musste die Heftplanung die verkauften Anzeigen berücksichtigen. Verkaufszahlen wurden nur genannt, wenn wiedermal ein Rekord gebrochen wurde.
Wenn ein Artikel geschoben wurde war das entscheidende Argument nicht, dass zu wenig Anzeigen verkauft wurden sondern, dass das Thema grade nicht passt oder noch weiter ausgearbeitet werden sollte. Die Chefredaktion fungierte als Firewall gegen die Wünsche der Anzeigenabteilung. Und sie musste sicher viel aushalten. Denn die Anzeigenabteilung in einem Verlag ist mächtig und gefräßig. (Das liegt unter anderem daran, dass sie im Gegensatz zur Redaktion sehr stark Bonus-getrieben ist.)
Bei allen mir bekannten Online-Redaktionen gibt es diese “Chefredaktions-Firewall” nicht mehr, oder nur noch sehr eingeschränkt. Die Redaktionen haben direkten Zugriff auf die Nutzungszahlen. Statt gesteuerter Kuration nutzen die Managementebenen nun den direkten Wettbewerb in der Redaktion als Instrument der Entwicklung des verlegerischen Profils.
Wenn die Krautreporter also implizieren, dass Redaktionen heute nur noch Futter für die Klickviehtröge liefern, haben sie durchaus Recht. Aber es sind eben diese Redaktionen und Chefredaktionen, die diesen Wettlauf überhaupt veranstalten. Es sind die Redakteure, die mit den WebAnlytics-Zahlen in die Redaktionskonferenz gehen und die Heftplanung mit Milchmädchenrechnungen in ihrem Sinne manipulieren.
Die strategische Themenplanung im eigentlichen verlegerischen Sinne ist daher heute ungleich schwerer. Plastisches Beispiel für diese Hypothese ist Spiegel Online: inzwischen verdrängt der Fussball an mehreren Tagen in der Woche weite Teile der Nischenthemen und oft sogar die Kernthemen. Offensichtlich ein Effekt der positiven Rückkopplung. Mehr Fussball bringt mehr Fussballinteressierte. Die Klickzahlen liefern den Sportredakteuren dann die notwendigen Argumente für immer mehr Fussball. Ähnlich dürfte die Entwicklung vor einigen Jahren beim Stern abgelaufen sein. Vor zehn Jahren war Panorama eher selten unter den Top-5-Themen auf der Homepage. Heute sind es mitunter mehrere Panorama-Artikel auf der Bühne gleichzeitig.
Aber Online-Marketing ist nicht gleich Online-Marketing. Es gibt Beispiele in denen eine geschickter Vertrieb signifikant höhere Preise erzielen kann. Große Sportseiten erreichen bei Markenherstellern Preise von denen AdServer-Betreiber und Bookingagenturen nur träumen können. Die Kooperation der Zeit mit dem Uhrenhersteller Nomos Glashütte lohnt sich offensichtlich für beide Partner.
Solche Partnerschaften und Vertriebskonzepte funktionieren allerdings nur, wenn man ein verlegerisches Profil hat. Dann und nur dann hat man auch eine attraktive Leserschaft und Zielgruppe. Dabei kann man sogar für Anzeigenkunden kritische Themen ausbreiten und dennoch gutes Geld verdienen. Ein schönes Beispiel, wie das funktioniert zeigen die Prenzlauer Berg Nachrichten. Während man ein umfangreiches Dossier über Gentrifizierung pflegt, verkauft man gleich noch das Immobilienprojekt. Chefredakteur und Geschäftsführer des Onlinemagazins ist übrigens Philipp Schwörbel, ein Krautreporter.
Publikumsbeschimpfung
Wenn die Krautreporter nun Vorschuss von ihren Lesern haben möchten, dann machen sie den Gärtner zum Bock:
Du,
lieber Leser,
bist mit Deinem nervösen Finger Schuld an unserer Misere. Immer wenn Du auf eine catchy Überschrift klickst, stirbt ein Qualitätsjournalist einen kleinen Tod. Mit jeder Bilderstrecke in die Du Dich fallen lässt, verhinderst Du wieder einen Pulitzer-Preis-trächtigen Artikel.
Andere kritisieren das Projekt aus anderen Gründen. Insbesondere die Kampagne selbst wird als arrogant betrachtet. Die Macher scheinen von der Kritik überrascht worden zu sein. Nachbesserungen sollten wohl den Wind aus den Segeln nehmen. Doch es fällt immer wieder auf, dass die Krautreporter das Modell der werbefinanzierten journalistischen Produkte für einen Verfall der journalistischen Qualität verantwortlich machen. Als ob Werbung eine Erfindung für das Internet wäre.
ps: Ich persönlich bin übrigens der Meinung, dass wir zu wenig Meinungsjournalismus haben und nicht zu viel. Aber das ist noch ein ganz anderes Thema.
pps: Den drohenden Misserfolg der Kampagne als eine Schlappe der Netzgemeinde zu menetekeln halte ich übrigens für vollkommen daneben. Denn das Projekt ist sowas von Old School.
Targeted Ads: Twitter wechselt auf die dunkle Seite
Techcrunch meldete gestern, dass “Twitter Is About To Officially Launch Retargeted Ads“. Danach soll noch heute das neue Programm für Werbetreibenden bekannt gegeben werden. Dreh- und Angelpunkt wird dabei offensichtlich der twitter-Account-Cookie des Brwosers. Dieser soll das Surfverhalten eines Nutzers verknüpfen aus dem dann ein aussagefähiges Interessenprofil generiert wird. Auf der Basis dieses Profils kann twitter dann Targeting und auch das teurer zu verkaufende Retargeting
Prinzipiell ist an dieser Entwicklung zunächst mal interessant, dass twitter mit diesem Vorgehen von sehr vielen Sites profitiert, die selbst von diesem Kuchen nichts abbekommen. Jeder Blog und jede News-Site mit einem installierten Social-Plugin, liefert die notwendigen Daten an twitter ohne dafür einen monetären Gegenwert zu bekommen.
Allerdings kommt der Schritt nicht überraschend: die Änderung der Nutzungsbedingungen deuteten schon vor mehr als einem Jahr auf twitters Zukunftspläne. Auch die tiefe Integration der Accounts in iOS und OSX liessen darauf schliessen, dass man in Richtung einer geräteübergreifende Nutzerkennung arbeitet. Dazu passt auch die heute bekannt gegebene Zusammenarbeit von twitter mit der Deutschen Telekom die sich bemühen neue Android-Nutzer durch einen einfacheren Zugang zu gewinnen.
Insbesondere die Identifikation von Nutzern über Gerätegrenzen hinweg ist der heilige Gral. Kann eine Werbeplattform synchrone Profile anbieten sinken die Kosten für Buchung weil weniger Werbungen ausgespielt werden müssen und gleichzeitig steigt die Effizienz der einzelnen geschalteten Werbemittel.
Twitter geht dabei auch gerne Wege, die zum Beispiel in Deutschland gesetzlich verboten sind. So speichert die mobile Version beispielsweise die IP-Adresse des ersten Aufrufs in einem Cookie. Damit lassen sich sehr leicht Profile auch dann erstellen, wenn Nutzer sich auf einzelnen Geräten oder Programmen nicht bei twitter anmeldet.
Eine ausführliche Analyse über den Wert von Nutzerdaten stellt ein Artikel des spectator dar: “iSPY: How the internet buys and sells your secrets“. Laut dem Autoren sammeln die Firmen derzeit jährlich £5,000 von jedem User ein. Jetzt wo twitter einen Firmenwert von 23 Mrd $ hat möchte man den Investoren, die “einem so viel gegeben haben” offensichtlich ein wenig zurückgeben.
Massenüberwachung ist Marktforschung mit anderen Mitteln
Man stelle sich Barack Obama beim morgendlichen Briefing vor. Seine Mitarbeiter präsentieren ihm einen Mix unterschiedlicher Nachrichten. Kurz und knapp zusammengefasst jeweils auf zwei Sätze. Die Themen umfassen das ganze Spektrum mit dem sich ein US-Präsident beschäftigen muss: Gesundheitsreform, Chemiewaffen, Finanzstreit, Republikaner etc. Die Quellen reichen von einfachen Pressclippings über Telefonate zu Meinungsumfragen und eben Überwachung. In den meisten Fällen handelt es sich schon um ein Surrogat aus mehreren Quellen. Den Überbringern dürfte es schwer fallen alle einfliessenden Quellen zu benennen.
Das einzelne Telefonat von X mit Y ist dabei schon längst in den Hintergrund getreten. Vielleicht ist nur die Häufung der Telefonate zwischen X und Y oder die Tatsache, dass die beiden seit Wochen nicht mehr miteinander geredet haben wichtig. Was aber, wenn X und Y nur deswegen nicht mehr telefonieren, weil sie jetzt plötzlich Skype benutzen. Gewichtete Aussagen an Hand von Metadaten lassen sich nur dann gesichert machen, wenn man sicher sein kann, dass man nahezu alle Pakete unter Beobachtung hat.
Lehren aus der Marktforschung
Die Qualität aggregierter Aussagen steht und fällt mit der Quantität der verwendeten Daten. Die “Ich bekomme nur Schuhwerbung”-Beobachtung zeigt dieses Problem auf eine sehr anschauliche Weise. Die Datenbasis aller Predictive-Targeting-Anbieter ist derzeit von minderer Qualität, weil sie quantitativ zu klein ist. Konkret: wenn man diesen Artikel hier liest, erfährt ein Anbieter wie Doubleclick oder nuggad davon nichts (hoffentlich). Für ein umfassendes Profil wäre dies jedoch notwendig. Stattdessen werden die Datenbanken dort gefüttert, wo sich viele Menschen aufhalten. Das eigene Profil wird so gleichgeschaltet mit dem vieler anderer Menschen. Und selbst, wenn man sich niemals Schuhe im Netz kaufen würde – schon gar nicht solche – ist aus Sicht der Aggregatoren eine hohe Wahrscheinlichkeit für einen Treffer gegeben. Denn die Hälfte der Nutzer kaufen sich ja tatsächlich solche Schuhe im Netz.
Für die NSA und andere Dienste folgt daraus, dass es nicht genügt, nur einen Teil der Kommunikation zu erfassen. Die Gefahr droht ja eben nicht von der normalen Masse, sondern von den Rändern der Gesellschaft. Die Nichtschuhkäufer liefern die spannenden Analysen. Und spannende Analysen müssen geliefert werden.
Jeder Publisher einer großen WebSite kann schlecht schlafen, wenn er nicht weiss, wie oft seine Seiten aufgerufen werden. Wie in einem Blindflug veröffentlicht er Inhalte, die Nutzer auf die Seite ziehen sollen. Würde er keine Kenntnis von dem Erfolg oder Misserfolg seiner Bemühungen haben würde sich schnell ein unangenehmes Gefühl einstellen – ähnlich dem körperlichen Unwohlsein in einem schalltoten Raum.
Für den Publisher ist die Lösung recht einfach. Sie heisst Web-Analyse und es gibt sie in unterschiedlichen Ausprägungen und zu unterschiedlichen Preisen. Und interessanterweise ist sie so gestaltet, dass beim Benutzer immer ein Quentchen Unsicherheit über die Aussagen selbst oder deren Qualität bleibt. So erklärt sich auch warum 99% aller relevanten WebSites mit mehr als einer Analytics-Lösung ausgestattet sind.
Für die Quants in den Diensten ist das unangenehme Gefühl der Taubheit wahrscheinlich existenzieller. Wenn sie auf Pakete treffen, deren Inhalt sich ihnen verschliesst müssen sie handeln. Geschützte Kommunikation für die sie keinen Schlüssel haben oder neue Protokolle für die sie keinen Decoder haben darf es nicht geben. Eine blosse Kosten-Nutzen-Analyse wird daher immer darauf hinauslaufen, dass diese Pakete erfasst werden müssen und alles unternommen werden sollte, die Inhalte freizulegen. Methodisch sauber wäre bei dem Beobachtungsgegenstand “Internetkommunikation” nur ein Abgreifen aller Pakete an allen Knotenpunkten.
Oder doch lieber die #Piraten wählen?
@astefanowitsch hat auf seinem Blog erklärt, warum er doch lieber die Piraten wählt. Obwohl er Piratenmitglied ist bemüht er sich dabei doch, nachvollziehbare Argumente zu liefern. Das ist ihm auch halbwegs gelungen. Viel wichtiger jedoch ist für mich die verlinkte Liste der Landeslisten. Dort stehen dann solche integren und kompetente Personen, wie:
- Udo Vetter,
- Markus Kompa,
- Jens Seipenbusch,
- Bruno Kramm.
Jeder von diesen vieren steht auf einem Platz, der einen Einzug in den Bundestag garantiert, selbst wenn die Piraten nur 5,00001% bekommen. Und damit hätte die Piratenfraktion schon mehr Leute, die sich mit dem Netz und den rechtlichen Grundlagen auskennen als alle anderen Parteien zusammen.
(An Hand der Liste konnte ich dann auch endlich begreifen, dass ich mit meiner Zweitstimme ohne Hemmungen die Piraten wählen kann. Das hatte ich sehr stark bezweifelt als ich sah, wer sich in meinem Wahlkreis zur Wahl stellt: Fabricio do Canto. Diesem wurde zum Glück der Weg auf die Landesliste verwehrt, würde also nur als Direktkandidat in den Bundestag kommen. Er beschreibt in seinem Profil schmerzlos, dass er für die Beiersdorf AG mehrere Patente eingereicht hat. Unkommentiert von ihm bleibt dagegen die Frage, was er mit seiner politischen Arbeit erreichen möchte. Deutlich wird auch sein sehr starker Hang zur Esoterik.)
#PRISM, Big Data und der Überwachungs-industrielle Komplex
Die Aufdeckung der umfassenden Vorratsdatenspeicherung der NSA durch Edward Snowden hat die Öffentlichkeit kalt erwischt und auf einen Schlag sind fast alle Verschwörungstheoretiker rehabilitiert. Interessant an dem gesamten Gegenstand sind mehrere Aspekte, insbesondere, wenn man sich normalerweise mit der Analyse und dem Umgang mit “Big Data” beschäftigt:
“Metadaten”
Im Rahmen von PRISM erfasst die NSA die Verbindungsdaten ohne die Kommunikationsinhalte selbst. Viele Menschen sehen das Programm deswegen erstaunlich entspannt. Dabei übersehen sie jedoch, dass in einem Netzwerk die Verknüpfungen selbst, die eigentlichen Inhaltsträger sind. Aus dem Verbindungsprofil selbst lässt sich ein nahezu vollständiges Persönlichkeitsprofil erstellen. Tagesaktivität, wiederkehrende Verhaltensmuster, Aufmerksamkeitsspanne, Gedächtnisleistung, nahezu alle Aspekte, die einen Menschen von einem anderen unterscheiden und damit seine Identität darstellen, können aus den reinen Verbindungsdaten abgeleitet werden.
Lobo lobotomisiert die Netzgemeinde mit Numerolobie
Was dem Congressbesucher die Fnord Show, ist dem re:publica-Gast Sascha Lobos Vortrag. Eine großartige Bühne für das deutsche Internetgesicht bzw. die Internetfrisur. Doch diesmal gab es statt Ironie und Getrolle scheinbar Ernsthaftigkeit.
Lobo forderte auf, zu Wut, Pathos und “Machen”. Letzteres war Aufforderung Nummer eins von zwei Aufforderungen. Die Forderung nach Wut und Pathos war Nummer zwei. Nummer zwei kam jedoch zuerst. Gleich nach der Ankündigung, dass der Titel der Präsentation ausnahmsweise nicht am Beginn steht, sondern erst am Ende verraten wird.
Diese drei Forderungen nach Wut, Pathos und Machen, die in zwei Regeln verpackt waren, stellte Lobo gleich hinter einen Dreiklang. Dieser Dreiklang, der zukünftig nicht mehr isoliert gedacht werden dürfe, setze sich aus Freiheit, Offenheit und Sicherheit zusammen. Dieser Dreiklang, den wir, die Netzgemeinde, zukünftig immer denken sollen, sei die Forderung, die wir an die Politik stellen müssten.
Um diesen Dreiklang zu erreichen, müssten wir die zwei Regeln (Wut, Pathos und Machen) beherzigen. Denn dann würden wir auch eine Zukunft bekommen, die wir haben möchten: Augmented Reality, Quantified Self und Supersocial Media.
Verwirrt?
Neben der Tatsache, dass Lobo offensichtlich versucht, die Aufnahmefähigkeit von Zahlenfetischisten zu blockieren, fällt vor allem auf: Lobo platziert in der Forderung nach einem – auch zukünftig – offenen Netz nun auch die scheinbar notwendige “Sicherheit”.
Dieser Dreiklang – den wir ja in Zukunft immer denken sollen – ist vor allem erst mal nur ein Zweiklang. Denn Freiheit eines Netzes und dessen Offenheit dürften Synonyme sein. Damit bleibt also nur noch der “Dreiklang” aus Offenheit und Sicherheit.
An keiner Stelle erklärt Lobo jedoch, was diese Forderung nach einem “sicheren Netz” meint. Sicherheit vor Phishing, Identitätsdiebstahl, Kinderpornographie? Sicherheit für wen? Vor Politikern, vor Drosseln, Amseln, Fink und Star? Sicherheit vor Politikern, die einen rechtsfreien Raum fordern oder solchen, die ihn menetekeln?
Lobo hat sich mit diesem Vortrag vor allem und vor allem anderen als Internetminister einer zukünftigen Kanzlerin Merkel in einer zukünftigen großen Koalition empfohlen. Als SPD-Protagonist pflanzt er einen Dreiklang aus zwei Ideen in die Köpfe der Journalisten, die zukünftig über die Netzgemeinde berichten. Zwei Ideen, die sich mit großer Sicherheit ausschliessen.
Insofern war es vielleicht doch weniger scheinbare als anscheinende Ernsthaftigkeit.
ps: Das Internetlobo “(#)” ist mit Sicherheit eine blöde Idee. Ein Kopf hinter einem Gitter? reclaim.fm, das WordPress-Plugin für das Wiedereinfangen der eigenen Microblogging-Posts, werde ich mir auf jeden Fall ansehen und finde es tatsächlich eine großartige Idee.
Wie viele Nutzerdaten fliessen eigentlich so im Durchschnitt?
Ralf Bendrath bat seine Follower gestern zu später Stunde auf twitter um Hilfe:
Followerpower: How many Bytes of personal data does the average internet user create per day? Good proxy measures also welcome. #EUdataP
Und wie man sehen kann, hatte ich schnell eine Überschlagsrechnung parat. Konnte aber die Folgefrage nicht wirklich beantworten. Wie ermittelt man halbwegs valide, wie viele Seiten ein Nutzer durchschnittlich aufruft? Wirklich zitierbare Zahlen dürften bei einem solchen Thema nur qualitative Umfragen liefern. Die haben dann zwar wenig mit der Realität zu tun aber dahinter steckt wenigstens (hoffentlich) jemand, der sich damit auskennt auf den man mit dem Finger zeigen kann.
Als erste Quelle für quantitative Antworten empfiehlt sich alexa.com. Sie ermitteln die Reichweite (“Wie groß ist der Anteil an allen Nutzern, die eine Site erreicht?”) mit Hilfe von Browser-AddOns. Dieses Verfahren ist jedoch durch eine zunehmende Fragmentierung des Browsermarktes und durch Privacy-PlugIns erheblich geschwächt. Die ermittelten Zahlen sind nur noch als Vergleichswert zu verwenden und nicht absolut.
Eine weitere Quelle sind die Zahlen des Verbandes der deutschen Zeitschriftenverlage, besser bekannt als IVW. Unter pz-online.de findet man (sehr gut versteckt) eine Tabelle mit den Zahlen für Visits und Unique Visitors für fast alle deutschen Online-Angebote die sich über Werbung finanzieren und noch einige mehr. Auch die IVW-Zahlen sind eigentlich nur als Vergleichswerte verwendbar, da die Messmethode, wie bei allen Tracking-Tools überhaupt, verschiedene Fehlerquellen hat (siehe: Fehlerhaftes WebAnalytics: Big Data oder eher Big Fraud?).
Basis für eine Berechnung sind natürlich nur die tatsächlichen Online-Nutzer in Deutschland. Aktiv dürften das derzeit ca. 50 Mio Nutzer sein. In den Zahlen der IVW taucht allerdings jeder Nutzer mit mehreren Geräten auch mehrfach auf. Neben dem Heimrechner haben aber viele auch Zugang auf das Netz über einen Arbeitsplatzrechner. Hinzu kommen Handys und Tablets.
Für die Verteilung solcher Geräte gibt es je nach Auftraggeber sehr unterschiedliche Zahlen. Eine gute Quelle für einen groben Überblick ist Statista. Die meisten Reports sind dort jedoch nur mit einem Premiumaccount möglich.
Aus meiner beruflichen Praxis bei der Analyse von großen Sites, wie mcdonalds.de und verschiedenen großen Zeitungs-Websites gibt es einen ersten Anhaltspunkt für die Frage, wie viele Nutzer über einen Arbeitsplatzrechner surfen. Bei allen Sites zeigt sich ein sehr deutliches Bild in Deutschland: während der Mittagspause wird signifikant weniger gesurft. Im Schnitt sind zu dieser Zeit ein drittel weniger Aufrufe zu bemerken. Bereinigt man die Kurve während der typischen Arbeitszeiten um dieses Drittel bleiben etwa 3/4 der Aufrufe und Nutzer übrig.
Ebenfalls auf Erfahrungswerte muss man bei der Nutzung durch mobile Geräte zurückgreifen. Hier wird deutlich, dass bestimmte Typen von Sites signifikant seltener Aufgerufen werden. Stärker als normalerweise sind News-Sites vertreten. Seltener findet man Firmen-, Shopping- und Special-Interest-Sites. Ausgenommen hier sind Blogs, die durch Social Media promoted werden.
Pi mal Daumen dürften maximal 10% aller Visits von mobilen Geräten kommen. Noch mal ~3% dürften durch Tablets von Nutzern kommen, die auch einen Computer und ein Handy nutzen.
40% der Aufrufe von Zweit-, Dritt- und Viertgeräten
Insgesamt dürften von dem im Februar von der IVW gemeldeten mehr als 1,3 Mrd. Visits in Deutschland rund 60% also ~800 Mio. von echten Individuen sein. Der Rest entsteht durch die mehrfache Zählung der Nutzung auf anderen Geräten. Bezogen auf die rund 50 Mio. Nutzern in Deutschland, die mindestens einmal im Monat online sind, ergeben sich monatlich rund 16 Aufrufe einer IVW-Site durch einen durchschnittlichen Aufruf. Zählt man Arbeitsplatz, Handy und Tablet mit dazu sind es ~26 Aufrufe monatlich.
Bedingt durch die Tatsache, dass nur ein Teil der aufgerufenen Sites tatsächlich bei IVW oder nicht alle (z.B. Unity Internet Media mit web.de und gmx.de) die Zahlen zur Veröffentlichung freigeben, muss man möglichst genau schätzen, wie hoch der Anteil dieser Sites an dem Gesamtvolumen ist.
Auf der Alexa-Liste der deutschen Top-500 liegt Bild.de auf Platz 14, Spiegel-Online auf Platz 18. Platz 1 bis 6 belegen Google (com, de), facebook, Youtube, Amazon und eBay. Hinter diesen Spitzenreitern folgt als nächstes der Block der deutschen Service-Anbieter mit Web.de, GMX und T-Online. Zwischendurch sind unter den Top 20 mit UIMServ und Conduit zwei Vermarkter und mit Gutefrage.de und Wikipedia noch häufig verwendete Nachschlagwerke.
Ginge man von einer 90/10-Regel aus, würden Google und facebook in Deutschland allein bereits 90% der Visits auf sich vereinigen, die allein in dieser Top-20-Liste landen. An Hand der verfügbaren Zahlen von Sites, die bei IVW gelistet sind und zu den übrigen 18 im Alexa-Ranking vorhandenen lässt sich jetzt grob abschätzen, wie groß die verbleibenden 10% sind.
Ob die 90/10-Regel hier anwendbar ist, kann man beispielsweise an den Zahlen einer Nielsen-Untersuchung über die Reichweite von Google, facebook und Youtube verifizieren. Danach erreicht Google eine Reichweite von 85%, fb über 56% und Youtube knapp 50%. Mit Überschneidungen (85% der fb-Nutzer nutzen auch Google, d.h. zu den 85% kommen nochmals ~8%, etc.) ergeben sich daraus sogar über 90%.
In der Alexa-Liste ist die Reihenfolge 14. Bild, 18. Spiegel, 19. Chip und 20. Gutefrage. Bei den IVW-Zahlen sind Chip und Gutefrage zwar vertauscht aber dennoch sehr nah beieinander. Der Unterschied dürfte an der Bündlung weiterer Sites durch Gutefrage an den IVW-Account liegen, welche nicht bei Alexa erfasst werden.
So kommt man zu folgender Rechnung: 576.617.172 Visits (4 Sites IVW) / 4 (∅ 1 Site in Alexa) * 18 (90% #Sites Top-20 Alexa) * 10 (10% Anteil Top-20 Alexa) = ~25 Mrd. Visits monatlich in Deutschland.
Demnach würde nur jeder 20 Visit in Deutschland auf einer Site landen, die von IVW erfasst wird (respektive diese veröffentlicht). Das dürfte aber ein plausibles Ergebnis sein, wenn man sich ansieht, wie oft Google, Youtube und facebook besucht werden und berücksichtigt, dass United Internet nicht reported aber selbst angibt, dass laut Agof (Arbeitsgemeinschaft Online Forschung) eine tägliche Reichweite von über 13% hat (jeder 7,5. deutsche Internetnutzer ruft täglich Web.de oder GMX auf).
~17 Visits pro Tag und pro Nutzer
Daraus ergeben sich bei 50 Mio regelmäßigen Internetnutzern in Deutschland pro Monat etwa 520 Aufrufe von WebSites. Pro Tag sind das durchschnittlich 17 Visits pro Nutzer. Allein schon der Aufruf des Browser und das öffnen eines neuen Browserfensters führt jedoch in den meisten Fällen schon zu einem gezählten Besuch, häufig bei Google oder bei T-Online.
Wichtig hierbei ist es, zu beachten, dass es sich dabei um Visits handelt. D.h. wenn der Nutzer nach einer Pause von 30 Minuten auf einer Seite wieder aktiv wird, wird ein neuer Visit gezählt. Insbesondere in Zeiten von dutzenden geöffneten Tabs genügt es in vielen Fällen einen früher geöffneten Tab nochmals zu aktivieren, damit ein neuer Visit gezählt wird.
Da laut der oben genannten Überschlagsrechnung pro Visit rund 7 KByte Daten als Nutzerprofil übertragen werden, kommt man nach dieser Rechnung auf monatlich etwa 3,6 MByte gesendete Profilingdaten pro deutschem Internetnutzer. Meistens übrigens an amerikanische Unternehmen.
(Disclaimer: Insbesondere die Schätzung des Volumens der Requests während eines Visits ist extrem schwierig. Manche Sites laden mehrere hundert Ressourcen von dutzenden verschiedenen Hosts. Dabei werden mitunter mehrere Redirects auf verschiedene Domains durchgeführt. Ralf Bendrath schlägt daher auch sinnvoller weise vor, eine Untersuchung mit einem Proxy durchzuführen, da nur so valide Daten erfasst werden könnten.)
Das ganze Drama der Innovationsförderung (an einem Beispiel)
Angela Merkel war auf der CeBit und hatte dort ein besonderes Auge auf StartUps. Anschliessend schaut sie in Berlin noch in der Kulturbrauerei unter anderem bei Wooga vorbei. Nach einem neuerlichen – inzwischen mehr als dreijährigen – Gründungsboom insbesondere in Berlin hat sowohl die Bundes- als auch die Landespolitik nicht nur hier Neugründungen wieder als Thema der Wirtschaftspolitik entdeckt.
Man muss leider vermuten, dass solches Engagement bestenfalls wirkungsneutral ist. Wahrscheinlich ist es jedoch hinderlich. Warum?
Kaum ein Politiker hat bisher eine eigene Firma gegründet. Daher ist ihnen überhaupt nicht bewusst, welche Probleme einem dabei über den Weg laufen. So kann man beispielsweise so gut wie keine Verträge (Telekommunikation, Büros, Versicherungen) machen, wenn man noch keinen Handelsregistereintrag hat oder noch in Gründung ist und mitunter noch eine gewisse Frist nach Gründung (so mehrfach geschehen). Das führt dazu, dass man solche Verträge dann als Privatperson machen muss, um überhaupt mal loszulegen. Solche privaten Verträge führen in der Folge dann jedoch zu erheblichen Dissonanzen mit und Streitigkeiten zwischen verschiedenen Finanzämtern (so mehrfach geschehen). Sollte das Ordnungsamt Wind davon bekommen, dass man einen Teil der Vorbereitungen für eine in Gründung befindliche Firma in den privaten Räumen erledigt kann es auch schon mal eine Verwarnung wg. Wettbewerbsvergehen geben (so geschehen).
Ein Beispiel für verfehlte Förderungspolitik: Geolapps, ein Wettbewerb
Die Welt hinter Stacheldraht oder eine Paywall, die keine ist
Mit dem heutigen Tag startet der Axel-Springer-Verlag seine Bezahlschranke für die Online-Welt. Diese sogenannte Paywall ist wahrscheinlich der erste Akt in einem größeren Stück, das man als den Versuch der Rückeroberung des Publikationsoligopols in Deutschland bezeichnen könnte. Die Paywall für wichtige Verlagsprodukte ist notwendig, um das Leistungsschutzrecht zu rechtfertigen. Dieses Gesetz ist der zweite und Hauptakt des Stückes. Wenn alles gut und so abläuft, wie es sich der Verlag vorstellt, dürfte es im Frühjahr verabschiedet werden und wahrscheinlich ab 1.7.2013 gültig sein. Der dritte und letzte Akt ist dann eine Kartellklage gegen Google, weil die Firma kostenpflichtige Links aus den Suchergebnissen genommen hat.
Das Bezahlmodell der Welt Online
Die Rahmenbedingungen der nun gestarteten Paywall sind jedoch so großzügig, dass man nicht wirklich von einem kostenpflichtigen Angebot sprechen kann.
Die Preise belaufen sich auf zwischen €6,99 bis €14,99 monatlich. Einen Monat kann man für ¢99 testen. Im größten Paket ist sogar noch ein Abo der Welt am Sonntag auf Papier enthalten.
Interessant sind jedoch die Ausnahmen. Denn diese machen die Paywall zu einem sehr löchrigen Gartenzäunchen.
- 20 Artikel pro Monat pro User sind frei
- 50.000 der aktivsten Nutzer erhalten 6 Monate freien Zugang
- Artikel, die über Suchmaschinen oder Soziale Netzwerke verlinkt sind, sind frei verfügbar
- die Startseite ist kostenlos
Damit deckt die Welt vier sehr unterschiedliche Fälle in Hinsicht auf ihre Vermarktung ab. Knapp ein Viertel der Aufrufe auf Welt Online kommen laut Alexa über Google oder facebook. Unklar ist, wie viele Aufrufe über twitter oder Blogs kommen. Viele dieser Aufrufe dürften nur Gelgenheitsbesucher sein. Denn die Welt hat mit über 50% eine relativ hohe Bounce-Rate. Das ist der Anteil der Nutzer, die nur eine Seite aufrufen und dann die Seite wieder verlassen. Interessant ist, dass für die erste Ausnahme die Verwendung von Cookies notwendig ist. User, die regelmäßig die Cookies löschen, können also mehr als 20 Artikel im Monat umsonst lesen.
Durchschnittlich ruft ein Nutzer pro Sitzung 2,4 Welt-Seiten auf. Ohne Startseite sind das also etwas über einen Artikel pro Besuch. Geht man von einem typischen Arbeitsplatzsurfer aus, der am Wochenende mit einem anderen Rechner online ist, hat er also an 20 Tagen je 1 Artikel umsonst zur Verfügung. Nur etwas weniger als der Durchschnittsnutzer überhaupt möchte.
Nicht anders als frech kann man das registrierungspflichtige “Angebot” an die 50.000 loyalsten Nutzer bezeichnen. Denn die Welt arbeitet mit Online-Profildiensten zusammen und erhält zu den Interessenprofilen dann auch noch eine gültige EMail-Adresse. Angenehmer Nebeneffekt für die Welt ist die Tatsache, dass sich dann die Nutzer mit mehreren ihrer Geräte bei der Welt anmelden. Ein kostenloser Datenkonsolidierungsservice vieler Nutzer für Axel Springer.
Eine Paywall, die keine ist
Für die Vermarktung der Seite wäre eine restriktive Paywall tatsächlich ein echtes Problem. Insbesondere die Zahl der Unique Visitors ist die wichtigste Kennzahl für die Werbeschaltung. Die Paywallschlupflöcher sind jedoch groß genug, dass sich weder diese Zahl signifikant ändern wird, noch die der PageImpressions, die direkt die Anzahl der ausgespielten Werbung beeinflusst.