<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>qrios &#187; netzpolitik</title>
	<atom:link href="http://qrios.de/category/netzpolitik/feed/" rel="self" type="application/rss+xml" />
	<link>http://qrios.de</link>
	<description>IT ist kurios!</description>
	<lastBuildDate>Sun, 30 Oct 2022 12:57:00 +0000</lastBuildDate>
	<language>en-US</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.5.2</generator>
		<item>
		<title>Ist die #digitalcharta noch zu retten?</title>
		<link>http://qrios.de/2016/12/ist-die-digitalcharta-noch-zu-retten/</link>
		<comments>http://qrios.de/2016/12/ist-die-digitalcharta-noch-zu-retten/#comments</comments>
		<pubDate>Mon, 05 Dec 2016 16:53:00 +0000</pubDate>
		<dc:creator>qrios</dc:creator>
				<category><![CDATA[netzpolitik]]></category>

		<guid isPermaLink="false">http://qrios.de/?p=1731</guid>
		<description><![CDATA[Nein. Denn: These: Die derzeitige Verfassung des Netzes bietet der Exekutive nicht die notwendigen Mittel zur Gewährleistung von mindestens drei Säulen des Rechtsstaates: Verantwortlichkeit, Rechtssicherheit und Verhältnismässigkeit. Eine Digitalcharta ist aber kontraproduktiv. Notwendig ist ein Umbau des Netzes um dem Rechtsstaat die notwendigen Grundlagen zurückzugeben. Oder eine Aufkündigung des Rechtsstaats. Viel wurde über die Digitalcharta [...]]]></description>
				<content:encoded><![CDATA[<p><strong>Nein. Denn:</strong></p>
<p>These: Die derzeitige Verfassung des Netzes bietet der Exekutive nicht die notwendigen Mittel zur Gewährleistung von mindestens drei Säulen des Rechtsstaates: Verantwortlichkeit, Rechtssicherheit und Verhältnismässigkeit. <a href="https://digitalcharta.eu/praeambel/">Eine Digitalcharta ist aber kontraproduktiv</a>. Notwendig ist ein Umbau des Netzes um dem Rechtsstaat die notwendigen Grundlagen zurückzugeben. Oder eine Aufkündigung des Rechtsstaats.  </p>
<p>Viel wurde über die Digitalcharta geschrieben. Juristen und andere üben formale, stilistische und inhaltliche Kritik. Die Initiatoren schalteten nach einem kurzen &#8220;Ups!&#8221; auf Angriff &#8220;Hater!&#8221; und dann einen Gang runter auf &#8220;Wir lieben Euch doch alle!&#8221; und BETA!11einself.</p>
<p>Unabhängig von Form, Stil und Inhalt soll es daher hier um die implizierte Grundlage der Digitalcharta gehen: &#8220;Kann es ein digitales Leben im analogen geben?&#8221;</p>
<p>Was unterscheidet das Digitale vom Analogen? </p>
<p>Die Kopierbarkeit. Genauer: die geringeren Kopierkosten und die Tatsache, dass ein bestehendes Item mit vollkommener Ununterscheidbarkeit kopiert werden kann. In der analogen Welt oder besser im Real Life (RL) benötigt es Energie, Rohstoffe, Werkzeuge und Menschen, um eine oder viele Instanzen einer Ware herzustellen. Die Kosten steigen mit der Anzahl der Instanzen. Zwar flacht die Kostensteigerungsquote mit zunehmender Anzahl ab, steigt aber wegen der limitierten Verfügbarkeit von Energie, Rohstoffen, Werkzeugen und Arbeitskräften irgendwann wieder an. Ein StartUp mit einem RL-Businessmodell muss auf die Frage eines Investors &#8220;Ist ihr Modell skalierbar?&#8221; immer antworten, &#8220;Ja, aber …&#8221;.</p>
<p>Die Möglichkeit, Items – bei nahezu keinen Kosten – kopieren zu können, betrifft jedoch nicht nur Dinge, die auf dem Markt angeboten werden. Im Gegensatz zum RL können auch Items kopiert werden, die bereits einen Eigentümer haben. Das alltägliche Geschäft des Raubmordkopierers. Im RL müsste dieser in eine Wohnung einbrechen, an das Plattenregal gehen und umständlich Rip-Mix-Burnen. Er hätte danach noch immer keine ununterscheidbare Kopie.        </p>
<p>Der entscheidende Punkt hier ist nur vordergründig der Kostenunterschied für die Erstellung (ein Kopierprozess) von Items. Der wichtige Punkt ist die Ununterscheidbarkeit der Items. Sie bedeutet, dass digitale Kopien nicht nur identisch sind, sondern auch keine Spuren des Herstellungsprozesses vermitteln.</p>
<p>Konkret: Beweismittelsicherung basiert darauf, dass die Polizei glaubhaft vermittelt, dass der Gegenstand &#8220;Brechstange&#8221; bei dem Beklagten gefunden wurde. Die Spurensicherung konnte nachweisen, dass sowohl Farbspuren des Tatorts als auch DNA des Beklagten an dieser Brechstange zu finden sind. Für die Verteidigung wird es langsam eng. Die Brechstange wird als Eigentum des Beklagten &#8220;attributiert&#8221;.</p>
<p>Unser Rechtssystem hat verschiedene Säulen. Eine Säule ist die Verantwortlichkeit des Individuums für sein Handeln. Nur in Ausnahmen (Kindheit, Krankheit) wird diese als nicht gegeben angenommen. </p>
<p>Rechtssicherheit und Verhältnismäßigkeit der Mittel sind weitere Säulen. Sie können unter anderem so interpretiert werden, dass ein Gesetz Handlungen nicht mit Strafe belegen sollte, wenn der Staat die Durchsetzung nur in wenigen Fällen gewährleisten kann und die Bestrafung bei Verfolgung bezüglich der Tat zu drakonisch ausfällt (siehe Störerhaftung).</p>
<p>Die oben genannte Brechstange wird zusammen mit der Verantwortlichkeit für eigenes Handeln und der allgemein garantierten Rechtssicherheit und Verhältnismäßigkeit zu einer Verurteilung des Eigentümers dieses Gegenstandes führen müssen. </p>
<p>In der digitalen Welt klebt weder DNA noch Farbe an einem &#8220;Gegenstand&#8221;. Eine Kopie eines privaten Dokumentes – verteilt über Tor &#8211; liefert keinerlei Beweismaterial über die Umstände des nicht legitimierten Kopierprozesses. Möglicherweise ist sogar der Vorgang selbst unbemerkt geblieben (im RL eher selten der Fall). </p>
<p>Die derzeitige Verfassung des Netzes bietet der Exekutive also nicht die notwendigen Mittel zur Gewährleistung von mindestens drei Säulen des Rechtsstaates: Verantwortlichkeit, Rechtssicherheit und Verhältnismässigkeit. Handlungen sind nur sehr schwer Personen zuzuordnen, Dinge sind unterschiedslos zu kopieren und die Kosten für Handlungen sind so billig, dass Strafen unverhältnismäßig hoch sind.</p>
<p><strong>Technik</strong></p>
<p>Die &#8220;derzeitige Verfassung des Netzes&#8221; ist jedoch kein unumstößliche Tatsache. Sie ist lediglich ein technischer Status Quo. Eine Handvoll RFCs beschreiben die technische Infrastruktur. Diese Infrastruktur ist verantwortlich für die Unvereinbarkeit essentieller Grundbausteine des Rechtsstaats mit der digitalen Sphäre.</p>
<p>Und die Infrastruktur des Netzes ist veränderbar. Alle Kopiervorgänge können transaktionssicher gemacht werden, können geloggt werden. Jedes Datum kann mit einem Hashcode versehen werden, kann signiert werden, verschlüsselt und mit einem Eignentümerstempel versehen werden.</p>
<p>Das alles klingt zunächst mal unglaublich aufwändig. So aufwändig wie es für die ersten Flugpioniere geklungen hätte, heute geltende Pilotenprüfungen abzulegen. Marie Curie hätte ihre Forschungen gar nicht machen können, hätten damals die aktuellen Sicherheitsanforderungen an den Umgang mit radioaktiven Materialien gegolten.</p>
<p>Aber wir befinden uns in der IT noch immer in einer &#8220;frühkindlichen&#8221; Phase. Moore hat – obwohl immer wieder totgesagt – für viele Jahre nicht ausgedient. Rechenpower, Speichergröße und Netzbandbreite werden stetig verbessert und verbilligen sich dadurch. Und transaktionssichere Implementationen für alle Layer des Netzes sind prinzipiell möglich, trotz aller Hürden die sich zum Beispiel aus der Frage der Vertrauenswürdigkeit von Blackbox-Hardware ergeben. Kann sein, dass man sich auch von von-Neumann-Architektur verabschieden muss. Who cares?</p>
<p>Das Verfahren für eine transaktionssichere Infrastruktur heißt – trommelwirbel – Blockchain. <a href="https://de.wikipedia.org/wiki/Blockchain">Wiki schreibt u.a.</a>:</p>
<p><em>Eine wesentliche Besonderheit der Blockchain ist, dass sie Einvernehmen über geschäftliche Transaktionen herstellen kann, ohne hierzu eine zentrale Instanz oder einen vertrauenswürdigen Dritten zu benötigen.</em></p>
<p>Eine solche Infrastruktur hätte zum Beispiel einen netten Nebeneffekt: Umgeht jemand die Blockchain um an Daten zu gelangen, deren Eigentümer ihm keinen Zugriff darauf gegeben hat, macht er sich strafbar. Im Zweifelsfall könnte man Datenweitergabe sogar noch von einem Schlüsseltausch abhängig machen. </p>
<p><strong>Und die Überwachung?</strong></p>
<p>Überwachung könnte laut gültigen Gesetzen nicht mehr mit einem Fischernetz (wie z.B. bei G10) stattfinden. Nur Richter können bei einem begründeten Verdacht Zugriff auf die Daten erlauben. Der Netznutzer würde gewissermassen dem Staat vertrauen müssen und für ihn würde der Erlaubnisvorbehalt gelten. Durch einen Key-reject kann der Dateneigentümer sogar im Nachhinein ihn betreffende Daten von der Verarbeitung ausschliessen.</p>
<p>Der zu fordernde Umbau der existierenden Netzinfrastruktur ist das einzige, das derzeit notwendig ist. Als Anmerkung zur EU-Charta wäre folgendes sinnvoll:</p>
<p><strong>Jeder Mensch hat das Recht auf eine transaktionssichere und geschützte Teilnahme an digitaler Kommunikation. Daten die ein Kommunikationsteilnehmer in den Kommunikationsnetzen hinterlegt sind als Teil seiner Person zu betrachten und geniessen dem gleichen Schutz wie seine Wohnung.</strong></p>
<p><em>Wem die obige Forderung zu radikal ist kann sich gerne die Kleinklein-Kritik anderer an der Digitalcharta durchlesen:</em></p>
<ul>
<li><a href="http://www.internet-law.de/2016/12/fordern-kann-man-viel-zur-sog-charta-fuer-digitale-grundrechte.html">Thomas Stadler: &#8220;Die Charta ist in doppelter Hinsicht anmaßend.&#8221;</a></li>
<li><a href="http://www.danisch.de/blog/2016/12/03/medienschrott-die-eu-digitalcharta/">Hadmut Danisch: &#8220;Entweder hat man ein Recht, und kann dann aufgrund dieses Rechtes etwas fordern. Oder man hat das Recht nicht, dann kann man darum bitten oder betteln.&#8221;</a></li>
<li><a href="http://www.wolfgangmichal.de/2016/12/die-digitalcharta-ein-deutscher-sonderweg/">Wolfgang Michal: &#8220;Wie man eine richtige Debatte in falsche Bahnen lenkt&#8221;</a></li>
<li><a href="http://www.lto.de/recht/hintergruende/h/eu-charta-digitale-grundrechte-entwurf-kritik/">Niko Härting: &#8220;Ganz allgemein gibt man die Devise aus, es handele sich ja nur um einen &#8216;Diskussionsanstoß&#8217;&#8221;</a></li>
<li><a href="https://juliareda.eu/2016/11/charta-digitale-grundrechte-urheberrecht/">Julia Reda: &#8220;Rückschritt gegenüber dem Status quo&#8221;</a></li>
<li><a href="https://tante.cc/2016/11/29/kommentare-zur-charta-der-digitalen-grundrechte-der-europaischen-union/">tante: &#8220;Und hier bleibt der Entwurf weit hinter allem zurück.&#8221;</a></li>
<li><a href="https://detektor.fm/digital/charta-zu-digitalen-grundrechten">mspr0: &#8220;Ich hoffe, dass diese Debatte totgeschwiegen wird. Wenn das irgendwann mal eine gesetzliche Regelung wird, dann: Gute Nacht!&#8221;</a></li>
<li><a href="https://steglitzmind.wordpress.com/2016/12/04/unbehagen-mit-der-charta-der-digitalen-grundrechte-der-eu/">Steglitz meint: &#8220;So wird das leider nix. Jedenfalls nichts mit einer wünschenswerten Beteiligung vieler EU-Bürger.&#8221;</a></li>
<li><a href="http://algorithmwatch.org/es-gibt-keine-digitalen-grundrechte/">Algorithmwatch: &#8220;Unser Fazit: Gut gemeint ist auch hier das Gegenteil von gut gemacht.&#8221;</a></li>
<li><a href="http://bernhardkern.net/digitale-grundrechte-oder-denkt-ueberhaupt-noch-jemand-nach/">Bernhard Kern: &#8220;Die Rechte der Charta gelten auch gegenüber Privaten. Das heißt also im Zweifel auch gegenüber den eigenen Nachbarn.&#8221;</a></li>
<li><a href="http://ausbaldowert.blogspot.de/2016/12/schaden-durch-eine-kaputte-digitalcharta.html">Ausbaldowert: &#8220;Es bleibt der Eindruck eines unausgegorenen Experiments.&#8221;</a></li>
<li><a href="http://blog.maroki.de/2016/12/kommentar-zur-digitalen-grundrechte-charta/">Martins Blog: &#8220;Der Staat ist sehr gefährlich einerseits (Gewaltmonopol), aber andererseits die einzige heilbringende Quelle, weil nur er überhaupt Grundrechte gewähren kann.&#8221;</a></li>
</ul>
]]></content:encoded>
			<wfw:commentRss>http://qrios.de/2016/12/ist-die-digitalcharta-noch-zu-retten/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>#Krautreporter – Oder: Haltet den Dieb!</title>
		<link>http://qrios.de/2014/06/krautreporter-oder-haltet-den-dieb/</link>
		<comments>http://qrios.de/2014/06/krautreporter-oder-haltet-den-dieb/#comments</comments>
		<pubDate>Tue, 10 Jun 2014 16:20:02 +0000</pubDate>
		<dc:creator>qrios</dc:creator>
				<category><![CDATA[netzpolitik]]></category>
		<category><![CDATA[web]]></category>

		<guid isPermaLink="false">http://qrios.de/?p=1635</guid>
		<description><![CDATA[Aktuell haben die Krautreporter noch zwei Tage Bangen vor sich. Noch fehlen dem Projekt mehr als 5000 Unterstützer, die mindestens 60€ für eine Jahresmitgliedschaft investieren. Sie fördern damit ein alternatives Marktmodell für journalistische Produkte. Mit knapp 1 Mio € für ein Jahr wäre das Projekt gut ausgestattet. Und 60€ pro Jahr sind für einen anspruchsvollen [...]]]></description>
				<content:encoded><![CDATA[<p>Aktuell haben die Krautreporter noch zwei Tage Bangen vor sich. Noch fehlen dem Projekt mehr als 5000 Unterstützer, die mindestens 60€ für eine Jahresmitgliedschaft investieren. Sie fördern damit ein alternatives Marktmodell für journalistische Produkte. Mit knapp 1 Mio € für ein Jahr wäre das Projekt gut ausgestattet. Und 60€ pro Jahr sind für einen anspruchsvollen Medienkonsumenten auch nicht viel.</p>
<div id="attachment_1638" class="wp-caption alignnone" style="width: 560px"><a href="https://krautreporter.de/das-magazin"><img class="size-full wp-image-1638" alt="Noch ein zartes Pflänzchen: Weißkohl " src="http://qrios.de/wp-content/uploads/weisskohl.jpg" width="550" height="363" /></a><p class="wp-caption-text">Noch ein zartes Pflänzchen: Weißkohl</p></div>
<p>Aber 60€ sind – zumindest für mich – zu viel für ein Projekt, das auf weitgehend falschen Annahmen basiert. Es wurde von Journalisten initiiert, die nach meiner Meinung schon an ihrem Arbeitsplatz selbst <del>einen beschränkten Horizont</del> ein sehr fokussiertes Blickfeld haben.</p>
<p><strong>Buhmann Onlinemarketing</strong></p>
<p>Zu meinen regelmäßigen Kunden gehören seit vielen Jahren große Online-Publisher. Sie erwarten von mir, dass ich ihnen zeige, wie sie aus den Webanalytics-Daten erfahren können, wie man mehr Klicks erreichen kann. Dabei spreche ich sowohl mit der Redaktion, mit dem Vertrieb als auch mit Technik und Produktmanagement.</p>
<p>In den meisten Fällen erwarten meine Gesprächspartner, dass die Nutzerdaten ihnen besser sagen können, was und wie sie zukünftig schreiben sollen. Die Zahlen sollten es ihnen besser sagen als es ihr Gefühl oder die Chefredaktion kann.</p>
<p>Insbesondere die Redaktionen wirken häufig verunsichert. Ihnen ist die Aufmerksamkeitsökonomie der Nutzer ein Buch mit sieben Siegeln. Sie schauen tagtäglich, oft sogar mehrmals stündlich auf die Artikelperformance bei Chartbeat. Longtail halten sie für ein Mythos aus der guten alten Zeit.</p>
<p>Als gelernter Journalist habe ich noch eine tägliche Redaktionskonferenz für ein monatlich erscheinendes Magazin erlebt. Ja, täglich für eine Monatsausgabe. In diesen Konferenzen kämpften die Redakteure mit/gegen der/die Chefredaktion für ihre Inhalte, für ihre Sicht der Dinge, für ihre Meinung. Es war immer Platz für Nischenthemen. Es war weitgehender Konsens bei den Redakteuren, dass eben diese Nischen es den Lesern erleichterten den Mainstream der Inhalte einzuordnen. Die Chefreaktion hat gemeinsam mit den Redakteuren und den Autoren die Inhalte kuratiert.</p>
<p>Nicht ein mal habe ich es in einer solchen Konferenz erlebt, dass die Chefredaktion etwas über den Anzeigenverkauf hat verlauten lassen. Natürlich musste die Heftplanung die verkauften Anzeigen berücksichtigen. Verkaufszahlen wurden nur genannt, wenn wiedermal ein Rekord gebrochen wurde.</p>
<p>Wenn ein Artikel geschoben wurde war das entscheidende Argument nicht, dass zu wenig Anzeigen verkauft wurden sondern, dass das Thema grade nicht passt oder noch weiter ausgearbeitet werden sollte. Die Chefredaktion fungierte als Firewall gegen die Wünsche der Anzeigenabteilung. Und sie musste sicher viel aushalten. Denn die Anzeigenabteilung in einem Verlag ist mächtig und gefräßig. (Das liegt unter anderem daran, dass sie im Gegensatz zur Redaktion sehr stark Bonus-getrieben ist.)</p>
<p>Bei allen mir bekannten Online-Redaktionen gibt es diese &#8220;Chefredaktions-Firewall&#8221; nicht mehr, oder nur noch sehr eingeschränkt. Die Redaktionen haben direkten Zugriff auf die Nutzungszahlen. Statt gesteuerter Kuration nutzen die Managementebenen nun den direkten Wettbewerb in der Redaktion als Instrument der Entwicklung des verlegerischen Profils.</p>
<p>Wenn die Krautreporter also implizieren, dass Redaktionen heute nur noch Futter für die Klickviehtröge liefern, haben sie durchaus Recht. Aber es sind eben diese Redaktionen und Chefredaktionen, die diesen Wettlauf überhaupt veranstalten. Es sind die Redakteure, die mit den WebAnlytics-Zahlen in die Redaktionskonferenz gehen und die Heftplanung mit Milchmädchenrechnungen in ihrem Sinne manipulieren.</p>
<p>Die strategische Themenplanung im eigentlichen verlegerischen Sinne ist daher heute ungleich schwerer. Plastisches Beispiel für diese Hypothese ist Spiegel Online: inzwischen verdrängt der Fussball an mehreren Tagen in der Woche weite Teile der Nischenthemen und oft sogar die Kernthemen. Offensichtlich ein Effekt der positiven Rückkopplung. Mehr Fussball bringt mehr Fussballinteressierte. Die Klickzahlen liefern den Sportredakteuren dann die notwendigen Argumente für immer mehr Fussball. Ähnlich dürfte die Entwicklung vor einigen Jahren beim Stern abgelaufen sein. Vor zehn Jahren war Panorama eher selten unter den Top-5-Themen auf der Homepage. Heute sind es mitunter mehrere Panorama-Artikel auf der Bühne gleichzeitig.</p>
<p>Aber Online-Marketing ist nicht gleich Online-Marketing. Es gibt Beispiele in denen eine geschickter Vertrieb signifikant höhere Preise erzielen kann. Große Sportseiten erreichen bei Markenherstellern Preise von denen AdServer-Betreiber und Bookingagenturen nur träumen können. Die Kooperation der Zeit mit dem Uhrenhersteller Nomos Glashütte lohnt sich offensichtlich für beide Partner.</p>
<p>Solche Partnerschaften und Vertriebskonzepte funktionieren allerdings nur, wenn man ein verlegerisches Profil hat. Dann und nur dann hat man auch eine attraktive Leserschaft und Zielgruppe. Dabei kann man sogar für Anzeigenkunden kritische Themen ausbreiten und dennoch gutes Geld verdienen. Ein schönes Beispiel, wie das funktioniert zeigen die <a href="http://www.prenzlauerberg-nachrichten.de/">Prenzlauer Berg Nachrichten</a>. Während man ein umfangreiches <a href="http://www.prenzlauerberg-nachrichten.de/politik/_/dossier/gentrifizierung-198.html">Dossier über Gentrifizierung</a> pflegt, verkauft man <a href="http://web.archive.org/web/20120511100527/http://www.prenzlauerberg-nachrichten.de/inserat/_/neues-bauvorhaben-in-prenzlauer-berg-2927.html">gleich noch das Immobilienprojekt</a>. Chefredakteur und Geschäftsführer des Onlinemagazins ist übrigens <a href="http://blog.krautreporter.de/post/85298281603/">Philipp Schwörbel, ein Krautreporter</a>.</p>
<p><strong>Publikumsbeschimpfung</strong></p>
<p>Wenn die Krautreporter nun Vorschuss von ihren Lesern haben möchten, dann machen sie den Gärtner zum Bock:</p>
<blockquote><p>Du,</p>
<p>lieber Leser,</p>
<p>bist mit Deinem nervösen Finger Schuld an unserer Misere. Immer wenn Du auf eine catchy Überschrift klickst, stirbt ein Qualitätsjournalist einen kleinen Tod. Mit jeder Bilderstrecke in die Du Dich fallen lässt, verhinderst Du wieder einen Pulitzer-Preis-trächtigen Artikel.</p></blockquote>
<p>Andere kritisieren das Projekt <a href="http://www.blog-cj.de/blog/2014/06/10/krautreporter-gescheitert-an-sich-selbst/">aus anderen Gründen</a>. Insbesondere die Kampagne selbst wird als arrogant betrachtet. Die Macher scheinen von der Kritik überrascht worden zu sein. Nachbesserungen sollten wohl den Wind aus den Segeln nehmen. Doch es fällt immer wieder auf, dass die Krautreporter das Modell der werbefinanzierten journalistischen Produkte für einen <a href="http://www.blog-cj.de/blog/2014/06/10/krautreporter-gescheitert-an-sich-selbst/comment-page-1/#comment-17910">Verfall der journalistischen Qualität</a> verantwortlich machen. Als ob Werbung eine Erfindung für das Internet wäre.</p>
<p>ps: Ich persönlich bin übrigens der Meinung, dass wir zu wenig Meinungsjournalismus haben und nicht zu viel. Aber das ist noch ein ganz anderes Thema.<br />
pps: Den drohenden Misserfolg der Kampagne als <a href="https://netzpolitik.org/2014/keep-calm-and-krautfund-on/">eine Schlappe der Netzgemeinde zu menetekeln</a> halte ich übrigens für vollkommen daneben. Denn das Projekt ist sowas von Old School.</p>
]]></content:encoded>
			<wfw:commentRss>http://qrios.de/2014/06/krautreporter-oder-haltet-den-dieb/feed/</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>Targeted Ads: Twitter wechselt auf die dunkle Seite</title>
		<link>http://qrios.de/2013/12/targeted-ads-twitter-wechselt-auf-die-dunkle-seite/</link>
		<comments>http://qrios.de/2013/12/targeted-ads-twitter-wechselt-auf-die-dunkle-seite/#comments</comments>
		<pubDate>Thu, 05 Dec 2013 12:14:53 +0000</pubDate>
		<dc:creator>qrios</dc:creator>
				<category><![CDATA[netzpolitik]]></category>
		<category><![CDATA[privacy]]></category>

		<guid isPermaLink="false">http://qrios.de/?p=1600</guid>
		<description><![CDATA[Techcrunch meldete gestern, dass &#8220;Twitter Is About To Officially Launch Retargeted Ads&#8220;. Danach soll noch heute das neue Programm für Werbetreibenden bekannt gegeben werden. Dreh- und Angelpunkt wird dabei offensichtlich der twitter-Account-Cookie des Brwosers. Dieser soll das Surfverhalten eines Nutzers verknüpfen aus dem dann ein aussagefähiges Interessenprofil generiert wird. Auf der Basis dieses Profils kann [...]]]></description>
				<content:encoded><![CDATA[<p>Techcrunch meldete gestern, dass &#8220;<a href="http://techcrunch.com/2013/12/04/twitter-retargeted-ads/">Twitter Is About To Officially Launch Retargeted Ads</a>&#8220;. Danach soll noch heute das neue Programm für Werbetreibenden bekannt gegeben werden. Dreh- und Angelpunkt wird dabei offensichtlich der twitter-Account-Cookie des Brwosers. Dieser soll das Surfverhalten eines Nutzers verknüpfen aus dem dann ein aussagefähiges Interessenprofil generiert wird. Auf der Basis dieses Profils kann twitter dann Targeting und auch das teurer zu verkaufende Retargeting</p>
<p>Prinzipiell ist an dieser Entwicklung zunächst mal interessant, dass twitter mit diesem Vorgehen von sehr vielen Sites profitiert, die selbst von diesem Kuchen nichts abbekommen. Jeder Blog und jede News-Site mit einem installierten Social-Plugin, liefert die notwendigen Daten an twitter ohne dafür einen monetären Gegenwert zu bekommen.</p>
<p>Allerdings kommt der Schritt nicht überraschend: die Änderung der Nutzungsbedingungen deuteten schon vor mehr als einem Jahr auf twitters Zukunftspläne. Auch die tiefe Integration der Accounts in iOS und OSX liessen darauf schliessen, dass man in Richtung einer geräteübergreifende Nutzerkennung arbeitet. Dazu passt auch die heute bekannt gegebene <a href="http://www.heise.de/newsticker/meldung/Twitter-kooperiert-mit-Deutscher-Telekom-2060554.html">Zusammenarbeit von twitter mit der Deutschen Telekom</a> die sich bemühen neue Android-Nutzer durch einen einfacheren Zugang zu gewinnen.</p>
<p>Insbesondere die Identifikation von Nutzern über Gerätegrenzen hinweg ist der heilige Gral. Kann eine Werbeplattform synchrone Profile anbieten sinken die Kosten für Buchung weil weniger Werbungen ausgespielt werden müssen und gleichzeitig steigt die Effizienz der einzelnen geschalteten Werbemittel.</p>
<div id="attachment_1601" class="wp-caption alignnone" style="width: 504px"><a href="http://qrios.de/wp-content/uploads/twitter-ipad-cookies.jpg"><img class=" wp-image-1601 " alt="Die mobile Version von twitter speichert die IP-Adresse des ersten Aufrufs für einen Monat. " src="http://qrios.de/wp-content/uploads/twitter-ipad-cookies.jpg" width="494" height="290" /></a><p class="wp-caption-text">Die mobile Version von twitter speichert die IP-Adresse des ersten Aufrufs für einen Monat.</p></div>
<p>Twitter geht dabei auch gerne Wege, die zum Beispiel in Deutschland gesetzlich verboten sind. So speichert die mobile Version beispielsweise die IP-Adresse des ersten Aufrufs in einem Cookie. Damit lassen sich sehr leicht Profile auch dann erstellen, wenn Nutzer sich auf einzelnen Geräten oder Programmen nicht bei twitter anmeldet.</p>
<p>Eine ausführliche Analyse über den Wert von Nutzerdaten stellt ein Artikel des spectator dar: &#8220;<a href="http://www.spectator.co.uk/features/9093961/little-brothers-are-watching-you/">iSPY: How the internet buys and sells your secrets</a>&#8220;. Laut dem Autoren sammeln die Firmen derzeit jährlich £5,000 von jedem User ein. Jetzt wo twitter einen Firmenwert von 23 Mrd $ hat möchte man den Investoren, die &#8220;einem so viel gegeben haben&#8221; offensichtlich ein wenig zurückgeben.</p>
]]></content:encoded>
			<wfw:commentRss>http://qrios.de/2013/12/targeted-ads-twitter-wechselt-auf-die-dunkle-seite/feed/</wfw:commentRss>
		<slash:comments>3</slash:comments>
		</item>
		<item>
		<title>Massenüberwachung ist Marktforschung mit anderen Mitteln</title>
		<link>http://qrios.de/2013/11/massenuberwachung-ist-marktforschung-mit-anderen-mitteln/</link>
		<comments>http://qrios.de/2013/11/massenuberwachung-ist-marktforschung-mit-anderen-mitteln/#comments</comments>
		<pubDate>Fri, 01 Nov 2013 11:44:52 +0000</pubDate>
		<dc:creator>qrios</dc:creator>
				<category><![CDATA[analytics]]></category>
		<category><![CDATA[netzpolitik]]></category>
		<category><![CDATA[privacy]]></category>

		<guid isPermaLink="false">http://qrios.de/?p=1583</guid>
		<description><![CDATA[Man stelle sich Barack Obama beim morgendlichen Briefing vor. Seine Mitarbeiter präsentieren ihm einen Mix unterschiedlicher Nachrichten. Kurz und knapp zusammengefasst jeweils auf zwei Sätze. Die Themen umfassen das ganze Spektrum mit dem sich ein US-Präsident beschäftigen muss: Gesundheitsreform, Chemiewaffen, Finanzstreit, Republikaner etc. Die Quellen reichen von einfachen Pressclippings über Telefonate zu Meinungsumfragen und eben [...]]]></description>
				<content:encoded><![CDATA[<p>Man stelle sich <a href="http://davidrovics.bandcamp.com/track/barack-obama">Barack Obama</a> beim morgendlichen Briefing vor. Seine Mitarbeiter präsentieren ihm einen Mix unterschiedlicher Nachrichten. Kurz und knapp zusammengefasst jeweils auf zwei Sätze. Die Themen umfassen das ganze Spektrum mit dem sich ein US-Präsident beschäftigen muss: Gesundheitsreform, Chemiewaffen, Finanzstreit, Republikaner etc. Die Quellen reichen von einfachen Pressclippings über Telefonate zu Meinungsumfragen und eben Überwachung. In den meisten Fällen handelt es sich schon um ein Surrogat aus mehreren Quellen. Den Überbringern dürfte es schwer fallen alle einfliessenden Quellen zu benennen.</p>
<p>Das einzelne Telefonat von X mit Y ist dabei schon längst in den Hintergrund getreten. Vielleicht ist nur die Häufung der Telefonate zwischen X und Y oder die Tatsache, dass die beiden seit Wochen nicht mehr miteinander geredet haben wichtig. Was aber, wenn X und Y nur deswegen nicht mehr telefonieren, weil sie jetzt plötzlich Skype benutzen. Gewichtete Aussagen an Hand von Metadaten lassen sich nur dann gesichert machen, wenn man sicher sein kann, dass man nahezu alle Pakete unter Beobachtung hat.</p>
<p><strong>Lehren aus der Marktforschung</strong></p>
<p>Die Qualität aggregierter Aussagen steht und fällt mit der Quantität der verwendeten Daten. Die &#8220;Ich bekomme nur Schuhwerbung&#8221;-Beobachtung zeigt dieses Problem auf eine sehr anschauliche Weise. Die Datenbasis aller Predictive-Targeting-Anbieter ist derzeit von minderer Qualität, weil sie quantitativ zu klein ist. Konkret: wenn man diesen Artikel hier liest, erfährt ein Anbieter wie Doubleclick oder nuggad davon nichts (hoffentlich). Für ein umfassendes Profil wäre dies jedoch notwendig. Stattdessen werden die Datenbanken dort gefüttert, wo sich viele Menschen aufhalten. Das eigene Profil wird so gleichgeschaltet mit dem vieler anderer Menschen. Und selbst, wenn man sich niemals Schuhe im Netz kaufen würde – schon gar nicht solche – ist aus Sicht der Aggregatoren eine hohe Wahrscheinlichkeit für einen Treffer gegeben. Denn die Hälfte der Nutzer kaufen sich ja tatsächlich solche Schuhe im Netz.</p>
<p>Für die NSA und andere Dienste folgt daraus, dass es nicht genügt, nur einen Teil der Kommunikation zu erfassen. Die Gefahr droht ja eben nicht von der normalen Masse, sondern von den Rändern der Gesellschaft. Die Nichtschuhkäufer liefern die spannenden Analysen. Und spannende Analysen müssen geliefert werden.</p>
<p>Jeder Publisher einer großen WebSite kann schlecht schlafen, wenn er nicht weiss, wie oft seine Seiten aufgerufen werden. Wie in einem Blindflug veröffentlicht er Inhalte, die Nutzer auf die Seite ziehen sollen. Würde er keine Kenntnis von dem Erfolg oder Misserfolg seiner Bemühungen haben würde sich schnell ein unangenehmes Gefühl einstellen – ähnlich dem körperlichen Unwohlsein in einem schalltoten Raum.</p>
<p>Für den Publisher ist die Lösung recht einfach. Sie heisst Web-Analyse und es gibt sie in unterschiedlichen Ausprägungen und zu unterschiedlichen Preisen. Und interessanterweise ist sie so gestaltet, dass beim Benutzer immer ein Quentchen Unsicherheit über die Aussagen selbst oder deren Qualität bleibt. So erklärt sich auch warum 99% aller relevanten WebSites mit mehr als einer Analytics-Lösung ausgestattet sind.</p>
<p>Für die Quants in den Diensten ist das unangenehme Gefühl der Taubheit wahrscheinlich existenzieller. Wenn sie auf Pakete treffen, deren Inhalt sich ihnen verschliesst müssen sie handeln. Geschützte Kommunikation für die sie keinen Schlüssel haben oder neue Protokolle für die sie keinen Decoder haben darf es nicht geben. Eine blosse Kosten-Nutzen-Analyse wird daher immer darauf hinauslaufen, dass diese Pakete erfasst werden müssen und alles unternommen werden sollte, die Inhalte freizulegen. Methodisch sauber wäre bei dem Beobachtungsgegenstand &#8220;Internetkommunikation&#8221; nur ein Abgreifen aller Pakete an allen Knotenpunkten.</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
]]></content:encoded>
			<wfw:commentRss>http://qrios.de/2013/11/massenuberwachung-ist-marktforschung-mit-anderen-mitteln/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Oder doch lieber die #Piraten wählen?</title>
		<link>http://qrios.de/2013/08/oder-doch-lieber-die-piraten-wahlen/</link>
		<comments>http://qrios.de/2013/08/oder-doch-lieber-die-piraten-wahlen/#comments</comments>
		<pubDate>Mon, 26 Aug 2013 11:25:46 +0000</pubDate>
		<dc:creator>qrios</dc:creator>
				<category><![CDATA[netzpolitik]]></category>

		<guid isPermaLink="false">http://qrios.de/?p=1562</guid>
		<description><![CDATA[@astefanowitsch hat auf seinem Blog erklärt, warum er doch lieber die Piraten wählt. Obwohl er Piratenmitglied ist bemüht er sich dabei doch, nachvollziehbare Argumente zu liefern. Das ist ihm auch halbwegs gelungen. Viel wichtiger jedoch ist für mich die verlinkte Liste der Landeslisten. Dort stehen dann solche integren und kompetente Personen, wie: Udo Vetter, Markus [...]]]></description>
				<content:encoded><![CDATA[<p><a href="https://twitter.com/astefanowitsch" target="_blank">@astefanowitsch</a> hat auf seinem Blog erklärt, warum er <a href="http://astefanowitsch.tumblr.com/post/59379046935/meine-wahlempfehlung-btw2013" target="_blank">doch lieber die Piraten wählt</a>. Obwohl er Piratenmitglied ist bemüht er sich dabei doch, nachvollziehbare Argumente zu liefern. Das ist ihm auch halbwegs gelungen. Viel wichtiger jedoch ist für mich die <a href="http://wiki.piraten-thueringen.de/Benutzer:Käptn_Nemo/Enter-Crew/Bundestagswahlen/Landeslisten-Kandidaten-komplett#Landeslisten" target="_blank">verlinkte Liste der Landeslisten</a>. Dort stehen dann solche integren und kompetente Personen, wie:</p>
<ul>
<li>Udo Vetter,</li>
<li>Markus Kompa,</li>
<li>Jens Seipenbusch,</li>
<li>Bruno Kramm.</li>
</ul>
<p>Jeder von diesen vieren steht auf einem Platz, der einen Einzug in den Bundestag garantiert, selbst wenn die Piraten <strong>nur 5,00001%</strong> bekommen. Und damit hätte die Piratenfraktion schon mehr Leute, die sich mit dem Netz und den rechtlichen Grundlagen auskennen als alle anderen Parteien zusammen.</p>
<p>(An Hand der Liste konnte ich dann auch endlich begreifen, dass ich mit meiner Zweitstimme ohne Hemmungen die Piraten wählen kann. Das hatte ich sehr stark bezweifelt als ich sah, wer sich in meinem Wahlkreis zur Wahl stellt: <a href="https://wiki.piratenpartei.de/Benutzer:Fdocanto" target="_blank">Fabricio do Canto</a>. Diesem wurde zum Glück der Weg auf die Landesliste verwehrt, würde also nur als Direktkandidat in den Bundestag kommen. Er beschreibt in seinem Profil schmerzlos, dass er für die Beiersdorf AG mehrere Patente eingereicht hat. Unkommentiert von ihm bleibt dagegen die Frage, was er mit seiner politischen Arbeit erreichen möchte. Deutlich wird auch sein sehr starker Hang zur Esoterik.)</p>
<p>&nbsp;</p>
]]></content:encoded>
			<wfw:commentRss>http://qrios.de/2013/08/oder-doch-lieber-die-piraten-wahlen/feed/</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
		<item>
		<title>#PRISM, Big Data und der Überwachungs-industrielle Komplex</title>
		<link>http://qrios.de/2013/06/prism-big-data-und-der-uberwachungs-industrielle-komplex/</link>
		<comments>http://qrios.de/2013/06/prism-big-data-und-der-uberwachungs-industrielle-komplex/#comments</comments>
		<pubDate>Wed, 12 Jun 2013 12:46:59 +0000</pubDate>
		<dc:creator>qrios</dc:creator>
				<category><![CDATA[analytics]]></category>
		<category><![CDATA[netzpolitik]]></category>
		<category><![CDATA[privacy]]></category>

		<guid isPermaLink="false">http://qrios.de/?p=1515</guid>
		<description><![CDATA[Die Aufdeckung der umfassenden Vorratsdatenspeicherung der NSA durch Edward Snowden hat die Öffentlichkeit kalt erwischt und auf einen Schlag sind fast alle Verschwörungstheoretiker rehabilitiert. Interessant an dem gesamten Gegenstand sind mehrere Aspekte, insbesondere, wenn man sich normalerweise mit der Analyse und dem Umgang mit &#8220;Big Data&#8221; beschäftigt: &#8220;Metadaten&#8221; Im Rahmen von PRISM erfasst die NSA [...]]]></description>
				<content:encoded><![CDATA[<p>Die Aufdeckung der umfassenden Vorratsdatenspeicherung der NSA durch Edward Snowden hat die Öffentlichkeit kalt erwischt und auf einen Schlag sind fast alle Verschwörungstheoretiker rehabilitiert. Interessant an dem gesamten Gegenstand sind mehrere Aspekte, insbesondere, wenn man sich normalerweise mit der Analyse und dem Umgang mit &#8220;Big Data&#8221; beschäftigt:</p>
<p><strong>&#8220;Metadaten&#8221;</strong></p>
<p>Im Rahmen von PRISM erfasst die NSA die Verbindungsdaten ohne die Kommunikationsinhalte selbst. Viele Menschen sehen das Programm deswegen erstaunlich entspannt. Dabei übersehen sie jedoch, dass in einem Netzwerk die Verknüpfungen selbst, die eigentlichen Inhaltsträger sind. Aus dem Verbindungsprofil selbst lässt sich ein nahezu vollständiges Persönlichkeitsprofil erstellen. Tagesaktivität, wiederkehrende Verhaltensmuster, Aufmerksamkeitsspanne, Gedächtnisleistung, nahezu alle Aspekte, die einen Menschen von einem anderen unterscheiden und damit seine Identität darstellen, können aus den reinen Verbindungsdaten abgeleitet werden.</p>
<p><span id="more-1515"></span></p>
<p>Darüber hinaus umfassen die reinen Metadaten in vielen Fällen bereist Inhaltsbezüge. Die Eingabe des Wortes &#8220;Aufmerksamkeitsspanne&#8221; in das Browser-Suchfeld – beispielsweise zur Überprüfung der Schreibweise – führt zu einer ersten unverschlüsselten Anfrage bei Google, diese wird mit Vorschlägen beantwortet. Mit der Entertaste wird eine &#8220;echte&#8221; Anfrage an Google gesendet, wiederum im Normalfall unverschlüsselt. Bei dem Klick auf einen Link auf der Ergebnisseite wird wieder Google informiert und die aufrufende Seite über die Herkunft und Suchbegriff in Kenntnis gesetzt. Jedes mal fliessen Verbindungsdaten und mit ihnen relevanter Inhalt in den Metadaten.</p>
<p>Mit Hilfe der Metadaten lassen sich so Bezüge zwischen Interessen, befreundeten/bekannten Personen und unterschiedlichen Lebenskontexten herstellen. Und zwar ohne irgendwelche Probleme. Zu Hilfe kommen den Überwachern dabei die allseits verbreiteten Tracker und Werbenetzwerke und deren Cookies und Targetingverfahren. Der Guardian <a href="http://www.guardian.co.uk/technology/interactive/2013/jun/12/what-is-metadata-nsa-surveillance#meta=0000000">hat dazu einen ausgezeichneten Artikel</a> in dem unter anderem auf den Petreus-&#8217;Fall&#8217; verwiesen wird.</p>
<p>Problematischer als die Erhebung der Daten durch die Werbenetzwerke und Tracker ist aber wahrscheinlich die Aufweichung des Empfindens der Nutzer darüber, welchen Wert die eigenen Daten haben und wie schützenswert diese sind. Dies vermutet sogar ein Online-Werber selbst. In einer Mail an ZDNet schrieb er, dass er glaubt, <a href="http://www.zdnet.com/ad-exec-online-ad-industry-complicit-in-nsa-prism-datamining-7000016836/">dass es der NSA nicht so leicht möglich gewesen wäre, ein solches Programm zu etablieren</a>, wenn nicht über Jahre die besten Marketingleute die richtigen Argumente wiederholt hätten, warum keine Gefahr bestünde für die Privatsphäre der Nutzer.</p>
<blockquote><p>We went first and told the public not to worry, to have faith and to trust. We crafted the arguments, molded the opinions, and quieted the skeptics.</p></blockquote>
<p><strong>Surveillance und Tracking basieren auf der gleichen Technik</strong></p>
<div id="attachment_1517" class="wp-caption alignleft" style="width: 359px"><a href="http://arxiv.org/pdf/1303.6241.pdf"><img class=" wp-image-1517 " alt="Sieht aus, wie Verkehrsplanung ist aber die Grundlage für die Analyse von Überwachungsdaten." src="http://qrios.de/wp-content/uploads/network.png" width="349" height="233" /></a><p class="wp-caption-text">Sieht aus, wie Verkehrsplanung ist aber die Grundlage für die Analyse von Überwachungsdaten.</p></div>
<p>Neben der Erfassung hilft die Technik der Tracker den Überwachern auch bei der Datenauswertung. Basis für beide sind wissenschaftliche Arbeiten der letzten zwanzig Jahre. Schaut man sich die Veröffentlichungen auf arXiv.org im Bereich Mathematik und Computer Science an, findet man zum Beispiel diese Arbeit: &#8220;<a href="http://arxiv.org/pdf/1303.6241.pdf"><em>Structure of complex networks: Quantifying edge-to-edge relations by failure-induced flow redistribution</em></a>&#8220;. Was abstrakt klingt, beschäftigt sich unter anderem mit der Frage, wie man statistisch nicht-lokale Verbindungen von Knoten erkennen kann. Ein gutes Verfahren um aus dem allgemeinen Rauschen von Verbindungsdaten mit möglichst wenig Aufwand Ereignisse und Verknüpfungen zu ermitteln, die nicht-lokal sind. Damit hat man die theoretische Grundlage und die Algorithmen, um automatisch Auffälligkeiten zu markieren.</p>
<p>In einer anderen Präsentation der NSA mit dem Titel &#8220;<a href="http://www.pdl.cmu.edu/SDI/2013/slides/big_graph_nsa_rd_2013_56002v1.pdf">An NSA Big Graph experiment</a>&#8221; werden mehrere Forschungsarbeiten von CMU, MIT und anderen amerikanischen Hight-Tech-Unis referenziert. Genannt werden unter anderem Steven Strogatz und Duncan Watts mit ihrer wegweisenden Arbeit &#8220;<em>Collective dynamics of </em><em id="__mceDel">&#8216;small-world&#8217; networks</em>&#8221; (<a href="http://www.sjtumath.info/Course/slides/NetSci-2012-7.pdf">hier eine Einführung in die Grundlagen der Network Science einer chinesischen Uni</a>). Diesen und auch vielen anderen Wissenschaftlern kann man wahrscheinlich nicht vorwerfen, aktiv an Überwachungstechnik zu arbeiten. Ihre Forschung hilft jedoch der NSA und allen anderen Diensten. Sie macht diese Überwachung tatsächlich erst möglich.</p>
<p>(Das &#8216;small-world&#8217; im Titel der Studie referenziert übrigens das <a href="http://de.wikipedia.org/wiki/Kleine-Welt-Phänomen">Kleine-Welt-Experiment von Milgram</a>. Im diesem wurde gezeigt, dass jeder jeden auf der Welt über nur ~6 Ecken kennt. Microsoft hat <a href="http://www.heise.de/newsticker/meldung/Microsoft-Wissenschaftler-bestaetigen-die-These-von-der-kleinen-Welt-192414.html">in einem Experiment mit dem Messenger und 190 Mio Usern dieses Ergebnis im wesentlichen bestätigt</a>. Jeder kannte also z.B. Bin Laden über nur sechs andere Menschen. Nicht grade beruhigend, wenn man nun weiß, wie die NSA Daten sammelt.)</p>
<p>Neben der Wissenschaft sind aber auch viele Startups – insbesondere im Silicon Valley – wichtige Zulieferer. Unzählige neue Firmen beschäftigen sich mit der Frage, wie relevante Informationen aus Datenbanken zu extrahieren sind. Da fällt zum Beispiel Palantir aus Palo Alto auf.</p>
<div id="attachment_1516" class="wp-caption alignnone" style="width: 581px"><a href="http://palantir.com"><img class=" wp-image-1516   " alt="Palantir glaubt an die Bürgerrechte … (Quelle: palantir.com)" src="http://qrios.de/wp-content/uploads/what-we-believe.png" width="571" height="134" /></a><p class="wp-caption-text">Palantir glaubt an die Bürgerrechte … (Quelle: palantir.com)</p></div>
<p>Unter den Anwendungsbereichen für ihre Datenanalyse-Lösungen finden sich Krankheitsbekämpfung und Immobilienmarkt. Aber auch: Defence, Legal Intelligence und Law Enforcement. Die von der CIA mitbegründete Firma <a href="http://www.theatlanticwire.com/technology/2013/06/palantir-prism-nsa/66013/">bestreitet PRISM gebaut zu haben</a> (obwohl sie ein gleichnamiges Produkt mit gleichen Kernfunktionalitäten anbietet). Dennoch verdient Palantir inzwischen sehr gut mit Aufträgen aus der Überwachungsindustrie und staatlichen Einrichtungen.</p>
<p>Den ideologischen Unterbau für das schizophrene Handeln zwischen Bürgerrechten und Technik für Überwachung liefert übrigens der deutschstämmige <a href="http://de.wikipedia.org/wiki/Peter_Thiel">Peter Thiel</a> (Seedinvestor bei Palantir):</p>
<blockquote><p><strong>I believe, as a libertarian, that if the security problem is not solved, we will end up with a society with terrorism and no civil liberties at all.</strong></p></blockquote>
<p>Unabhängig davon, wie unsinnig diese Aussage ist und wie oft sie in der Geschichte schon widerlegt wurde, sie ist extrem profitabel für einen Investor im Markt der Überwachungstechnik. (Bei nur rund $150Mio Investment wird Palantir inzwischen mit über $1Mrd. bewertet.)</p>
<p><strong>Der Überwachungs-industrielle Komplex</strong></p>
<p>Neben Startups verdienen auch etablierte Firmen viel Geld mit Überwachungstechnik. Beratungsagenturen wie Booz Allen (bei denen Edward Snowden zuletzt angestellt war) oder Firmen wie Raytheon, Boeing, Lockheed Martin und IBM möchten von dem immer stärker sprudelnden Ausgaben des Staates, der Bundesländer und selbst Städten in diesem Sektor etwas abhaben.</p>
<p>Der technologische Fortschritt und die wachsenden Datenaufkommen spielen ihnen dabei in die Hände. Technologie, die man noch vor wenigen Jahren als ausreichend und zukunftssicher verkauft hat sind inzwischen veraltet. Neue Services kommen hinzu und GPS-Daten müssen nun aus Bildern extrahiert werden, Gesichtserkennung ist heute obligatorisch und nicht nur mehr auf Anforderung möglich. Und sicher doch auch notwendig. Man möchte doch nicht nach dem nächsten Anschlag als der Trottel dastehen, der das nicht vorher hat kommen sehen.</p>
<p><strong>Die Frage, die sich die Politik stellen muss ist: Wo ist die Grenze? Wäre es <strong>mit unendlichem Aufwand</strong> möglich, jede Art des Terrors, jede Kriminalität, jede Steuerhinterziehung zu verhindern? Das würde vor allem den Zulieferfirmen gefallen. Mit einem imaginären Bedrohungsszenario würde ihnen dadurch soviel Steuergeld wie möglich zufliessen. Dann wären weder die Dienste selbst noch die Firmen daran interessiert, festzustellen, dass es gar keine Bedrohung mehr gibt. Dann hätten alle längst aufgehört, über Freiheit nachzudenken, denn das könnte selbst schon eine Bedrohung für Dienste und Firmen sein. Man wäre in Gefahr.</strong></p>
<p><strong>[Update]</strong> Bloomberg hat schon am 10. Juni einen Artikel über &#8220;<a href="http://www.bloomberg.com/news/2013-06-10/lockheed-to-boeing-building-security-industrial-complex.html">Lockheed to Boeing Building Security-Industrial Complex</a>&#8221; veröffentlicht. Darin wird unter anderem über einen Regierungsauftrag an Lockheed Martin mit einem Volumen von knapp $5 Mrd. berichtet. <strong>[/Update]</strong></p>
<p><strong>[Update]</strong> Bloomberg Businessweek stellt in einem imposanten Chart dar, wie sich die Einnahmen von Booz Allen Hamilton verteilen &#8220;<a href="http://www.businessweek.com/articles/2013-06-13/chart-how-booz-allen-hamilton-swallowed-washington">Chart: How Booz Allen Hamilton Swallowed Washington</a>&#8220;. D.h. die Firma bei der Edward Snowden beschäftigt war würde praktisch nicht mehr existieren, wenn öffentliche Einrichtungen keine Aufträge mehr geben würden. Und da die Firma direkt und indirekt Zugriff auf alle Daten aller Entscheidungsträger hat, dürfte dieser Fall wohl nicht eintreten. <strong>[/Update]</strong></p>
]]></content:encoded>
			<wfw:commentRss>http://qrios.de/2013/06/prism-big-data-und-der-uberwachungs-industrielle-komplex/feed/</wfw:commentRss>
		<slash:comments>5</slash:comments>
		</item>
		<item>
		<title>Lobo lobotomisiert die Netzgemeinde mit Numerolobie</title>
		<link>http://qrios.de/2013/05/lobo-lobotomisiert-die-netzgemeinde-mit-numerolobie/</link>
		<comments>http://qrios.de/2013/05/lobo-lobotomisiert-die-netzgemeinde-mit-numerolobie/#comments</comments>
		<pubDate>Wed, 08 May 2013 00:50:53 +0000</pubDate>
		<dc:creator>qrios</dc:creator>
				<category><![CDATA[netzpolitik]]></category>

		<guid isPermaLink="false">http://qrios.de/?p=1499</guid>
		<description><![CDATA[Was dem Congressbesucher die Fnord Show, ist dem re:publica-Gast Sascha Lobos Vortrag. Eine großartige Bühne für das deutsche Internetgesicht bzw. die Internetfrisur. Doch diesmal gab es statt Ironie und Getrolle scheinbar Ernsthaftigkeit. Lobo forderte auf, zu Wut, Pathos und &#8220;Machen&#8221;. Letzteres war Aufforderung Nummer eins von zwei Aufforderungen. Die Forderung nach Wut und Pathos war [...]]]></description>
				<content:encoded><![CDATA[<p>Was dem Congressbesucher die Fnord Show, ist dem re:publica-Gast Sascha Lobos Vortrag. Eine großartige Bühne für das deutsche Internetgesicht bzw. die Internetfrisur. Doch diesmal gab es statt Ironie und Getrolle scheinbar Ernsthaftigkeit.</p>
<p><iframe src="http://www.youtube.com/embed/Raas1BhSIbs" height="315" width="560" allowfullscreen="" frameborder="0"></iframe></p>
<p>Lobo forderte auf, zu Wut, Pathos und &#8220;Machen&#8221;. Letzteres war Aufforderung Nummer eins von zwei Aufforderungen. Die Forderung nach Wut und Pathos war Nummer zwei. Nummer zwei kam jedoch zuerst. Gleich nach der Ankündigung, dass der Titel der Präsentation ausnahmsweise nicht am Beginn steht, sondern erst am Ende verraten wird.</p>
<p>Diese drei Forderungen nach Wut, Pathos und Machen, die in zwei Regeln verpackt waren, stellte Lobo gleich hinter einen Dreiklang. Dieser Dreiklang, der zukünftig nicht mehr isoliert gedacht werden dürfe, setze sich aus Freiheit, Offenheit und Sicherheit zusammen. Dieser Dreiklang, den wir, die Netzgemeinde, zukünftig immer denken sollen, sei die Forderung, die wir an die Politik stellen müssten.</p>
<p>Um diesen Dreiklang zu erreichen, müssten wir die zwei Regeln (Wut, Pathos und Machen) beherzigen. Denn dann würden wir auch eine Zukunft bekommen, die wir haben möchten: Augmented Reality, Quantified Self und Supersocial Media.</p>
<p><strong>Verwirrt?</strong></p>
<p>Neben der Tatsache, dass Lobo offensichtlich versucht, die Aufnahmefähigkeit von Zahlenfetischisten zu blockieren, fällt vor allem auf: Lobo platziert in der Forderung nach einem – auch zukünftig – offenen Netz nun auch die scheinbar notwendige &#8220;Sicherheit&#8221;.</p>
<p>Dieser Dreiklang – den wir ja in Zukunft immer denken sollen – ist vor allem erst mal nur ein Zweiklang. Denn Freiheit eines Netzes und dessen Offenheit dürften Synonyme sein. Damit bleibt also nur noch der &#8220;Dreiklang&#8221; aus Offenheit und Sicherheit.</p>
<p>An keiner Stelle erklärt Lobo jedoch, was diese Forderung nach einem &#8220;sicheren Netz&#8221; meint. Sicherheit vor Phishing, Identitätsdiebstahl, Kinderpornographie? Sicherheit für wen? Vor Politikern, vor Drosseln, Amseln, Fink und Star? Sicherheit vor Politikern, die einen rechtsfreien Raum fordern oder solchen, die ihn menetekeln?</p>
<p>Lobo hat sich mit diesem Vortrag vor allem und vor allem anderen als Internetminister einer zukünftigen Kanzlerin Merkel in einer zukünftigen großen Koalition empfohlen. Als SPD-Protagonist pflanzt er einen Dreiklang aus zwei Ideen in die Köpfe der Journalisten, die zukünftig über die Netzgemeinde berichten. Zwei Ideen, die sich mit großer Sicherheit ausschliessen.</p>
<p>Insofern war es vielleicht doch weniger scheinbare als anscheinende Ernsthaftigkeit.</p>
<p>ps: Das <a href="http://internet-logo.org/">Internetlobo</a> &#8220;<strong>(#)</strong>&#8221; ist mit Sicherheit eine blöde Idee. Ein Kopf hinter einem Gitter? <a href="http://reclaim.fm">reclaim.fm</a>, das WordPress-Plugin für das Wiedereinfangen der eigenen Microblogging-Posts, werde ich mir auf jeden Fall ansehen und finde es tatsächlich eine großartige Idee.</p>
<p>&nbsp;</p>
]]></content:encoded>
			<wfw:commentRss>http://qrios.de/2013/05/lobo-lobotomisiert-die-netzgemeinde-mit-numerolobie/feed/</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>Wie viele Nutzerdaten fliessen eigentlich so im Durchschnitt?</title>
		<link>http://qrios.de/2013/04/wie-viele-nutzerdaten-fliessen-eigentlich-so-im-durchschnitt/</link>
		<comments>http://qrios.de/2013/04/wie-viele-nutzerdaten-fliessen-eigentlich-so-im-durchschnitt/#comments</comments>
		<pubDate>Thu, 04 Apr 2013 14:36:48 +0000</pubDate>
		<dc:creator>qrios</dc:creator>
				<category><![CDATA[netzpolitik]]></category>
		<category><![CDATA[privacy]]></category>

		<guid isPermaLink="false">http://qrios.de/?p=1484</guid>
		<description><![CDATA[Ralf Bendrath bat seine Follower gestern zu später Stunde auf twitter um Hilfe: Followerpower: How many Bytes of personal data does the average internet user create per day? Good proxy measures also welcome. #EUdataP Und wie man sehen kann, hatte ich schnell eine Überschlagsrechnung parat. Konnte aber die Folgefrage nicht wirklich beantworten. Wie ermittelt man halbwegs [...]]]></description>
				<content:encoded><![CDATA[<p><a href="http://bendrath.blogspot.de/">Ralf Bendrath</a> bat seine Follower gestern zu später Stunde auf <a href="https://twitter.com/bendrath/status/319605664789958656">twitter</a> um Hilfe:</p>
<blockquote><p>Followerpower: How many Bytes of personal data does the average internet user create per day? Good proxy measures also welcome. #EUdataP</p></blockquote>
<p>Und wie man sehen kann, hatte ich schnell eine Überschlagsrechnung parat. Konnte aber die Folgefrage nicht wirklich beantworten. Wie ermittelt man halbwegs valide, wie viele Seiten ein Nutzer durchschnittlich aufruft? Wirklich zitierbare Zahlen dürften bei einem solchen Thema nur qualitative Umfragen liefern. Die haben dann zwar wenig mit der Realität zu tun aber dahinter steckt wenigstens (hoffentlich) jemand, der sich damit auskennt auf den man mit dem Finger zeigen kann.</p>
<p>Als erste Quelle für quantitative Antworten empfiehlt sich <a href="http://alexa.com">alexa.com</a>. Sie ermitteln die Reichweite (&#8220;Wie groß ist der Anteil an allen Nutzern, die eine Site erreicht?&#8221;) mit Hilfe von Browser-AddOns. Dieses Verfahren ist jedoch durch eine zunehmende Fragmentierung des Browsermarktes und durch Privacy-PlugIns erheblich geschwächt. Die ermittelten Zahlen sind nur noch als Vergleichswert zu verwenden und nicht absolut.</p>
<p>Eine weitere Quelle sind die Zahlen des Verbandes der deutschen Zeitschriftenverlage, besser bekannt als IVW. Unter <a href="http://pz-online.de">pz-online.de</a> findet man (sehr gut versteckt) eine Tabelle mit den Zahlen für Visits und Unique Visitors für fast alle deutschen Online-Angebote die sich über Werbung finanzieren und noch einige mehr. Auch die IVW-Zahlen sind eigentlich nur als Vergleichswerte verwendbar, da die Messmethode, wie bei allen Tracking-Tools überhaupt, verschiedene Fehlerquellen hat (siehe: <a title="Fehlerhaftes WebAnalytics: Big Data oder eher Big Fraud?" href="http://qrios.de/2013/03/big-data-order-eher-big-fraud/">Fehlerhaftes WebAnalytics: Big Data oder eher Big Fraud?</a>).</p>
<p>Basis für eine Berechnung sind natürlich nur die tatsächlichen Online-Nutzer in Deutschland. Aktiv dürften das derzeit ca. 50 Mio Nutzer sein. In den Zahlen der IVW taucht allerdings jeder Nutzer mit mehreren Geräten auch mehrfach auf. Neben dem Heimrechner haben aber viele auch Zugang auf das Netz über einen Arbeitsplatzrechner. Hinzu kommen Handys und Tablets.</p>
<p>Für die Verteilung solcher Geräte gibt es je nach Auftraggeber sehr unterschiedliche Zahlen. Eine gute Quelle für einen groben Überblick ist <a href="http://de.statista.com/">Statista</a>. Die meisten Reports sind dort jedoch nur mit einem Premiumaccount möglich.</p>
<p>Aus meiner beruflichen Praxis bei der Analyse von großen Sites, wie mcdonalds.de und verschiedenen großen Zeitungs-Websites gibt es einen ersten Anhaltspunkt für die Frage, wie viele Nutzer über einen Arbeitsplatzrechner surfen. Bei allen Sites zeigt sich ein sehr deutliches Bild in Deutschland: während der Mittagspause wird signifikant weniger gesurft. Im Schnitt sind zu dieser Zeit ein drittel weniger Aufrufe zu bemerken. Bereinigt man die Kurve während der typischen Arbeitszeiten um dieses Drittel bleiben etwa 3/4 der Aufrufe und Nutzer übrig.</p>
<p>Ebenfalls auf Erfahrungswerte muss man bei der Nutzung durch mobile Geräte zurückgreifen. Hier wird deutlich, dass bestimmte Typen von Sites signifikant seltener Aufgerufen werden. Stärker als normalerweise sind News-Sites vertreten. Seltener findet man Firmen-, Shopping- und Special-Interest-Sites. Ausgenommen hier sind Blogs, die durch Social Media promoted werden.</p>
<p>Pi mal Daumen dürften maximal 10% aller Visits von mobilen Geräten kommen. Noch mal ~3% dürften durch Tablets von Nutzern kommen, die auch einen Computer und ein Handy nutzen.</p>
<p><strong>40% der Aufrufe von Zweit-, Dritt- und Viertgeräten</strong></p>
<p>Insgesamt dürften von dem im Februar von der IVW gemeldeten mehr als 1,3 Mrd. Visits in Deutschland rund 60% also ~800 Mio. von echten Individuen sein. Der Rest entsteht durch die mehrfache Zählung der Nutzung auf anderen Geräten. Bezogen auf die rund 50 Mio. Nutzern in Deutschland, die mindestens einmal im Monat online sind, ergeben sich monatlich rund 16 Aufrufe einer IVW-Site durch einen durchschnittlichen Aufruf. Zählt man Arbeitsplatz, Handy und Tablet mit dazu sind es <strong>~26 Aufrufe monatlich</strong>.</p>
<p>Bedingt durch die Tatsache, dass nur ein Teil der aufgerufenen Sites tatsächlich bei IVW oder nicht alle (z.B. Unity Internet Media mit web.de und gmx.de) die Zahlen zur Veröffentlichung freigeben, muss man möglichst genau schätzen, wie hoch der Anteil dieser Sites an dem Gesamtvolumen ist.</p>
<p>Auf der Alexa-Liste der deutschen Top-500 liegt Bild.de auf Platz 14, Spiegel-Online auf Platz 18. Platz 1 bis 6 belegen Google (com, de), facebook, Youtube, Amazon und eBay. Hinter diesen Spitzenreitern folgt als nächstes der Block der deutschen Service-Anbieter mit Web.de, GMX und T-Online. Zwischendurch sind unter den Top 20 mit UIMServ und Conduit zwei Vermarkter und mit Gutefrage.de und Wikipedia noch häufig verwendete Nachschlagwerke.</p>
<p>Ginge man von einer 90/10-Regel aus, würden Google und facebook in Deutschland allein bereits 90% der Visits auf sich vereinigen, die allein in dieser Top-20-Liste landen. An Hand der verfügbaren Zahlen von Sites, die bei IVW gelistet sind und zu den übrigen 18 im Alexa-Ranking vorhandenen lässt sich jetzt grob abschätzen, wie groß die verbleibenden 10% sind.</p>
<p><em>Ob die 90/10-Regel hier anwendbar ist, kann man beispielsweise an den Zahlen einer Nielsen-Untersuchung über die <a href="http://nielsen.com/de/de/insights/presseseite/2012/nielsen-digital-facts-snapshot--referral-analysis-.html">Reichweite von Google, facebook und Youtube</a> verifizieren. Danach erreicht Google eine Reichweite von 85%, fb über 56% und Youtube knapp 50%. Mit Überschneidungen (85% der fb-Nutzer nutzen auch Google, d.h. zu den 85% kommen nochmals ~8%, etc.) ergeben sich daraus sogar über 90%.  </em></p>
<p>&nbsp;</p>
<p>In der Alexa-Liste ist die Reihenfolge 14. Bild, 18. Spiegel, 19. Chip und 20. Gutefrage. Bei den IVW-Zahlen sind Chip und Gutefrage zwar vertauscht aber dennoch sehr nah beieinander. Der Unterschied dürfte an der Bündlung weiterer Sites durch Gutefrage an den IVW-Account liegen, welche nicht bei Alexa erfasst werden.</p>
<p>So kommt man zu folgender Rechnung: 576.617.172 Visits (4 Sites IVW) / 4 (∅ 1 Site in Alexa) * 18 (90% #Sites Top-20 Alexa) *  10 (10% Anteil Top-20 Alexa) = <strong>~25 Mrd. Visits monatlich in Deutschland</strong>.</p>
<p>Demnach würde nur jeder 20 Visit in Deutschland auf einer Site landen, die von IVW erfasst wird (respektive diese veröffentlicht). Das dürfte aber ein plausibles Ergebnis sein, wenn man sich ansieht, wie oft Google, Youtube und facebook besucht werden und berücksichtigt, dass United Internet nicht reported aber selbst angibt, dass <a href="http://www.united-internet-media.de/fileadmin/user_upload/Bilder/Mafo/AGOF-if-2013-01-Keyfacts.pdf">laut Agof</a> (Arbeitsgemeinschaft Online Forschung) eine tägliche Reichweite von über 13% hat (jeder 7,5. deutsche Internetnutzer ruft täglich Web.de oder GMX auf).</p>
<p><strong>~17 Visits pro Tag und pro Nutzer</strong></p>
<p>Daraus ergeben sich bei 50 Mio regelmäßigen Internetnutzern in Deutschland <strong>pro Monat etwa 520 Aufrufe</strong> von WebSites. <strong>Pro Tag sind das durchschnittlich 17 Visits pro Nutzer</strong>. Allein schon der Aufruf des Browser und das öffnen eines neuen Browserfensters führt jedoch in den meisten Fällen schon zu einem gezählten Besuch, häufig bei Google oder bei T-Online.</p>
<p>Wichtig hierbei ist es, zu beachten, dass es sich dabei um Visits handelt. D.h. wenn der Nutzer nach einer Pause von 30 Minuten auf einer Seite wieder aktiv wird, wird ein neuer Visit gezählt. Insbesondere in Zeiten von dutzenden geöffneten Tabs genügt es in vielen Fällen einen früher geöffneten Tab nochmals zu aktivieren, damit ein neuer Visit gezählt wird.</p>
<p>Da laut der oben genannten Überschlagsrechnung pro Visit rund 7 KByte Daten als Nutzerprofil übertragen werden, kommt man nach dieser Rechnung auf <strong>monatlich etwa 3,6 MByte gesendete Profilingdaten pro deutschem Internetnutzer</strong>. Meistens übrigens  an amerikanische Unternehmen.</p>
<p><em>(Disclaimer: Insbesondere die Schätzung des Volumens der Requests während eines Visits ist extrem schwierig. Manche Sites laden mehrere hundert Ressourcen von dutzenden verschiedenen Hosts. Dabei werden mitunter mehrere Redirects auf verschiedene Domains durchgeführt. Ralf Bendrath schlägt daher auch sinnvoller weise vor, eine Untersuchung mit einem Proxy durchzuführen, da nur so valide Daten erfasst werden könnten.)</em></p>
]]></content:encoded>
			<wfw:commentRss>http://qrios.de/2013/04/wie-viele-nutzerdaten-fliessen-eigentlich-so-im-durchschnitt/feed/</wfw:commentRss>
		<slash:comments>4</slash:comments>
		</item>
		<item>
		<title>Das ganze Drama der Innovationsförderung (an einem Beispiel)</title>
		<link>http://qrios.de/2013/03/das-ganze-drama-der-innovationsforderung-an-einem-beispiel/</link>
		<comments>http://qrios.de/2013/03/das-ganze-drama-der-innovationsforderung-an-einem-beispiel/#comments</comments>
		<pubDate>Mon, 11 Mar 2013 12:16:38 +0000</pubDate>
		<dc:creator>qrios</dc:creator>
				<category><![CDATA[netzpolitik]]></category>

		<guid isPermaLink="false">http://qrios.de/?p=1449</guid>
		<description><![CDATA[Angela Merkel war auf der CeBit und hatte dort ein besonderes Auge auf StartUps. Anschliessend schaut sie in Berlin noch in der Kulturbrauerei unter anderem bei Wooga vorbei. Nach einem neuerlichen – inzwischen mehr als dreijährigen – Gründungsboom insbesondere in Berlin hat sowohl die Bundes- als auch die Landespolitik nicht nur hier Neugründungen wieder als [...]]]></description>
				<content:encoded><![CDATA[<p>Angela Merkel war auf der CeBit und hatte dort ein besonderes Auge auf StartUps. Anschliessend schaut sie in Berlin noch in der Kulturbrauerei unter <a href="http://www.bundesregierung.de/Content/DE/Artikel/2013/03/2013-03-07-merkel-bei-startups.html">anderem bei Wooga vorbei</a>. Nach einem neuerlichen – inzwischen mehr als dreijährigen – Gründungsboom insbesondere in Berlin hat sowohl die Bundes- als auch die Landespolitik nicht nur hier Neugründungen wieder als Thema der Wirtschaftspolitik entdeckt.</p>
<p><strong>Man muss leider vermuten, dass solches Engagement bestenfalls wirkungsneutral ist. Wahrscheinlich ist es jedoch hinderlich. Warum?</strong></p>
<p>Kaum ein Politiker hat bisher eine eigene Firma gegründet. Daher ist ihnen überhaupt nicht bewusst, welche Probleme einem dabei über den Weg laufen. So kann man beispielsweise so gut wie keine Verträge (Telekommunikation, Büros, Versicherungen) machen, wenn man noch keinen Handelsregistereintrag hat oder noch in Gründung ist und mitunter noch eine gewisse Frist nach Gründung (so mehrfach geschehen). Das führt dazu, dass man solche Verträge dann als Privatperson machen muss, um überhaupt mal loszulegen. Solche privaten Verträge führen in der Folge dann jedoch zu erheblichen Dissonanzen mit und Streitigkeiten zwischen verschiedenen Finanzämtern (so mehrfach geschehen). Sollte das Ordnungsamt Wind davon bekommen, dass man einen Teil der Vorbereitungen für eine in Gründung befindliche Firma in den privaten Räumen erledigt kann es auch schon mal eine Verwarnung wg. Wettbewerbsvergehen geben (so geschehen).</p>
<p><span id="more-1449"></span></p>
<p>Solcherlei Petitessen lassen sich ja vielleicht mittels Innovationsförderung übertünchen, denkt sich der gemeine Amtsschimmel. Also werden Förderprogramme und Kompetenz-Cluster ins Leben gerufen.</p>
<p><strong>Ein Beispiel: GeolApps</strong></p>
<p>Unter der Adresse <a href="http://www.geolapps.de/">geolapps.de</a> wirbt der Berliner Senat und die Landesregierung Brandenburg derzeit für einen Wettbewerb:</p>
<blockquote><p>Länderübergreifende Wettbewerbsinitiative für das Cluster IKT, Medien und Kreativwirtschaft</p>
<p>in der Hauptstadtregion Berlin-Brandenburg</p>
<p>Handlungsfeld “Mobile Anwendungen / Geoinformation”</p></blockquote>
<p>Das mag dem unbedarften Leser nur sehr ungefähr sagen, was genau das Ziel des Wettbewerbs ist. <a href="http://www.geolapps.de/GeolApps-Wettbewerb.pdf">In dem PDF</a> findet sich dann &#8220;Best-Practice-Wettbewerb im Technologiefeld Location Based Apps mit Geodatendiensten&#8221;. Bewerben darf sich eigentlich weltweit jeder (Firmen, Institutionen, Personen) explizit jedoch auch jeder aus Berlin/Brandenburg. Zu gewinnen gibt es Ehrenpreise (Urkunden) und Sonderpreise der öffentlichen Hand (50k sind im Topf) und der beteiligten Unternehmen (Preise nicht genannt).</p>
<p>Das Jurykonsortium setzt sich mehrheitlich aus Beamten zusammen. Von den zehn Jurymitgliedern werden sieben von den Ländern bezahlt. Drei weitere kommen von den privatwirtschaftlichen Unterstützern Telekom, Nokia und skobbler.</p>
<p>Allerdings landen nicht alle Einreichungen bei der Jury. Irgendjemand oder irgendwas filtert die Bewerbungen vorher und legt der Jury dann nur &#8220;ausschließlich solche Vorhaben zur Bewertung&#8221; unter anderem nur die vor, die folgende Auswahlkriterien berücksichtigen:</p>
<ul>
<li>Innovationsgehalt (inhaltlich, technologisch)</li>
<li>Wirtschaftlichkeitsbetrachtung bzw. Mehrwert für den Nutzer / Käufer (!) Verwertungsdarstellungen über Erst- oder Zweitverwertung</li>
<li>Offlinefähigkeit und Synchronisation</li>
<li>Erreichter Verbreitungsgrad bzw. Potential der Übertragbarkeit auf andere Nutzer</li>
<li>Alleinstellungsmerkmale</li>
<li>Geschäftsmodell</li>
<li>Beachtung der Markt- und Wettbewerbssituation</li>
</ul>
<p>Von den neun Punkten haben nur zwei mit Innovation direkt oder indirekt zu tun. Der ganze Rest ist BWL-Gekasper. Der Einreichende sollte also wesentlich mehr Wert auf einen Buisinessplan legen als auf die Idee und die Umsetzung.</p>
<p>Tatsächlich handelt es sich also eher um einen StartUp-Wettbewerb. Kein Wunder immerhin ist die Telekom ja auch mit ihrem Inkubator hub:raum beteiligt. Und auch Nokia kauft gerne kleine Neugründungen, da sie häufig Ideen schneller umsetzen können als der ehemals größte Handyhersteller.</p>
<p><strong>Geodienste: Ein schlechter Witz</strong></p>
<p>Den Bewerbern wird implizit nahe gelegt, sich die von Berlin und Brandenburg angebotenen &#8220;WebServices&#8221; aus dem Bereich Geodaten anzusehen und möglicherweise zu nutzen. Auf sieben Seiten des PDFs werden die Dienste genannt. Ausser einer minimalen Kurzbeschreibung findet der geneigte Leser jedoch nichts, kein Link und auch keine Nutzungsrechte. Laut Ausschreibung sollen sie für die Teilnehmer für die Dauer des Wettbewerbs und 6 Monate darüber hinaus kostenfrei zu nutzen sein. Bezeichnet werden die Dienste mit Akronymen wie &#8220;WMS&#8221; (könnte für Web Mapping Service oder Wissensmanagementsystem stehen) oder als &#8220;WFS&#8221; (könnte für Web Feature Service oder für Wegfahrsperre stehen).</p>
<p>Sucht man dann nach den angebotenen Services findet man gleich zuerst eine <a href="http://www.stadtentwicklung.berlin.de/service/veroeffentlichungen/de/karten/geodatenservice_preisliste.pdf">Preisliste</a>. Darin erfährt man, dass beispielsweise der DGM5 genannte Service des Senats pro km2 20,-€ kostet. Dabei handelt es sich um ein Digitales Geländemodell. Weder das Format noch das Medium sind ad hoc ermittelbar. Bei einem anderen Service den Digitalen farbigen Orthophotos erfährt man nach einiger Recherche immerhin, dass sie im Format ECW vorliegen. Ein in der exclusiven GIS-Szene (Geoinformatiosnsystem) verbreites Format. Leider ist es für mobile Anwendungen nur sehr eingeschränkt verwendbar. Weder iOS noch Android beherrschen es.</p>
<p>In Zeiten von OpenData ist diese Liste mit über 70 gelisteten Angeboten das Armutszeugnis für Land und Senat schlechthin. Den geneigten Entwickler erwartet ein Dschungel aus Technik, Ansprechpartnern, Rechten und Preisen.</p>
<p><strong>Kosten und Nutzen für die Jury</strong></p>
<p>Ein solcher Wettbewerb bedeutet natürlich auch Aufwand für die privatwirtschaftlichen Unterstützer. Da ist es durchaus sinnvoll für zum Beispiel Nokia Mitarbeiter damit zu betrauen, die für externe Aufgaben <em>sinnvoller</em> sind als für die tatsächliche Produktion. In der Jury sitzt daher auch Jan Nowak &#8220;Head of Web Developer Engagement&#8221;.</p>
<p>Interessant ist auch der Ansprechpartner für die Bewerber. Prof. Dr.-Ing. Roland-M. Wagner von der geachteten Beuth-Hochschule in Berlin müht sich redlich um das Thema &#8220;Location Based Services&#8221;, also um alle Inhalte und Dienste, die man mit Geodaten versehen kann oder daraus generieren kann.</p>
<p>Herr Wagner hat durchaus Erfahrungen mit Geo-Apps. Er wird geführt als Publisher für die Android-App eFlyer. Diese mindestens 100 und maximal 500 mal <a href="http://de.appszoom.com/android_applications/travel/eflyer_blqaq.html">geladene</a> und von drei Nutzern mit 5 Sternen bewertete <a href="https://play.google.com/store/apps/details?id=de.magunprojekt.eflyer&amp;hl=de">App ohne Beschreibung</a> stellt die Daten der Site ticket-saarmoselle.eu in einer mobilen Version dar. Als <a href="http://www.plurio.net/2/CMSdk,80/smid,14/outputlang,en/news.html">Symposium-Referent</a> hat Wagner natürlich gute Kontakte zu SaarMoselle. Und die technischen Grundlagen für die App stammt ja immerhin auch aus einem von der EU geförderten Projekt: <a href="http://magun.htw-berlin.de/">MAGUN</a>.</p>
<p>Mit Flyern hat es <a href="http://www.rolandwagner.org/startPageFrameSet.html">Prof. Wagner</a> sowieso. Die Anmeldung für den Wettbewerb ist bei der Berliner Firma <a href="http://hyflyr.de">hyflyr.de</a> gehostet. Ein Projekt der Berliner Firma <a href="http://www.akaparis.de/">Akaparis</a>, die als Kunden oben genanntes SaarMoselle und die Konferenz <a href="http://mobileseasons.com">mobileseasons.com</a> angibt. Offensichtlich der Initiator des Barcamps DROIDCON auf dem Wagner natürlich schon gesprochen hat. Auch die Site der Wettbewerbsausschreibung ist direkt von Prof. Wagner reserviert und das PDF ist von ihm erstellt worden.</p>
<p>Das vollkommen private Handling dieser Ausschreibung lässt einen unbedarften Betrachter mindestens stutzen. Wie kann ein solches Setup auch nur annähernd für den notwendig sensiblen Umgang mit den Einreichungen umgehen? Wie kann bei einem intransparenten Ablauf, vagen Zielen und einem Geflecht – nein &#8220;Netzwerk&#8221; der Beteiligten ein fairer Wettbewerb gewährleistet werden?</p>
<p>Das Problem ist sicher nicht, die Fähigkeit von Herrn Wagner, zu &#8220;vernetzen&#8221;. Das Problem ist aber offensichtlich, dass sich die Länder Berlin und Brandenburg vor den Karren spannen lassen, der das Netzwerk einer Person mit öffentlichen Mitteln versieht. Ohne irgendwelches Wissen über die wirtschaftlichen Grundlagen allgemein und die besonderen Bedingungen in einem hart umkäpften Markt der Apps wird hier das Theaterstück &#8220;Nun kümmern sie sich wieder&#8221; wieder und wieder aufgeführt. Statt sinnvollen Maßnahmen werden Feigenblätter produziert und das Geld dafür landet bei privaten Seilschaften.</p>
<p><strong>Warum ich nicht teilnehmen werde</strong></p>
<p>Eigentlich gäbe es gleich drei Projekte, die hervorragend für die Einreichung geeignet wären. Da ist z.B. <a href="http://opendgps.de">OpenDGPS</a> an dem ich mich beteilige. Dabei geht es darum, ein verteiltes Netz von privat betriebenen Differential-GPS-Stationen aufzubauen und so Teilnehmern zu ermöglichen, mit herkömmlichen Mitteln eine Positionierungsgenauigkeit bis in den Zentimeterbereich zu erreichen. Ein weiteres Projekt ist <a href="http://umberlinrum.de">umberlinrum.de</a> für das ich schreibe. Mit einer einheitlichen Vanity-URL sollen Interessierte und Touristen bei ihren Reisen durch Brandenburg und darüber hinaus zukünftig interessante Spots in der Nähe finden, redaktionell aufbereitet und kuratiert.</p>
<p>Aber alle Rahmenparameter des Wettbewerbs GeolApps sind mindestens unzureichend: die Ausrichtung auf ein funktionierendes Business schränken die Ideenvielfalt der Beiträge ein, die Seilschaften der Jury lassen an einer minimalen Objektivität bei der Bewertung zweifeln und schliesslich sind die angebotenen Dienste in der derzeitigen Aufbereitung unbenutzbar.</p>
<p><em>PS: Die Preisverleihung findet übrigens auf dem nächsten WhereCamp irgendwann im Juni/Juli in Berlin statt. Unter den Organisatoren des Camps findet sich: Prof. Wagner.</em></p>
<p><strong>[Update]</strong> Inzwischen ist eine Bestätigungsmail für die Anmeldung eingetroffen. Das Drama geht in seine zweite Runde. Unter den Anhängen findet sich unter anderem eine überarbeitete Liste der verfügbaren Services. Erweitert wurde die Liste um Links auf die jeweiligen Services. Das sieht dann folgendermaßen aus:</p>
<p><a href="http://qrios.de/wp-content/uploads/webservices.png"><img class="alignnone size-full wp-image-1455" title="webservices" src="http://qrios.de/wp-content/uploads/webservices.png" alt="" width="632" height="124" /></a></p>
<p>Auf dem Screenshot ist nicht so gut zu sehen, dass beim Copy&amp;Paste wohl was falsch gelaufen ist. An mehreren Stellen sind Leerzeichen dazwischen gerutscht. Das kann man sich noch denken. Was sich der geneigte Nutzer jedoch nicht denken kann, ist die Antwort auf die Frage, was man dort bekommt. Ruft man die Links auf, erhält man eine SOAP-Response.</p>
<p>Zwar ist SOAP für mich als XSLT-Fan durchaus die erste Wahl aber in Zeiten von JSON und REST ist das für sehr viele Entwickler eine zu große Hürde. Das wäre es selbst dann, wenn die Schnittstellen halbwegs dokumentiert wären.</p>
<p>Einem erfahrenen Entwickler wird es jedoch nicht unendlich schwer fallen, dieses Problem zu umschiffen. Was ihm jedoch nicht gelingen dürfte, ist einen Weg zu finden, die angebotenen Dienste tatsächlich zu nutzen. Denn die Lizenzbestimmungen (<a href="http://www.thueringen.de/de/tlvermgeo/geoshop/include/benutzungsbedingungen.html">hier</a> eine nahezu identische Version von Thüringen) verbieten die Nutzung der Daten eigentlich.</p>
<blockquote><p>§ 8.2 Im Fall der Weitergabe von Produkten und Daten an einen Auftragnehmer hat der Lizenznehmer diesen schriftlich zu verpflichten, die übernommenen Daten ausschließlich für die Bearbeitung des Auftrags zu verwenden, <strong>sie in keinem Fall Dritten zugänglich zu machen</strong> sowie nach Erfüllung des Auftrags alle bei ihm verbliebenen Daten, auch Zwischenprodukte, Arbeitskopien u. dgl. zu löschen sowie dem Lizenzgeber auf Verlangen eine schriftliche Erklärung über die vollständige Löschung der Daten abzugeben.</p></blockquote>
<p>An anderer Stelle wird ausgeführt, wie die Präsentation der Daten zu erfolgen hat: max. 1Mio Pixel oder als A3-PDF, dazu kommt ein umfangreiches Copyright und ein Link auf den Serviceanbieter. All das muss man sich aber für das Geolapps-Projekt gar nicht erst ansehen. <strong>Denn laut § 7.3 darf man die Daten sowieso nicht für kostenfreie Anwendungen verwenden.</strong></p>
<p>Die ebenfalls per Mail versendete Erlaubnis für die Nutzung der Services im Rahmen von Geolapps ist so schwammig formuliert, dass sie mehr Unsicherheit für die Nutzung bringt. <strong>[/Update] </strong></p>
<p>&nbsp;</p>
]]></content:encoded>
			<wfw:commentRss>http://qrios.de/2013/03/das-ganze-drama-der-innovationsforderung-an-einem-beispiel/feed/</wfw:commentRss>
		<slash:comments>6</slash:comments>
		</item>
		<item>
		<title>Die Welt hinter Stacheldraht oder eine Paywall, die keine ist</title>
		<link>http://qrios.de/2012/12/die-welt-hinter-stacheldraht-oder-eine-paywall-die-keine-ist/</link>
		<comments>http://qrios.de/2012/12/die-welt-hinter-stacheldraht-oder-eine-paywall-die-keine-ist/#comments</comments>
		<pubDate>Wed, 12 Dec 2012 13:29:21 +0000</pubDate>
		<dc:creator>qrios</dc:creator>
				<category><![CDATA[netzpolitik]]></category>

		<guid isPermaLink="false">http://qrios.de/?p=1425</guid>
		<description><![CDATA[Mit dem heutigen Tag startet der Axel-Springer-Verlag seine Bezahlschranke für die Online-Welt. Diese sogenannte Paywall ist wahrscheinlich der erste Akt in einem größeren Stück, das man als den Versuch der Rückeroberung des Publikationsoligopols in Deutschland bezeichnen könnte. Die Paywall für wichtige Verlagsprodukte ist notwendig, um das Leistungsschutzrecht zu rechtfertigen. Dieses Gesetz ist der zweite und [...]]]></description>
				<content:encoded><![CDATA[<p>Mit dem heutigen Tag startet der Axel-Springer-Verlag seine Bezahlschranke für die Online-Welt. Diese sogenannte Paywall ist wahrscheinlich der erste Akt in einem größeren Stück, das man als den Versuch der Rückeroberung des Publikationsoligopols in Deutschland bezeichnen könnte. Die Paywall für wichtige Verlagsprodukte ist notwendig, um das Leistungsschutzrecht zu rechtfertigen. Dieses Gesetz ist der zweite und Hauptakt des Stückes. Wenn alles gut und so abläuft, wie es sich der Verlag vorstellt, dürfte es im Frühjahr verabschiedet werden und wahrscheinlich ab 1.7.2013 gültig sein. Der dritte und letzte Akt ist dann eine Kartellklage gegen Google, weil die Firma kostenpflichtige Links aus den Suchergebnissen genommen hat.</p>
<p><strong>Das Bezahlmodell der Welt Online</strong></p>
<p>Die Rahmenbedingungen der nun gestarteten Paywall sind jedoch so großzügig, dass man nicht wirklich von einem kostenpflichtigen Angebot sprechen kann.</p>
<p>Die Preise belaufen sich auf zwischen €6,99 bis €14,99 monatlich. Einen Monat kann man für ¢99 testen. Im größten Paket ist sogar noch ein Abo der Welt am Sonntag auf Papier enthalten.</p>
<p>Interessant sind jedoch die Ausnahmen. Denn diese machen die Paywall zu einem sehr löchrigen Gartenzäunchen.</p>
<ul>
<li>20 Artikel pro Monat pro User sind frei</li>
<li>50.000 der aktivsten Nutzer erhalten 6 Monate freien Zugang</li>
<li>Artikel, die über Suchmaschinen oder Soziale Netzwerke verlinkt sind, sind frei verfügbar</li>
<li>die Startseite ist kostenlos</li>
</ul>
<p>Damit deckt die Welt vier sehr unterschiedliche Fälle in Hinsicht auf ihre Vermarktung ab. Knapp ein Viertel der Aufrufe auf Welt Online kommen laut Alexa über Google oder facebook. Unklar ist, wie viele Aufrufe über twitter oder Blogs kommen. Viele dieser Aufrufe dürften nur Gelgenheitsbesucher sein. Denn die Welt hat mit über 50% eine relativ hohe Bounce-Rate. Das ist der Anteil der Nutzer, die nur eine Seite aufrufen und dann die Seite wieder verlassen. Interessant ist, dass für die erste Ausnahme die Verwendung von Cookies notwendig ist. User, die regelmäßig die Cookies löschen, können also mehr als 20 Artikel im Monat umsonst lesen.</p>
<p>Durchschnittlich ruft ein Nutzer pro Sitzung 2,4 Welt-Seiten auf. Ohne Startseite sind das also etwas über einen Artikel pro Besuch. Geht man von einem typischen Arbeitsplatzsurfer aus, der am Wochenende mit einem anderen Rechner online ist, hat er also an 20 Tagen je 1 Artikel umsonst zur Verfügung. Nur etwas weniger als der Durchschnittsnutzer überhaupt möchte.</p>
<p>Nicht anders als frech kann man das registrierungspflichtige &#8220;Angebot&#8221; an die 50.000 loyalsten Nutzer bezeichnen. Denn die Welt arbeitet mit Online-Profildiensten zusammen und erhält zu den Interessenprofilen dann auch noch eine gültige EMail-Adresse. Angenehmer Nebeneffekt für die Welt ist die Tatsache, dass sich dann die Nutzer mit mehreren ihrer Geräte bei der Welt anmelden. Ein kostenloser Datenkonsolidierungsservice vieler Nutzer für Axel Springer.</p>
<p><strong>Eine Paywall, die keine ist</strong></p>
<p>Für die Vermarktung der Seite wäre eine restriktive Paywall tatsächlich ein echtes Problem. Insbesondere die Zahl der Unique Visitors ist die wichtigste Kennzahl für die Werbeschaltung. Die Paywallschlupflöcher sind jedoch groß genug, dass sich weder diese Zahl signifikant ändern wird, noch die der PageImpressions, die direkt die Anzahl der ausgespielten Werbung beeinflusst.</p>
]]></content:encoded>
			<wfw:commentRss>http://qrios.de/2012/12/die-welt-hinter-stacheldraht-oder-eine-paywall-die-keine-ist/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
