qrios

IT ist kurios!

Sascha Lobo auf der Suche nach dem Urgrund der Überwachung

no comments

Seit einem Jahr arbeitet sich Sascha Lobo in seinem Blog auf Spiegel Online an dem Thema Massenüberwachung ab. Deutlich wird, dass er sich immer mehr mit der Frage nach dem warum beschäftigt. In seinem letzten Artikel ist er einen sehr großen Schritt weitergekommen. Unter dem Titel “Kontrollwahn: Was wirklich hinter der massenhaften Überwachung steckt” stellt er eine Verbindung zwischen der Überwachung und den Urgründen der Kybernetik her. Die Wissenschaft von komplexen Systemen und deren Steuerung, erfunden von Norbert Wiener ist für Lobo der erste Schritt und die Erklärung, warum heute alle Welt alles wissen will.

Man kann Lobo ohne wenn und aber folgen. Der Artikel ist interessant und auch das angehängte Video seines Vortrags Über Überwachung sollte angesehen werden. (Auch, weil er es wieder mal schafft, ein Katzenbild einzuschmuggeln.)

Ich bin mir sicher, dass Sascha Lobo auch noch den letzten gedanklichen Schritt machen wird: Überwachung ist die logische Konsequenz für ein mehr oder weniger bewusstes System. Die Evolution und die menschliche Geschichte zeigt, dass dieser Haufen Nervenzellen, der von 302 bis mehreren Milliarden Neuronen unterschiedlich groß sein kann, alles daran setzt genügend Informationen aus der Umwelt zu erhalten und diese Umwelt möglichst genau abzubilden. Aber nicht nur die Abbildung, also Darstellung des aktuellen Zustandes, sondern auch die Vorhersage des Verhaltens der Umwelt ist das Ziel jedes Gehirns.

Written by qrios

July 2nd, 2014 at 5:33 pm

Posted in Uncategorized

Verhandelt Deutschland überhaupt über #TTIP?

no comments

Obwohl die Verhandlungen über das Freihandelsabkommen zwischen der EU und den USA im stillen Kämmerlein stattfinden gelangt manchmal das eine oder andere Dokument an das Licht der Öffentlichkeit. So geschehen mit einem Dokument vom 26.5.2014 in dem es im wesentlichen um die Frage geht, welche Verhandlungsmandate die EU-Kommision in den Verhandlungen hat. Es beschreibt ausführlich, welche Arten von Dienstleistungen von der EU behandelt werden dürfen und welche durch Ländergesetze geregelt sind.

Bei einem ersten Blick auf das gescannte und damit nicht automatisch verarbeitbare PDF fällt auf, dass manche Länder häufig mit Ausnahmen genannt werden und manche selten. Für Länder, die intensiv an internationaler Schifffahrt teilnehmen ist zum Beispiel klar, dass es spezifische Bedingungen gibt, die diese gerne separat besprochen haben wollen.

Nun gilt ja Deutschland nicht als ein Land mit einer “geringen Vorschriftendichte”. In Bezug auf Dienstleistungen fällt sofort Meisterzwang, Handelskammern und duales System ein. Wer schon mal einen Bootsschein gemacht hat, kennt das weite Meer der Verordnungen die den Verkehr auf dem Wasser regeln. Und auch Bibliotheken, Schulen, Krankenhäuser u.s.w. gehören zum Dienstleistungssektor. Man müsste also annehmen, dass Deutschland bei den TTIP-Verhandlungen permanent bedächtig mit dem Kopf schüttelt und auf Ausnahmeregelungen besteht.

Welche Länder sich für den Erhalt regionaler Regelungen in TTIP einsetzen.

Welche Länder sich für den Erhalt regionaler Regelungen in TTIP einsetzen.

Und dann macht man sich die Mühe und überträgt die Daten in eine Tabelle und stellt fest, dass Bulgarien mehr als vier mal so viele Ausnahmen in die Verhandlungen einbringt als Deutschland. Mit 8 Erwähnungen hat Deutschland sich nicht mal halb so viele Ausnahmen in die Vorlage geschrieben, wie der Durchschnitt aller Länder. Im Gegenzug dazu darf die EU in 30 Punkten nicht für Malta verhandeln.

Mehr und mit Karte …

Written by qrios

June 14th, 2014 at 6:02 pm

Posted in ironie

Sichere Cloud-Plattform: Qabel

2 Kommentare

Mit einer – auf den ersten Blick – überraschenden Idee kommt eine neue Cloud-Lösung daher: alle Daten im Remote-Speicher sind für alle Aussenstehenden sichtbar und können runtergeladen werden. Und selbst der Upload ist im Prinzip für jeden offen (lediglich für das Quotamangement kann eine Authentifizierung verwendet werden).

Allerdings werden alle Daten, die man hochschiebt auf dem Client verschlüsselt. Dabei kann man die Cloud auch als Datenaustauschpool verwenden und die Files mit dem Public Key des Empfängers verschlüsseln.

Mehr …

Written by qrios

June 11th, 2014 at 9:41 pm

Posted in Uncategorized

#Krautreporter – Oder: Haltet den Dieb!

2 Kommentare

Aktuell haben die Krautreporter noch zwei Tage Bangen vor sich. Noch fehlen dem Projekt mehr als 5000 Unterstützer, die mindestens 60€ für eine Jahresmitgliedschaft investieren. Sie fördern damit ein alternatives Marktmodell für journalistische Produkte. Mit knapp 1 Mio € für ein Jahr wäre das Projekt gut ausgestattet. Und 60€ pro Jahr sind für einen anspruchsvollen Medienkonsumenten auch nicht viel.

Noch ein zartes Pflänzchen: Weißkohl

Noch ein zartes Pflänzchen: Weißkohl

Aber 60€ sind – zumindest für mich – zu viel für ein Projekt, das auf weitgehend falschen Annahmen basiert. Es wurde von Journalisten initiiert, die nach meiner Meinung schon an ihrem Arbeitsplatz selbst einen beschränkten Horizont ein sehr fokussiertes Blickfeld haben.

Buhmann Onlinemarketing

Zu meinen regelmäßigen Kunden gehören seit vielen Jahren große Online-Publisher. Sie erwarten von mir, dass ich ihnen zeige, wie sie aus den Webanalytics-Daten erfahren können, wie man mehr Klicks erreichen kann. Dabei spreche ich sowohl mit der Redaktion, mit dem Vertrieb als auch mit Technik und Produktmanagement.

In den meisten Fällen erwarten meine Gesprächspartner, dass die Nutzerdaten ihnen besser sagen können, was und wie sie zukünftig schreiben sollen. Die Zahlen sollten es ihnen besser sagen als es ihr Gefühl oder die Chefredaktion kann.

Insbesondere die Redaktionen wirken häufig verunsichert. Ihnen ist die Aufmerksamkeitsökonomie der Nutzer ein Buch mit sieben Siegeln. Sie schauen tagtäglich, oft sogar mehrmals stündlich auf die Artikelperformance bei Chartbeat. Longtail halten sie für ein Mythos aus der guten alten Zeit.

Als gelernter Journalist habe ich noch eine tägliche Redaktionskonferenz für ein monatlich erscheinendes Magazin erlebt. Ja, täglich für eine Monatsausgabe. In diesen Konferenzen kämpften die Redakteure mit/gegen der/die Chefredaktion für ihre Inhalte, für ihre Sicht der Dinge, für ihre Meinung. Es war immer Platz für Nischenthemen. Es war weitgehender Konsens bei den Redakteuren, dass eben diese Nischen es den Lesern erleichterten den Mainstream der Inhalte einzuordnen. Die Chefreaktion hat gemeinsam mit den Redakteuren und den Autoren die Inhalte kuratiert.

Nicht ein mal habe ich es in einer solchen Konferenz erlebt, dass die Chefredaktion etwas über den Anzeigenverkauf hat verlauten lassen. Natürlich musste die Heftplanung die verkauften Anzeigen berücksichtigen. Verkaufszahlen wurden nur genannt, wenn wiedermal ein Rekord gebrochen wurde.

Wenn ein Artikel geschoben wurde war das entscheidende Argument nicht, dass zu wenig Anzeigen verkauft wurden sondern, dass das Thema grade nicht passt oder noch weiter ausgearbeitet werden sollte. Die Chefredaktion fungierte als Firewall gegen die Wünsche der Anzeigenabteilung. Und sie musste sicher viel aushalten. Denn die Anzeigenabteilung in einem Verlag ist mächtig und gefräßig. (Das liegt unter anderem daran, dass sie im Gegensatz zur Redaktion sehr stark Bonus-getrieben ist.)

Bei allen mir bekannten Online-Redaktionen gibt es diese “Chefredaktions-Firewall” nicht mehr, oder nur noch sehr eingeschränkt. Die Redaktionen haben direkten Zugriff auf die Nutzungszahlen. Statt gesteuerter Kuration nutzen die Managementebenen nun den direkten Wettbewerb in der Redaktion als Instrument der Entwicklung des verlegerischen Profils.

Wenn die Krautreporter also implizieren, dass Redaktionen heute nur noch Futter für die Klickviehtröge liefern, haben sie durchaus Recht. Aber es sind eben diese Redaktionen und Chefredaktionen, die diesen Wettlauf überhaupt veranstalten. Es sind die Redakteure, die mit den WebAnlytics-Zahlen in die Redaktionskonferenz gehen und die Heftplanung mit Milchmädchenrechnungen in ihrem Sinne manipulieren.

Die strategische Themenplanung im eigentlichen verlegerischen Sinne ist daher heute ungleich schwerer. Plastisches Beispiel für diese Hypothese ist Spiegel Online: inzwischen verdrängt der Fussball an mehreren Tagen in der Woche weite Teile der Nischenthemen und oft sogar die Kernthemen. Offensichtlich ein Effekt der positiven Rückkopplung. Mehr Fussball bringt mehr Fussballinteressierte. Die Klickzahlen liefern den Sportredakteuren dann die notwendigen Argumente für immer mehr Fussball. Ähnlich dürfte die Entwicklung vor einigen Jahren beim Stern abgelaufen sein. Vor zehn Jahren war Panorama eher selten unter den Top-5-Themen auf der Homepage. Heute sind es mitunter mehrere Panorama-Artikel auf der Bühne gleichzeitig.

Aber Online-Marketing ist nicht gleich Online-Marketing. Es gibt Beispiele in denen eine geschickter Vertrieb signifikant höhere Preise erzielen kann. Große Sportseiten erreichen bei Markenherstellern Preise von denen AdServer-Betreiber und Bookingagenturen nur träumen können. Die Kooperation der Zeit mit dem Uhrenhersteller Nomos Glashütte lohnt sich offensichtlich für beide Partner.

Solche Partnerschaften und Vertriebskonzepte funktionieren allerdings nur, wenn man ein verlegerisches Profil hat. Dann und nur dann hat man auch eine attraktive Leserschaft und Zielgruppe. Dabei kann man sogar für Anzeigenkunden kritische Themen ausbreiten und dennoch gutes Geld verdienen. Ein schönes Beispiel, wie das funktioniert zeigen die Prenzlauer Berg Nachrichten. Während man ein umfangreiches Dossier über Gentrifizierung pflegt, verkauft man gleich noch das Immobilienprojekt. Chefredakteur und Geschäftsführer des Onlinemagazins ist übrigens Philipp Schwörbel, ein Krautreporter.

Publikumsbeschimpfung

Wenn die Krautreporter nun Vorschuss von ihren Lesern haben möchten, dann machen sie den Gärtner zum Bock:

Du,

lieber Leser,

bist mit Deinem nervösen Finger Schuld an unserer Misere. Immer wenn Du auf eine catchy Überschrift klickst, stirbt ein Qualitätsjournalist einen kleinen Tod. Mit jeder Bilderstrecke in die Du Dich fallen lässt, verhinderst Du wieder einen Pulitzer-Preis-trächtigen Artikel.

Andere kritisieren das Projekt aus anderen Gründen. Insbesondere die Kampagne selbst wird als arrogant betrachtet. Die Macher scheinen von der Kritik überrascht worden zu sein. Nachbesserungen sollten wohl den Wind aus den Segeln nehmen. Doch es fällt immer wieder auf, dass die Krautreporter das Modell der werbefinanzierten journalistischen Produkte für einen Verfall der journalistischen Qualität verantwortlich machen. Als ob Werbung eine Erfindung für das Internet wäre.

ps: Ich persönlich bin übrigens der Meinung, dass wir zu wenig Meinungsjournalismus haben und nicht zu viel. Aber das ist noch ein ganz anderes Thema.
pps: Den drohenden Misserfolg der Kampagne als eine Schlappe der Netzgemeinde zu menetekeln halte ich übrigens für vollkommen daneben. Denn das Projekt ist sowas von Old School.

Written by qrios

June 10th, 2014 at 6:20 pm

Posted in netzpolitik,web

#30c3 Rückblick

2 Kommentare

Viele damit Vertraute versprachen einen epischen 30. Chaos Communication Congress. Und tatsächlich wird der 30c3 wohl in guter Erinnerung bleiben. Mehrmals sah sich das Publikum genötigt den Vortragenden durch Aufstehen ihre besondere Wertschätzung zu bezeugen. Nicht nur Jacob Applebaum und Glenn Greenwald wurden so geehrt sondern auch der bisherige Bundesdatenschutzbeauftragte Peter Schaar. Sein Vortrag empfiehlt sich allen, die mal grundlegend wissen wollen, was dieser Posten eigentlich ist, was er darf und vor allem was er nicht darf. Die Links werden nachgereicht, wenn sie auf den CCC-Servern verfügbar sind.

Die wichtigsten Themen waren natürlich neben den NSA-Enthüllungen auch dieses Jahr wieder unsichere Hard- und Software. Mögliche Angriffe auf SD-Karten mit eigenen CPUs, die Extraktion Schlüsseln aus One Time Pads und die Möglichkeit von Hintertüren in Soft-Core-CPUs wurden dargestellt.

Aus Sicht von WebTracking war auf jeden Fall der Talk über Lücken und versteckte Funktionen in HbbTV-Geräten interessant. Martin Herfurt hat sich die Kommunikation von Smart-TVs über IP angesehen und kam zu einigen interessanten Erkenntnissen. Deutlich wurde, dass bis auf die öffentlich-rechtlichen Fernsehanstalten niemand Anstalten unternimmt, sich um Datenschutz zu kümmern. Die Geräte bieten meistens keine vernünftigen Einstellungsmöglichkeiten bzgl. Cookies oder Cache an und die Sender bieten selten Opt-Out und niemand Opt-Out an. Viele Sender haben Scripte laufen, die regelmässig an die Broadcaster oder die Werbekunden übertragen, dass der Sender noch eingeschaltet ist. Allerdings versprach der Titel des Talks “OMG – my Smart TV got pr0wn3d” eine etwas andere Stossrichtung (aber das kann ja jedem mal passieren …).

Written by qrios

January 2nd, 2014 at 11:40 am

Posted in analytics,privacy

Stolpern und Zaudern: Erste Schritte mit FPGAs

no comments

Mit ein wenig Hintergrundwissen ist jedem eigentlich klar, was man unter einem Field Programmable Gate Array verstehen kann. Ein Gitter aus Schaltungen, die man nach Belieben zusammen stecken kann und die dann Signaleingänge logisch verschalten und entsprechende Signale wieder ausgeben. So weit die Theorie hinter FPGAs. In der Praxis stellt sich das für einen durchschnittlichen Programmierer schon um einiges schwieriger dar.

Dschungel aus unbekannten Chips und Boards

Für FPGAs gibt es keinen Standard-PC, alle Systeme sind Embedded Systeme. Jedes verfügbare Board ist anders als die anderen. Schnittstellen, Adressen, Speicher usw. unterscheiden sich, haben unterschiedliche Größen und sogar Spannungen. Sogar die Chips der gleichen Reihe vom gleichen Hersteller sind verschieden. Ein echter Prozessor-Zoo.

Ein erfolgreiches Kickstarter-Projekt: Ein Schield für BeagleBone Black oder Raspberry Pi mit einem Spartan 6 FPGA.

Ein erfolgreiches Kickstarter-Projekt: Ein Schield für BeagleBone Black oder Raspberry Pi mit einem Spartan 6 FPGA.

Wichtig im Markt sind drei Chiphersteller: Xilinx, Altera und Lattice. Jeder von ihnen bietet eine große Palette an FPGAs. Die Größten kommen derzeit von Xilinx mit 4 Mio logischen Elementen. Diese kosten dann aber auch mehrere tausend Dollar und Entwicklungsboards etwa mit PCIe kommen gerne auf $70.000 pro Stück. Am unteren Ende der Skala finden sich Chips für wenige Cent. Allerdings sind Boards mit preiswerteren FPGAs auch nicht grade billig. Den Zynq 7010 verkauft Xilinx beispielsweise für unter $10 bei Abnahme von größeren Stückzahlen. Allerdings ist die Entwicklung eines Boards so aufwendig und die Zielgruppe so klein, dass ein typisches Board dann doch gerne $200 kostet.

Allerdings bieten solche Chips und Boards dann gerne auch mehr als es ein Arduino oder ARM-Pendent könnte. Die Zynq-Reihe von Xilinx ebenso wie die Cyclone-Reihe von Altera enthalten neben dem unterschiedlich dimensionierten FPGA auch einen ARM-Core (beim Zynq sogar einen Dual-Core). Diese Form des Designs hat sich schon früher mit PowerPC-Cores durchgesetzt und ist für die Entwicklung eine unglaubliche Erleichterung. Man kann dadurch den FPGA-Core dort einsetzen, wo er wirklich sinnvoll ist: Signalanalyse und -verarbeitung. Entsprechend viele Ein- und Ausgänge bieten solche Boards. Einen Sonderfall stellt das Parallella von Adapteva dar. Neben einem Zynq 7020 (Dual ARM und FPGA mit knapp 90k Logic Cells) hat es noch einen Parallelprozessor mit 16 Cores. Für $100 ein absolut faszinierendes Stück für Experimentalprojekte.

Ohne einen separaten ARM-Core kommt der inzwischen sehr weit verbreitete Spartan 6 von Xilinx. Boards mit diesem Chip bekommt man schon für etwas über $50. Das hervorragend designte Mojo wurde erfolgreich über Kickstarter finanziert. Mit dutzenden digitalen und einigen analogen I/Os ist es ausgezeichnet für Frequenzanalyse, Robotik und Steuerung geeignet.

Entwicklungstools: eingeschränkte Auswahl

xilinx-ise-small

Xilinx ISE: Eine Oberfläche als wäre sie direkt von Bill und Melinda Gates programmiert worden. Man wartet eigentlich permanent auf Karl Klammer.

Mit der Auswahl auf einen Chip hat man sich leider aber auch auf eine Toolchain für die Entwicklung festgelegt. Jeder Chiphersteller bringt seine eigene Entwicklungsplattform mit. Bei Xilinx nennt sich diese ISE (statt IDE). Es handelt sich um ein Monster, das Eclipse wie einen schlanken Editor erscheinen lässt. Alles soll man damit machen und alles kann man damit machen. Aber für jeden Schritt gibt es verschiedene Subtools, unterschiedliche Interfaces und einen riesigen Katalog an eigenen Begriffen. Wer aus der Softwareentwicklung kommt ist hier vollkommen lost. Es empfiehlt sich vor dem Beginn ein Blick auf die vielen Tutorials bei Youtube.

Bevor man sich die Tutorial jedoch ansieht, muss man sich entscheiden, in welcher Sprache man denn programmieren (Es heisst nicht programmieren!) will. Verilog ist eher in den Staaten verbreitet und VHDL in Europa. Zu den Unterschieden und den Grundlagen von VHDL gibt es eine gute Einführung von der Uni Kiel.

Prinzipiell ist es auch möglich, die Programmierung mit Comandline-Tools zu machen. Allerdings wird man Helfer wie make oder ant vermissen. Je nach Projekt muss man sich mit Shell-Scripten behelfen und diese anpassen. Alle notwendigen Anleitungen findet man in dem Tutorial “Using Xilinx Tools in Command-Line Mode“.

Die Entwicklung unter OSX ist nicht ohne einige Klimmzüge möglich. Mit einer VM in der Linux läuft, die die Xilinx-Tools beherbergt kann man sich aber helfen. Die Übertragung der fertigen Binärfiles funktioniert auch unter OSX z.B. mit verfügbaren Python-Scripten.

Es läuft!

Hat man all die Hürden überwunden, wird man aber ein ähnliches Hochgefühl haben, wie bei seinem ersten Assembler-Programm. FPGAs sind definitiv die hohe Kunst der Programmierung und zeigen erst wirklich, wie (klassische) CPUs tatsächlich funktionieren. Sie sind extrem energiesparend, alle Prozesse laufen gleichzeitig und sie sind in ihren Möglichkeiten nahezu unbeschränkt. Nur an den Tools muss noch gearbeitet werden. Aber es gibt ja auch schon einen FPGA-Assembler und eine Forth-Implementierung für FPGAs.

Written by qrios

December 25th, 2013 at 2:29 pm

Posted in code,gadgets

Der Content in den Zeiten des Internet

1 Kommentar

Eine interessante Diskussion entspannt sich grade über den Begriff und die Bedeutung von “Content-Marketing”. Angefangen hat es vor zwei Wochen mit einem Interview von Jeff Jarvis im Internet Magazin das mit dem Titel “Content Marketing ist der falsche Weg” überschrieben ist. Thomas Knüwer befragt den bekannten Post-Privacy-Apologeten unter anderem über dessen Einstellungen zu Google und der Google-Strategie. Es wird sehr schnell deutlich, dass Jarvis ein lupenreiner Vertreter der Solutionism-Vertreter ist von denen Evgeny Morozow redet. Im Kern sagt er, dass Google es sehr gut schafft, Bedürfnisse von Kunden zu sehen, auch, wenn diesen solche Bedürfnisse nicht bewusst sind.

Ab der 16 min. kommen sie zu dem Thema Content und Content-Marketing. Auf die Frage von Knüwer, ob Firmen einen Fehler machen, wenn sie Content-Marketing betreiben antwortet Jarvis, dass Journalisten eigentlich keinen Content produzieren. What? Nach seiner Auffassung sind Bücher und Filme, die der Unterhaltung dienen, Content. Demgegenüber wäre Journalismus laut Jarvis ein Service. Sie setzen den Kontext des Adressaten in Beziehung zu Informationen und bereiten diese Informationen so auf, dass sie wertvoll für den Konsumenten sind. Und durch diesen Kontext könnten diese Medienanbieter dann auch gezielt Werbung vermarkten (Targeting).

Und an dieser Stelle wird eigentlich schon sehr deutlich, dass Jarvis ein Modell vertritt, dass man als überholt betrachten muss. Sein Taschenspielertrick mit der Unterscheidung zwischen Content und Informationsservice fällt in sich zusammen, wenn man etwas Abstand vom Gegenstand der Betrachtung nimmt. Firmen wie Amazon, Zalando oder HRS haben in nur wenigen Jahren einen großen Teil der Intermediates ersetzt. Zwischen dem Autoren und dem Leser eines Buches gab es früher immer mehrere Zwischenhändler: Agent des Autoren, Verlag, Großhändler und Buchhändler. Hinzu kommen Zulieferer wie Druckerei, Werbeagentur, Anzeigenabteilung und Logistik. Davon sind in vielen Fällen heute mehrere weggefallen. In manchen Fällen (eBook Selbstverlag) sind alle verschwunden. 3D-Drucker und Drohnen-Zustellung werden die Reste dort eliminieren, wo sie heute noch unabdingbar sind.

Kickstarter-Projekt PowerUp: Produkt oder Content?

Kickstarter-Projekt PowerUp: Produkt oder Content?

Allerdings ist Amazon ja kein Produzent von Content oder Produkten. Es ist ein Hub. Deutlicher sieht man dies an Kickstarter. Content (und Produkte) werden von Nutzern der Plattform kreiert und suchen sich dann einen Kanal über den sie vertrieben werden können, respektive ihre Konsumenten finden. Ist Kickstarter nun aber nur Großhändler für Businessideen? Nein, es ist eine Unterhaltungsplattform mit einer sehr hohen Relevanz- und Kontextbezogenheit. Es befriedigt wohl in den seltensten Fällen ein echtes Produktbedürfnis. Sehr schön zu sehen ist das an dem grade laufenden Projekt PowerUp, einem Motor für Papierflieger. Nach nur einem fünftel der Zeit hat das Projekt schon zehn mal mehr Geld eingesammelt als die gedachten $50.000.

Die Transformation durch das Internet ist daher immer am besten zu beschreiben, wenn man berücksichtig, dass Zwischenhändler überflüssig werden. Und das liegt vor allem an der Fähigkeit des Internet, den ja auch von Jarvis beschriebenen Kontext zu dem Adressaten herzustellen. Dieser Kontext bestand früher in der Fähigkeit eines Verkäufers auf den Kunden individuell zu reagieren. Mit Argumenten, mit Preisen und mit Empathie. Das sind aber Eigenschaften, die sich nicht skalieren lassen. Ein Verkäufer in einem Laden kann eben an einem Tag nur eine begrenzte Anzahl von Kunden bedienen.

Im Netz können beliebig viele Kunden durch eine Empfehlungsengine mit Kontext versorgt werden. Unendlich vielen Kunden können vermeintliche Preisvorteile angeboten werden und jeder Kunde kann mit persönlichen Worte angesprochen werden: “Dein Facebook-Freund Thomas hat sich das Produkt letzte Woche gekauft, er gibt ihm fünf Sterne!”.

Vor diesem Hintergrund wird deutlich, dass auch Journalisten Intermediates sind. Eine Information hat nur dann Informationsgehalt, wenn sie erstens beim Adressaten ankommt, wenn sie zweitens für ihn relevant ist und wenn sie drittens neu ist. Übersetzt bedeutet dies, dass der Journalist der Verkäufer eines Produktes (Nachricht) ist, dass irgendwo in der Welt hergestellt wurde. Sei es durch eine Naturkatastrophe, ein Sportereignis oder eine wissenschaftliche Studie. Die Aufgabe des Journalisten ist es nun, diese Nachricht für seine gedachten Kunden aufzubereiten und in die jeweiligen Kanäle zu distribuieren. Was daran genau sollte eine Empfehlungsengine nicht können? Medien und Journalisten sind nur dann überhaupt noch existenzfähig, wenn sie selbst Nachrichten produzieren, also Meinung. Und das verträgt sich nach bisheriger Meinung vieler Journalisten nicht mit der Ethik ihrer Branche.

Demgegenüber ist Content-Marketing nichts anderes als die – möglichst algorithmisch gesteuerte – gezielte Verbreitung von Nachrichten, die von Firmen produziert werden. Diese Nachrichten konkurrieren mit anderen Nachrichten über Naturkatastrophen, ein Sportereignisse oder eine wissenschaftliche Studien um unsere Aufmerksamkeit. Idealerweise wird sie Menschen mit Meinung berücksichtigen, die offensichtlich einen Einfluss auf meine Aufmerksamkeitsökonomie haben. Und an der Stelle kann man dann auch Henning Grote folgen, der in seiner Antwort auf Jeff Jarvis vom Relationship Business spricht. Es beginne schon vor der Content-Produktion und basiere auf echter Beziehungsarbeit. Bezogen auf das Beispiel von Kickstarter ist es das, was die Anbieter machen, wenn sie ihre Freunde in den gesamten Prozess  der Projektentwicklung einbeziehen.

Das Paradebeispiel für gelungenes Content-Marketing dürfte ladyada von Adafruit sein. Obwohl es sich “nur” um einen Anbieter von Bastlerelektronik handelt ist sie eine Galionsfigur einer ganzen Homebrew-Generation und liefert neben Produkten eben auch kontinuierlich Content der Menschen inspririert und unterhält. Und das ganz ohne Medien, ursprünglich nur verbreitet von begeisterten Anhängern, die durch ihre Begeisterung zu “Influencern” werden.

Written by qrios

December 6th, 2013 at 2:11 pm

Posted in web

Targeted Ads: Twitter wechselt auf die dunkle Seite

3 Kommentare

Techcrunch meldete gestern, dass “Twitter Is About To Officially Launch Retargeted Ads“. Danach soll noch heute das neue Programm für Werbetreibenden bekannt gegeben werden. Dreh- und Angelpunkt wird dabei offensichtlich der twitter-Account-Cookie des Brwosers. Dieser soll das Surfverhalten eines Nutzers verknüpfen aus dem dann ein aussagefähiges Interessenprofil generiert wird. Auf der Basis dieses Profils kann twitter dann Targeting und auch das teurer zu verkaufende Retargeting

Prinzipiell ist an dieser Entwicklung zunächst mal interessant, dass twitter mit diesem Vorgehen von sehr vielen Sites profitiert, die selbst von diesem Kuchen nichts abbekommen. Jeder Blog und jede News-Site mit einem installierten Social-Plugin, liefert die notwendigen Daten an twitter ohne dafür einen monetären Gegenwert zu bekommen.

Allerdings kommt der Schritt nicht überraschend: die Änderung der Nutzungsbedingungen deuteten schon vor mehr als einem Jahr auf twitters Zukunftspläne. Auch die tiefe Integration der Accounts in iOS und OSX liessen darauf schliessen, dass man in Richtung einer geräteübergreifende Nutzerkennung arbeitet. Dazu passt auch die heute bekannt gegebene Zusammenarbeit von twitter mit der Deutschen Telekom die sich bemühen neue Android-Nutzer durch einen einfacheren Zugang zu gewinnen.

Insbesondere die Identifikation von Nutzern über Gerätegrenzen hinweg ist der heilige Gral. Kann eine Werbeplattform synchrone Profile anbieten sinken die Kosten für Buchung weil weniger Werbungen ausgespielt werden müssen und gleichzeitig steigt die Effizienz der einzelnen geschalteten Werbemittel.

Die mobile Version von twitter speichert die IP-Adresse des ersten Aufrufs für einen Monat.

Die mobile Version von twitter speichert die IP-Adresse des ersten Aufrufs für einen Monat.

Twitter geht dabei auch gerne Wege, die zum Beispiel in Deutschland gesetzlich verboten sind. So speichert die mobile Version beispielsweise die IP-Adresse des ersten Aufrufs in einem Cookie. Damit lassen sich sehr leicht Profile auch dann erstellen, wenn Nutzer sich auf einzelnen Geräten oder Programmen nicht bei twitter anmeldet.

Eine ausführliche Analyse über den Wert von Nutzerdaten stellt ein Artikel des spectator dar: “iSPY: How the internet buys and sells your secrets“. Laut dem Autoren sammeln die Firmen derzeit jährlich £5,000 von jedem User ein. Jetzt wo twitter einen Firmenwert von 23 Mrd $ hat möchte man den Investoren, die “einem so viel gegeben haben” offensichtlich ein wenig zurückgeben.

Written by qrios

December 5th, 2013 at 1:14 pm

Posted in netzpolitik,privacy

Saxon XSLT-Prozessor für C/C++ verfügbar

no comments

Wenn man wie ich seit Jahren fast ausschliesslich mit XSLT arbeitet ist man eigentlich immer auf Saxon angewiesen. Kein anderer XSLT-Prozessor unterstützt die Version 2.0 und mit XSLT 1.0 kann man zwar einige nette Dinge machen aber für einen wirklich professionellen und performanten Einsatz ist es nicht geeignet.

Saxon hat allerdings leider bisher den Nachteil, dass es nur für Java und .Net verfügbar war. Auf einem vernünftigen Server musste daher immer eine JVM installier sein. Mit der C-Implementierung von Saxon erübrigt sich dies. Statt beispielsweise einem JBoss-Server mit Saxon kann man XSLT 2.0 direkt über ein Apache-Modul laden und Requests direkt an den XSLT-Prozessor durchreichen.

Aktuell ist die C-Implementierung noch in einem Alpha-Status und setzt ein i386-Linux voraus. Ob es überhaupt Pakete beispielsweise für OSX oder für andere Prozessoren verfügbar sein wird ist derzeit noch nicht bekannt. Es könnte fraglich sein weil Saxonica generell vom Verkauf von Lizenzen lebt.

Written by qrios

November 28th, 2013 at 11:02 pm

Posted in Uncategorized

“Einschaltquoten” von Online-Video-Angeboten

no comments

Die Messung der deutschen TV-Einschaltquoten ist aus Sicht eines halbwegs statistisch gebildeten Betrachters extrem fragwürdig. Wenige tausend Haushalte werden mit speziellen Geräten ausgestattet, die Teilnehmer werden geschult im Umgang mit Fernbedienungen (was übrigens die exorbitante Nutzung von Videotext erklärt) und am Ende des Jahres erhalten sie Kaffeemaschinen als Belohnung. Das Verfahren dient aber auch nur der Vergleichbarkeit der Quoten untereinander. Es bestimmt letztlich den Mediamix und damit wie viel Geld die Häuser ARD/ZDF, ProSieben und RTL bekommen.

Blind ist die GFK-Methode schon immer gegenüber der Mediennutzung abseits von TV und Radio. Man weiß aus Untersuchungen und vor allem aus eigener Erfahrung, dass der Trend weg vom programmgesteuerten Berieseln hin zur aktiven Bestimmung der Inhalte geht. Komplette Serienstaffeln werden an einem Stück angeschaut, Filme werden im Store geliehen oder gekauft oder gleich aus der Piratenbucht befreit. Aber wie hoch ist der Anteil der Nutzer, die ihren Medienkonsum selbst bestimmen?

Analyse

Das DE-CIX veröffentlicht ab und zu Charts über den Traffic auf den deutschen Internetknoten. Danach fliessen zu Spitzenzeiten über 2,5 Terabit durch die Leitungen. Interessant an dieser Zahl ist jedoch nicht der Wert selbst, sondern, wann er typischerweise stattfindet: zwischen 19:00 und 22:00 Uhr, zur besten Sendezeit.

Am gleichen Tag (3.11.2013) zur typischen Mittagspause in Deutschland lag der Wert ein Viertel niedriger. Ein solcher Verlauf ist auch in den anderen Charts des DE-CIX zu sehen. Der abendliche Peak ist jedoch nicht in den Zugriffszahlen eines durchschnittlichen deutschen Portals zu sehen. Manche Angebote schaffen es, zum Abend die Spitzenzahlen vom Mittag oder Nachmittag marginal zu übertreffen. Im Normalfall fällt die Kurve nach dem Kaffee-Peak gg. 15-16 Uhr langsam ab um dann spätestens zum Beginn des Hauptfilms stärker abzusacken.

Zur besten (TV-)Sendezeit steigt auch der Internettraffic ohne, dass die deutschen Portale davon etwas abbekommen.

Zur besten (TV-)Sendezeit steigt auch der Internettraffic ohne, dass die deutschen Portale davon etwas abbekommen.

Zur Hochzeit (am 3.11. wurden die Uhren zurückgestellt) um 19:30 fliessen etwa ein Drittel mehr Daten durch die deutschen Netze, die nicht von den großen deutschen Angeboten kommen. Es liegt nahe, die Nutzung von Youtube, Youporn und Serienportalen dafür verantwortlich zu machen. Denn weder Whatsup noch Email oder Facebook können bei intensivster Nutzung signifikante Bandbreite verbrauchen.

Ausgehend von einem Terabit kann man grob schätzen, wie viele Menschen, grade nicht vor dem Fernseher sitzen, sondern sich ein Video im Netz ansehen. Im Durchschnitt dürfte die Übertragungsrate eines Videos bei unter 500 kbit/sec liegen. In diese Schätzung fliesst sowohl die Tatsache ein, dass das Angebot von HD-Videos nach wie vor gering ist (insbesondre bei Serienportalen) und dass immer wieder Pausen entstehen, weil der Nutzer sich ein anderes Video sucht oder die Leitung stockt. Aus dieser Schätzung ergibt sich eine Zahl von etwa 2 Mio gleichzeitigen Streams zu Spitzenzeit.

Verglichen mit der Einschaltquote (Quelle GFK) des Tatorts am 3.11. von über 10 Mio Zuschauern sind 2 Mio Nutzer sicher noch nicht lebensbedrohlich. Insgesamt hat das deutsche Fernsehen an diesem Abend wenig mehr als 30 Mio Menschen erreicht. Über zwei Millionen wenden sich jedoch Abend für Abend vom Fernseher ab und lieber dem Netz zu. Und dabei handelt es sich sicherlich eher um interessante Zielgruppen für die Werbetreibenden.

Written by qrios

November 15th, 2013 at 1:06 pm

Posted in analytics,web