qrios

IT ist kurios!

#TAFTA is the new #ACTA

no comments

Bernhart Schulte (@dozykraut) schreibt unter dem Titel “Um wessen Freiheit geht es beim Freihandel?” über die eben eingeleiteten Verhandlungen zwischen der EU und den Vereinigten Staaten über eine Freihandelszone. Und er motzt/kotzt/rotzt darüber ab. Mit allem Recht, denn allein die letzte Injektion ist schon bemerkenswert:

Kommen wir auf ein anderes Thema. Sie haben es einmal kurz angesprochen. Das Thema Freihandelsabkommen ist, spätestens seit der Sicherheitskonferenz in München, von einer Idee zu einem Projekt gereift.

So führte Klaus Remme im Deutschlandfunk am letzten Sonntag Aussenminister Westerwelle zu dem Thema TAFTA. (Auf einer Sicherheitskonferenz?!) Im weiteren fragt der Journalist: “Warum ist dieses Projekt jenseits des wirtschaftlichen Potentials so wichtig?” Und Westerwelle – ganz Politiker – sagt natürlich erst mal, warum das Projekt DIESSEITS des wirtschaftlichen Potentials so wichtig ist. Aber dann sagt er auch noch:

Es geht darum, setzen wir die Standards in Zukunft oder werden andere die Standards setzen?

“Standard” meint Patent-, Marken, Urheber- und Überhauptrechte. Es meint, jemand produziert am billigsten, ökologischten, whateverigsten irgend etwas standardisiert. Und er hat die Rechte an diesem Standard und /oder kontrolliert die Kontrollgremien für diese Rechte.

Z.B.:

Früher gab es abertausende Papiermühlen in Europa. Jede von ihnen hat Papier produziert und alle Menschen haben nur dieses Papier kaufen können. Es gab kein anderes. Auch heute gibt es kein anderes Papier als solches von Papiermühlen. Nur gibt es heute nur noch drei relevante Papiermühlen in Europa (früher waren es Tausende). In den letzten 10 Jahren wurde mit Hilfe der Standardisierung 12% mehr Papier produziert mit 15% weniger Beschäftigten.

Oder:

Frankreich versucht offensichtlich erfolgreich, Käse aus den Verhandlungen rauszuhalten. Immerhin haben sie mit Lactalis ein Unternehmen, das es gewohnt ist, Lobbyarbeit zu machen. Es sei erwähnt, dass es in Polen – einer Agrarnation mit 40 Mio Einwohnern zum EU-Beitritt – nur knapp 60 Molkereien erlaubt war, Rohmilchkäse zu produzieren (110 weitere standen unter Beobachtung).

Was bleibt den Deutschen? Ist es überhaupt relevant, welche Nischen irgendwer in dem TAFTA-Vertragswerg beziehen kann? Nein. Ob jetzt Schimmel auf Käse wachsen kann, neue Medizin von der Industrie selbst auf Verträglichkeit getestet wird (wie in Amerika) oder in Indien an Kindern getestet wird (wie von den Europäern), ob neuer Genmais seltsamerweise ohne irgendwelches Zutun auf Feldern landet:

Ein Freihandelsabkommen dient großen Unternehmen, führt zu Monokultur und verringert die Diversität. Wer genau will das noch mal?

Angela in der Wildnis: Was meint Vielfalt?

Angela in der Wildnis: Was meint Vielfalt?

(PS: TAFTA ist ACTA? Ja. Auch TAFTA wird nicht umgesetzt werden können. Ebenso, wie ACTA.)

Written by qrios

June 19th, 2013 at 12:15 am

Posted in Uncategorized

#PRISM, Big Data und der Überwachungs-industrielle Komplex

5 Kommentare

Die Aufdeckung der umfassenden Vorratsdatenspeicherung der NSA durch Edward Snowden hat die Öffentlichkeit kalt erwischt und auf einen Schlag sind fast alle Verschwörungstheoretiker rehabilitiert. Interessant an dem gesamten Gegenstand sind mehrere Aspekte, insbesondere, wenn man sich normalerweise mit der Analyse und dem Umgang mit “Big Data” beschäftigt:

“Metadaten”

Im Rahmen von PRISM erfasst die NSA die Verbindungsdaten ohne die Kommunikationsinhalte selbst. Viele Menschen sehen das Programm deswegen erstaunlich entspannt. Dabei übersehen sie jedoch, dass in einem Netzwerk die Verknüpfungen selbst, die eigentlichen Inhaltsträger sind. Aus dem Verbindungsprofil selbst lässt sich ein nahezu vollständiges Persönlichkeitsprofil erstellen. Tagesaktivität, wiederkehrende Verhaltensmuster, Aufmerksamkeitsspanne, Gedächtnisleistung, nahezu alle Aspekte, die einen Menschen von einem anderen unterscheiden und damit seine Identität darstellen, können aus den reinen Verbindungsdaten abgeleitet werden.

Wissenschaft und Wirtschaft im PRISM-Kontext…

Written by qrios

June 12th, 2013 at 2:46 pm

Online-Werbung: die ultimative Gelddruckmaschine

2 Kommentare

Fefe hatte neulich angeregt, mal nachzurechnen, wie viel Strom eigentlich die ganzen Tracker und Ads bei den Nutzern verbrauchen. Ich hatte daraufhin ein wenig hin- und hergerechnet, bin aber zu dem Schluss gekommen, dass man das nicht wirklich valide bestimmen kann. Sowohl die Menge der Daten als auch die Prozessorlast der Banner und das Verhalten der Betriebssysteme und Rechner unterliegen so großen Schwankungen, dass sich das Ergebnis in einem Korridor von mehreren Dimensionen bewegen würde. Für Stromerzeuger und Publisher würde sich eine Zusammenarbeit aber dennoch lohnen.

Onlinewerbung billiger als Strom

Der derzeitige Tausenderkontaktpreis für Online-Werbung liegt irgendwo in der Nähe von einem Euro. Je mehr Kontakte man bucht, desto billiger wird er. Je spezifischer man die Zielgruppe auswählt, desto höher wird er. Nimmt man diese Zahl und schaut sich an, wie lange ein Nutzer auf einer Seite bleibt, kann man errechnen, wie lange ein Banner für diese tausend Nutzer auf den Rechnern der Benutzer läuft. Bei den größten deutschen Nachrichten-Sites liegt die durchschnittliche Besuchsdauer zwischen 4 (Focus) und über 9 Minuten (Bild). Vorsichtig kalkuliert liegt das Mittel bei 6 Minuten.

Für 6000 Minuten (100h) Rechenzeit müsste also ein Energieversorger nur einen Euro investieren. Würden die Nutzerrechner während dieser 100 Stunden nichts anderes tun können als sich mit der Werbung beschäftigen, dann würde bei einem typischen Desktoprechner mit rund 300 Watt Verbrauch in 100 Stunden 30kWh anfallen. Der Fairness halber rechnen wir lieber mit einem Rechenaufwand von 30%. Das dürfte in vielen Fällen von Flash-Bannern niedrig kalkuliert sein. Insbesondere vor dem Hintergrund, dass auf einer Seite meistens mehrere Anzeigen sind und auch Seiten in Hintergrundtabs fast immer weiterlaufen und CPU-Zeit verbrauchen.

Allerdings muss man berücksichtigen, dass ein Teil der Nutzer nicht mit Desktoprechnern unterwegs ist. Der Einfachheit halber kann man von 50% der Nutzer mit einem typischen Strombedarf von rund 40W ausgehen. Diese verfügen jedoch über ein besseres Powermanagement. Die Leistungsaufnahme fällt so bei rechenintensiven Anwendungen stärker ins Gewicht. Im Durchschnitt scheint 60% für solche Werbung gerechtfertigt zu sein.

Ein kleiner Test mit einem Firefox ohne AdBlocker zeigt solche Auswirkungen recht deutlich. Ein MacBook Air zeigt bei 63% Akku-Ladung, dass er noch weitere 3h 10 min. ohne Strom auskommt. Eine Minute später mit der offenen Spiegel-Seite mit einer umfassenden Mediamarkt-Werbung sind es plötzlich nur noch 1h 40min.

Die Desktoprechner verbrauchen also 5kWh und die Laptops 1,2kWh, macht zusammen 6,2kWh. Die Smartphones lassen wir bei der Rechnung mal raus, da sie einerseits weniger genutzt werden und darüber hinaus noch andere Werbung angezeigt bekommen und über besseres Powermanagement verfügen.

1,55 € Stromkosten für 1,00 € Werbung

Bei einem Preis von 0,25 € pro Kilowattstunde kostet es die Nutzer also 1,55 € die Werbung zu laden. Dabei hat der Stromverbraucher respektive der Werbetreibende nur einen Euro ausgegeben. Er könnte mit einer geschickten Kalkulation dafür sorgen, dass er nur zu Zeiten wirbt in denen die Werbung billiger ist und das Stromangebot grade groß ist.

Sollten sie also in nächster Zeit vermehrt nachts auf ihrer Lokalzeitungsseite wie der HAZ Werbung von enercity sehen, dann handelt es sich sicher um positive Energie. Deren Seite läuft ja auch mit Flash und verbraucht schon mal 1/5 der Prozessorlast.

Written by qrios

May 17th, 2013 at 6:16 pm

Posted in ironie

Lobo lobotomisiert die Netzgemeinde mit Numerolobie

2 Kommentare

Was dem Congressbesucher die Fnord Show, ist dem re:publica-Gast Sascha Lobos Vortrag. Eine großartige Bühne für das deutsche Internetgesicht bzw. die Internetfrisur. Doch diesmal gab es statt Ironie und Getrolle scheinbar Ernsthaftigkeit.

Lobo forderte auf, zu Wut, Pathos und “Machen”. Letzteres war Aufforderung Nummer eins von zwei Aufforderungen. Die Forderung nach Wut und Pathos war Nummer zwei. Nummer zwei kam jedoch zuerst. Gleich nach der Ankündigung, dass der Titel der Präsentation ausnahmsweise nicht am Beginn steht, sondern erst am Ende verraten wird.

Diese drei Forderungen nach Wut, Pathos und Machen, die in zwei Regeln verpackt waren, stellte Lobo gleich hinter einen Dreiklang. Dieser Dreiklang, der zukünftig nicht mehr isoliert gedacht werden dürfe, setze sich aus Freiheit, Offenheit und Sicherheit zusammen. Dieser Dreiklang, den wir, die Netzgemeinde, zukünftig immer denken sollen, sei die Forderung, die wir an die Politik stellen müssten.

Um diesen Dreiklang zu erreichen, müssten wir die zwei Regeln (Wut, Pathos und Machen) beherzigen. Denn dann würden wir auch eine Zukunft bekommen, die wir haben möchten: Augmented Reality, Quantified Self und Supersocial Media.

Verwirrt?

Neben der Tatsache, dass Lobo offensichtlich versucht, die Aufnahmefähigkeit von Zahlenfetischisten zu blockieren, fällt vor allem auf: Lobo platziert in der Forderung nach einem – auch zukünftig – offenen Netz nun auch die scheinbar notwendige “Sicherheit”.

Dieser Dreiklang – den wir ja in Zukunft immer denken sollen – ist vor allem erst mal nur ein Zweiklang. Denn Freiheit eines Netzes und dessen Offenheit dürften Synonyme sein. Damit bleibt also nur noch der “Dreiklang” aus Offenheit und Sicherheit.

An keiner Stelle erklärt Lobo jedoch, was diese Forderung nach einem “sicheren Netz” meint. Sicherheit vor Phishing, Identitätsdiebstahl, Kinderpornographie? Sicherheit für wen? Vor Politikern, vor Drosseln, Amseln, Fink und Star? Sicherheit vor Politikern, die einen rechtsfreien Raum fordern oder solchen, die ihn menetekeln?

Lobo hat sich mit diesem Vortrag vor allem und vor allem anderen als Internetminister einer zukünftigen Kanzlerin Merkel in einer zukünftigen großen Koalition empfohlen. Als SPD-Protagonist pflanzt er einen Dreiklang aus zwei Ideen in die Köpfe der Journalisten, die zukünftig über die Netzgemeinde berichten. Zwei Ideen, die sich mit großer Sicherheit ausschliessen.

Insofern war es vielleicht doch weniger scheinbare als anscheinende Ernsthaftigkeit.

ps: Das Internetlobo(#)” ist mit Sicherheit eine blöde Idee. Ein Kopf hinter einem Gitter? reclaim.fm, das WordPress-Plugin für das Wiedereinfangen der eigenen Microblogging-Posts, werde ich mir auf jeden Fall ansehen und finde es tatsächlich eine großartige Idee.

 

Written by qrios

May 8th, 2013 at 2:50 am

Posted in netzpolitik

Apples Problem ist die Kundenzufriedenheit und das ist auch gut so.

no comments

Die letzten Apple-Zahlen haben offensichtlich wieder einmal Analysten verunsichert. Zwar hat Apple deren Erwartungen übertroffen, aber nur was den Ertrag angeht. Bauchschmerzen macht ihnen die Tatsache, dass Apple so viele alte Geräte verkauft. Mit dem iPhone 4 und 4S hat Apple zwei Geräte im Regal, die auch nach zwei und drei Jahren noch in erheblichen Stückzahlen verkauft werden. Aus Sicht der Analysten ist das ein unhaltbarer Zustand. Denn: Apple ist eine starke Marke und solche Marken sollten in einer Branche wie der von Apple Verbrauchsgüter verkaufen und den Markt künstlich verknappen, um den Preis künstlich hochzuhalten.

Apple verhält sich an dieser Stelle jedoch anders als alle Wettbewerber. Für diese ist ein verkauftes Gerät ein Ärgernis. Es gibt keine Updates, keine Reparatursets und kaum Garantieleistungen. Für HTC, Samsung und ZTE sind Bestandskunden ein Problem. Sie verdienen ihr Geld nicht mit Wiederholungstätern sondern mit Neukunden, die sich enttäuscht von Konkurrenzerzeugnissen abwenden. Vom Regen in die Traufe.

Mein iPhone 4S würde ich erst ersetzen, wenn es das gleiche Modell mit LTE gäbe oder vielleicht mit erheblich längerer Batterielaufzeit. Da beides sicher nicht passiert, werde ich das Gerät wohl so lange benutzen, wie es funktioniert und/oder die Netzbetreiber 3G abschalten.

 

Written by qrios

April 28th, 2013 at 12:19 am

Posted in gadgets

Wie viele Nutzerdaten fliessen eigentlich so im Durchschnitt?

4 Kommentare

Ralf Bendrath bat seine Follower gestern zu später Stunde auf twitter um Hilfe:

Followerpower: How many Bytes of personal data does the average internet user create per day? Good proxy measures also welcome. #EUdataP

Und wie man sehen kann, hatte ich schnell eine Überschlagsrechnung parat. Konnte aber die Folgefrage nicht wirklich beantworten. Wie ermittelt man halbwegs valide, wie viele Seiten ein Nutzer durchschnittlich aufruft? Wirklich zitierbare Zahlen dürften bei einem solchen Thema nur qualitative Umfragen liefern. Die haben dann zwar wenig mit der Realität zu tun aber dahinter steckt wenigstens (hoffentlich) jemand, der sich damit auskennt auf den man mit dem Finger zeigen kann.

Als erste Quelle für quantitative Antworten empfiehlt sich alexa.com. Sie ermitteln die Reichweite (“Wie groß ist der Anteil an allen Nutzern, die eine Site erreicht?”) mit Hilfe von Browser-AddOns. Dieses Verfahren ist jedoch durch eine zunehmende Fragmentierung des Browsermarktes und durch Privacy-PlugIns erheblich geschwächt. Die ermittelten Zahlen sind nur noch als Vergleichswert zu verwenden und nicht absolut.

Eine weitere Quelle sind die Zahlen des Verbandes der deutschen Zeitschriftenverlage, besser bekannt als IVW. Unter pz-online.de findet man (sehr gut versteckt) eine Tabelle mit den Zahlen für Visits und Unique Visitors für fast alle deutschen Online-Angebote die sich über Werbung finanzieren und noch einige mehr. Auch die IVW-Zahlen sind eigentlich nur als Vergleichswerte verwendbar, da die Messmethode, wie bei allen Tracking-Tools überhaupt, verschiedene Fehlerquellen hat (siehe: Fehlerhaftes WebAnalytics: Big Data oder eher Big Fraud?).

Basis für eine Berechnung sind natürlich nur die tatsächlichen Online-Nutzer in Deutschland. Aktiv dürften das derzeit ca. 50 Mio Nutzer sein. In den Zahlen der IVW taucht allerdings jeder Nutzer mit mehreren Geräten auch mehrfach auf. Neben dem Heimrechner haben aber viele auch Zugang auf das Netz über einen Arbeitsplatzrechner. Hinzu kommen Handys und Tablets.

Für die Verteilung solcher Geräte gibt es je nach Auftraggeber sehr unterschiedliche Zahlen. Eine gute Quelle für einen groben Überblick ist Statista. Die meisten Reports sind dort jedoch nur mit einem Premiumaccount möglich.

Aus meiner beruflichen Praxis bei der Analyse von großen Sites, wie mcdonalds.de und verschiedenen großen Zeitungs-Websites gibt es einen ersten Anhaltspunkt für die Frage, wie viele Nutzer über einen Arbeitsplatzrechner surfen. Bei allen Sites zeigt sich ein sehr deutliches Bild in Deutschland: während der Mittagspause wird signifikant weniger gesurft. Im Schnitt sind zu dieser Zeit ein drittel weniger Aufrufe zu bemerken. Bereinigt man die Kurve während der typischen Arbeitszeiten um dieses Drittel bleiben etwa 3/4 der Aufrufe und Nutzer übrig.

Ebenfalls auf Erfahrungswerte muss man bei der Nutzung durch mobile Geräte zurückgreifen. Hier wird deutlich, dass bestimmte Typen von Sites signifikant seltener Aufgerufen werden. Stärker als normalerweise sind News-Sites vertreten. Seltener findet man Firmen-, Shopping- und Special-Interest-Sites. Ausgenommen hier sind Blogs, die durch Social Media promoted werden.

Pi mal Daumen dürften maximal 10% aller Visits von mobilen Geräten kommen. Noch mal ~3% dürften durch Tablets von Nutzern kommen, die auch einen Computer und ein Handy nutzen.

40% der Aufrufe von Zweit-, Dritt- und Viertgeräten

Insgesamt dürften von dem im Februar von der IVW gemeldeten mehr als 1,3 Mrd. Visits in Deutschland rund 60% also ~800 Mio. von echten Individuen sein. Der Rest entsteht durch die mehrfache Zählung der Nutzung auf anderen Geräten. Bezogen auf die rund 50 Mio. Nutzern in Deutschland, die mindestens einmal im Monat online sind, ergeben sich monatlich rund 16 Aufrufe einer IVW-Site durch einen durchschnittlichen Aufruf. Zählt man Arbeitsplatz, Handy und Tablet mit dazu sind es ~26 Aufrufe monatlich.

Bedingt durch die Tatsache, dass nur ein Teil der aufgerufenen Sites tatsächlich bei IVW oder nicht alle (z.B. Unity Internet Media mit web.de und gmx.de) die Zahlen zur Veröffentlichung freigeben, muss man möglichst genau schätzen, wie hoch der Anteil dieser Sites an dem Gesamtvolumen ist.

Auf der Alexa-Liste der deutschen Top-500 liegt Bild.de auf Platz 14, Spiegel-Online auf Platz 18. Platz 1 bis 6 belegen Google (com, de), facebook, Youtube, Amazon und eBay. Hinter diesen Spitzenreitern folgt als nächstes der Block der deutschen Service-Anbieter mit Web.de, GMX und T-Online. Zwischendurch sind unter den Top 20 mit UIMServ und Conduit zwei Vermarkter und mit Gutefrage.de und Wikipedia noch häufig verwendete Nachschlagwerke.

Ginge man von einer 90/10-Regel aus, würden Google und facebook in Deutschland allein bereits 90% der Visits auf sich vereinigen, die allein in dieser Top-20-Liste landen. An Hand der verfügbaren Zahlen von Sites, die bei IVW gelistet sind und zu den übrigen 18 im Alexa-Ranking vorhandenen lässt sich jetzt grob abschätzen, wie groß die verbleibenden 10% sind.

Ob die 90/10-Regel hier anwendbar ist, kann man beispielsweise an den Zahlen einer Nielsen-Untersuchung über die Reichweite von Google, facebook und Youtube verifizieren. Danach erreicht Google eine Reichweite von 85%, fb über 56% und Youtube knapp 50%. Mit Überschneidungen (85% der fb-Nutzer nutzen auch Google, d.h. zu den 85% kommen nochmals ~8%, etc.) ergeben sich daraus sogar über 90%.  

 

In der Alexa-Liste ist die Reihenfolge 14. Bild, 18. Spiegel, 19. Chip und 20. Gutefrage. Bei den IVW-Zahlen sind Chip und Gutefrage zwar vertauscht aber dennoch sehr nah beieinander. Der Unterschied dürfte an der Bündlung weiterer Sites durch Gutefrage an den IVW-Account liegen, welche nicht bei Alexa erfasst werden.

So kommt man zu folgender Rechnung: 576.617.172 Visits (4 Sites IVW) / 4 (∅ 1 Site in Alexa) * 18 (90% #Sites Top-20 Alexa) *  10 (10% Anteil Top-20 Alexa) = ~25 Mrd. Visits monatlich in Deutschland.

Demnach würde nur jeder 20 Visit in Deutschland auf einer Site landen, die von IVW erfasst wird (respektive diese veröffentlicht). Das dürfte aber ein plausibles Ergebnis sein, wenn man sich ansieht, wie oft Google, Youtube und facebook besucht werden und berücksichtigt, dass United Internet nicht reported aber selbst angibt, dass laut Agof (Arbeitsgemeinschaft Online Forschung) eine tägliche Reichweite von über 13% hat (jeder 7,5. deutsche Internetnutzer ruft täglich Web.de oder GMX auf).

~17 Visits pro Tag und pro Nutzer

Daraus ergeben sich bei 50 Mio regelmäßigen Internetnutzern in Deutschland pro Monat etwa 520 Aufrufe von WebSites. Pro Tag sind das durchschnittlich 17 Visits pro Nutzer. Allein schon der Aufruf des Browser und das öffnen eines neuen Browserfensters führt jedoch in den meisten Fällen schon zu einem gezählten Besuch, häufig bei Google oder bei T-Online.

Wichtig hierbei ist es, zu beachten, dass es sich dabei um Visits handelt. D.h. wenn der Nutzer nach einer Pause von 30 Minuten auf einer Seite wieder aktiv wird, wird ein neuer Visit gezählt. Insbesondere in Zeiten von dutzenden geöffneten Tabs genügt es in vielen Fällen einen früher geöffneten Tab nochmals zu aktivieren, damit ein neuer Visit gezählt wird.

Da laut der oben genannten Überschlagsrechnung pro Visit rund 7 KByte Daten als Nutzerprofil übertragen werden, kommt man nach dieser Rechnung auf monatlich etwa 3,6 MByte gesendete Profilingdaten pro deutschem Internetnutzer. Meistens übrigens  an amerikanische Unternehmen.

(Disclaimer: Insbesondere die Schätzung des Volumens der Requests während eines Visits ist extrem schwierig. Manche Sites laden mehrere hundert Ressourcen von dutzenden verschiedenen Hosts. Dabei werden mitunter mehrere Redirects auf verschiedene Domains durchgeführt. Ralf Bendrath schlägt daher auch sinnvoller weise vor, eine Untersuchung mit einem Proxy durchzuführen, da nur so valide Daten erfasst werden könnten.)

Written by qrios

April 4th, 2013 at 4:36 pm

Posted in netzpolitik,privacy

Google Reader ist tot. Es lebe das Meshing!

no comments

Die Hackernews sind derzeit eine der besten Quellen für interessante Nachrichten aus dem Bereich Computer, Programmiersprachen und dem ganzen Rest.

Die Mobilized Hackernews

Google Reader ist tot, das Leistungsschutzrecht ist da, die User sind nur noch auf facebook und twitter, und URLs werden immer geshorted, um dann nach wenigen Wochen in Vergessenheit zu geraten, weil der URL-Shortener schon wieder seinen Dienst eingestellt hat. Was für eine Welt! Es gibt viel zu wenig meta und vom “semantischen Web” sind wir heute noch weiter entfernt als vor der Erfindung von RTFD und Hypercard.

Also eine gute Zeit, um selbst aktiv zu werden. Mit ein wenige XSLT und uralt HTML/JS kann man noch heute etwas bauen, was auch nur kurze Zeit funktioniert, dafür aber die Informationsbedürfnisse auch wirklich erfüllt.

Für die Developer unter den Lesern gibt es nun die mobile Version der Hackernews aka Ycombinator. Funktioniert wirklich nur auf dem mobilen Gerät. Lädt alle 10 Minuten die neuesten Einträge nach und stellt sie in typischer iOS-Webview dar.


Eher "magazinig" ist die Aurfbereitung von arXiv.org

Eher “magazinig” ist die Aufbereitung von arXiv.org

Für die eher wissenschaftlich orientierten Leser gibt es die täglichen Updates aller eingereichten Papers bei arXiv. In der Mehrheit kommen sie aus den Bereichen Physik, Mathematik, Computerwissenschaften und KI. Als kleines AdOn kann man hier noch die Artikel bewerten.

Zum Einsatz kommt bei beiden Seiten XSLT 2.0 von saxon. Für den Einsatz auf einem Server ist es als minimales (minimalstes!) Java-Servlet umgesetzt. Per  ”d:htmlparse” werden die HTML-Seiten in valides XML umgewandelt um von da an als wohlgeformt verwendet werden zu können. Beide Templates sind jeweils unter einhundert Zeilen groß und die Transformation ist selbst bei Last ausreichend schnell.

Früher oder später wird es beide Quellen und sicher noch weitere als aufbereitete RSS-Feeds geben. Und die Frage, warum man das im Jahr 2013 noch selbst machen muss ist einfach zu beantworten: weil es die Anbieter nicht tun.

Written by qrios

April 3rd, 2013 at 2:05 am

Posted in code

Apples Pläne mit dem Ex-Adobe-CTO Kevin Lynch

2 Kommentare

Der Schock war groß bei den Apple-Kennern. Der Adobe-Manager, der am lautesten Apples Politik in Sachen Flash kritisiert und für falsch erklärt hat soll in Zukunft die technische Zukunft Apples mitbestimmen? Das kann doch nur ein schlechter Scherz sein. Vielleicht noch ein strategischer Zug, um Flash den endgültigen Todesstoß zu geben. Als ob es das noch bräuchte!

Worauf deutet die Personalie wirklich hin?

Apple hat wie immer wenig bis gar nichts zu den Motiven gesagt. Schaut man sich die bekannten Fakten an, ergeben sich jedoch neue Perspektiven.

Kevin Lynch (hier seine Vita) ist ein eingefleischter Mac-Fan. In seiner Vita finden sich etliche Berührungspunkte mit Apples Geschichte. So war er unter anderem an der Entwicklung und Portierung von FrameMaker für den Mac beteiligt. Bei Macromedia hatte er mit Phil Schiller zusammengearbeitet. Als Adobe-CTO war er maßgeblich verantwortlich für die Migration des Businessmodells von der Lizenz zur Cloud. Gerade die Cloud-Dienste sind bei Apple eine schwelende Wunde.

Die Hauptaufgabe von Lynch bestand jedoch darin, die Virtuelle Maschine namens Flash auf alle möglichen Geräte, CPUs und Betriebssysteme zu bringen. Adobe versprach sich von einer möglichst flächendeckenden Verbreitung sprudelnde Einnahmequellen in der Zukunft zum Beispiel von Lizenzgebühren aus dem Rechtemanagement von Filmen im Netz. Laut eigener Aussage hätte er allerdings gerne schon früher Flash durch HTML ersetzt, meinte jedoch, dass dies nicht gelänge.

Kevin Lynch wird zukünftig direkt an Bob Mansfield reporten. Dieser ist Chef einer nicht näher spezifizierten Abteilung für zukünftige Technologien. Und Bob Mansfield ist Apples Mann für die Hardware.

Könnte Apple eine JavaScript-VM-CPU planen?

Als SoC liesse sich ein JavaScript-Core platz- und energiesparend umsetzen.
/cc by @in_aha

Apple hat in den letzten Jahren mehrere CPU-Schmieden eingekauft. Inzwischen entwickeln sie ihre eigenen ARM-Layouts als SoC für iPhone und iPad. Laut etlicher Quellen gibt es schon länger Referenzdesigns für ein MacBook Air mit einem ARM-Prozessor.

Dieses Know How über Prozessor-Design und Produktion zusammen mit dem Wissen von Lynch über Virtuelle Maschinen für Flash würde es Apple ermöglichen einen neuen Co-Prozessor zu entwickeln: eine JavaScript-CPU.

Der Computer eines Normalanwenders verbringt heute einen großen Teil seiner Zeit mit dem Verarbeiten von JavaScript. Zukünftig wird dieser Anteil noch höher werden. Dies allein schon dadurch, dass eher mehr als weniger verschiedene Plattformen bei Smartphones, Tablets, Fernsehern und Computern zu erwarten sind.

Die Versuche, JavaScript zu beschleunigen sind mit der aktuellen Entwicklung von asm.js jetzt an ihr natürliches Ende gelangt. Das gilt allerdings nur, wenn man sich die Möglichkeiten von Software ansieht. Der nächste logische Schritt ist eine Hardwareunterstützung der VM.

JavaScript ist auf Grund seiner extrem einfachen Struktur hervorragend geeignet, in Hardware gegossen zu werden. Wenige Typen, eine simple Statemaschine, Single Threads und Sandboxing sind ideale Voraussetzungen für einen kleinen Core mit Anbindung an den Haupt- und Grafikspeicher.

Sprachspezifische CPUs gab und gibt es immer wieder. Nicht zuletzt lässt sich ein solches Projekt sogar mit herkömmlicher FPGA-Technik umsetzen. Für Java gab es beispielsweise Ansätze von Sun selbst oder die Open-Source-Variante JOP, ein optimiertes Java auf einem FPGA-Chip.

Chancen am Markt

Für Apple hätte ein solcher Schritt viel Charme. Auf drei wichtigen Geräteklassen (iPhone, iPad und ARM-MacBook) würde JavaScript ohne Anpassung durch die Entwickler plötzlich Dimensionen schneller laufen. Und zwar auch erheblich schneller als auf vergleichbaren Geräten der Android und Chromebook-Konkurrenz. App-Entwickler würden noch häufiger lieber zu Webkit und JavaScript greifen als zu nativer Programmierung.

Viel wichtiger als die Performance wäre jedoch der Gewinn bei der Batterielaufzeit der Geräte. Zwei Tage bei einem iPhone und 12h bei einem MacBook wären durchaus im Rahmen des Möglichen.

Damit hätte Apple zwei Verkaufsargumente, die in einem engen Markt wichtig sind. Zumal die Konkurrenz Jahre bräuchte, um auf den gleichen Stand zu kommen, wenn sie es denn – ob restriktiver Patentauslegung – überhaupt könnte.

Written by qrios

March 31st, 2013 at 8:20 pm

Posted in code,gadgets

Fehlerhaftes WebAnalytics: Big Data oder eher Big Fraud?

1 Kommentar

Die Daten von Tracking- und Targeting-Tools sind schon immer falsch. Selbst bei optimaler Implementierung in einer vollkommen kontrollierten Umgebung weichen sie im niederen Prozentbereich von der Realität ab. Dafür sind Effekte im Netz ebenso verantwortlich wie solche auf dem Nutzercomputer. 

In einer heterogenen Umgebung, wie man sie heute mit dutzenden Browsern mit verschiedensten Erweiterungen auf dutzenden Betriebssystemen findet, überschreiten die Abweichungen eine statistisch akzeptable Fehlertoleranzen erheblich. Sehr viele Zahlen dürften eigentlich nicht mehr kommuniziert werden.

Welche Nutzerdaten sind fehlerhaft und warum?

Schaut man durch die Liste der Features von Tracking-Tools wie Omniture SiteCatalyst, Google Analytics, Webtrekk oder Comscore, basieren viele der Angaben auf der Frage, ob die Nutzer über mehrere Sessions hinweg identifizierbar sind. Die Verteilung der technischen Voraussetzungen wie Browserversionen oder Bildschirmgrößen ist eigentlich nur sinnvoll, wenn man User nicht bei jeder neuen Sitzungen jeweils neu zählt. Noch wichtiger ist diese Fähigkeit, wenn man wissen möchte, wie viele Nutzer die Site regelmäßig besuchen, die sogenannten Unique Visitors. Auch die Messungen der Reichweite im Social Media sind davon abhängig.

Rund 2/3 aller Funktionen einer typischen WebAnalytics-Lösung basieren auf der Wiedererkennung der Nutzer. Im Online-Werbe-Business fließt ohne die (Wieder)Erkennung der Nutzer kein Cent.

Als einzige (halbwegs) akzeptierte und praktikable Lösung für die Wiedererkennung eines Nutzers existieren derzeit Cookies. Je nach Anbieter und Vertrag des Publishers mit dem Anbieter werden diese als First- oder Third-Party-Cookie gespeichert.

Read the rest of this entry »

Written by qrios

March 30th, 2013 at 4:59 pm

Posted in analytics

Das ganze Drama der Innovationsförderung (an einem Beispiel)

6 Kommentare

Angela Merkel war auf der CeBit und hatte dort ein besonderes Auge auf StartUps. Anschliessend schaut sie in Berlin noch in der Kulturbrauerei unter anderem bei Wooga vorbei. Nach einem neuerlichen – inzwischen mehr als dreijährigen – Gründungsboom insbesondere in Berlin hat sowohl die Bundes- als auch die Landespolitik nicht nur hier Neugründungen wieder als Thema der Wirtschaftspolitik entdeckt.

Man muss leider vermuten, dass solches Engagement bestenfalls wirkungsneutral ist. Wahrscheinlich ist es jedoch hinderlich. Warum?

Kaum ein Politiker hat bisher eine eigene Firma gegründet. Daher ist ihnen überhaupt nicht bewusst, welche Probleme einem dabei über den Weg laufen. So kann man beispielsweise so gut wie keine Verträge (Telekommunikation, Büros, Versicherungen) machen, wenn man noch keinen Handelsregistereintrag hat oder noch in Gründung ist und mitunter noch eine gewisse Frist nach Gründung (so mehrfach geschehen). Das führt dazu, dass man solche Verträge dann als Privatperson machen muss, um überhaupt mal loszulegen. Solche privaten Verträge führen in der Folge dann jedoch zu erheblichen Dissonanzen mit und Streitigkeiten zwischen verschiedenen Finanzämtern (so mehrfach geschehen). Sollte das Ordnungsamt Wind davon bekommen, dass man einen Teil der Vorbereitungen für eine in Gründung befindliche Firma in den privaten Räumen erledigt kann es auch schon mal eine Verwarnung wg. Wettbewerbsvergehen geben (so geschehen).

Ein Beispiel für verfehlte Förderungspolitik: Geolapps, ein Wettbewerb

Written by qrios

March 11th, 2013 at 1:16 pm

Posted in netzpolitik