Mit Comixology-Übernahme wird Amazon Marktführer bei digitalen Comics

Amazon hat die Übernahme von Comixology, Marktplatz und Technikanbieter für über 75 Comicverlage, bekanntgegeben.

2014 04 10 um 23 37 31

Ich habe letzte Nacht auf Exciting Commerce die Lage analysiert. Exciting Commerce: Comixology: Amazon übernimmt führenden App-Anbieter für Comics:

Die Comixology-App ist dank appübergreifender Accounts mit den dedizierten Verlags-Apps verbunden: Einmal in einer App gekauft, kann der Comic auch in der anderen App gelesen werden.

Diese Tatsache und die Technologie von Comixology, die Comics an das digitale Medium angepasst panelweise anzeigen kann, machen Comixology zu einem unverzichtbaren Partner für Verlage, die digital Comics anbieten.

Alle großen Comicverlage setzen auf Comixology.

Warum sie das machen, kann man unter anderem an Marvels zusätzlicher Eigenentwicklung „Marvel Unlimited“ sehen, das zwar innovativ beim Geschäftsmodell ist -es setzt auf ein Abomodell- aber als App technisch hoffnungslos unterlegen ist.

Das Spannende an Comixology ist, wie sie sich, ohne Rechteinhaber zu sein, als starken Player am Markt etablieren konnten. Ich habe Comixology als Fallstudie in einem meiner Kapitel im 2012 bei Springer Vieweg erschienen Buch “Erfolgreich publizieren im Zeitalter des E-Books“* genutzt, um zum einen über die erfolgreiche Etablierung von Plattformen zu sprechen und zum anderen, was man im E-Book-Sektor richtig machen kann und wo es auch für Comixology noch Ausbaupotential gibt.

Für Amazon ist Comixology natürlich ein perfekter Baustein:

Comixology ist digitale Comics. Digitale Comics sind Comixology. Mit der Übernahme von Comixology hat Amazon einen weiteren erfolgreichen Anbieter digitaler Inhalte übernommen und in einer Nische aus einem kleinen Herausforderer einen weiteren Bestandteil von Amazon gemacht, gegen den es schwer wird anzukommen.

Amazon ist mit einem Schlag zum Marktführer im digitalen Comicsektor geworden. Comixology passt hervorragend in die Digitalmedien-Strategie von Amazon, das von Kindle über Kindle Worlds bis Fire TV alle denkbaren Bereiche abdecken will.

Die Frage, die sich nun immer dringender stellt, lautet: Wer kann Amazon noch aufhalten, wer kann ihnen etwas entgegen setzen?

Recht offensichtlich übernimmt Amazon nun einfach alle unabhängigen Unternehmen, die in Nischen und Teilmärkten stark sind. Es macht sogar den Eindruck, dass Amazon relativ selten auf Bieterwettkämpfe zu stoßen scheint. Gab es andere Interessenten an Comixology? Gab es andere Interessenten an Goodreads?

Nach Goodreads & Comixology könnte man überspitzt mit Blick auf die Buchbranche auch fragen: Sollte der Countdown zur Wattpad-Übernahme durch Amazon mit 5 beginnen oder schon mit 3?

Es gibt natürlich ein Unternehmen, das gut positioniert wäre, Amazons Allesübernahmestrategie etwas entgegenzusetzen. Ein Onlinehandelsriese, der auch auf dem rasanten Marktwachstum reiten und die eigene Kriegskasse zum Auf- und Ausbau der eigenen Zukunft nutzen könnte. Ebay will nur nicht relevant sein.

Von allen Digitalkonzernen von Facebook über Amazon bis Google ist Ebay der einzige, der den Schuss nicht gehört hat.

Zum Vorteil von Amazon.

-

*Affiliate-Link

Mobile Apps sind populär, ‘zerstören’ aber nicht das Web und dessen Bedeutung

Chris Dixon, VC bei Andreessen Horowitz, hat in einem Artikel über die mobile Internetnutzung geschrieben. Mobil, also auf Smartphones und Tablets, wird das Internet vornehmlich über Apps genutzt. Dixon verbindet damit das Ende des Webs.

Auf dem Desktop sind Web und Internet für Endnutzer mehr oder weniger synonym, weil das Web das Internet war. Dass das nicht das gleiche ist, war lange für die meisten Betrachtungen relativ egal, beziehungsweise nur wenigen wichtig. Mobil ändert sich das nun. Mobile apps arbeiten über das / mit dem internet, nicht aber zwingend mit dem Web (es sei denn sie haben Webview, dazu gleich mehr).

Dixon argumentiert in seinem Artikel, dass der Aufstieg der Apps das Ende des (freien) Webs bedeutende würde:

The likely end state is the web becomes a niche product used for things like 1) trying a service before you download the app, 2) consuming long tail content (e.g. link to a niche blog from Twitter or Facebook feed).

Tatsächlich ist es ein bisschen komplexer. Viele Apps haben einen eingebauten Browser, Webview. Das Web bleibt auch mit dem Aufstieg der nativen Apps wichtig. Es ist und bleibt die ultimative Plattform, mit der man auf wirklich allen Hardware-/OS-Plattformen erreichbar ist. Ausnahmslos immer.

Mit Appstores ist nun ‚lediglich‘ ein endlich eine Verteilungsform gefunden, die Verbreitung und Nutzung lokal installierter Programme für viele Menschen wieder attraktiv macht. Windows hatte genau das für private Nutzer komplett ruiniert.

Die Arten wie Menschen mit Internetdiensten interagieren sind nun also reichhaltiger geworden. Jetzt nicht mehr nur über den Browser sondern auch über Apps, die auf alle Vorzüge der Smartphones zurückgreifen können.

Das Web bleibt aber weiter attraktiv.

Ben Thompson hat in einem Gastbeitrag auf dem Blog des WordPress-Gründers Matt Mullweg dazu geschrieben und das Web treffend mit Wasser, das jede Lücke füllt, verglichen:

There is no question that apps are here to stay, and are a superior interaction model for some uses. But the web is like water: it fills in all the gaps between things like gaming and social with exactly what any one particular user wants. And while we all might have a use for Facebook – simply because everyone is there – we all have different things that interest us when it comes to reading.

That’s why very few of us devote all of our reading time to a single general interest newspaper these days, and that’s why we at WordPress.com have no intention of pushing anyone to any one particular platform or app. Instead our focus is on enabling and empowering individuals to create new content that is at home in the mobile browser, the WordPress.com app, Facebook or Twitter webviews, or any other channel that makes sense for the reader. Let the water flow to exactly where it’s needed! That’s the power of the web, and now that a computer is with us in so many more places, we need that flexibility more than ever.

John Gruber macht es an einigen Beispielen deutlich:

When I’m using Tweetbot, for example, much of my time in the app is spent reading web pages rendered in a web browser. Surely that’s true of mobile Facebook users, as well. What should that count as, “app” or “web”?

I publish a website, but tens of thousands of my most loyal readers consume it using RSS apps. What should they count as, “app” or “web”?

I say: who cares? It’s all the web.

Man sollte außerdem, wenn man über die Kontrolle, die Apple und Google in ihren Appstores ausüben können, nicht die Konkurrenz zwischen den Plattformen vergessen. Diese Konkurrenzsituation macht den ewig irreführenden AOL-Vergleich hinfällig:

Yes, Apple and Google (and Amazon, and Microsoft) control their respective app stores. But the difference from Dixon’s AOL analogy is that they don’t control the internet — and they don’t control each other. Apple doesn’t want cool new apps launching Android-only, and it surely bothers Google that so many cool new apps launch iOS-first. Apple’s stance on Bitcoin hasn’t exactly kept Bitcoin from growing explosively. App Stores are walled gardens, but the apps themselves are just clients to the open web/internet.

Letzten Endes ist es mit Apps und dem Web kein entweder oder sondern ein und.

Apps haben unsere Interaktionsoptionen vergrößert nicht verringert.

Twitter gewann auch letztes Quartal zu wenige Nutzer

Die Quartalszahlen von Twitter sehen nicht gut aus. Das Nutzerwachstum enttäuscht. Man könnte sogar schon fast eine Sättigung beobachten. Auf keinen Fall ist es der Anfang einer S-Kurve:

Twitterusers

Holger Schmidt:

In den USA stagniert die Entwicklung sogar schon. Noch heftiger ist die Tendenz der Timeline-Views, die Twitter als Maßeinheit für die verfügbare Werbefläche heranzieht. Twitter zählt einen Timeline-View, wenn ein Nutzer die Site auf dem Desktop oder Mobile aktualisiert. Diese Ansichten sind im vierten Quartal erstmals gefallen – und zwar außerhalb der USA, wo das Wachstum eigentlich herkommen soll – deutlich stärker als im Heimatmarkt.

Twitter wurde aus für mich unerfindlichen Gründen von Investoren zum Börsengang als ein Unternehmen mit starkem künftigen Nutzerwachstum bewertet. Diese Bewertung wird dem Aktienkurs, der bereits nach der Bekanntgabe der Quartalszahlen nachgegeben hat, auch in Zukunft noch zu schaffen machen.

Im Klartext: Twitter ist überbewertet.

Erstaunlich ist das vor allem, weil das sinkende Wachstum bereits im Börsenprospekt ersichtlich war:

In seinem S-1-Filing hat Twitter 231,7 Millionen aktive monatliche Nutzer bekanntgegeben. Das bedeutet, dass das Wachstum von Twitter abnimmt.

Es hat von Anfang wenig Sinn ergeben, Twitter teurer an die Börse zu bringen als Facebook zu dessen Börsengang. Oder anders: Es hat sehr wenig Sinn ergeben, zu dieser Bewertung Twitter-Aktien zu kaufen. Es wird nun immer deutlicher, wie wenig Sinn.

Das geringe Nutzerwachstum, das das Unternehmen unter Druck setzt, wird vor allem zu zwei Dingen führen:

  1. Twitter wird sehr stark in Verführung gebracht, den Kern des Produkts aufzuweichen. (Twitter sollte sich stattdessen von Facebooks Multi-App-Strategie eine Scheibe abschneiden.)
  2. Twitter wird seine Monetarisierungspläne aggressiver vorantreiben. Das heißt auch mehr Werbung, die ein einzelner Nutzer sieht. (Das ist noch nur bedingt problematisch, weil die Werbung auf Twitter, vor allem etwa hier in Deutschland, noch sehr sporadisch auftaucht.)

Warum ich skeptisch bin, was Twitters Zukunft in Verbindung mit dessen astronomisch hoher Bewertung angeht, habe ich ausführlich zum Börsengang dargelegt.

Paper und co.: Facebook entbündelt sich mit mobilen Apps selbst

Facebookpaper

Facebook hat gestern mit Facebook Paper seine bereits seit Juni 2013 von Gerüchten begleitete, an Flipboard angelehnte App in den USA veröffentlicht. Wie   vorher vermutet („Facebooks Flipboard-Klon könnte die mobile Neuerfindung des Newsfeeds sein“) handelt es sich mit Paper weniger um eine mobile Nachrichtenapp und mehr um die Neuerfindung des Newsfeeds für den mobilen Kontext und konzentriert sich auf einige wesentliche Features. Martin Weigert auf netzwertig.com:

Paper bietet Zugriff auf den Newsfeed, den Messaging-Bereich, auf Benachrichtigungen und Kontaktanfragen, sowie nach einem Swipe und damit etwas versteckt auf das eigene Profil, die Suche, die Liste der abonnierten Pages sowie den Publisher (zum Veröffentlichen von Einträgen). Was im Gegensatz zur herkömmlichen mobilen Facebook-App fehlt, sind ausführliche, stetig präsente Navigationselemente (Status, Foto, Check-in, Anfragen usw), Events sowie die Verwaltung von Apps.

Paper ist vorerst nur in den USA verfügbar, weil die App neben den Feedeinträgen auch per Algorithmus und von Kuratoren ausgewählte Inhalte anzeigt. Das schränkt den internationalen Rollout ein. Ob das sinnvoll ist, kann man getrost bezweifeln. Paper wäre auch ohne das zusätzliche Kurationselement eine sinnvolle Erweiterung des Facebook-Angebots.

Tatsächlich dürfte die Kuration von Inhalten, die nicht aus dem eigenen Facebook-Bekanntenkreis (vulgo ‘Social Graph’) kommen, eher irritieren als erfreuen. Dieses Distinktionsmerkmal gegenüber der Hauptapp könnte auch aus einer Unsicherheit bei Facebook entstanden sein, um die Apps besser von einander zu unterscheiden. Es wäre nicht überraschend, wenn die Kuration von Inhalten wieder fallen gelassen oder stärker an den Rand gedrängt wird.

Paper selbst bekommt glühende Reviews von der Fachpresse. Das überrascht nicht, wenn man sich das Team hinter Paper anschaut:

[Mike Matas, Lead Designer der App] is a UI wunderkind who was hired by Apple at age 19. There he was responsible for shaping the look of a staggering number of applications, from the first Photo Booth app for OS X to the camera, photos, maps, and settings interfaces for the original iPhone. After that he helped create the UI for the Nest thermostat. With his start-up Push Pop Press, Matas tried to solve the vexing problem of incorporating multimedia and interactivity into digital books without losing the essential simplicity of the real thing. Facebook acquired it in 2011.

Wichtiger ist allerdings, dass Paper nach dem separaten Facebook Messenger und Instagram/Camera der dritte Schritt des Social-Network-Riesen ist, sich selbst im mobilen Sektor zu entbündeln. Ich hatte über diese Strategie, die sich bereits seit der Messenger-App abzeichnete, vor einigen Tagen nachgedacht:

Facebook Home, die erwartungsvolle Android-Integration, hat bis jetzt nicht so gezündet wie gehofft. Gleichzeitig haben Instagram, mittlerweile selbst ein Facebook-Produkt, und Whatsapp und Co. Facebook im mobilen Sektor Stück für Stück entbündelt.

Facebook wäre dumm, wenn es diese Entbündelung nicht ernst nehmen würde. Der Hauptapp weitere spezialisierte Apps an die Seite stellen, erscheint sinnvoll und könnte langfristig auch strategisch interessante Perspektiven für Facebook eröffnen.

Kurz darauf wurde der Plan Facebooks bekannt, auf einzelne Apps statt auf eine App für alles zu setzen und 2014 weitere mobile Apps zu veröffentlichen. Facebook-CEO Mark Zuckerberg war im earnings call diesbezüglich recht direkt:

As CEO Mark Zuckerberg said on today’s earnings call “One theme that should be clear from our work on products like Messenger, Groups and Instagram is that our vision for Facebook is to create a set of products that help you share any kind of content you want with any audience you want.”

Nach der Herauslösung der Chat-Funktion aus der Hauptapp in die separate Messenger-App hat sich laut Zuckerberg im earnings call die Nutzung um 70 Prozent erhöht. Ein Zeichen, dass die Strategie separater Apps richtig zu sein scheint.

Facebook hat für die App-Strategie auch organisatorisch umgebaut und mit den Facebook Creative Labs eine Struktur für kleine, unabhängige, fokussierte Teams geschaffen, die an neuen Apps bauen können. Paper ist das erste Ergebnis der Labs.

Das Spannende daran ist, dass Facebook aggressiv auf die Herausforderung durch den Wandel vom Desktop-Web hin zum mobilen Web reagiert. Es geht nicht nur offensiv das eigene Produkt an sondern schafft auch intern die Voraussetzungen, schneller auf die neuen Herausforderungen antworten zu können.

Ebenso wie Google erfindet sich Facebook vor unseren Augen für die Smartphonewelt neu.

Facebook ist, das wird nun dank der App-Strategie intern wie extern deutlich, weniger Website sondern ein Gefäß für Datenströme.

Mit einer erfolgreichen Suite an Apps, die von den Facebookschen Datenströmen angetrieben werden, könnte Facebook mittelfristig auch eine bessere Antwort auf die Frage finden, was die eigene Position in der mobilen Welt ist und sein kann. Die Antwort könnte, erneut, Google nicht schmecken. Während Google Systemfunktionen in Android zu für die Hardwarehersteller installierpflichtigen Google-Apps umwandelt, wäre es für Facebook nur der nächste Schritt die Funktionen hinter den dedizierten Apps auch als integrierbare Systemfunktionen für forkwillige Androidhersteller anzubieten. In Verbund zum Beispiel mit einer Kartenapp von Nokia Here könnte das dafür sorgen, dass Google die Androidherrschaft entgleitet.

Facebook bleibt mit seinen 1,25 Milliarden aktiven Nutzern die Wild Card im Kampf der mobilen Plattformen.

Das Ende der Netzneutralität heißt “Sponsored Data”

Der US-Mobilfunkprovider AT&T startet mit „Sponsored Data“ ein Programm, das es Anbietern von Webdiensten ermöglichen soll, die Kosten für den mobilen Datenverkehr ihrer Kunden zu übernehmen.

Ein Beispiel: Wenn Google AT&T für den mobilen Datenverkehr der eigenen Kunden zusätzlich bezahlt, könnten AT&T-Kunden zum Beispiel YouTube-Videos unterwegs auf ihren Smartphones schauen und hochladen, ohne dass das auf ihren Datenplan angerechnet wird.

Die Marktimplikationen sind offensichtlich. YouTube könnte sich so dank der gefüllten Kriegskassen von Google noch weiter im Markt eingraben und es Konkurrenten noch schwieriger machen.

Die neue Markteintrittsbarriere wäre nun perfiderweise auch, dass jeder Dienst im gleichen Marktsektor ebenfalls an AT&T für „Sponsored Data“ zahlen muss, um im immer wichtiger werdenden mobilen Web nicht den Anschluss zur Konkurrenz zu verlieren.

Ein Beispiel am Markt des Videostreamings: Wenn Hulu, Amazon Video und YouTube AT&T für ihren Datenverkehr doppelt bezahlen, kommen auch Vevo und Netflix nicht daran vorbei, AT&T zu bezahlen. Das Gleiche gilt beispielsweise für Musikstreaming.

GigaOm:

AT&T launched a new billing program called Sponsored Data Monday at its developer conference at CES, which shifts mobile data costs from the consumer to the content provider. The idea is to create a two-sided charging model for mobile data, letting app developers and content providers foot the bill for their customers’ data use. That kind of the model has the potential to save consumers money, but as we’ve pointed out before it also messes with some of the foundational principles of the internet.

Das ist eine Formalisierung der Art von datendiskriminierenden Deals, die Musikstreamingdienste wie Spotify mit Mobilfunkanbietern seit längerer Zeit abschliessen. Der nächste Schritt von AT&T könnte auch sein, die mobilen Daten beispielsweise gegen eine Beteiligung am Webdienst von der Datenbegrenzung auszunehmen.

Ein solches Programm spricht natürlich besonders datenverkehrsintensive Dienste an:

While AT&T cited small app developers and healthcare providers in its examples, the key targets here are obviously the big video providers like Netflix, YouTube and Hulu. If AT&T can get those companies to pay for data consumption, it benefits in numerous ways. Not only do its customers conserve their data allotments (which they can then spend on non-sponsored services), it also encourages those consumers to eat far more video, boosting AT&T’s data revenues. “Win-win” is a tired term, but in this case, it sums up the situation. There’s no way AT&T can lose.

Mehr noch ist es eine Entwicklung, die besonders Konzerne und große, bereits international agierende Anbieter wie Google, Amazon und Facebook tendenziell gegenüber Startups und kleineren, unabhängigen Diensten begünstigt.

Techdirt zum Thema:

All in all, it’s more evidence that equating data caps with network capacity is nothing more than a lousy spin job attempting to justify the replacement of unlimited data with multiple revenue streams.

Die Angebote von “Datensponsoren” gegenüber nicht doppelt zahlenden Webdienstanbietern zu bevorzugen, also netzintern zu priorisieren, ist ebenfalls ein naheliegender, zu befürchtender nächster Schritt in einem solchen Programm.

Es dürfte nur eine Frage der Zeit sein, bis T-Mobile ein ähnliches Programm hierzulande ankündigt.

Mehr zum Thema:

Wir brauchen ein vom Finanzsystem unabhängiges Paymentprotokoll – aber Bitcoin wird es nicht sein

Der Unternehmer und Risikokapitalgeber Chris Dixon schreibt über das Finanzsystem aus Sicht der Internetwirtschaft und wie die Finanzbranche die Entwicklung der Internetwirtschaft zurückhält:

The payment industry is a $500 billion industry (or larger, depending on how you measure it). That means banks and payment companies charge $500B per year in fees to provide a service that mostly involves moving bits around the Internet. There are other services they provide like credit, security, and dispute resolution, but in any reasonable analysis these services should cost dramatically less than they currently do. The payment industry should be at least an order of magnitude smaller than it is today.

Another thing that informed my view was seeing what a huge headache payments were for startups I was involved with. Let’s say you sell electronics online. Profit margins in those businesses are usually under 5%, which means the 2.5% payment fees consume half the margin. That’s money that could be reinvested in the business, passed back to consumers, or taxed by the government. Of all of those choices, handing 2.5% to banks to move bits around the Internet is the worst possible choice. The other main challenge startups have with payments is accepting international payments. If you are wondering why your favorite technology service isn’t available in your country, the answer is often payments.

Das Payment-Problem ist auch groß etwa für US-Startups, die nach Deutschland kommen wollen. Deutschland mit seiner Weigerung, Kreditkarten weitläufig anzunehmen, und das stattdessen auf andere Transaktionsarten setzt, unterscheidet sich diametral vom Kreditkartenland USA und erscheint vielen von außen wie ein Buch mit sieben Siegeln.

Ich stimme aus unter anderem diesem Grund und den von Dixon aufgezählten Gründen zu, dass ein Protokoll, beziehungsweise eine Infrastruktur, die Transaktionen effizienter im Web macht, notwendig ist.

Es steckt enorm viel Potenzial in Micro-Payments:

The world recently ran its first large-scale micropayments experiment – so called in-app payments on iOS and Android – and despite some serious design flaws (centralized control, 30% fees), it was a smashing success. I think Bitcoin could enable a micropayment system for the open web, and thereby provide a business model beyond banner ads for many important services such as journalism.

Und natürlich ist der Vorteil von Bitcoin gerade, dass es nicht an das bestehende Finanzsystem gekoppelt ist:

I believe the only way the technology industry can offer meaningfully improved financial services is by building new services that don’t depend on incumbent companies. Bitcoin is a serious proposal for dramatically improving the payments industry. There are plenty of open questions but I think it’s an experiment worth running.

Aber da hören die Vorteile auch bereits auf.

Bitcoin ist von der Architektur so konzipiert, dass es auf eine festgelegte Geldmenge beschränkt ist, die über die Zeit sogar geringer werden wird. (kaputte Festplatten mit Bitcoins) Bitcoin hat also leider Deflation direkt eingebaut.

Das lässt sich auch nicht mit auf Bitcoin aufsetzenden Zusatzfunktionen aushebeln, weil es sich aus dem Wert der Währung gegenüber anderen Währungen selbst ergibt; dem Wechselkurs also. Kein Unternehmen, das neue Exchange-Modelle auf Bitcoin basierend testet, kommt an der Deflation vorbei.

Langfristige Deflation ist systeminhärent bei Bitcoin.  

Weil Deflation einen Spar-Anreiz schafft, also Transaktionen unattraktiver macht, ist sie zum Beispiel weitaus ‘gefährlicher’ für einen Wirtschaftsraum als ihr Gegenteil: Inflation. (Inflation auf niedrigem Niveau ist weitaus weniger problematisch, als es in den öffentlichen Debatten in der Regel dargestellt wird. Vom selten bis nie debattierten Zusammenhang zwischen Inflation und Arbeitslosenquote ganz zu schweigen.)

Deshalb ist Bitcoin ungeeignet als Paymentprotokoll.

Die aktuell beobachtbare Volatilität von Bitcoin dürfte unter anderem auch eine Folge des Wissens vieler darüber sein, dass Bitcoin langfristig Deflation, also konstantem Wertzuwachs, unterliegt. Das begünstigt in diesem frühen Stadium, befeuert von den hohen Erwartungen von vielen Seiten in Bitcoin, Spekulationen.

***

Exkurs: Das von Dixon postulierte Problem, das hier gelöst werden muss, führt also zur Frage, wie ein funktionierendes Zwischenstadium zwischen dezentraler Kryptowährung mit beschränkter Geldmenge und notenbankkontrollierter Währung aussehen kann. Hinweis: Ein profitorientiertes Unternehmen, das als De-Facto-Notenbank für die eigene Währung agieren würde, wäre keine langfristige Lösung.

Vielleicht liegt die Lösung auch gar nicht in einer separaten Währung.

Mehr zu Bitcoin:

Volatilität von Bitcoin zeigt, dass es näher an Gold als an anderen Währungen ist

Die aktuell beobachtbare Volatilität von Bitcoin, das nach seinem siebzigprozentigen Anstieg nach wenigen Tagen gestern beispielsweise innerhalb von 30 Minuten von einem Allzeithoch von 900 US-Dollar auf 650 US-Dollar gefallen ist, macht noch einmal deutlich, was ich im April diesen Jahres geschrieben habe:

Bitcoins ist keine Währung im Sinne von zum Beispiel Euro oder US-Dollar, sondern eher vergleichbar mit Gold. Die Aufgaben die Bitcoins übernehmen kann, so weit ich das aktuell beurteilen kann, sind genau so weitreichend/beschränkt wie das Aufgabenspektrum, das Gold als Währung übernehmen kann. (Von finanziell sinnvollen globalen Transaktionen einmal abgesehen.)

Bitcoins werden „abgebaut“ wie Gold, sie sind quantitativ beschränkt wie Gold und können demnach nicht wie staatlich organisierte Währungen den jeweiligen Entwicklungen entsprechend angepasst werden. Es gibt keine Zentralbank, die etwa die Bitcoinmenge und damit Inflation/Deflation steuern könnte.

Das macht Bitcoins wie Gold zum Spekulationsgegenstand. 

Vergleicht man Bitcoins also mit Gold und ähnlichem wird klar, dass Bitcoins zwar eine Geldfunktion (Aufbewahrung von Vermögen) übernehmen können aber ebenso wie Gold nicht für den täglichen Zahlungsverkehr geeignet sind.

Oder anders gesagt: Jemand, der ein Produkt mit Bitcoins verkauft, setzt sich zumindest aktuell hohem Risiko aus, weil die enormen Kursschwankungen das Geschäft unberechenbar machen.

Einen Echtzeitchart zur Entwicklung von Bitcoin findet man hier. (via)

Tabletmarkt: Was “Marktanteil” bedeutet, und was es nicht bedeutet

Charles Arthur hat beim Guardian einmal aufgeschlüsselt, was die Kennzahl ‚Marktanteil’ bedeutet und räumt gründlich mit den weitverbreiteten Missverständnissen auf. Marktanteile ohne Kontext sind bedeutungslos.

theguardian.com:

So what should I do next time I see a story about market share? See whether it has the supporting numbers you need: the total size of the market, and what it tells us about the installed base. And what, if anything, it tells you about what’s happening in the wider market. Samsung’s colossal market share in smartphones and mobile phones, for instance, is reflected in installed base figures – and also in its profits and heft in the business world. Sometimes the numbers are useful. But on their own? Not really.

Am beliebtesten ist die Gleichsetzung von Marktanteilen mit der installed base, also den aktuell in Gebrauch befindlichen Geräten. Marktanteile sind aber nur die Verkäufe (oder Lieferungen an Händler) von neuen Geräten eines Herstellers im Verhältnis zu den Gesamtverkäufen. 

Wichtig ist die installed base besonders in zweiseitigen Märkten, etwa für Entwickler:

App developers are a key market, as are accessory makers and users considering what their next purchase should be (because you’re more likely to get repairs, support and linked services if the installed base is larger). The article linked at the top is all about that installed base/developer conundrum. The lack of an installed base (despite “market share” numbers) is typically why you can’t get an app for a new platform: developers need to have reason to believe their effort won’t be wasted.

Wir hatten dieses Thema in der Diskussion zu Sobooks kurz gestreift. Bei E-Readern sagen fallende Verkaufszahlen (sofern sie dank der Blackbox Amazon überhaupt so bestimmt werden können) weniger über die Nutzung von E-Books und E-Readern (also die installed base) aus als man meinen möge, denn die Entwicklung der E-Reader der letzten Jahre bedeutet, dass auch drei Jahre alte Geräte ohne Probleme heute noch verwendet werden können und werden. Bei der rasanten technischen Entwicklung der Tablets sieht das anders aus. Ein drei Jahre altes iPad kann nicht mehr für all die Aufgaben verwendet werden für die ein aktuelles iPad eingesetzt wird. Es ist zunehmend auf Browsing und (sehr) alte Apps beschränkt. Drei Jahre alte Android-Tablets kommen nur noch in Sado-Maso-Clubs zum Einsatz.

Das spielt bei der allgemeinen Popularität von Tablets keine allzu große Rolle, weil diese sehr viel schneller wächst. Der Markt expandiert rasant. Aber es spielt zum Beispiel eine Rolle auf Plattformebene, also zum Beispiel für das Android-Ökosystem, das unter anderem neben Fragmentierung auch aufgrund der geringeren Halbwertszeit der Hardware eine sehr viel langsamer wachsende installed base bekommt als Apple, das mit seiner höherwertigen Hardware trotz geringerer Marktanteile heute, also neu verkaufter Geräte, einen höheren kumulativen Effekt für sich verbuchen kann.

Nicht nur aber auch deswegen ist es im Eigeninteresse von Plattformprovidern wie Apple oder Amazon mit dessen Kindle Fire, Geräte zu konzipieren und zu bauen, die möglichst lang benutzbar sind. Für Android-Tablet-Hersteller gilt das nicht, weil sie keinen vergleichbar immensen Vorteil gegenüber den direkten Konkurrenten mit der gleichen Plattform erhalten. (Es ist zwar auch indirekt ein Problem für die Hardwarehersteller, aber eben nur indirekt. Es ist direkt ein Problem für den Plattformprovider Google. Das heißt nicht, dass Android-Tablet-Hersteller nicht vernünftige Hardware produzieren können. Es heißt nur, dass die Anreize nicht so deutlich auf der Langlebigkeit der Hardware liegen, weil Hardware und Softwareplattform nicht aus einer Hand kommen und damit die gefährlichere Konkurrenz innerhalb der Plattform stattfindet.)

Zurück zu den Marktanteilen und der installed base bei Tablets. Arthur darüber, was Marktanteile bedeuten können:

some Widgets go to new users, and some go to existing users. In general, the larger the installed base, the more units will go to replacing old ones. (For example, most people replace their phone every couple of years, so a large installed base of phones has constant “churn”.)

The point is, without that extra data, you can’t know how the installed base is changing.

Und konkret:

Here’s an example, from YouGov in 2013, which showed Apple losing market share. Its share of the installed base had fallen, YouGov said, from 73% to 63% (note that unusually, this was an “installed base share”, not a “sales market share”).

And yet putting in the figures for how many units were bought showed that Apple had increased its installed base and increased its lead in that installed base. That’s counterintuitive. Yet it emerges directly from the calculation: the iPad installed base had gone from 2m to 5.3m; it had gone from having 0.6m more tablets than all its rivals combined, to having 3.1m more.

This doesn’t mean there won’t be more non-iPad tablets than iPads at some point. But it does mean that you need to enquire more carefully about absolute numbers when you’re presented with the word “share”. It’s absolute numbers that tend to matter.

Besonders schwierig ist es, wenn sich das Marktvolumen über die Zeit verändert (was aktuell in Technologiemärkten die Regel ist: sie wachsen) und die Veränderung des Gesamtmarktes noch einmal das Verhältnis von installed base und Marktanteil konstant verändert. 

Der Guardian-Artikel ist sehr lesenswert und man wünscht sich, er würde von allen Journalisten und Bloggern, die über die Technologiebranchen schreiben, gründlichst gelesen.

Am besten fasst ein Kommentar unter dem Artikel das Thema zusammen:

Wenn von morgen an null Windows-PCs verkauft werden und ein Mac pro Tag verkauft wird, hat Apple 100 Prozent Marktanteil aber wird die installed base von Microsoft in nächster Zeit nicht verringern.

Ohne Kontext sind Marktanteile bedeutungslos und schlimmstenfalls irreführend.

Börsengang: Twitters ungewisse Zukunft

Twitteripo

Twitter war immer ein besonderer Dienst. Der größte und glücklichste Zufall, Unfall könnte man auch sagen, den das Web bisher gesehen hat. Als Nebenprojekt des Podcasting-Unternehmens Odeo gestartet, war Twitter zunächst ein Experiment. Twitter sollte die Status-Updates, wie sie die Nutzer in Instant-Messaging-Diensten absetzen, besser verbreitbar und lesbar machen. Es war das Ergebnis einer genialen Beobachtung: Eine Randfunktion einer Diensteklasse wurde auf andere Art und Weise genutzt als angedacht. Es gab Potenzial, das gehoben werden wollte.

Ich verfolge Twitter intensiv als Nutzer und als Analyst seit 2007. Anlässlich des heutigen Börsengangs von Twitter werden wir einen Blick auf die Zukunft des Dienstes werfen.

Inhalt:

Drei von Drei

Twitter hat von Anfang drei Dinge richtig gemacht:

1. Sie haben mit dem asymmetrischen Follower-Prinzip die robustere Vernetzungsart gegenüber dem vorher verbreiteten Sich-Gegenseitig-Befreunden eingeführt und populär gemacht.

2. Sie haben mit der Begrenzung auf Text und 140 Zeichen einen starken Fokus auf Einfachheit gelegt und damit sehr viel Kreativität und nicht vorhersehbare Nutzungsarten ermöglicht.

3. Sie haben mit einer sehr offenen Plattform-Politik frühzeitig gezeigt, welche Möglichkeiten in Webplattformen liegen. Ohne die die Clients ermöglichende Plattform würde es Twitter heute so nicht mehr geben. Daran ändert auch der Versuch nichts, die Geschichte umzuschreiben.

Nun ist es leider so, dass sie (3) zugunsten ihres gewählten Geschäftsmodells aufgegeben haben. (2) werden sie ihrer Suche nach Nutzer- und Umsatzwachstum opfern müssen. Zu verlockend ist die Auflockerung der Limitierungen. Die Integration von Bildervorschauen in die Clients und auch der neue Plattformansatz Cards, der Mitte 2012 eingeführt wurde, weichen die 140-Zeichen-Grenze neben den zunehmenden, an Tweets anheftbaren Metadaten bereits immer stärker auf.

Nur (1) haben sie zumindest mittelfristig auf ihrer Seite. Die Frage ist, wie lang noch.

Eine Welt aus Social Graphs

Netzwerkbasierte Dienste, also Social Networks wie Facebook, LinkedIn, Google+ oder eben auch Twitter haben, wie der Name schon andeutet, als Basis, als Fundament sozusagen, die Vernetzung. Nach der Ausgestaltung dieser Vernetzung, also Art (symmetrisch oder asymmetrisch) und Inhalt (Freunde, Fremde, privat, geschäftlich), folgt nicht nur die Art der Nutzung sondern auch wie ‘sicher’ der Dienst vor der Konkurrenz ist.

Vor Facebook und MySpace gab es bereits einmal ein dominierendes Social Network. Nicht in der Größenordnung, in der Facebook heute spielt, aber doch groß genug, um uneinholbar zu erscheinen: Friendster. Friendster wurde vom eigenen Erfolg eingeholt. Der exponentielle Nutzerzuwachs und ungünstig rechenintensive Funktionalitäten führten im Verbund zu regelmäßigen Serverausfällen. Einmal vom Social Networking angefixt gingen die frustrierten Friendster-Nutzer schnell zu den Alternativen: MySpace und Facebook. Friendster ging so schnell unter, wie es aufstieg. Die Vernetzungsbasis von Friendster war also nicht sehr robust.

Twitter führte 2008 mit großem Abstand die Liste der Dienste, mit den meisten Ausfällen, an. Insgesamt kam Twitter 2008 auf sagenhafte 84 Stunden Downtime. Für einen ‚Realtime‘-Dienst ist das sehr viel. Für europäische Nutzer, die bereits 2008 auf Twitter waren, dürfte sich die in manchen Wochen tägliche Downtime der damaligen Zeit im Rückblick nach sehr viel mehr anfühlen.

Das Interessante ist nun, dass diese schlechte Performance keine Auswirkungen auf die Popularität von Twitter hatte. Im Gegensatz zu Friendster haben die Ausfälle Twitter keine Nutzer gekostet. Der Grund liegt in der andersartigen Vernetzung. Das asymmetrische Follower-Prinzip ist sehr viel robuster, weil schwerer zu replizieren. Das führt dazu, dass solche asymmetrischen Netzwerke, erst einmal aufgebaut, weniger schnell in sich zusammenfallen. Warum das so ist, werde ich detaillierter in einem späteren Artikel beleuchten.

Neue Konkurrenten

Wichtig ist jetzt für Twitter vielmehr, dass sich in den letzten fünf Jahren einiges erheblich geändert hat. 2008 war Twitter das einzige, richtig populäre asymmetrische Netzwerk. Heute sieht das anders. Google pusht mit Google+ ein ebenfalls auf das Follower-Prinzip setzendes Netzwerk in alle seine Produkte von Youtube bis Android und erreicht mittlerweile 300 Millionen ‚aktive‘ Nutzer. Das mag für Googleverhältnisse wenig sein, aber es ist bereits in der Größenordnung von Twitter. Das ist nicht gut für Twitter.

Tumblr, das vor einigen Monaten von Yahoo übernommen wurde, ist ebenfalls ein auf das Follower-Prinzip setzendes Netzwerk. Tumblr ist ein zweiseitiges Biest, das neben den auf eigenen Domains liegenden Blogs das extrem populäre Dashboard zu bieten hat, in dem man die Einträge der verfolgten Tumblr-Blogs sehen kann. Das besonders bei Teenagern in den USA sehr populäre Tumblr liegt auf Platz 3 hinter Facebook und Twitter in der absoluten Größe.

Damit nicht genug. Twitter will zwar mehr wie Facebook werden, aber Facebook hat sich ebenfalls längst etwas von Twitter abgeschaut. Mit der von mir lang vor der Einführung vorhergesehenen „Abonnieren“-Funktion hat Facebook bereits 2011 begonnen, diese Vernetzungsart auch bei sich abzubilden. Der Vorteil gegenüber der vorherigen Auftrennung in Page und Profil: Neben professionellen Nutzern wie Prominenten wird so auch der Long Tail (Experten etwa) abonnierbar.

Um ein Gefühl für die Entwicklung bei der jüngeren Generation zu bekommen, können wir einen Blick auf die Followerzahlen von Miley Cyrus werfen.

Facebook-Fanpage: 32,9 Millionen Follower.

Twitter: 15,2 Millionen Follower.

Im Vergleich dazu schauen wir uns einmal in der Hochburg von Twitter um: In der Techindustrie. Hierfür schauen wir uns einmal die Followerzahlen des TechCrunch-Gründers und heutigen Investor Michael Arrington an.

Facebook-Profil: 404.000 Follower.

Twitter: 171.400 Follower.

Selbst bei dem Twitter-Fan MG Siegler (TechCrunch, VC bei Google Ventures) sieht es nicht anders aus. Facebook: 296.000 Follower, Twitter: 131.800 Follower.

Weder bei der Prominenten noch bei den Tech-Stars liegt Twitter noch vorn, was die reinen Followerzahlen angeht.

Diese drei Beispiele sind natürlich keine hinreichende Datenbasis, um die asymmetrische Vernetzung der zwei großen Social Networks ausreichend vergleichen zu können. Auch sind die reinen Followerzahlen nicht allein entscheidend. Sie dienen aber als Veranschaulichung für ein enormes Problem von Twitter. Es hat nicht mehr die Oberhand, was die Vernetzung angeht. (Erschwerend kommt hinzu, dass Spam-Accounts auf Twitter zahlreicher sind als auf Facebook. Followerzahlen auf Twitter also weniger tatsächlichen Personen entsprechen als auf Facebook. Hinzu kommt eine exorbitant hohe Zahl toter Twitter-Accounts, die aus Medienpräsenz und schwerem anfänglichem Zugang entsteht.)

Twitter hat noch die Vorteile, die aus den letzten Jahren erwachsen sind: Mühsam aufgebaute Netzwerke der Nutzer, Clients zur einfachen, konstanten(!) Nutzung, und die aus der Einfachheit der Einträge (140 Zeichen Text) entstehende Nutzung.

Aber: Der erste Vorteil gilt nicht für neue Nutzer, der zweite wird von der neuen Plattformrichtung torpediert, und der dritte Vorteil wird zwangsläufig Stück für Stück dem erhofften Wachstum geopfert werden.

Damit nicht genug: Das sehr erfolgreiche Business-Netzwerk LinkedIn experimentiert seit geraumer Zeit ebenfalls mit einer Subscribe-Funktion und damit mit einer eigenen Implementation des Follower-Prinzips. Warum sollten neue Nutzer angesichts dieser Entwicklung noch Twitter nutzen?

Langsames Nutzerwachstum

Diese Frage bringt uns zu einem der wichtigsten Erkenntnisse aus dem Börsenprospekt.  Twitters Wachstumproblem. In seinem S-1-Filing hat Twitter 231,7 Millionen aktive monatliche Nutzer bekanntgegeben. Das bedeutet, dass das Wachstum von Twitter abnimmt. TechCrunch:

Twitter’s percent user growth is slowing. In a new S-1 amendment to its IPO filing, Twitter notes it hit 231.7 million monthly users by the end of Q3 2013, up 6.13% from 218.3 million at the end of Q2. If you look back, you’ll see Twitter had 6.86% growth in Q2, 10.27% in Q1, and 10.77% in Q4 2012. The trajectory could indicate trouble signing up new users or retaining older ones.

[..]

Still, its year over year growth is decelerating as well. Monthly active user growth was 38.74% from the end of Q3 2012 to the end of Q3 2013, 44.37% from Q2 to Q2, and 47.82% from Q1 to Q1.

Das ist ausgesprochen problematisch.

Betrachten wir den oben beschriebenen Hintergrund, ist dieses verlangsamte Wachstum nicht sonderlich überraschend. Neue Nutzer von Social Networks haben wenige Gründe, neben Facebook, LinkedIn, Tumblr und Google+ auf Twitter zu setzen. (Die guten Gründe für Twitter existieren noch, aber sie werden mit jedem Tag weniger.)

Vor diesem Hintergrund erscheint der Preis der Aktie zum IPO gewagt. Das Dealbook-Blog der New York Times:

At that valuation, each of Twitter’s 230 million users around the world is worth $78. Going by such numbers, the public offering has been a tremendous success for the company, which raised $1.8 billion from the offering, a hefty war chest.

[..]

“One day Twitter will make money,” said Anup Srivastava, an assistant professor of accounting at Northwestern University’s Kellogg School of Management. “But it’s not clear why anyone should pay this much for it today.”

Der Aktienpreis erscheint besonders hoch, wenn man bedenkt, dass Twitter nun teurer ist als Facebook zu dessen Börsengang. Bloomberg:

Twitter’s $26 a share IPO price values the microblogging service at 12.4 times estimated 2014 sales of $1.14 billion, according to analyst projections compiled by Bloomberg. That’s higher than the 11.6 times that Facebook was trading at yesterday and similar to LinkedIn Corp. (LNKD)’s multiple of 12.2 times sales.

Facebook steht im Vergleich zu Twitter sehr viel besser da, was Wachstum als auch Nutzung, und damit verbunden Werbeeinnahmen, angeht.

Die Hoffnungen der Investoren, die mit diesen Zahlen in Richtung 2015, wenn Twitter erstmals profitabel sein soll, bis 2016 schauen, sind sehr optimistisch bezüglich Twitter.

Wenn der Unfall hängen bleibt

Wie eingangs erwähnt, basiert der Erfolg von Twitter zu einem erheblichen Teil auf den strikten Limitierungen, die einen für Außenstehende schwer nachvollziehbaren Reiz erzeugten. Diese Einfachheit hätte in Verbund mit einer nachhaltigen, robusten API-gesteuerten Plattformstrategie zu einer Art Protokoll führen können. In den ersten Jahren sprachen die Gründer davon, dass Twitter das plumbing, als die Rohre, das Fundament, für einen Teil des Webs sein kann und wird. Das war auch ein paar Jahre nicht abwegig. Wie hier aber bereits mehrfach analysiert, hatte das einen Haken. Twitter musste sich entscheiden zwischen der nachhaltigen und sicheren Position als protokollartige Plattform und dem mittelfristig lukrativeren aber risikobehafteteren Werbemodell. Die nachhaltigere, sicherere Position wäre auch die unlukrativere gewesen. Ich nenne das das Craigslist-Conundrum. Da Twitter allerdings frühzeitig Investitionsrunden mit hohen Bewertungen abschloss, war die Richtung irgendwann zwangsläufig besiegelt.

Diese Richtung lautet: Werbung verkaufen. Dafür ist eine Kontrolle der Plattform notwendig. Client-Entwickler, Mashups und das reiche Ökosystem werden Stück für Stück erdrückt. Gleichzeitig bleibt die Frage, wie massentauglich Twitter in seiner spröden Einfachheit ist.

Twitter hatte schon immer das Problem, dass es nicht selbsterklärend ist und Neunutzer erst einmal Arbeit investieren müssen. Das ist die zweite Seite der Medaille der strikten Konzeptgrenzen von Twitter. Und auf diese Seite konzentriert sich Twitter seit längerem.

Das Problem, oder vielleicht auch der Vorteil, von Twitter war und ist, dass sowohl die Gründer als auch die ihnen nachfolgenden Manager keine wahre Vorstellung davon haben, was Twitter ist und sein kann und sein wird. Im Gegensatz um gründerkontrollierten Facebook, das klar der Vision seines Gründers folgt, ist Twitter noch heute das Produkt des damaligen glücklichen Zufalls oder Geniestreichs, wie auch immer man es sehen will.

Das bedeutet aber auch, dass zwar offen ist, ob Twitter langfristig erfolgreich sein wird oder nicht. Aber nicht mehr offen ist der Umstand, dass Twitter in zwei Jahren nicht mehr wie das heutige Twitter aussehen und funktionieren wird.

Twitter wird nicht von einer Vision oder einem Ziel getragen. Es wird aktuell vom Exitwillen der Investoren an die Börse und künftig von den hohen Erwartungen der neuen Shareholder getragen.

Daran wird sich die Produktentwicklung der nächsten Jahre ausrichten. Vor dem Hintergrund der wachsenden Konkurrenz und des langsamen Nutzerwachstums wird der Druck auf die Produktentwicklung enorm in eine Richtung gedrückt werden.

Honeymoon is over

Und diese Richtung ist: Gewinn, Umsatz. Der IPO von Twitter kommt für die bestehenden Investoren zum richtigen Zeitpunkt. Noch erscheint Twitter so, als könne es sehr stark wachsen, gleichzeitig können bereits erste Erfolgszahlen bei den Werbeeinnahmen vermeldet werden. Beides kann über die künftige und von mir prognostizierte Entwicklung hinwegtäuschen. (Der Zeitpunkt für den Börsengang war mit Ende 2013/ Anfang 2014 deshalb bereits seit ungefähr einem Jahr vorhersehbar.)

Wenn das Nutzerwachstum so langsam bleibt, wie es aktuell aussieht, werden die bestehenden Nutzer sehr viel mehr Werbung in ihren Twitterstreams sehen müssen. Aber selbst wenn das Wachstum wieder schneller wird, wird sich die Wahrnehmung von Twitter verändern.

Die ersten Jahre von Facebook, Tumblr, Twitter, YouTube und anderen letztlich auf Werbung setzenden Social Networks sind immer mit einer Art Honeymoon-Periode vergleichbar: Die Endnutzer müssen nichts bezahlen und werden gleichzeitig entweder mit keiner oder nur mit wenig Werbung belästigt. Das ist die Zeit, in der sich die Anbieter auf das Wachstum konzentrieren.

Sowohl bei Facebook als auch nun bei Twitter ist diese Zeit vorbei. Der Preis für einen kostenlosen Dienst, den man mit der eigenen Aufmerksamkeit bezahlt, wird nun eingefordert. Das wird die Wahrnehmung von Twitter bei den Nutzern, vor allem bei den Powerusern, sehr stark verändern. Hier entstehen in den nächsten Jahren Chancen für neue Konkurrenten wie App.net, die auf andere Geschäftsmodelle setzen, aber auch werbefinanzierte Konkurrenten, die nicht einem so hohen ROI-Druck wie Twitter ausgesetzt sind.

Fazit

Im Gegensatz zu Facebook, dem ich nach wie vor eine rosige Zukunft vorhersehe, bin ich bei Twitter verhalten pessimistisch. Das Nutzerwachstum von Twitter ist sehr langsam. Gleichzeitig ist Twitter mit 231,7 Millionen aktiven Nutzern nicht groß genug, um ohne Wachstum stabil bleiben zu können.

Twitters Vorteil lag immer in der Einfachheit beziehungsweise Fokussierung des Angebots. Das ist aber gleichzeitig auch der Nachteil von Twitter, weil es das Management strategisch einschränkt. Weil Twitter keinen Gründer mit Vision an der Spitze hat, kann es sich in jede Richtung entwickeln.

Der hohe Einstiegspreis der Aktie zum Börsengang, der auf starkes Wachstum spekuliert, gibt die Richtung, die Twitter als Produkt nehmen wird bereits vor. Gleich also, ob Twitter als an der Börse gehandeltes, selbständiges Unternehmen erfolgreich sein wird oder nicht:

Das Twitter in zwei Jahren wird deswegen kaum noch wiedererkennbar sein.

Für die Nutzer, die seit vielen Jahren auf Twitter aktiv sind, wird es das Ende einer Ära bedeuten. Es bleibt abzuwarten, was es für Twitter bedeuten wird:

Langfristiger Erfolg oder das Abrutschen in die Beliebigkeit und damit Bedeutungslosigkeit.

Meine Analysen der Entwicklung von Twitter in den letzten Jahren werden im Folgenden aufgelistet. In diesen Texten finden sich auch  detaillierte Analysen des Schwenks der Plattformstrategie von Twitter und dessen Auswirkungen, auf die ich in diesem Text nicht noch einmal genauer eingegangen bin:

Foto: Eli Langer

-

Es handelt sich bei diesem Text nicht um eine Empfehlung für oder gegen eine Investition. Die hier dargelegten Aussichten auf das Geschäft von Twitter müssen nicht zwingend mit den Vorstellungen der Investoren korrelieren; es gibt also genügend Raum für Spekulationen. Das Ziel dieses Artikels war ein Blick auf die mittel- bis langfristige Zukunft von Twitter.

Wie Google Android verschließt und Hersteller knebelt

Wir wissen seit mindestens 2010, dass Google bei Android mit den eigenen Apps (GMail, Maps) und dem Zugang zum eigenen Appstore die Kontrolle über Android sicherstellt. Google geht aber mittlerweile sehr viel weiter. Die Frage, die sich Google stellt, nachdem Android Marktführer bei Smartphones geworden ist, lautet: Wie kann man bei einem Open-Source-Projekt die Kontrolle (zurück) erhalten?

Die Antwort liefert dieser aufschlussreiche Artikel auf Ars Technica. Ein paar Auszüge:

1. Google macht immer mehr Teile von Android Closed Source:

Less open source code means more work for Google’s competitors. While you can’t kill an open source app, you can turn it into abandonware by moving all continuing development to a closed source model. Just about any time Google rebrands an app or releases a new piece of Android onto the Play Store, it’s a sign that the source has been closed and the AOSP version is dead.

Zu diesen Apps zählen mittlerweile Search, Music, Calendar, Keyboard und Camera.

Jedes Unternehmen, das wie Amazon, Android forken will, wird es damit zunehmend schwer gemacht.

2. Google verbietet Mitgliedern der Open Handset Alliance (OHA), Android zu forken oder für andere Unternehmen Geräte mit geforktem Android zu bauen.

Gmail, Maps, Google Now, Hangouts, YouTube, and the Play Store. These are Android’s killer apps, and the big (and small) manufacturers want these apps on their phones. Since these apps are not open source, they need to be licensed from Google. It is at this point that you start picturing a scene out of The Godfather, because these apps aren’t going to come without some requirements attached.

While it might not be an official requirement, being granted a Google apps license will go a whole lot easier if you join the Open Handset Alliance. The OHA is a group of companies committed to Android—Google’s Android—and members are contractually prohibited from building non-Google approved devices. That’s right, joining the OHA requires a company to sign its life away and promise to not build a device that runs a competing Android fork.

Acer, das Geräte mit Alibaba’s Aliyun OS bauen wollte, wurde von Google zurückgepfiffen.

Das dürfte erklären, warum das Kindle Fire von Amazon nicht die beste Hardware hat. Amazon ist schlicht extrem eingeschränkt bei der Auswahl der Hersteller, mit denen es zusammenarbeiten kann:

Since the Kindle OS counts as an incompatible version of Android, no major OEM is allowed to produce the Kindle Fire for Amazon. So when Amazon goes shopping for a manufacturer for its next tablet, it has to immediately cross Acer, Asus, Dell, Foxconn, Fujitsu, HTC, Huawei, Kyocera, Lenovo, LG, Motorola, NEC, Samsung, Sharp, Sony, Toshiba, and ZTE off the list. Currently, Amazon contracts Kindle manufacturing out to Quanta Computer, a company primarily known for making laptops. Amazon probably doesn’t have many other choices.

3. Friss oder stirb. Hersteller müssen alle Google Apps aufnehmen und können nicht einzelne auslassen. Das ist besonders wichtig, weil Google die Daten der Android-Nutzer zur Auswertung benötigt.

Another point of control is that the Google apps are all licensed as a single bundle. So if you want Gmail and Maps, you also need to take Google Play Services, Google+, and whatever else Google feels like adding to the package. A company called Skyhook found this out the hard way when it tried to develop a competing location service for Android. Switching to Skyhook’s service meant Google would not be able to collect location data from users. This was bad for Google, so Skyhook was declared “incompatible.” OEMs that wanted the Google Apps were not allowed to use them. Skyhook sued, and the lawsuit is still pending.

4. Google stellt den Android-APIs bessere Google-Play-APIs gegenüber, um so Android-Entwickler abhängig von Google zu machen. Die gewünschte Folge: Inkompatibilität von Apps über potenzielle Android-Forks hinweg.

Taking the Android app ecosystem from Google seems easy: just get your own app store up and running, convince developers to upload their apps to it, and you’re on your way. But the Google APIs that ship with Play Services are out to stop this by convincing developers to weave dependence on Google into their apps. Google’s strategy with Google Play Services is to turn the “Android App Ecosystem” into the “Google Play Ecosystem” by making a developer’s life as easy as possible on a Google-approved device—and as difficult as possible on a non-Google-approved device.

Hinzu kommt, dass Applikationen in Android auf die Maps-API zugreifen können. Ein Fork wie das von Amazon braucht nicht nur eigene Maps sondern auch eine kompatible Maps-API, um es den Entwicklern der Apps so einfach wie möglich zu machen. (Oder anders: Um Kompatibilität so weit wie möglich aufrecht zu erhalten.)

Der Artikel auf Ars Technica zählt weitere Aspekte des Abschottens auf.

Besonders perfide-genial ist auch die Unterstützung der Google-APIs für iOS-Apps. App-Entwickler erlangen so die maximale Reichweite der zwei größten mobilen Betriebsysteme. Attraktiver könnte es nicht sein:

The borderline-evil-genius part of Google’s strategy is that 90 percent of the Google APIs are also supported on iOS. Now, put yourself in the shoes of a developer deciding whether or not to use Google’s APIs: many of Google’s solutions offer best-in-class usability, functionality, and ease-of-implementation. Google supports both major mobile platforms, so it will cover a very high percentage of your potential user base. The only bad part is that it won’t work with an Android fork, but any AOSP fork is going to be a tiny sliver of your possible target devices.

Fazit

Android ist nicht offen.

Zumindest nicht so, wie man sich das landläufig vorstellt.

Die Abhängigkeit der Hersteller gegenüber Google könnte größer nicht sein.

Das heißt natürlich, dass Alternativen wie Windows Phone, Firefox OS und Ubuntu Touch attraktiv werden. Und das schlicht weil Android-Forks nicht parallel zum Android-Tagesgeschäft etabliert werden dürfen. Denn in dem Moment, in dem ein Hersteller beginnt, mit einem Fork auf dem Markt zu experimentieren, fliegt er aus dem Androidlager heraus. Das ist auch der Grund, warum Samsung neben seinem Android-Portfolio an dem mobilen OS Tizen arbeitet und nicht an einem Android-Fork. Und deshalb glaube ich auch, dass wir neben Amazons Kindle Fire wohl kaum weitere Forks von Android sehen werden. (Was gute Nachrichten für Amazon sind.)

Diese schrittweise Entwicklung ist eine bemerkenswerte strategische Leistung von Google, das auf diesen Weg den mobilen Sektor, eine komplette Industrie, fest kontrolliert.

Es ist aber auch ein Spiel mit dem Feuer. Denn wenn mit Android-Hardware Geld zu verdienen wäre, wäre das alles kein so großes Problem für die Hersteller. But alas, mit Android macht von den Smartphoneherstellern allein Samsung Profit..

Smartwatch: Warum eine iWatch von Apple Sinn ergibt

Iwatch concepts 2

Wearables, also kleine Computer, die man mit sich trägt, sind der nächste Schritt für die Hardware-Plattformen der Post-PC-Ära. Die größte Frage, die sich bisher stellte, war in welcher Form diese nächste Phase beginnen wird. In den letzten Wochen und Monaten hat sich auch diese Frage in Luft aufgelöst. Mittlerweile scheint jedes Unternehmen im Technologiesektor eine Smartwatch zu bauen.

The Next Web zählt allein 16 Smartwatches, “die man kennen sollte”. Quartz hat eine Übersicht über alle Hersteller von Acer bis Sony, die eine Smartwatch angekündigt haben oder  Gerüchten zu Folge an einer bauen. Auf der IFA haben sowohl Qualcomm als auch Samsung eigene Smartwatches vorgestellt. Selbst Nissan baut eine Smartwatch. (YouTube-Video) Auch Fitnesstracker wie Fitbit bekommen Smartwatch-Funktionen und Google soll an einer Smartwatch mit integriertem Google Now arbeiten.

Das ist nicht verwunderlich.

Als ich Ende letzten Jahres von den ersten Gerüchten einer iWatch, einer Smartwatch von Apple erfuhr, ergab das sofort Sinn für mich. Wie bereits angemerkt sind sogenannte Wearables der nächste Schritt für die Post-PC-Ära. Diese Plattformen (iOS, Android, Windows Phone etc.) existieren bereits in einer Multi-Device-Welt. Wer ein Smartphone hat, besitzt oft auch einen Laptop. Immer mehr Menschen besitzen zusätzlich ein Tablet. Das Web und Webservices, die Daten und Angebote über diese Devices hinweg synchron halten, gehören fest zu diesen Post-PC-Plattformen.

Wearables sind, nachdem Smartphones technisch die Gut-genug-Stufe erreicht haben, die nächste Front in der Post-PC-Welt. Diese neuen, kleinen, tragbaren Computer werden verschiedene Formfaktoren annehmen. Von diesen Formfaktoren ergeben Smartwatches mehr Sinn als Smart Glasses wie Google Glass, also Brillen mit eingebauten Minicomputern. Denn Google Glass und seine Artverwandten werden ihre Anwendung nicht im Endkonsumentenmainstream sondern im Arbeitsumfeld finden (Ärzte, Taxifahrer, etc.). Also Situationen, in denen es die Umwelt nicht befremdet, wenn man eine Kamera im Gesicht trägt sondern alle davon profitieren. Smartwatches dagegen sind weitaus weniger invasiv und in den Lifestyle eines normalen Menschens integrierbar. Das Handgelenk ist die einzige Stelle, an der wir seit über hundert Jahren Maschinen direkt am Körper tragen. Das Handgelenk hat sich bereits als natürlicher Ort für Maschinen am Körper etabliert. Natürlich werden die ersten Wearables diesem Vorbild folgen. Im Grunde machen sie das bereits: Fitbit, Nike Fuelband, all die Fitnesstracker werden bereits am Handgelenk getragen.

“I think the wrist is interesting.” - Apple-CEO Tim Cook

Was fängt man nun mit einer solchen Smartwatch an? Das Gerücht, Google tüftele an einem Prototypen mit Google Now zeigt bereits die Richtung auf: Alles, was regelmäßig und zeitnah an Informationen und Interaktionen am Smartphone abgefragt wird und stattfindet, passt hervorragend zu einer Smartwatch. Google Now teilt mir mit, dass der Verkehr auf dem Weg zu meinem Termin in einer Stunde ungewöhnlich hoch ist und ich deshalb eher losgehen muss? Das ist eine Information für die Smartwatch, nicht  das Smartphone, vorausgesetzt das Betriebssystem hat die Wahl.

Jeder Moment, in dem man das Smartphone für wenige Sekunden aus der Hosentasche gezogen wird, um etwa die Notifications zu lesen, ist ein Moment, der Smartwatches gehören wird.

Smartwatches können mehr noch als Smartphones mit Sensoren Daten erfassen und ihrem Eigentümer zur Auswertung oder Interaktion zur Verfügung stellen. Felix Schwenzel hatte sich diesbezüglich vor acht Monaten lesenswerte Gedanken gemacht:

  • man könnte telefongespräche annehmen, indem man den sein ohrläppchen anfasst in dem moment wo man seine linke hand an den mund führt, würde einem siri zuhören
  • man könnte ein fragezeichen in die luft malen und siri sagt einem wo man gerade ist
  • im navigationsmodus könnten vibrationen an der jeweiligen armseite signalisieren, ob man in die falsche richtung läuft (so wie lenkräder in oberklasseautos vibrieren wenn man zu weit recht oder links fährt)
  • das ding am arm könnte bemerken wenn man jemandem die hand schüttelt und versuchen zum ding am arm des gegenübers kontakt aufzunehmen
  • es könnte erkennen ob man buchstaben mit dem finger auf eine oberfläche zeichnet
  • eine überwachung der körpertemperatur, des blutdrucks, der schlaf- und aktivitätsphase wäre lückenlos möglich. es soll ja einige leute geben die sich gerne selbst quantifizieren.
  • nicht nur stephen wolfram könnte jeden seiner schritte zählen, das ding an der hand wäre auch ein pedometer für jedermann, dass auch gleichzeitig jede art von sportlicher betätigung erkennen und aufzeichnen könnte
Im Gegensatz zu den hoffnungslosen Gehversuchen von Samsung, das bei der Produktentwicklung ohne ein kopierbares Vorbild aufgeschmissen zu sein scheint, werden die Inkarnationen von Apple, das bereits mehrfach bewiesen hat, dass es erfolgreich neue Produktkategorien definieren kann (iPhone, iPad, Macbook Air), sehr viel interessanter werden. Daneben ist Apple mit der Unterstützung des akkuschonenden Bluetooth 4.0 ab dem iPhone 4s aufwärts auch verbindungsseitig auf iOS bestehens gerüstet, und zwar wesentlich besser als Android.
Neben Felix Schwenzels Überlegungen können Smartwatches, oder Minicomputer am Handgelenk, noch andere Funktionen übernehmen. Vielleicht auch mit unterschiedlichen Ausprägungen bei der Hardware. So gibt es etwa ein Armband, dass anhand des einzigartigen Herzschlagpatterns des Trägers Schlüssel und Passwörter ersetzt. Erste Gerüchte verbinden eine iWatch eher mit Haushaltsautomatisierung als mit Smartphones. Es könnte Teil des von Jobs in seiner Biographie beschriebenen Durchbruchs des Interfaces von AppleTV sein.

Der Punkt ist, dass eine Smartwatch so sehr und so wenig eine Armbanduhr ist wie ein Smartphone ein Telefon ist. Smartwatches mögen die Uhrzeit anzeigen, aber das ist eine Randfunktion, die bei weitem nicht das Feature ist, was am meisten genutzt wird oder das gar der Kaufgrund wäre.

Als Apple das iPhone 5s vorgestellt hat, wurde auf dem Event und in den Pressemitteilungen immer wieder darauf hingewiesen, dass es das “Most Forward-Thinking Smartphone” sei, das Apple je produziert habe. Das ist natürlich PR-Sprache. Und es ist natürlich auch ein Weg, um die Differenzierung zwischen 5s und 5c sicherzustellen. Aber dahinter liegt noch mehr.

Das iPhone 5s hat mit dem M7 einen neuen, separaten Prozessor, bekommen. Der M7 ist ein “motion co-processor”:

But the really interesting – and in the long-term important – sensor in the iPhone 5S is the M7, a “motion co-processor” which allows it to measure data from the accelerometer, gyroscope and compass without draining the battery as heavily as would be required if the A7 processor were used. Effectively, using the CoreMotion API, apps can access data about movement all day, without destroying the battery life.

Think about that for a second. Your phone can now measure everything that the likes of a Jawbone Up or Nike Fuelband can. Plus, it can do it all day, with the processing power of a 64bit computer to crunch that data when it needs it. And that power is available to developers, to create applications which single-purpose devices like the Fuelband will never be able to match.

The obvious application is fitness, but that’s actually only the start of the story.

Der M7 ist ein neuer Prozessor, der vom iPhone 5s von Haus aus keine Aufgabe bekommt. Apple liefert keine App mit aus, die den M7 anspricht. Das ist ungefähr so wie ein Smartphone mit Kamera, das ohne eigene Kamera-App ausgeliefert wird.

Offensichtlicher kann es kaum werden. Der M7-Prozessor ist da, und er wird nicht nur in iPhones sondern auch in anderen Produkten integriert werden. Es ist nur noch eine Frage der Zeit, bis Apple seine erste iWatch vorstellt. Selbst das Trademark wird bereits gesichert.

Bleibt die Frage des Timings.

Apple wird aller Voraussicht nach keine Smartwatch am 22. Oktober vorstellen. Mit neuen Macs, neuen iPads, neuem Mac OS, und vielleicht neuen iPods, ist das Event bereits recht gut befüllt. Apple hat bereits für maximale Weihnachtsabdeckung praktisch jede Produktvorstellung in in das letzte Jahresquartal gequetscht. Das iPad, ursprünglich ein Frühjahrsprodukt, ist letztes Jahr zum iPhone  gestoßen, um ein hervorragendes Weihnachtsgeschenk zu werden. Das ergibt Sinn. Es führt aber auch dazu, dass es den Rest des Jahres sehr ruhig um Apple ist. Was liegt also näher, als die ruhig gewordene erste Jahreshälfte für die Einführung neuer Produkte zu nutzen, die so oder so erst einmal Early Adopter ansprechen werden, also frühestens in der 2. oder 3. Inkarnation ihr volles Weihnachtsgeschenkpotential entfalten werden?

Deshalb vermute ich, dass wir im Frühjahr, also im ersten oder – wahrscheinlicher – im zweiten Quartal 2014, die erste Smartwatch von Apple sehen werden.

Disclosure

Social-Reading-Plattform Sobooks konkurriert mit Amazon. Ist sie dafür aufgestellt?

2013 10 14 um 17 21 54

Das Gründerteam von Sobooks kann sich sehen lassen: Sascha Lobo (Deutschlands bekanntester Alpha-Kolumnist, mit Frisur), Christoph Kappes (u.a. Pixelpark), Oliver Wagner (u.a. BuzzRank) und Oliver Köster (ebenfalls Buzzrank) starten eine Plattform zum Verkauf von E-Books und dem gemeinsamen Lesen.

Plattform statt Verlag

Sobooks, das am 9. Oktober in die Private Beta ging, wurde in der Berichterstattung, die für eine deutsche Buch-Plattform wohl noch nie so ausgiebig war, oft als neuer Verlag bezeichnet. Zurückzuführen ist das auf die Eigendarstellung des Dienstes. Mitgründer Sascha Lobo bezeichnete sich selbst etwa oft als Verleger in den Interviews, die er zum Launch gab. Sobooks ist zwar zu einem kleinen Teil auch Direktverlag, also Anbieter, der Werke verlegt/verlegen wird, aber im Kern handelt es sich um eine Plattform, auf der Verlage ihre Bücher verkaufen und damit automatisch mit Zusatzfunktionen anreichern können. Zu den Verlagen zum Launch zählen unter anderem Rowohlt und Random House.

Der Buchreport hat die wichtigsten Punkte zu Sobooks zusammengefasst:

Die Bücher, die auf Sobooks (steht für Social Books) zum Verkauf angeboten werden, stehen vollständig im Internet – jede Seite eines Buchs hat eine eigene URL.
Zu den Titeln werden Leseproben (mindestens fünf Seiten) angeboten.
Der Käufer hat die Wahl, ob er das Buch im Browser lesen oder in den Formaten Epub oder PDF herunterladen möchte.
Sobooks verzichtet auf DRM, bietet Verlagen aber eine Personalisierung der Epubs an (Wasserzeichen).
Bezahlt werden kann in der Startphase mit Paypal express, künftig auch mit anderen Zahlungsmethoden.
Sharing: Der Nutzer kann Zitate aus Büchern z.B. auf Facebook teilen, der Link führt direkt in das Buch hinein.
Der Leser kann mit anderen Lesern interagieren und auf einzelnen Seiten des Buchs Kommentare hinterlassen und auf andere Kommentare antworten.
Im Fuß der Seite sieht der Nutzer eine „Heat Map“ (Foto): Linien, die signalisieren, über welche Passagen im Buch aktuell besonders intensiv diskutiert wird.

Es ist vor diesem Hintergrund erstaunlich aber nicht überraschend, dass viele Journalisten die Wortwahl der Gründer angenommen haben. Für die Gründer ist es sinnvolles, cleveres Wording gewesen. Denn Sobooks will in der schwierigen Medienwandelsdebatte, in der praktisch nie vorurteilsfrei über Internetunternehmen in den klassischen Medien berichtet wird, eher mit dem Rowohlt Verlag assoziiert werden als mit  dem allseits außer bei den Kunden gehassten Amazon.

Sobooks ist Amazons Buchrundumangebot aber näher als jedem Buchverlag. Wie Amazon ist Sobooks eine Plattform, auf der E-Books verkauft werden, also ein Mittelsmann zwischen Buchverlagen und Lesern. Wie bei Amazon ist das der Kern des Geschäfts. Wie bei Amazon hat Sobooks auch einen Verlagsbereich, in dem eigene E-Books verlegt werden.

Sobooks konkurriert deshalb auch eher mit Amazon als mit einem Buchverlag.

Hier liegen auch die Probleme, oder Herausforderungen, für Sobooks. Ebenso wie Readmill, die Berliner Social-Reading-Plattform, steht Sobooks vor dem Problem, dass die eigenen Zusatzfunktionen, die soziale Ebene, in der Mehrheit der Fälle nur mit einem Medienbruch genutzt werden können.

Nur im Browser, Apps sollen kommen, keine E-Reader-Integration

Wenn Sascha Lobo Sobooks im ZEIT-Interview als das “Post-Amazon-Konzept” bezeichnet, dann ist das tatsächlich, wie er meint, ‘mittelgrößenwahnsinnig’. Denn das Konzept von Sobooks wird nur erfolgreich sein, wenn es vertikal integriert ist. Man kann zwar Bücher auf Sobooks im Browser lesen, aber die meisten E-Book-Fans lesen auf diese Art selten ihre Bücher. Nicht nur benötigt man ohne native Apps (für Tablet oder Smartphone) eine Internetverbindung um zu lesen, man ist so auch weit weg von E-Readern mit angenehmem E-Ink. Also den Geräten, auf denen akku- und augenschonend ausgiebiges Lesen möglich ist. Immerhin sollen native Apps für Android und iOS mit Offline-Modus noch kommen.

Man kann zwar die E-Books auf Sobooks als EPUB oder PDF erwerben, verliert aber so den sozialen Mehrwert der Plattform beziehungsweise kann ihn nur im Browser und später in den Apps auf den Nicht-E-Readern bekommen.

Hier steht Sobooks vor der gleichen Herausforderung wie Readmill. Amazon ist  auch bei E-Books der Platzhirsch mit seiner Kindle-Plattform. Das Problem für Neueinsteiger sind nicht nur die aufgebauten Marktanteile. Die sind in einem noch jungen Wachstumsmarkt wie diesem nicht alles entscheidend. Es gibt einen Vorteil für Firstmover, aber der ist aufgrund der verschiedenen Richtungen, die das Produkt E-Book gehen kann, nicht so groß wie man vielleicht vermuten könnte. Entscheidender ist, wie gut Amazon technisch und bei den Ressourcen aufgestellt ist.

Der E-Reader von Amazon ist integriert in den Amazon-Shop, rudimentäre Social-Features gibt es auch schon (Man kann sich von vielen Lesern unterstrichene Passagen direkt im E-Book anzeigen lassen), und der Onlinehandelsriese hat dieses Jahr mit Goodreads die größte Community rund um Bücher übernommen. Mittelfristig wird Amazon Goodreads auf die eine oder andere Art in seine Kindle-Plattform integrieren. Es wird nicht so gut sein wie Sobooks oder Readmill, aber dafür wird es _auf dem E-Reader_ sein.

Auf Kindle kann man Bücher nicht nur im E-Reader und synchronisiert im Browser lesen sondern auch synchronisiert auf nativen Apps für iOS und Android. Das ist eine sehr viel bessere Ausgangslage für eine soziale Ebene über der klassischen Buchebene.

Es geht nicht ohne Hardwarestrategie

Um das Problem mit dem Medienbruch zu veranschaulichen, schauen wir uns ein Alltagsbeispiel an:

Eine Sobooks-Leserin besitzt einen E-Reader. Sie kauft auf Sobooks ein Fachbuch als E-Book. Um es auf ihrem Gerät lesen zu können, lädt sie die EPUB-Version herunter. Jetzt beginnt sie zu lesen. Macht sie nun beim Lesen Hervorhebungen und Anmerkungen direkt auf ihrem Gerät im EPUB? Oder sucht sie jedes Mal die entsprechende Seite und Stelle auf Sobooks im Browser auf einem anderen Gerät heraus, um sie dort zu markieren und zu annotieren? Scrollt sie beim Lesen auf dem Zweitgerät mit, um etwaige Kommentare anderer Leser zu sehen? Was macht sie unterwegs in der Bahn? Zwei Hände, zwei Geräte?

Was Sobooks, ebenso wie Readmill und vergleichbare Angebote, benötigt, ist ein E-Reader, in den sich zumindest die Grundfunktionen des Angebots integrieren lassen.

Das heißt, um gegen Amazon eine Chance zu haben, braucht Sobooks eine Hardwarestrategie.

Das muss nicht heißen, dass Sobooks einen eigenen E-Reader entwickelt. Spätestens das txtr-Debakel, Marke Duke Nukem Forever, dürfte jedem gezeigt haben, dass das nicht so einfach zu bewerkstelligen ist.

Denkbar wäre vielmehr ein Joint Venture mit verschiedenen Marktteilnehmern oder eine Beteiligung an einem solchen Projekt.

Konkret heißt das: Was die Buchbranche braucht, ist ein E-Reader mit einer integrierten Plattform für Social-Reading-Dienste. Also zum Beispiel ein E-Reader, der von Haus aus oder über eine Art Appstore die Integration der Kommentare und andere Parallellektürefunktionen von zum Beispiel Sobooks und Readmill integriert.

Aus Sicht des E-Reader-Anbieters liesse sich das technisch mit einer allgemeinen Parallellektürefunktionen-API für alle Social-Reading-Plattformen umsetzen. Noch besser (aber noch schwieriger und deswegen für den aktuellen Marktzustand wohl zu zeitaufwendig) wäre ein API-Standard. Konzeptionelle Herausforderungen bezüglich der Urheberrechte und der Abgleichung der Daten und der etwaig notwendigen Querverknüpfung von Diensten und Shops blenden wir hier einmal aus Platzgründen aus.

Das ist eine der wenigen Möglichkeiten, wie ein Lock-in dank Social-Reading-Integration bei Amazon verhindert oder zumindest gemindert werden kann.

 

Zum Thema Social Reading allgemein

2008 schrieb ich über die mit E-Books möglich werdende Social-Ebene:

All die Möglichkeiten, die jetzt auf öffentlich zugängliche Artikel im Web beschränkt sind, auf Bücher – auf Romane und Sachbücher – auszuweiten, wird uns eine völlig neue Welt offenbaren. Auch wenn es widersinnig und überflüssig erscheint, wie einst delicious, als es die Bühne betrat und man sich fragte, warum zum Teufel man seine Lesezeichen online ablegen sollte, so entsteht mit der Möglichkeit der öffentlichen Annotation eine völlig neue Dimension des gemeinsamen Wissens.
Wenn mir ein Freund ein Buch empfiehlt und ich während des Lesens direkt seine Anmerkungen und die von meinen anderen Freunden mit anzeigen lassen kann, dann bekommt das Lesen und der Austausch über das Gelesene einen Mehrwert gegenüber dem Lesen von bedrucktem Papier.

Denken wir diese Richtung noch einen Schritt weiter.

David Weinberger schreibt in seinem Buch “Das Ende der Schublade” über elektronische Bücher (S. 267):

“Wir werden unsere Bücher dazu auffordern können, die Passagen zu markieren, die von Dichtern, Einser-Schülern, Literaturprofessoren oder buddhistischen Priestern am häufigsten noch einmal gelesen werden.”

Weinberger führt noch weitere Möglichkeiten an: Wenn wir anzeigen und aggregieren können, wo Bücher gelesen werden, können wir automatisch Listen für Bücher für den Strand oder für Reisen zusammenstellen.

Will man das immer? Immer die Metaebene mit dazu sehen und denken? Sicher nicht. Aber die Möglichkeit dazu zu haben, wird irgendwann einfach dazugehören. Ohne die Möglichkeit dazu wird etwas fehlen, sobald es dem Leser in den Sinn kommt, die Freunde auf etwas zu verweisen oder zu schauen, was andere zum letzten Kapitel zu sagen haben.

Sobooks deckt bereits einiges von dem ab, über das wir in diesem Bereich seit Jahren sprechen.

Christoph Kappes im Interview mit irights.info:

Der eigene Direktverlag ist unser Spielbein, mit dem wir Innovationen voranbringen wollen, wie neue Formate und die Autoren-Leser-Kommunikation. Die „Cobooks“ sind ja so entstanden; die haben wir uns selbst ausgedacht und sind sehr gespannt, ob Autoren diese Idee aufgreifen, eine quasi „mitkaufbare“ Rezension zu schreiben.

[..]

Was passiert mit einem Essay, wenn er online steht und unmittelbar kommentiert wird, wie Zeitungsartikel oder Blog-Beiträge? Hierfür haben wir ein „Sobooks-Lab“ für Autoren und Verlage;sie sollen experimentieren und an der Entwicklung teilhaben. Geplant sind auch Autorenabonnements, so dass Autoren über die Community ihrer Abonnenten neue Ideen entwickeln oder gar unterstützen lassen können.

An der ersten(!) Inkarnation der Social-Komponenten von Sobooks gibt es auf den ersten Blick wenig auszusetzen.

Erstaunlicherweise kommen gemeinfreie Bücher auf Sobooks bis jetzt nicht vor. Mitgründer Christoph Kappes bestätigte mir gegenüber, dass man sich durchaus die (dem Sobooks-Prinzip entsprechend selektive) Aufnahme gemeinfreier Bücher in die Sobooks-Plattform vorstellen kann. Mir scheint, dass man darüber aber noch nicht weitergehend nachgedacht hat.

Der Aufwand sollte sich dank der Vorarbeit von Project Gutenberg in Grenzen halten.

Hier liegen auch Chancen für Social-Reading-Plattformen wie Sobooks und Readmill im Bildungssektor. Entsprechende Gruppenfunktionen vorausgesetzt (also nichtöffentlich, auf gruppeninterne Interaktionen beschränkt), könnten Schulklassen etwa online gemeinsam im Unterricht und in kollaborativen Hausaufgaben direkt im Werk von Goethe, Shakespeare oder Schiller arbeiten und diskutieren.

Update: Christoph Kappes hat mich darauf hingewiesen, dass in den Sobooks Labs mit Franz Kafkas “Der Prozess”  ein gemeinfreies Buch zu finden ist. /Ende des Updates

Fazit

Amazon ist ein globaler Konzern, der seit Jahren seine Gewinne in neue Geschäftsfelder reinvestiert. Dem muss man sich bewusst sein, wenn man mit Amazon konkurrieren will. Besonders wenn es um einen Markt geht, der von Amazon verhältnismäßig geringe Investitionen verlangt. Die Übernahme von Goodreads mag die Branche erschüttert haben. Die vermuteten 150 Millionen US-Dollar, die Amazon dafür bezahlt haben soll, sind Peanuts für das Unternehmen, bedenkt man die strategische Bedeutung. Zum Vergleich ein paar Zahlen: Amazon-CEO Jeff Bezos hat persönlich 100 Mio. $ mehr für die Washington Post bezahlt. Amazon hat 2010 etwa für 540 Mio. US-Dollar Diapers.com übernommen. Zappos wurde mit Amazon-Aktien mit einem damaligen Gegenwert von umgerechnet 807 Mio. $ übernommen. Weit über 175 Millionen $ hat Amazon in LivingSocial investiert. Goodreads, die größte Community im Buchbereich: 150 Millionen US-Dollar.

Stellt man dem die Investitionen in Sobooks gegenüber, wird deutlich dass bei dem deutschen Dienst sehr viel kleinere Brötchen gebacken werden und man sich doch nicht richtig auf den direkten Kampf mit Amazon einlassen will. Christoph Kappes laut Buchreport:

Laut Kappes liegt das bisherige Investitionsvolumen im sechsstelligen Bereich, nehme man das Arbeitsvolumen hinzu, sei die Summe siebenstellig.

Es ist natürlich nicht grundsätzlich notwendig, in der gleichen Höhe wie ein etablierteres Unternehmen Investitionen zu tätigen, um mit diesem erfolgreich zu konkurrieren können. In diesem speziellen Fall verlangt der Hardwarehintergrund, siehe die Ausführungen zum Medienbruch, allerdings leider eine investitionsintensivere Herangehensweise als Sobooks (oder etwa auch Readmill) bis jetzt bereit ist zu gehen oder gehen kann. Das lässt sich unter Umständen mit Kooperationen, wie oben beschrieben, abfangen. Aber solang diese nicht kommen, wird der Erfolg beschränkt sein.

Social Reading ist ein spannendes Feld und Sobooks hat interessante Ansätze geplant. Aber Sobooks fehlt aktuell die Ausstatttung und vielleicht auch der Wille, um langfristig gegen Größen wie Amazon erfolgreich sein zu können.

Ein “Post-Amazon-Konzept” kann man erfolgversprechend nur angehen, wenn man bereit ist, auf der gleichen Ebene wie Amazon zu spielen. Den Eindruck macht Sobooks leider noch nicht.

Impotente Medien

Das starke Abschneiden der CDU/CSU in der Bundestagswahl, die nur knapp an der absoluten Mehrheit vorbeigeschrammt ist, wird an einigen Stellen auch als ein Versagen der Netzaktivistenszene gelesen, die die Bevölkerung nicht erreicht hat. Immerhin hat ausgerechnet die Partei ein für sie historisch gutes Ergebnis eingefahren, die seit Monaten den größten Überwachungsskandal der Menschheitsgeschichte verschleiert.

Es gibt ein Versagen, dieses Thema und seine weitreichenden Folgen der Bevölkerung nahezubringen. Aber es geht weit über die Aktivistenszene hinaus. Seit Monaten schreiben die deutschen Massenmedien von FAZ über Spiegel bis Süddeutsche über dieses Thema. Sie haben sich zum Teil erstaunlich festgebissen. Das ist erfreulich. Aber das Wahlergebnis zeigt uns eine düstere Wahrheit, die kaum jemand in der Presse wahrhaben will:

Die deutsche Printpresse hat anscheinend keinerlei Einfluss auf die Meinungsbildung in der Gesamtbevölkerung. Nicht nur das. Sie scheint auch nicht im Stande, die Stimmung der Bevölkerung erfassen und wiederzugeben können. Ganz zu schweigen davon, die Bevölkerung da abzuholen wo sie ist.

Wie ist es sonst zu erklären, dass trotz der Berichterstattung über einen Skandal, der kaum näher an der deutschen datenschützenden Seele sein könnte, diese Berichterstattung, die offen gegen das Verhalten der amtierenden Regierung anschreibt, dieser amtierenden Partei nicht einen Prozentpunkt kostet? Nicht Rückgang, nicht einmal Stillstand. Zuwachs. Ein historisches Ergebnis. Kurz vor der absoluten Mehrheit. Trotz des konstant medial präsenten Skandals. Und alle sind überrascht.

Was für ein Armutszeugnis für die deutschen Massenmedien.

Man kann sich nun streiten, woran das lag. Gründe gibt es reichlich. Meine Vermutung ist, dass es unter anderem auch an der Datenträgernostalgie der Journalisten liegt. Während die Auflagen der Tageszeitungen rückläufig sind, sind ihre Inhalte online seit Jahren nur bruchstückhaft vertreten. Immer mehr Menschen lesen nicht mehr Zeitungen für ihren Nachrichtenkonsum1. Immer mehr Menschen konsumieren ihre Nachrichten online. Die Zahl der Zeitungsabonnenten, die unter 30 sind, dürfte stark gegen Null gehen. Selbst die Zahl der Zeitungsabonnenten, die unter 40 sind, dürfte tendenziell fallen.

Eigentlich ist es nicht so schlimm und vollkommen normal, dass Leitmedien wie die FAZ oder die Süddeutsche nicht direkt die Mehrheit der Bevölkerung erreichen. Sie informieren die Eliten (und leben auch von der Wahrnehmung, von Eliten für Eliten zu sein. “Was ich hier lese, liest jeder wichtige Mensch im Lande ebenfalls.”). Und sie erreichen die Multiplikatoren, diejenigen, die in ihren Bekanntenkreisen besonders belesen und kundig sind. Wenn ich mich als gebildeter Bürger ausführlich über das Weltgeschehen informieren möchte, kann ich zwischen diversen Tageszeitungen wählen. Als Papier der einzige Datenträger für journalistische Texte war, war das kein Problem. Heute ist das Papier selbst das Problem. Heute wird das Festhalten am Papier ein Problem, weil mein Medienverhalten nicht mehr mit dem Datenträger kompatibel ist.

Das führt zu einer größer werdenden Spaltung der Diskurse. Weil die Durchmischung in der Bevölkerung zurückgeht, was den Konsum angeht. Wer heute eine Tageszeitung abonniert, hat nicht nur Interesse am Weltgeschehen sondern auch ein Faible für das alte Papierformat. Für alle anderen bleiben die verkrüppelten Onlineausgaben und die unbenutzbaren Apps.

Seit längerem vermute und befürchte ich eine größer werdende Diskrepanz zwischen den Medien und denen, die sie erreichen wollen und sollten. Langsam aber sicher scheinen wir zu spüren, was diese datenträgergetriebene Diskrepanz bedeutet.

Man konnte das seit Jahren auch an harten Zahlen beobachten. Während die New York Times über Jahre in den USA die reichweitenstärkste Nachrichtensite war, ist es hierzulande, im vermeintlichen Land der Dichter und Denker, Bild Online.

Auch wenn die hiesigen Massenmedien begonnen haben, sich mit dem Web anzufreunden weil es doch nicht weg gehen will und die Haptik des Papiers doch nicht das Killerargument schlechthin war, scheint der Schaden zumindest mittelfristig angerichtet. Der Datenträgerwechsel im Medienkonsum hat einen tiefen Graben geschaffen, der zu einer stärker werdenden Zersplitterung der Öffentlichkeit führt -nur eben anders als von Status-Quo-Apologeten befürchtet-. Diese Zersplitterung hat in jeder Hinsicht weit von der Realität der Bevölkerung entfernte, impotente Medien2 geschaffen.

Das sind keine guten Nachrichten für die deutschen Netzaktivisten. Da es in Deutschland in den letzten Jahren nicht zu einer starken vernetzten Öffentlichkeit gekommen ist,3 sind deutsche Netzaktivisten darauf angewiesen, ihre Themen über die massenmediale Bande4 in die Öffentlichkeit zu spielen.

Funktioniert die Bande nicht, das erleben sie gerade beim Überwachungsskandal, stehen sie hilflos und machtlos da. Sie sind so weit weg vom Rest der Bevölkerung wie die Journalisten, die gestern noch von der Haptik des Papiers schwärmten.

Und unsere Kanzlerin, die nicht stärker Machtmensch sein könnte, hat gerade den ultimativen Beweis erhalten, dass die Medien als Korrektiv sie im Zweifel nicht aufhalten können.

Einen historischen Skandal verschleiern. Über Wochen und Monate dafür in den Leitmedien angeprangert werden. Und trotzdem ein historisches Rekordergebnis bei der Wahl einfahren. Wer würde nicht machttrunken werden?

Uns stehen dunkle Zeiten bevor.


  1. Remember: Fallende Auflagen. 

  2. Natürlich haben sich die Onlineableger der deutschen Medien in den letzten Jahren gebessert, weil Online trotz geringer Einnahmen mittlerweile als wichtig erkannt wird. Aber dieser leichte Kurswechsel kam sehr viel später als der Umschwung in der Mediennutzung.
    Eine Folge ist unter anderem der nach wie vor unbeholfene Umgang mit dem Medium, weil Erfahrung, Marktexpertise und Experimentierfreudigkeit fehlen. Nur sehr selten wird vom klassischen Artikel, wie er auch im Print erscheinen könnte, abgewichen. Selbst die FAZ-Blogs arbeiten ausnahmslos mit epischen Texten statt mit Leichtfüßigkeit. Marken wie die Süddeutsche, die sich jahrelang mit absurden Klickgalerien lächerlich gemacht haben, verbreiten heute lustige Bilder auf Facebook oder Google+. Man könnte diese Aufzählung noch lang fortsetzen. 

  3. Ein Versäumnis all derer, die daran glauben, dass das Web unter dem Strich gesellschaftlich positiv ist, dies aber nicht als Grundlage für ihr eigenes Handeln genommen haben und über die Zukunft nur (in 140 Zeichen) geredet haben, statt sie zu gestalten. 

  4. Wie sehr die Aktivisten auf die Massenmedien angewiesen sind, hat man schön am Durchmarsch des Leistungsschutzrechts für Presseerzeugnisse sehen können. Selbst eine geschlossene Front nahezu aller Experten von Jura über Ökonomie bis Netzthemen gegen dieses Gesetz hat nicht gereicht, um gegen die Massenmedien eine starke Gegenöffentlichkeit bei diesem Thema aufzubauen. 

Warum Gründer nicht FDP wählen sollten

Deutsche-Startups.de hat eine Umfrage unter Gründern mit einem erstaunlichen Ergebnis durchgeführt. Die Kurzzusammenfassung:

Über 600 Gründer, Startupper und Mitarbeiter aus jungen Digitalfirmen haben sich in den vergangenen Wochen an unserer Umfrage zur Bundestagswahl, die wir gemeinsam mit SurveyMonkey gestemmt haben, beteiligt. Das nicht-repräsentative Ergebnis ist eindeutig: Die FDP kommt auf 21,4 %, die Union aus CDU/CDU auf 20,9 %. Die SPD landet bei 13,7 %.

Das ist eine echte Überraschung für jeden auch nur ansatzweise netzpolitisch interessierten Menschen. Die schwarz-gelbe Koalition hat eine katastrophale Bilanz in Netzthemen vorgelegt. Das scheint aber die deutschen Gründer und Mitarbeiter junger Webunternehmen nicht davon abzuhalten, diese Parteien, die sie ignorieren oder ihnen Steine in den Weg legen, weiter zu wählen. Warum ist das so?

Die FDP und ihr Klientelpolitikmarkt

Im Falle der FDP erscheint die Erklärung recht einfach. Die FDP hat es anscheinend geschafft, als wirtschaftsfreundliche Partei bei mäßig an Politik interessierten Menschen und bei Menschen, die schlicht keine Zeit für Politik haben, wahrgenommen zu werden. Diese Wahrnehmung ist allerdings falsch. Die FDP verfolgt zwar eine schlichte Rhetorik vom Markt als ein Wesen, das für das gesellschaftliche Wohl möglichst allein gelassen werden sollte, aber das ist nicht mehr als Rhetorik.1 Die FDP ist das Gegenteil ihrer Außendarstellung vom Wächter der Marktwirtschaft. Sie ist stattdessen in der Realität ein Verfechter ungleicher Chancen für alle. Was meine ich damit? Die FDP ist berüchtigt dafür, Klientelpolitik zu betreiben.

Ein konkretes Beispiel der Klientelpolitik der FDP, das nicht nur besonders frech ist sondern auch konkret indirekt Webstartups schadet, ist ein Teil des Wachstumsbeschleunigungsgesetzes, der eine Umsatzsteuererleichterung für Hoteliers brachte. Ein Geschenk an die Hotelbranche. Dieses Geschenk brachte niedrigere Steuereinnahmen und, natürlich, vorhersehbar, keine Wirtschaftswachstumsbeschleunigung. (siehe auch Wikipedia für eine ausführliche Kritik)
Diese Steuererleichterung wiederum schadet außerdem Webstartups, die mit Hotels konkurrieren. Wir sprechen hier von Plattformen, die Privatpersonen das temporäre Untervermieten freier Räume ermöglichen, also von Wimdu, 9flats, Airbnb. Diese Startups müssen für ihre Dienstleistungen einen höheren Umsatzsteuersatz verlangen als die mit ihnen konkurrierenden Hotels.

So funktioniert Klientelpolitik. Manch ein Gründer mag vielleicht hoffen, dass eine erfolgreiche FDP dem eigenen Startup ähnliche Vergünstigungen besorgen kann, aber das ist von der Realität losgelöstes Wunschdenken. Junge, verhältnismäßig kleine Unternehmen, die noch dazu zu einer zwar wachsenden aber noch nicht großen Branche zählen, haben weder das wirtschaftliche Standing noch die, im Falle der FDP notwendigen, Gelder um sich diesen politischen Einfluß zu kaufen. Denn es wird immer größere, einflussreichere, mit Lobbyismus besser vertraute Unternehmen geben, die dem entgegen wirken werden. FDPsche Klientelpolitik ist etwas für etablierte Unternehmen mit gefüllten Kassen, die ihre Profite nicht mit besseren Produkten steigern wollen (oder können) sondern auf Rent Seeking setzen.

Die Union und ihre Tendenz zu Schutzrechten für Legacyindustrien

Das sieht bei der CDU/CSU nicht anders aus. Die großen deutschen Presseverlage, angeführt von Axel Springer, haben die letzten 5 Jahre die Regierung erfolgreich bearbeitet, um ein von ihnen gewünschtes neues Gesetz einzuführen. Das sogenannte Leistungsschutzrecht für Presseerzeugnisse gibt den Presseverlagen, etablierten Unternehmen, ein Recht auf Kosten aller anderen Webunternehmen, die Pressebereiche berühren. (Siehe ausführlich hier für die bereits Ende 2012 vorhersehbar gewesenen Kollateralschäden) Hier wurde bewusst nicht nur Google sondern auch künftigen und bestehenden Startups wie etwa Linguee und anderen das Leben schwer gemacht, um Presseverlage zu befriedigen. Das ist keine startupfreundliche oder gar internetfreundliche Politik. Das ist eine Politik, bei der die Basis der Webstartups hierzulande weniger als Verhandlungsmasse ist; denn zum Leistungsschutzrecht gab es nicht einmal eine ernsthafte Verhandlung.

So funktioniert Klientelpolitik bei CDU/CSU und FDP. Für Altlastindustrien und gegen die Internetwirtschaft.

Was daran besonders schlimm und beunruhigend für deutsche Webgründer sein sollte: Der Druck auf viele etablierte Wirtschaftsbranchen wird durch die Umbrüche in den nächsten Jahren sehr viel stärker zunehmen. Dieser Druck wird sie motivieren, über die Gesetzgebung die Rahmenbedingungen zu ihrem Gunsten zu verändern. Die Geschichte des Presseleistungsschutzrechts sollte ein warnendes Beispiel sein. Die schwarz-gelbe Koalition hat hiermit ein für das Internet als Basis einer vernetzten Öffentlichkeit schädliches Recht verabschiedet. Ohne Rücksicht auf Verluste. Ohne die Bedenken nahezu aller juristischer und ökonomischer Experten zu berücksichtigen. Wenn die Vergangenheit ein Indiz ist, dann ist eine Weiterführung der heutigen Koalition ein Super-GAU für die aufstrebenden Internetbranchen. Die Frage ist bei einer solchen Ausgangslage nicht, ob Gesetzesvorhaben kommen werden, die Startups zugunsten etablierterer Unternehmen behindern, sondern wie viele.

Netzneutralität: Internetprovider statt Startups

Das Themenfeld der Netzneutralität ist ein weiteres Beispiel dafür, wie schädlich Union und FDP für die Internetwirtschaft sind. Es zeigt auch, wie simpel und deshalb oft irreführend das öffentlich vertretene Laienverständnis von Wirtschaft bei der FDP ist. Warum die Regulierung der Netzneutralität wichtig ist, habe ich hier ausführlich beschrieben: “Die Regulierung der Netzneutralität ist so wichtig wie die der Finanzmärkte
Die Kurzform: Profitmaximierung über Preisdifferenzierung auf der Zugangsebene benachteiligt die Newcomer (also Webstartups) systematisch, weil es um weitreichendere Abschöpfung der Renditen geht weg vom Web und hin zum Zugangsanbieter. Startups stehen ohne Netzneutralität strukturell schlechter da, weil sie sich gegenüber Internetprovidern in einer schwächeren Verhandlungsposition befinden.

Jimmy Schulz, einer der wenigen ernstzunehmenden Netzpolitiker der FDP, bezeichnete das Prinzip der Netzneutralität 2011 noch als ein ’Sozialismus-Internet’. Das zeigt recht schön, wie simplifizistisch jede Form von Regulierung in ein Schwarz-Weiß-Muster gepresst und jeder Kontext ausgeblendet wird.

Und heute? netzpolitik.org hat sich die Aussagen der Parteien zum Thema Netzneutralität angeschaut. Während die Telekom ihre Drosselkom-Pläne vorantreibt und auf EU-Ebene ein Zweiklassennetz abgesegnet zu werden scheint, sehen CDU/CSU und FDP keinen Handlungsbedarf. Markus Beckedahl:

Zusammengefasst kann man sagen, dass Grüne, Piraten und Linke sich am deutlichsten für eine gesetzliche Verankerung der Netzneutralität einsetzen und das auch begründen können, die SPD wahrscheinlich auch, die CDU vielleicht irgendwie und die FDP hat das Problem aus ihrer Sicht schon gelöst. Man kann auch sagen: Im Gegensatz zur CDU ist die FDP wenigstens ehrlich.

Auch hier hat die schwarz-gelbe Koalition die Internetwirtschaft im Stich gelassen.

FDP und CDU/CSU sind nicht nur internetfeindlich sondern auch im Zweifel immer auf der Seite der etablierten Industrien. Sie sind damit indirekt immer Aufsteller von Hürden für Startups. Die Rhetorik der Parteien von einer Gründungsfreundlichkeit, von der Bereitschaft, junge Unternehmen zu unterstützen, sollte besonders für Webstartups deutlich als eben solche inhaltsleere Worthülsen erkannt werden.
Es mag sein, dass FDP-Politiker eher offene Ohren für die Belange von Jungunternehmen haben. Aber diese offenen Ohren führen nicht zu Taten. Jede politisch erreichte marginale Bürokratieerleichterung wird belanglos, wenn von Union und FDP das nächste Schutzgesetz einer bedrohten Branche verabschiedet wird, das effektiv Startups in diesem Bereich Handschellen anlegt – oder diese mindestens von Steuervergünstigungen und ähnlichem ausschließt und somit strukturell benachteiligt.

Und so weiter

Man könnte dieses Spiel noch ewig weiter führen. Unter Schwarz-Gelb ist Deutschland etwa auf die hintersten Ränke beim Ausbau der Internet-Infrastruktur gefallen. Schwarz-Gelb interessiert sich schlicht nicht für das Internet und dessen Wirtschaft. Das zeigt dieses Zitat aus Sascha Lobos SPON-Artikel noch einmal recht deutlich:

Die Auflistung der 22 europäischen Volkswirtschaften mit den meisten Glasfaseranschlüssen beinhaltet Deutschland gar nicht erst. Weil die Darstellungsgrenze bei einem Prozent liegt. Das klitzekleine Russland kommt auf 14 Prozent Haushalte mit Glasfaser, das superreiche Bulgarien auf 17 Prozent, und in Litauen verfügen mehr als doppelt so viele Haushalte über Glasfaser wie in Deutschland. Und zwar in absoluten Zahlen.

Die schwarz-gelbe Koalition hat in vier Jahren nicht ein einziges Vorhaben zur Besserung des Internets in Deutschland oder gar direkt für  Webstartups angeschoben. Stattdessen hat sie die Rahmenbedingungen hierzulande extrem verschlechtert. Trotzdem soll sie mehrheitlich von den Mitarbeitern der Digitalbranchen gewählt werden. Bemerkenswert.

Wen stattdessen wählen?

Es mag unintuitiv erscheinen, aber deutsche Webgründer sollten Grüne oder Piraten wählen. Beide sind kleine Parteien, die entweder im Bundestag sind oder gute Chancen haben in den Bundestag zu kommen. Beide Parteien sind im Deutschen Parteienspektrum verhältnismäßig internetfreundlich. Das ist wie immer eine Frage der Perspektive, und vor allem die Grünen haben einen logischerweise konservativen, relativ starken Kulturflügel. Aber beide Parteien sind internetfreundlicher als die anderen Parteien. Aufgrund ihrer Größe können beide als leichter beeinflussbare Korrektive in potentiellen Koalitionen wirken. Und beide Parteien sind unverdächtig, Klientelpolitik zu betreiben. Wie bereits ausgeführt ist das wichtig für Startups, weil jede Partei, die dafür anfällig ist, tendenziell immer die jüngeren, ressourcenärmeren, Unternehmen zu gunsten der Etablierteren mit ihren tiefen Kriegskassen schlechter stellen wird.
Besonders wichtig für Webunternehmen: Sowohl die Grünen als auch die Piraten haben sich ohne Wenn und Aber für die Festschreibung der Netzneutralität ausgesprochen.
Selbst die SPD ist trotz (oder gerade wegen) ihres Wendehalscharakters eine bessere Alternative als FDP oder Union, weil sie nicht vollkommen frei von äußeren Einflüssen destruktive Klientelpolitik betreibt.

FDP und Union sind die denkbar schlechtesten Parteien, die man als Webgründer wählen kann. Sie arbeiten seit Jahren direkt oder indirekt gegen die Interessen der hiesigen Internetwirtschaft – wenn die Parteien die Branche gerade nicht ignorieren.

Fazit

Es ist erschreckend wie schlecht politisch informiert deutsche Gründer und ihre Mitarbeiter zu sein scheinen. Die Folge scheint ein Wahlverhalten zu sein, das komplett gegen ihre Eigeninteressen läuft.


  1. Und für nicht wenige FDP-Mitglieder und Anhänger ist das auch eine Laienvorstellung davon, wie Wirtschaft funktioniert. Der gemeine FDP-Anhänger hat, zumindest nach außen hin, eine simplifizierte neoklassische (man möchte sogar oft sagen klassische) Sichtweise auf die Ökonomie. Deren Schlussfolgerungen sind sehr einfach herunterbrechbar auf “der Markt” und “unsichtbare Hand” und “weg mit Regulierung”. Was die Steigerung des Gemeinwohls angeht, ist dieser simplizistische Ansatz nicht erst seit der Finanzkrise aber spätestens nach ihr für jeden sichtbar widerlegt. Wer an einem Stand der aktuellen Debatte und dem epidemologischen Ausmaß des Rent Seekings in unseren Wirtschaftsräumen interessiert ist, sollte Joseph Stiglitz’ “The Price of Inequality” lesen. Praktisch immer wird Rent Seeking als Marktliberalismus verkleidet. Wer mit der unsichtbaren Hand wedelt, sollte erst einmal Adam Smith lesen. Smith hat bereits in “The Wealth of Nations” darauf hingewiesen, dass gesellschaftliches Gemeinwohl und das Eigeninteresse von Unternehmern nicht zwingend Hand in unsichtbarer Hand gehen müssen.

Die Frage ist nicht ob, sondern wie viel Wirtschaftsspionage die NSA betreiben (lässt) und ermöglicht

Edward Snowden war kein Mitarbeiter der NSA.

“Der ehemalige NSA-Mitarbeiter Edward Snowden” ist eine der irreführendsten Verkürzungen in der Berichterstattung zum anhaltenden Überwachungsskandal. Snowden, dessen Offenlegungen der Machenschaften des US-amerikanischen Geheimdienstes NSA und des britschen Geheimdienstes GCHQ zum größten Skandal seit Jahrzehnten führten, war ein Mitarbeiter des Technologieberatungsunternehmens Booz Allen Hamilton. Dieses Unternehmen ist als Subunternehmen für die NSA tätig. Für Booz Allen Hamilton arbeiten aktuell 24.500 Menschen. Wie viele davon kompletten Zugriff auf die Datenschätze der NSA haben und mit wenigen Klicks die komplette private Online-Kommunikation ausgewählter Menschen überwachen konnten, so wie Snowden, ist unklar. Ebenso unklar ist, wie viele Mitarbeiter anderer Subunternehmen von der NSA neben allen NSA-Agenten vollen Zugang zu den Überwachungswerkzeugen erhalten. Behalten wir diesen Umstand im Hinterkopf.

Als der Guardian vor einigen Tagen berichtete, dass die NSA zur Deckung der Kosten der Zusammenarbeit, Millionen US-Dollar an Technologieunternehmen wie Yahoo und Google bezahlte, war die Empörung verständlicherweise groß. Sie war aber allerdings fehlgeleitet. Die naheliegende Annahme, die Technologiegiganten würden auf diesem Weg von der NSA direkt profitieren, ist unsinnig. Die NSA darf als Geheimdienst nur Kommunikation überwachen, die zumindest teilweise im Ausland stattfindet. Inländische Kommunikation darf sie nicht überwachen. Dieser rechtliche Rahmen verlangt, dass die NSA ihre das ganze Internet abschöpfenden Werkzeuge so einstellen muss, dass diese inneramerikanische Kommunikation nicht erfasst wird. Anscheinend benötigte die NSA hierfür die Hilfe der Technologieunternehmen, über die sie die Kommunikationsdaten der Nutzer weltweit erhalten. Haben sich also etwa US-Webunternehmen über die NSA auf diesem Weg bereichern können? Hat die NSA direkt zur Bilanzverbesserung beitragen können? Wohl eher nicht. Wir haben dank Edward Snowden gelernt, welche enormen Datenmassen weltweit erfasst werden. Mehr Daten als Googles Webindizierungsmachine soll die NSA “anfassen” also analysieren. Zu diesem Schluss kommen einige Experten wie etwa Sean Gallagher von der Technologiepublikation Ars Technica. Es erfordert eine eigene Infrastruktur mit entsprechenden Kosten um diese Daten vorfiltern zu können. Für einen Riesen wie Google, dessen Gewinn allein im zweiten Quartal 2013 3,24 Milliarden US-Dollar betrug, sind ein paar Millionen US-Dollar eher Peanuts als alles andere. Nicht die Zahlungen selbst sind also problematisch, sondern was sie implizieren.

Seit Beginn des Skandals haben die Unternehmen von Microsoft bis Google die Zusammenarbeit mit der NSA dementiert oder heruntergespielt. Natürlich dürfen sie über die Zusammenarbeit mit dem Geheimdienst in der Öffentlichkeit wenig sagen. Selbst das Ausmaß der Aktivitäten der Geheimdienste ist geheim. Das macht es bewusst einer informierten Öffentlichkeit unmöglich, über die Geheimdienste selbst zu urteilen. Aber die Diskrepanz zwischen Dementi und Realität ist erschreckend. Die Unternehmen dementieren die Zugriffe, während diese bereits ein Ausmaß angenommen haben, das Millionenzahlungen zur Deckung der Unkostenbeiträge notwendig macht. Warum haben die Unternehmen, allesamt Weltkonzerne, nicht einfach in einer gemeinsamen Aktion das Ausmaß der NSA-Aktivitäten offengelegt? Es ist einfacher, um Verzeihung zu bitten statt um Erlaubnis. Warum haben sich nur kleine Unternehmen wie Lavabit gewehrt?

Es stellt sich nun auch zunehmend die unangenehme Frage, wie eng sich die Zusammenarbeit zwischen den Unternehmen und dem Geheimdienst entwickelt, wenn man jahrelang gemeinsam an Datenschleusen baut. Geht man nach der Arbeit gemeinsam ein Bier trinken? Werden Gefälligkeiten ausgetauscht? Werden die Manager mit karrierefördernden Informationen beglückt, die besonders gut mit der NSA zusammenarbeiten? NSA-Agenten haben die Massenüberwachungswerkzeuge auch missbraucht, um Geliebten hinterherzuschnüffeln. Was wäre da eine kleine Email-Schnüffelei bei Mitarbeitern konkurrierender Unternehmen für Freunde, für willfährige Gehilfen? Und wie oft erkauft sich die NSA eine Zusammenarbeit, die vielleicht über das notwendige hinausgeht, in dem sie mit ihren gesammelten Informationen handelt?

Jede staatliche Insitution arbeitet mit einem begrenzten Budget. Selbst einem üppig ausgestattetern US-Geheimdienst stehen begrenzte jährliche Mittel zur Verfügung. Jede budgetierte Institution stößt immer an die Grenzen dieses Budgets. Wer, der auf einem schier endlosen Goldschatz sitzt, würde diesen nicht einsetzen, um mit diesem die Grenzen des eigenen Handlungsspielraums zu vergrößern? Warum sollte ausgerechnet ein Geheimdienst, dessen Direktor gegenüber dem eigenen Congress gelogen hat, freiwillig aus Rücksicht auf deutsche Unternehmen darauf verzichten, US-Unternehmen gegen ein wenig Wohlwollen hier und ein wenig Kooperation da über deutsche Wirtschaftsgeheimnisse zu unterrichten? Vor allem, wenn dafür weder Strafen oder auch nur Druck von der US-Regierung noch von der deutschen Bundesregierung zu befürchten sind?

Wir wissen mittlerweile, dass mindestens 1.000 Systemadministratoren einen kompletten Zugriff auf das NSA-System haben, wie es Edward Snowden hatte. Ein Zugriff, der nicht rückverfolgbar ist. Die ‘Lösung’ der NSA ist die angekündigte Kündigung von 90 Prozent dieser Administratoren. Wie viele dieser Mitarbeiter werden wie Snowden Geheimnisse, oder nennen wir sie massive Überwachungsdaten, heimlich kopiert haben? Wie viele werden statt an die Öffentlichkeit zu gehen sie meistbietend verkauft haben? Wie hoch ist die Wahrscheinlichkeit, dass es niemand gemacht hat? Wie hoch ist sie vor allem, wenn sie alle wissen, dass ihre Aktivitäten im NSA-System keine Spuren hinterlassen?

Es wird Zeit, dass die deutsche Wirtschaft anfängt, sich dieser Tatsachen bewusst zu werden und beginnt, bei der Bundesregierung Druck zu machen.

Es kann nicht sein, dass die Kommunikation aller Bundesbürger im Internet, und dazu zählen auch Unternehmensmitarbeiter, die Onlinewerkzeuge oder gar nur Email nutzen, überwacht werden. Es kann nicht sein, dass diese gesammelten Überwachungsdaten in einem System landen, das nicht ansatzweise sicher vor Missbrauch ist. Und vor allem kann es nicht sein, dass der Bundesregierung die Existenz dieses Systems, dieses Rechtsbruchs für deutsche Staatsbürger und dieses unglaublich gigantischen Missbrauchspotenzials egal ist. Bundesinnenminister Hans-Peter Friedrich (CSU) und Staatsminister Ronald Pofalla versuchen konstant, den Überwachungsskandal für beendet zu erklären; kommen neue Informationen an’s Licht, wiederholen sie stupide ihre Beendigungserklärungen.

Die Bundesregierung Merkel hat den internationalen Überwachungsskandal in Deutschland auch zu einem Vertuschungsskandal gemacht.

Nicht die gezahlten Millionen US-Dollar der NSA oder andere Nebenkriegsschauplätze sollten erzürnen. Erzürnen sollte diese Vertuschung massenhafter Überwachung und als ihr Ergebnis ein ausländisches System, das Missbrauch geradezu einlädt. Dass die deutschen Wirtschaftsverbände keinen spürbaren öffentlichen Druck auf die Bundesregierung ausüben, damit diese endlich angemessen als eines der reichsten Industrieländer der Welt auftritt, den uns ausspionierenden befreundeten Nationen klar sagt “So nicht!” und notfalls auch mit Sanktionen droht, ist mehr als verwunderlich. Vor allem, da wir uns nur wenige Wochen und Tage vor einer Bundestagswahl befinden. Es gibt eigentlich keine bessere Zeit, um einer künftigen Bundesregierung das Zugeständnis abzuringen, einst für selbstverständlich gehaltene Rechte angemessen zu verteidigen.

Es geht hier nicht “nur” um unsere Grundrechte. Es geht hier auch um das, was CDU/CSU und FDP am wichtigsten ist: Um unsere Wirtschaft, unsere Arbeitsplätze und damit unser Geld.

-

Anmerkung: Diesen Text habe ich vor zwei Wochen im Auftrag geschrieben. Er wurde von der beauftragenden Publikation abgelehnt.

Der Super-GAU für den Wirtschaftsstandort Deutschland

Das Ausmaß des Abhörskandals und die Konsequenzen, die wir noch lange spüren werden, können kaum überschätzt werden. Mit einem Schlag wurde uns in den letzten Tagen gezeigt, dass unsere Privatsphäre so wenig zählt wie unser Grundgesetz oder die Souveränität unseres Landes. Das alles ist, so wird uns nun bewusst, noch weniger als Verhandlungsmasse, weil unsere Regierung diese Dinge im Zweifel auch ohne Verhandlung aufgibt.

Dass keine rasche, vehemente Reaktion einer alerten Bundesregierung auf den Abhörskandal folgte, sondern stattdessen, man hätte eine Steigerung dieser unionsgeführten Regierung nicht zugetraut, wieselndes Herumdrucksen an allen Fronten einsetzte, könnte der Politikverdrossenheit in diesem Land einen neuen Rekordwert verschaffen. Die Grundpfeiler unserer Demokratie wurden massivst erschüttert und die Bundesregierung verhält sich, als wären Kavaliersdelikte aufgedeckt wurden, deren Bedeutung erst noch erörtert werden müssen.

Das ist alles bereits bei weitem schlimm genug, aber die langfristigen Folgen sind sehr viel weitreichender. Deutschland ist ein Land, in dem es bis noch vor zwei, drei Jahren unter den Eliten des Landes nicht nur legitim sondern en vogue war, das Internet an sich für ein vergängliches Spielzeug zu halten und allen Ernstes frei von Selbstreflektion und damit Erkenntnis, wer Vater des Gedankens sein könnte, die Haptik von Zeitungen und Büchern als Allheilmittel gegen den Medienwandel in’s Feld zu führen. In Deutschland kann ein Bestseller 2012 “Digitale Demenz” lauten und trotz offensichtlicher Mängel bei Argumentation, Logik und Sachverstand des Autors, mit vollem Ernst in Zeitungen und TV diskutiert werden.

Zähneknischend hat man sich von der Spielzeugsicht in den letzten Jahren verabschiedet. Das Internet wollte nicht weggehen und wurde stattdessen immer wichtiger. Und die unverbesserlichen Deutschen googeln nicht nur mit Google jeden Tag millionenfach sondern benutzen auch Facebook, die andere satanische Brut kalifornischer Herkunft, und machten sie zum populärsten Social Network in Deutschland; hinter Google-Tochter YouTube. Folglich ging man in den Leitartikeln und auf den Titelseiten dazu über, auf einzelne (US-)Webunternehmen einzuschlagen statt das gesamte Internet hinfortzuwünschen.

In den ersten Tagen, in denen dank der bewundernswerten Courage und des Mutes von Edward Snowden die ersten Informationen über PRISM an die Öffentlichkeit gelangten, konnte man deshalb förmlich einen kollektiven Seufzer der Beruhigung aus den konservativen Redaktionen Deutschlands vernehmen. Das Internet, endlich hat es einen Makel. Einen systemischen noch dazu. Welch Glück! Die NSA kann nicht einfach über Ihre Schulter schauen, während Sie Texte in der papiernen Zeitung lesen. Also besser nicht das Abo abbestellen! Im Internet dagegen, da haben Sie keine Privatsphäre. Nie gehabt. Und jetzt, da auch Sie es wissen, gehen Sie für Privatsphäre, das wird uns von einem Redakteur des Politikressorts der ZEIT allen Ernstes empfohlen, einfach für Gespräche in den Wald, wie damals zu DDR-Zeiten. Das ist nicht nur Resignation, das ist auch ein gutes Stück Häme. Resignation und Häme, wo eine Gesellschaft geschlossen für die Rechte einstehen sollte, für die sie bis vor kurzem zu stehen vorgab. Häme der Leute, die online nur Google, Email und maximal Amazon benutzen. Die Leute, die mit den für viel Geld für ihre Publikationen entwickelten und deswegen von jeder Usability weit entfernten Content-Management-Systemen hadern. Die Leute, die nicht verstehen, was so viele jeden Tag auf Facebook oder Twitter machen.

Man kann insofern froh sein, dass mittlerweile auch bekannt wurde, dass Telefongespräche mitgehört werden, dass Telefonverbindungsdaten gespeichert werden und dass sogar die deutsche Post Briefsendungen protokolliert und die Daten in’s Ausland weiterleitet. Man kann also froh sein, dass die massive Ausspioniererei deutscher Staatsbürger durch ausländische Geheimdienste nicht nur im Internet, dem elitenfernen Netz der Freaks, passiert sondern auch da stattfindet, wo die deutschen Eliten sich bewegen und kommunizieren: Post, Telefon, mit Sicherheit auch Fax und (EU-)Büros.

Der Schaden ist aber nun da und wird nicht weg gehen, selbst wenn auch die Faxgemeinde ins Mark getroffen wird. Wer glaubt, dass Angela Merkel, das einzige westliche Regierungsoberhaupt, das Magierin, Kaninchen und Hut zugleich ist, zu einem historischen Schritt in der Lage ist, macht sich etwas vor. Angela Merkel hat acht Jahre lang keine inhaltliche Position gegenüber ihrem Volk eingenommen, auf das der gemeine Wähler von der Straße verweisen könnte; von der unsäglichen, die EU zerstörenden Austerity-Politik abgesehen. Das ist auch ein Versagen der Medien: Die Bundeskanzlerin nutzt konstant eine Schwäche der Massenmedien aus. Indem sie nie Stellung bezieht, macht sie sich dank fehlender Zitierbarkeit unangreifbar und folglich wird nichts negatives im kollektiven Bewusstsein mit ihr in Verbindung gebracht.

Weil die deutschen Medien sie praktisch nie dafür anprangern, unterstützen sie das systematische Für-nichts-stehen der Kanzlerin, die nur reagiert, wenn der öffentliche Druck zu groß wird. Folglich sind diese Reaktionen immer mehr oder weniger folgenlose Lippenbekenntnisse wie der ‘Atomausstieg’ nach der japanischen Kernschmelze. Angela Merkel nimmt niemals eine Position ein, die im eigenen Land kontrovers diskutiert würde. Im System Merkel verlieren die Politiker, die öffentlich Stellung beziehen, weil sie sich medial angreifbar machen. Merkel dagegen verweigert den Medien Zitate und Referenzierbares. Positionslosigkeit wird medial indirekt belohnt. Eine so agierende Politikerin wird niemals versuchen, die USA, unseren Freund, Helfer und Abhörer, zu einem historischen Abkommen zu bewegen, das Grundrechte international absichern würde. Die Axel-Springer-Presse würde das nicht zwingend gut finden und die Chance, zu scheitern, ist groß. Eine Machtpolitikerin wie Angela Merkel, der Bürgerrechte inhaltlich egal zu sein scheinen, wird dieses Risiko niemals eingehen. Dann lieber Lippenbekenntnisse der US-Regierung einholen und aussitzend darauf hoffen, dass die Medien ein anderes Thema finden und diese Sache vergessen.

Es wird also unter einer Merkel-Regierung keinen Vorstoß geben, der die USA zum Einlenken zwingt und der deutschen Bevölkerung ihr Vertrauen in die Benutzung des Webs zurückgibt. (Nur damit hier keine Missverständnisse aufkommen. Die USA sind mächtig, egoistisch und arrogant und die NSA und ihrer Verbündeten würden sich mit Händen und Füßen wehren gegen ein internationales Abkommen, dass ihren Handlungsspielraum massgeblich einschränken würde. Aber ein fest entschlossenes Deutschland hätte schnell die Mehrheit der EU-Staaten und mit hoher Möglichkeite alle EU-Staaten hinter sich. Die USA braucht das kommende Freihandelsabkommen mit der EU mindestens so sehr wie die EU und kann sich keine Abkühlung der Beziehungen zu Europa erlauben. Europa dagegen hätte Optionen, die nicht zwingend attraktiv, aber doch existierende Optionen sind: China, Indien und Russland etwa wären sicher an engerer Zusammenarbeit mit einem mit der USA fremdelnden Europa interessiert. Allein diese Aussicht dürfte für einen transatlantischen Poker nicht unerheblich sein.)

Das ist ein Problem für Deutschland, das bereits eine eher schwache Internetwirtschaft hat. Es mag sein, dass eine Imagekampagne deutscher Webstartups eine Chance für die hiesige Wirtschaft sein könnte. Aber dass es noch keine gibt, kann zwar ein Hinweis auf politisches Desinteresse bei deutschen Webstartups sein (kein geringer Teil der Gründer und Belegschaften Berliner Webstartups spricht übrigens wenig bis fast kein Deutsch), wahrscheinlich ist aber auch, dass das Problem tiefer liegt.

Jedes deutsche Startup, dass auf Amazons Cloud-Computing AWS setzt, um etwa Bilder auszulagern, kann nicht mit “Datenschutz made in Germany” werben. Das gleiche gilt für Startups, die Cloudflare einsetzen, Facebook-Logins anbieten oder andere Cloud-Computing-Lösungen für das eigene Angebot nutzen. Von iOS- und Android-Apps, die alle auf US-amerikanischen Betriebssystemen stattfinden, ganz zu schweigen.

Globale Arbeitsteilung existiert auch und gerade in der Webwirtschaft. Und besonders hier dominieren US-Anbieter, weil sie qualitativ oft überlegen sind. Was wäre nun die Option für deutsche Startups? Auf all die Erungenschaften der letzten Jahre verzichten? Auf die leicht skalierbare Auslagerung mit S3 und co. verzichten? Das ist nur dann kein Problem, wenn man auch auf die eingebaute Viralität von Facebook verzichtet. Denn dann hat man mangels Reichweitenexplosion auch kein Skalierungsproblem mehr.

Frank Schirrmachers Naivität, wenn er zum wiederholten Male europäische Alternativen zu Google und co. fordert, wäre in einem anderen Zusammenhang geradezu liebenswert, wenn sie nicht von einem FAZ-Herausgeber kommen würde, der erstens längst wissen müsste, dass es staatlich finanzierte Alternativflops gab als auch, dass gerade sein Verlag im juristischen Alltag (gegen Perlentaucher, Commentarist etc.) als auch auf Gesetzgebungsebene (Presseleistungsschutzrecht) mit allen zur Verfügung stehenden Mitteln gegen eine deutsche Internetwirtschaft arbeitet. Ganz davon abgesehen, dass privatwirtschaftliche Alternativen nicht aufgrund von Forderungen entstehen.

Ein “Social Web made in Germany” ist keine Option. Es ist so realistisch wie ein Deutschland, das weder Güter importiert noch exportiert. Wer also ein Web rein deutscher oder europäischer Bauart als Lösung sieht, ist hoffnungslos naiv und weiß nicht, wie die heutige Internetwirtschaft arbeitet und wo sie sich hinbewegt. Die wahrscheinlichere Richtung, die das digitale Deutschland dagegen einschlagen wird ist düster: Das einzige Land weltweit mit Presseleistungsschutzrecht und verpixeltem Street View wird seinen Marsch auf die hinteren Ränge fortsetzen. Der Makel des privatsphärenfreien Internets wird dazu führen, dass der fehlende Wille zum Breitbandausbau nicht in Frage gestellt wird. Er wird die von der jahrelangen Hysterie der Kalifornienhetze der deutschen Presseverlage und TV-Sender verunsicherte Bevölkerung davon abhalten, eine vorsichtige Neugier zu entwickeln. Kurzum, der Abhörmakel des Internets wird den wichtigsten Wirtschaftszweig des 21. Jahrhunderts in Deutschland weiter diskreditieren. Aus dem Very-Late-Adopter-Land wird ein Never-Adopter-Land werden und man kann es ihm nicht einmal verdenken.

Besser als „Deutsches Google” wäre ein Europäischer Crawler, der seinen Index offen allen Anbietern bereitstellt

Server

 

Angenommen, man wolle ergebnisorientiert auf Deutscher Ebene, oder besser auf Europäischer Ebene, tatsächlich die Dominanz von Google im hiesigen Suchmaschinenmarkt senken; angesichts des 90+%-Marktanteils von Google etwa in Deutschland nicht zwingend verkehrt. Wie müsste man vorgehen? Eine staatliche Suchmaschine, wie das leicht zu vergessende Millionengrab „Deutsches Google”, ist sicher nicht die zielführendste Antwort.

Zunächst müsste man sich fragen, wo die Markteintrittsbarrieren im Suchmaschinenmarkt liegen und wie man diese mit staatlicher Hilfe senken könnte, um so das Ziel größeren Wettbewerbs zu erreichen.

Neben den Erfahrungswerten in der Gewichtung der Ergebnisse (Semantik, Rankingalgorithmen und Spambekämpfung) liegt die größte Markteintrittsbarriere bei Suchmaschinen vor allem in der aufwendigen Indizierung des Webs. Google indiziert mittlerweile neue Webseiten von bekannten Webpräsenzen innerhalb von Minuten(!). Das ist auch dank dem jahrelangen Aufbau von effizienten Serverparks in der ganzen Welt möglich. Das kann kein Startup mal eben nachmachen, weshalb es weitaus mehr Suchmaschinen als Crawler gibt.

Um der Konzentration auf dem Suchmaschinenmarkt staatlich entgegen zu wirken, ist es sinnvoll, eine oder mehrere dieser Hürden zum Markteintritt zu senken. Statt eine komplette gleichwertige Suchmaschine aufzusetzen, was eine zu hoch gesteckte Aufgabe ist, sollte die EU hier sich stattdessen auf die mit hohen Investitionen verbundene Infrastruktur konzentrieren. Diese wäre in diesem Fall der Webindex. Ein EU-Projekt könnte das öffentliche Web indizieren, umfänglich und schnell, und sich einzig darauf konzentrieren. Keine Bewertung, kein staatlicher Suchschlitz, nur der Index. Dieser könnte dann via Programmierschnittstelle kostendeckend anderen Institutionen, also Startups, NGOs und anderen Regierungsstellen, angeboten werden. Jetzt kommt die Arbeitsteilung ins Spiel: Diese könnten nun bei der Wertung und Verknüpfung innovativ tätig werden. (Natürlich könnte man auch zusätzlich ein Ranking anbieten und andere Aufgliederungsfaktoren, wie Themencluster, Sprachen etc. Wichtig ist die Konzentration auf die Vorstufe, also die Lieferung des ‘Rohmaterials’ sozusagen.)

Entscheidend ist die Beschränkung auf eine Ebene der Wertschöpfung, die investitionsintensiv ist und deshalb zu einer Markteintrittsbarriere für Suchmaschinen wird. Auf der Ebene, auf der Innovation gefragt ist, ist der Markt die bessere Lösung.

Das alles bedeutet nicht im Ansatz, dass Google Marktanteile und damit seine Marktmacht in Europa mittelfristig einbüßen würde. Es kommt nicht von ungefähr, dass Microsoft seit Jahren unzählige Millionen US-Dollar in seiner Suchmaschine versenkt ohne Google merklich weh zu tun.

Aber im Gegensatz zu einem staatlich finanzierten Suchmaschinenprojekt, das dank eines Alles-oder-Nichts-Ansatzes mit großer Wahrscheinlichkeit immer ein Millionengrab sein wird, könnte die Bereitstellung der Infrastruktur Innovationen im europäischen Digitalmarkt befördern. Für den Standortvorteil könnte man europäischen Unternehmen den Zugang zum Index und weiteren Daten auch unter Kosten anbieten. Subvention eben.

Sicher gebe es noch weitere Überlegungen, die man in dieser Richtung anstellen könnte. Entscheidend ist lediglich, zu wissen, wo die Hürden liegen und wo entsprechend staatliche Organisation und wo der Markt zum Einsatz kommen sollte, um ein bestmögliches Ergebnis zu bekommen. Und welches Ergebnis man möchte.

Wir wollen schließlich nicht, dass deutsche Innenpolitiker in einem Jahr ein “deutsches Facebook” fordern.

(Foto: Torkildr, CC-BY)

Hinweis im Code: Arbeitet Facebook an einer Integration von RSS-Feeds in den Stream?

allfacebook.de berichtet über einen interessanten Fund im Code von Facebook, der auf eine künftige Integration von RSS-Feeds in den Stream hindeutet. Die Deutung von allfacebook.de geht eher in Richtung eines Ersatzes von GoogleReader, was ich für relativ unwahrscheinlich halte:

Heute nun hat Tom die nächste große Überraschung auf Lager. Facebook könnte mit einem eigenen RSS Reader an den Start gehen. Nur zwei Wochen bevor Google den mehr als beliebten Google Reader komplett einstellt, wäre diese Entwicklung wirklich brisant. Denn mit einem brauchbaren Ersatz für den Google-Reader könnte Fcebook sich auch im beruflichen Umfeld einen Platz sichern. Der Besuch auf Facebook ließe sich damit als Arbeitsplattform legitimieren. Die Verweildauer auf Facebook würde weiter steigen.

Natürlich hat Tom für diese Annahme wie immer auch eine konkrete Vermutung. So findet sich neuerdings im Open Graph ein Schema, das für jeden Nutzer eine Anzahl von RSS-Feeds speichern kann. Und der Name, sowie die Felder des Schemas, sagen schon aus: Hier geht es explizit um RSS-Feeds, nicht um Facebook-Listen oder Abonnenten.

Sehr viel wahrscheinlicher als ein vollwertiger Readerersatz von Facebook ist die Möglichkeit für Nutzer, neben den Updates von Facebookfansites auch Updates von Websites zu abonnieren, die ihre Neuigkeiten nicht auf Facebook abonnierbar machen. Diese Updates würden dann ähnlich in Streamform integriert wie man das vom Newsfeed von Facebook kennt.

Facebook könnte die RSS-Feeds crawlen und ein Verzeichnis anlegen, so dass man nur die Lieblingswebsites eingibt und die Facebookabomöglichkeiten zu sehen bekommt. Zusätzlich könnte Facebook ein Bookmarklet anbieten, das ähnliches macht (Mit einem Klick Feeds identifizieren und die ausgewählten Feeds im Facebook des Nutzers abonnieren).

So oder so, eine RSS-Integration bei Facebook wäre eine extrem spannende Entwicklung, die RSS mainstreamfähig machen könnte. Natürlich würden die Nutzer dabei die Abkürzung RSS nie zu sehen bekommen.

Man bedenke in diesem Zusammenhang auch, dass Facebook begonnen hat verschiedene, angepasste Streams für unterschiedliche Updatearten anzubieten. RSS-Abos würden wohl einen eigenen Stream bekommen müssen oder mindestens mit den Updates von Facebookfanpages in einen Streamtopf fallen, weniger mit denen von Freunden.

Vielleicht hat Facebook auch etwas ganz anderes mit RSS vor. Dass Facebook aber überhaupt mit RSS experimentiert, während Google dem offenen XML-Standard den Rücken zukehrt, sagt viel über den aktuellen Stand im Web aus.

(via Rivva)

Coworking-Spaceökonomien

Wenn ich mich mit erwachsenen Menschen über Coworking Spaces unterhalte, weiß die eine Hälfte nicht, was das ist, und die andere hält es für halt wieder so ein schillernd-sinnloses Hipster-Ding, das nur in Berlin existieren kann. Die Berichterstattung beschränkt sich bisher weitgehend auf “Viele Freiberufler fühlen sich einsam, wollen nicht alleine arbeiten” oder irgendwas mit Café Oberholz und Latte Macchiato. Dabei gäbe es über Ursachen, Folgen, Entwicklung und Ökonomie der Coworking Spaces viel zu sagen. Einiges davon wird auch gesagt, nämlich im Onlinemagazin deskmag.com, dessen Lektüre auch denen ans Herz gelegt sei, die (so wie ich bis heute Nachmittag) glauben, sie wüssten schon alles, was es über Coworking Spaces zu wissen gibt. Eine Auswahl:

  • Ein bisschen Geschichte und Statistik, Stand August 2012: ”Wir zählten 1779 Coworking Spaces, 93% mehr als letztes Jahr. Knapp 700 davon befinden sich in den USA, etwas mehr als 700 in der EU. Innerhalb der Europäischen Union bleibt Deutschland mit 167 Coworking Spaces an der Spitze. Spanien und Großbritannien legten hier am stärksten zu und besitzen jetzt jeweils 114 und 98 Coworking Spaces.”
  • Update, April 2013: “Mehr als 110,000 Menschen arbeiten heute in einem von knapp 2500 Coworking Spaces weltweit. Gegenüber dem Vorjahr existieren heute 83% mehr Coworking Spaces, die insgesamt 117% mehr Mitglieder betreuen! Auf Werktage umgerechnet, entstanden weltweit in den letzten zwölf Monaten täglich 4,5 neue Coworking Spaces.”
  • Coworking mit Kindern: “Der Coworking Space bietet Plätze für 24 Kinder im Alter zwischen 0 und 8 Jahren und fast genauso viele Arbeitsplätze für ihre Eltern, eine Etage darüber. Mit diesem Kombikonzept räumten die Gründer Shazia Mustafa und ihr Mann, Yusuf Chadun bereits mehrere Auszeichnungen ab.”
  • Kostenlose oder fast kostenlose Coworking-Plätze in den Niederlanden: “Vor vier Jahren erweiterte Seats2Meet das Konzept. Sie schufen große offene Arbeitsbereiche und luden Personen ein, ihren Laptop zu schnappen und vorbeizukommen. Darüber hinaus gibt es mittags ein Buffet sowie Tee und Kaffee so viel man möchte. Das alles steht für die Nutzer kostenlos zur Verfügung.”

Google Glass oder wie ‘Duke Nukem Forever’ die Welt veränderte

Duke Nukem war eine populäre Spielereihe in den Neunzigern des letzten Jahrhunderts. 1996 wurde Duke Nukem Forever als nächstes Game der Serie angekündigt. Duke Nukem Forever wurde die folgenden Jahre zu einem running gag unter Gamern und Geeks, weil es mit konstanten Ankündigungen und Verzögerungen das beste Beispiel für ‘Vaporware’ wurde; für ein angekündigtes Produkt, das nicht auf den Markt kommt. Duke Nukem Forever kam schließlich heraus, als niemand mehr damit rechnete. Nämlich 2011, 15 Jahre nach der Ankündigung. In Spielbranchenjahren ist das vergleichbar mit einem 2011 in die Kinos kommenden Film, der 1950 angekündigt wurde. Duke Nukem Forever ist, um die Tragödie zu vervollständigen, kein gutes Spiel geworden.

Bevor Duke Nukem Forever herauskam, konnte niemand vorhersagen, ob das Spiel gut oder schlecht wird, oder ob es überhaupt jemals herauskommt. Nichts an Duke Nukem Forever war von außen vorhersehbar. Es kommt 2011 heraus, ist abstoßend sexistisch und rundherum ein schlechtes Spiel? Wer hätte das in den Jahren davor vorhersagen können?

Wearable Computers, also kleine Computer, die man immer dabei hat, die man trägt wie die eigene Kleidung, werden eine wichtige Kategorie in der Post-PC-Welt, in der wir uns zunehmend bewegen.

Wie diese Kategorie aussehen wird, ist noch relativ offen. Es ist unbekanntes Terrain. Google pusht allerdings recht erfolgreich sein eigenes Google-Glass-Projekt und die Tech-Beobachter, Journalisten wie Blogger, sind weltweit begeistert. Weil Computer im Gesicht, Panik, Zukunft, alles anders, schlechter, besser, hurra, Pageviews.

Beispielsweise sind auf netzwertig.com allein bisher 12 Artikel über Google Glass erschienen, auf Mobilegeeks über 15 Artikel. Und sie sind nicht allein. Google News zählt bereits 80.000 Erwähnungen von Google Glass. Es wurden also unzählige Artikel verfasst, ein Großteil davon Spekulationen über die gesellschaftlichen Auswirkungen, über ein Produkt, das weder am Markt ist, noch von dem bekannt ist, zu welchem konkreten Preis und mit welchen Spezifikationen es erscheinen wird.

Jetzt bastelt Google, das selbst nur marginale Hardwareerfahrungen hat, an einem Computer, der der erste seiner Kategorie sein wird. Es ist weder bekannt, wie Google Glass ausgestattet sein wird, welche unterschiedlichen Preisstufen es geben wird, noch welche Batterieleistung man etwa erwarten kann. Carsten Drees steigt also folgerichtig in den jüngsten Google-Glass-Artikel auf Mobilegeeks mit diesem Satz ein: ”Google Glass wird eine große Nummer, dessen bin ich mir sicher.”

Es gibt nichts, dessen man sich bei Google Glass aktuell sicher sein kann.

Vor allem nicht, ob Google Glass tatsächlich das gesellschaftliche Erdbeben auslösen wird, von dem so viele Beobachter auszugehen scheinen. Wenn überhaupt, dann deutet diese bizarre Debatte im Vorfeld des  Produktlaunchs (<- die letzten Wörter formen einen Euphemismus) darauf hin, dass die Unterkategorie Smartbrille nicht die populärste Form von Wearable Computing wird, weil Kontroverse und damit Unpraktikabilität bereits eingebaut sind. Ich persönlich glaube, dass Smartwatches als Kategorie sehr viel besser geeignet sind populär zu werden, aber das ist ein Thema für einen anderen Artikel.

Smartbrillen (ja, gewöhnt euch daran) sehe ich nicht im Alltag von Menschen ankommen, die keine verrückten Geeks sind. Zumindest nicht in absehbarer Zeit. Ich sehe die Anwendungsfälle für Smartbrillen eher wie John Gruber bei spezifischen Szenarien wie in der Chirurgie oder ähnlichen Situationen, in denen eine Computerunterstützung sinnvoll ist, die Inputmöglichkeiten aber beschränkt sind.

Das ist natürlich weitaus unaufregender als die Vorstellung einer Gesellschaft, in der jeder eine Kamera im Gesicht hat.

Google Glass soll am Anfang voraussichtlich um 1.500 US-Dollar kosten. 1.500 US-Dollar, vielleicht ein bisschen mehr, vielleicht ein bisschen weniger.

Wie lang wird die Batterie von Google Glass halten? 5 Stunden? 10? 15?

Wie viele Personen werden sich Google Glass kaufen, wenn es in einem oder zwei Jahren vielleicht auf ein Drittel fällt? Kann der Preis überhaupt so schnell so weit fallen? Wären 500 US-Dollar, für die man bereits gute Tablets bekommt, dann schon ein Schnäppchen? Wie leicht kann Google Glass im Alltag kaputt gehen? Wer übernimmt den Hardware-Support? Google?

Wie viele Millionen Menschen werden weltweit einen teuren Brillencomputer kaufen, der leicht kaputt geht und dessen tatsächliche Nutzung auf wenige Stunden beschränkt ist? “Millionen”?

Wie kann man all diese Fragen ausblenden und sich allein auf die PR von Google stützen? Ist es die Angst, einmal nicht das nächste große Ding voherzusagen und deshalb lieber im Zweifel alles als das nächste große Ding zu sehen?

Es wäre einfacher gewesen, das 2011er Duke Nukem Forever vorherzusagen als die Marktchancen und, noch eine Nummer größer, die gesellschaftlichen Implikationen eines erfolgreichen Google Glass. Die unbekannten Variablen bei Google Glass könnten vielfältiger kaum sein.

“Wer heute täglich über Google Glass spekuliert, spekulierte auch: -2009 über die Auswirkungen von Microsoft Surface auf die Tischindustrie.”

Microsoft Surface war ursprünglich ein Tisch mit einem großen Multitouch-fähigen Monitor bevor das Tisch-Projekt zu PixelSense umbenannt wurde, weil Microsoft eine Antwort auf das iPad und für diese Antwort wiederum eine passende Marke brauchte. Als Microsoft 2007 seinen Surface-Tisch mit Video vorstellte, bekamen sie unglaublich viel Aufmerksamkeit in der  Presse dafür. Der Surface-Tisch spielt heute keine Rolle. Nirgendwo. Ich wäre überrascht, wenn Microsoft in den sechs Jahren seit der Vorstellung weltweit eine hohe vierstellige Zahl der Tische verkaufen konnte.

Prototypen spielen keine Rolle.

Designstudien spielen keine Rolle.

Und es spielt besonders keine Rolle, was Unternehmen den lieben langen Tag gern ankündigen.

Und das alles spielt erst recht keine Rolle, wenn man über die gesellschaftlichen Auswirkungen von Produkten oder Technologien sprechen möchte. Nicht Konzepte entscheiden über die gesellschaftlichen Implikationen, sondern die Inkarnationen der Konzepte, also die Produkte. Apple ist das beste Beispiel dafür: Apple war weder der erste Hersteller von mobilen Musikplayern, von Smartphones noch von Tablets. Aber in allen drei Kategorien war es die konkrete Umsetzung, die die Musikindustrie (iPod) und das mobile Web (iPhone) und schließlich die Computerbranche (iPad) und mit ihr sehr viel mehr veränderte. Diese konkreten Produkte hatten in den entscheidenden Dimensionen der Nutzung (Handhabbarkeit, Features, Kompromisse für die konkreten Einsatzzwecke) genau die richtigen Ausprägungen. Und zu diesen Dimensionen zählen langweilige Aspekte wie Preis und Akkulaufzeit. Zwei Langweilerthemen, die gern im Techsektor übersehen werden aber den Unterschied zwischen Hit und Flop ausmachen können. (Bezeichnenderweise wurden alle drei Produkte mit mal mehr, mal weniger ausgeprägtem Gähnen in der Techpresse begrüßt.)

 “Wenn Ihr fertig seid mit Google Glass würde mich dringend interessieren, welche Folgen die Singularität auf den Finanzmarkt haben wird.”

Die anhaltende, spekulative Berichterstattung über Google Glass ist ein erneuter Tiefpunkt der Tech-Berichterstattung. Wie so oft in letzter Zeit bewegen sich die populären Techblogs dabei leider qualitativ auf einem ähnlich niedrigen Niveau wie die klassischen Medien.