“Facebook Home” ist eine tiefe Integration in Android und damit eine Art “Facebook Inside”

“Today we are going to talk about how to turn your Android phone into a great social device.” – Mark Zuckerberg

Facebooks mobile Strategie ist passgenau auf die Ausgangssituation von Facebook als weltweit größtes Social Network ausgelegt und damit, im Rückblick, geradezu offensichtlich. Facebook ist die soziale Schicht und legt sich mit “Facebook Home” als soziale Schicht, als der Klebstoff, der OS, Apps und Inhalte zusammenhält, tief in das Android-OS. Facebook will tief integriert sein.

“We are not building a phone, we are not building an operating system.” – Mark Zuckerberg

“Facebook Home” ist Facebooks Integration in den Lockscreen und Homescreen des Android-Geräts. Besonders Facebooks Messaging wird mit ”Facebook Home” tief in das OS integriert.

Facebooks mobile Strategie ist genial. Android muss für diese tiefe Integration nicht geforkt werden. Das stellt sicher, dass “Facebook Home”, nicht zuletzt dank der schieren Größe von Facebook, von nahezu allen Android-Hardwareherstellern bald von Haus aus integriert werden wird oder zumindest als einfach aktivierbare Alternative für User bereit liegen wird. Zuckerberg hat bereits auf dem Launch-Event bekanntgegeben, wie ihnen Hardwarehersteller die Bude einrennen. Auch das nicht überraschend.

Selbst wenn das nicht passieren wird: “Facebook Home” wird über Google Play wie jede andere Android-App verfügbar sein. (Natürlich nicht gleich für alle Geräte, sondern zunächst nur für eine Handvoll Smartphones verfügbar.)

Das erste Facebookphone ist das auf dem Launch-Event vorgestellte HTC First. Es hat Facebook Home bereits vorinstalliert und ist dafür ‘optimiert’. Wir werden künftig sehr viel mehr in dieser Richtung sehen.

Facebooks Strategie dürfte damit künftig stark in Richtung dessen gehen, was Intel seinerzeit mit ”Intel Inside” erfolgreich etabliert hat. Schaut man sich die herstelleragnostische Position im Stack bei beiden Unternehmen an, sieht man leicht die Analogien. (Horace Dediu hatte diesen Vergleich vor ein paar Tagen im Critical-Path-Podcast gemacht und der Vergleich passt recht gut.)

Facebook will nicht mit Smartphoneherstellern konkurrieren, sondern auf allen mobilen Plattformen vertreten sein und alle Aufgaben übernehmen, die ‘social’ sind. Mit Smartphoneherstellern oder OS-Anbietern direkt zu konkurrieren, würde dieser mobilen Omnipräsenz entgegenwirken. Stattdessen bekommt Facebook mit “Facebook Home” zumindest theoretisch alles, was es mobil will, ohne aktuelle (Hallo, Apple) und künftige Partner vor den Kopf zu stoßen. (Oder sich zu verheben.)

“Facebook Home” wird damit also aller Voraussicht auch, sobald es auf Tablets verfügbar ist, auch im Appstore von Amazon auftauchen. (Wenn Amazon nichts dagegen haben sollte. Aber ich sehe aktuell nicht, wie Amazon sich dem entgegen stellen könnte, ohne das Kindle Fire gegenüber anderen Android-Tablets schlechter zu stellen. Nochmal: Facebooks Größe sorgt für einen Nachfragesog für “Facebook Home”.)

“Facebook Home” ist außerdem ausgesprochen hübsch geraten. Das  hilft “Facebook Home”, das auch eine Art Android-Skin komplett mit Applauncher ist, enorm im nicht gerade für Schönheit bekannten Androidland.

Facebook dürfte damit nebenbei auch den Messaging-Markt auf Android zu einem Großteil abtöten. The Verge über die Messaging-Integration:

You have a Chat head listed horizontally for each notification. It switches between SMS and Facebook Messenger fairly seamlessly, like iMessage.

In einigen Monaten soll “Facebook Home” auch für (Android-)Tablets kommen.

Bisherige Artikel über ein Facebook-Phone:

Flipboard 2.0 führt Follower-Prinzip für nutzerkuratierte iPad-Magazine ein

Die populäre Magazin-App Flipboard hat in der neuen Version 2.0 eine faszinierende neue Funktion eingeführt.  Nutzer der App können nun eigene Magazine, also Artikelsammlungen, erstellen und diese anderen Nutzern zum Abonnement in Flipboard anbieten.

Richard Gutjahr hat s ich Flipboard 2.0 angeschaut :

Mit nur zwei Berührungen kann ich den Artikel nun zu einem bereits bestehenden Magazin hinzufügen – oder aber ein neues Heft erstellen. Ich kann entscheiden, ob ich die Sammlung nur für mich mache, oder aber mit der Welt (Flipboard, Facebook & Co) teilen möchte.

[..]

Mit der Funktion “Lesezeichen” lassen sich künftig Magazine abonnieren – egal ob von professionellen Anbietern oder von Lesern kuratiert. Praktisch: Die Suchfunktion erleichtert das Aufspüren interessanter Angebote.

Was Flipboard hier umgesetzt hat, ist die vom GoogleReader bekannte, vor einiger Zeit eingestellte Funktion “Shared Items” für den Kontext ‘Magazinapp auf dem Tablet’. Nutzer können sich gegenseitig Links empfehlen und diese Empfehlungen von anderen abonnieren. Der Unterschied etwa zu Twitter: In diesem Umfeld bekommt man ‘nur’ Linkempfehlungen, was die Nutzung dieser Funktionen von beiden Seiten (Empfehler, Empfänger) prägt.

Flipboards neue Funktion der nutzergenerierten Artikelsammlungen, die in der App gleichwertig neben herrkömmlich hierarchisch generierten Magazinen stehen, zeigt noch einmal deutlich die Richtung des Medienwandels auf, dessen Entbündelung von Presserzeugnissen eben auch vor dem iPad nicht halt macht, wie ich bereits 2010 schrieb. Die neue Funktion ist ein logischer, vorhersehbarer Schritt gewesen.

Und jetzt kommt das Presseleistungsschutzrecht

Ich kann Richard Gutjahr allerdings leider nicht zustimmen, wenn er schreibt, dass die neue Flipboad-Version das verabschiedete und nun wohl in wenigen Monaten in Kraft tretende Presseleistungsschutzrecht ad absurdum führe.

Ich habe bereits mehrfach darüber geschrieben, dass das Presseleistungschutzrecht wohl auch mit Hinblick auf Apps und den Tabletmarkt von Axel Springer und Co. erdacht wurde. Christoph Keese, Cheflobbyist bei Axel Springer und damit automatisch in Personalunion Gesetzgeber in Deutschland, legte die Karten bewusst oder unbewusst bereits 2011 in seinem Blog auf den Tisch. Dort schrieb er über MyEdition, eine iPad-App von  Axel Springer:

 Inhalte aus anderen Quellen werden nicht ungefragt integriert. Sie werden nur mit vorheriger Genehmigung eingebaut. Genau das ist ein wichtiger Unterschied zu Flipboard oder Zite: MyEdition ist legal. Das haben wir bei der Vorstellung der Closed Beta mehrfach deutlich gesagt; ich habe es getwittert und es steht auch in diesem Blog.

Die Implikation ist offensichtlich: Angebote wie Flipboard ohne Geldfluss Richtung Axel Springer sollen in den Augen von Axel Springer illegal sein. In den Köpfen der Springerschergen waren sie das schon 2011.

Meine Prognose: Noch dieses Jahr wird bekannt werden, dass deutsche Presseverlage auf Basis des neuen Presseleistungsschutzrechts Verhandlungen mit Flipboard aufnehmen (wollen).

Vielleicht noch vor Ende des Jahres wird im schlimmsten Fall Flipboard auf unbestimmte Zeit aus den deutschen Appstores verschwinden. Im besten Fall kehrt es verkrüppelt in einer deutschen Sonderedition zurück.

Warum? Weil

  • die kommenden Forderungen der Presseverlage,
  • das neue Recht, das die Grundlage für ihre Forderungen darstellt,
  • die mit dem Recht verbundene Rechtsunsicherheit
  • und die Unmöglichkeit für Flipboard, a priori feststellen zu können, ob ein Inhalt Teil eines Presseerzeugnisses ist oder nicht,

Flipboard keine andere Wahl lässt.

The wave finally broke

San Francisco in the middle sixties was a very special time and place to be a part of. Maybe it meant something. Maybe not, in the long run… but no explanation, no mix of words or music or memories can touch that sense of knowing that you were there and alive in that corner of time and the world. Whatever it meant.… [..]

There was madness in any direction, at any hour. If not across the Bay, then up the Golden Gate or down 101 to Los Altos or La Honda.… You could strike sparks anywhere. There was a fantastic universal sense that whatever we were doing was right, that we were winning.…

And that, I think, was the handle—that sense of inevitable victory over the forces of Old and Evil. Not in any mean or military sense; we didn’t need that. Our energy would simply prevail. There was no point in fighting—on our side or theirs. We had all the momentum; we were riding the crest of a high and beautiful wave.…

So now, less than five years later, you can go up on a steep hill in Las Vegas and look West, and with the right kind of eyes you can almost see the high-water mark—that place where the wave finally broke and rolled back.

Aus der “Wave Speech” aus “Fear and Loathing in Las Vegas” von Hunter S. Thompson

Malte Welding:

"Die verstehen das Internet nicht." Dieser Satz hat einst unseren Spott begründet und genährt. "Die", das waren die langsamen und schwerfälligen Verlage, die zwei Euro für ihre Artikel wollten, die bornierte Politik, deren Repräsentanten ohne Umschweife einräumten, nicht einmal "einen Email" zu haben. Wir, das waren die Blogger, die Leecher, die Auskenner, die Piraten. Wir zogen frei und ungehindert durch die Weiten, wir teilten, wir veränderten, wir waren der Weltgeist, wir prägten eine Epoche. Wir waren auf den Kopf gefallen.

Ich bin noch immer verblüfft darüber, wie wenige Menschen, auch Twitterpoweruser und Netzaktivisten, hierzulande begreifen, wie systemisch giftig exklusive Verbotsrechte für die Potentiale des Internets sind und wie vehement ihre Ausweitung deswegen bekämpft werden muss.

Frank Westphal von Rivva schrieb gestern:

Wie viel Prozent des gesamten Internets mag auf Open Source Software laufen oder aufbauen? Verlässliche Zahlen dazu habe ich auf die Schnelle keine gefunden, doch ich schätze einmal, 95% könnten es wohl etwa sein.

Das bedeutet doch, unzählige Programmierer haben unzählige Stunden damit verbracht, dieses Internet, mitsamt WWW und allem, ins Leben zu programmieren, "ohne (Zitat aus dem ganz fantastischen Perlentaucher vom 30.8.2012) je auf die Idee gekommen zu sein, dafür die Hand aufzuhalten."

Auf Befürworterseite hatte man in puncto Leistungsschutzrecht oft genug mit diesem sogenannten "Geburtsfehler des Internets" argumentiert. Dass jetzt Google der deutlichste Profiteur und deutsche Startups die deutlichsten Verlierer des heutigen Beschlusses sind, ist der Geburtsfehler dieses Gesetzes.

Der Rechtsprofessor Yochai Benkler hat in seinem einflussreichen Werk "The Wealth of Networks" eine neu aufsteigende Produktionsform neben dem Markt und der Bürokratie (Staat) beschrieben und ihre enormen Potentiale beleuchtet: Die allmendebasierte Peerproduktion, die unter anderem nicht nur für die Wikipedia verantwortlich ist sondern auch für Linux, das wie auch Westphal schreibt im Hintergrund nebenbei auf fast allen Servern die technische Grundlage für Webdienste oder auch die Onlineangebote der Presse liefert.

Sich auf das Internet beziehende Gesetzgebung muss diesem Umstand Rechnung tragen. Sie muss Rechte so gestalten, dass die Potentiale loser Kooperation und Anknüpfung wenn schon nicht maximiert, dann nur möglichst minimal beschränkt werden. Das neue Presseleistungsschutzrecht ist ein Schritt in die entgegengesetzte Richtung.

Und hier kommt der Kicker: In der deutschen Debatte spielte dieser Aspekt, der wichtigste, fast keine Rolle.

Das merkt man nicht nur in der Verabschiedung des Gesetzes sondern auch in jeder Faser des Gesetzestextes, der so leicht so weniger gefährlich hätte sein können.

Das Presseleistungsschutzrecht ist ein massiver Schnitt. Es bremst künftig die Potentiale der Verbreitung von Informationen im deutschen Internet. Eben aufgrund der Ausgestaltung des Gesetzes betrifft es nicht nur Presseverlage und Google, sondern alle, die Texte von anderen Sites mindestens halbautomatisch verlinken oder so verlinkt werden: Blogs und Rivva sind nur die offensichtlichen Opfer.

Es ist absolut logisch, dass der BDZV und seine Mitglieder künftig nicht nur Google, wie sie bereits anfangen, mit der Waffe Presseleistungsschutzrecht angreifen, sondern auch Facebook, Twitter, LinkedIn, Flipboard und was da sonst noch kommen wird, ins Visier nehmen werden. Was erfolgreich ist, hat Geld, von dem man doch was abzwacken könnte.

Alles, wo Texte verlinkt und mit einer Vorschau versehen werden könnten.

Alles, was künftig Rechtsunsicherheit und bis zu den Reißzähnen mit Anwälten bewaffnete Presseverlage in Deutschland vorfinden wird.

Alles, was in Deutschland von Gründern zwar erdacht aber nicht mehr entwickelt wird.

Und alles, was im Ausland entwickelt und künftig per IP-Filter vorsichtshalber erst einmal, man hat ja nur wenige Ressourcen und es gibt so viele Märkte auf der Welt, nicht in Deutschland verfügbar sein wird.

Und weil alles mit allem vernetzt ist, trifft das auch alle Blogs, die sonst von diesen Diensten profitieren würden, die nicht zwischen der Organisationsform hinter den Texten unterscheiden würden, können und sollten.

Und natürlich wird es nicht dabei bleiben, was gestern im Bundestag trotzig beschlossen wurde, um Axel Springer und Burda ruhig zu stellen. Ich schrieb vor ein paar Tagen:

Lobbyismus funktioniert so: Zunächst bekommt man mit einem neuen Recht wie dem LSR den Fuß in die Tür. Ist das Recht erst einmal da, lässt sich leicht konstant eine Kampagne für die Verschärfung des Rechts zum eigenen Vorteil fahren. Man darf damit rechnen, dass künftig bei jeder Debatte zu Urheberrechtsreformen immer auch die Presseverlage mit Forderungen nach Verschärfung des Presseleistungsschutzrechts um die Ecke kommen werden.

Das ist alles eine Katastrophe, deren Ausmaß meines Erachtens von den meisten noch nicht erfasst wird.

Einmal eingeführte Rechte werden nicht wieder abgeschafft. Erst recht nicht, wenn eine mächtige Lobby dahintersteht. Einmal eingeführte Rechte werden in der Regel immer zugunsten der Begünstigten verschärft, die im Hintergrund natürlich konstant weiter Lobbyismus betreiben, um hier eine Frist zu verlängern oder da einmal ein Recht etwas auszuweiten, danke, sehr nett, wie geht’s den Kindern, wir sehen uns dann kommendes Jahr wieder für die nächste Stufe. Man kann das am heute völlig pervertierten Urheberrecht sehen, mit dem das Presseleistungsschutzrecht in vielerlei Hinsicht verwandt ist.

Das alles wird die Entwicklung des Internets nicht aufhalten. Die Internetwirtschaft ist in den USA bereits der Exportschlager Nummer eins. Facebook und co. sind bereits mächtige Unternehmen und Blogs haben sich professionalisiert und sind längst die legitimen Nachfolger der Printpresse. Und, nebenbei, in den USA glaubt man immer an den Markt, nicht nur wenn es gerade einmal passt oder die Definition von Markt umgedeutelt werden muss, um neue Monopolrechte zu schaffen. (Hallo, FDP.) Dort und in anderen Ländern werden vergleichbare Gesetze niemals verabschiedet werden. Und das gibt diesen Ländern einen Standortvorteil.

Das Presseleistungsschutzrecht ist trotzdem ein wichtiger Schritt. Es ist ein wichtiger Schritt für Deutschland in die endgültige künftige wirtschaftliche und internationale Bedeutungslosigkeit. Und natürlich nicht nur für Deutschland. Denn bereits schauen Presseverleger in ganz Europa nach Deutschland und wollen Ähnliches in ihren Ländern von ihren Politikern auch umgesetzt haben. Nicht nur Deutschland auch Europa verliert konstant an internationaler Bedeutung, was wirtschaftliche Kraft und politische Macht angeht. Europa ist in der Internetwirtschaft nicht der Standort großer Konzerne sondern der Abnehmermarkt. Toxische neue Rechte werden diesen Umstand nur zementieren und verstärken.

Es gibt einen letzten Funken Hoffnung, dass der Bundesrat das Gesetz mit einem Einspruch aufhält und das Presseleistungsschutzrecht in den Vermittlungsausschuss geht. Schaut man sich das Durchpeitschen des Gesetzes durch den Bundestag an, wird die Bundesregierung aber auch hier alle Hebel in Bewegung setzen, um Christoph Keese, den allgemein anerkannten Herrscher über Deutschland, glücklich zu machen.

Nachdem dieses Gesetz trotz des enormen Widerstands von überall im Bundestag verabschiedet wurde. Nachdem die Opposition nicht mit vollster Wucht dagegen gekämpft hat. (Die Spitze der Grünen fand es etwa wichtiger, statt zu diesem Gesetz im Bundestag zu sitzen, das eigene Programm für die Bundestagswahl vorzustellen.) Nach alldem also ist dieser letzte Funken Hoffnung nicht sehr groß.

Und selbst wenn das Presseleistungsschutzrecht gekippt würde. Die Bundespolitik hat klar gezeigt, dass sie auch 2013 das Internet noch nicht auf dem Schirm hat. Das Internet, das von Millionen Bürgern täglich für alles Mögliche und Unmögliche genutzt wird. Das Internet, dessen Bedeutung so schnell wächst wie nie zuvor. (Ein Beispiel: Der Onlinehandel, frei von den Wandel verlangsamenden Verbotsrechten, wuchs in den letzten zwei Jahren um neun Milliarden Euro, was in etwa soviel ist wie in allen rund 15 Jahren zuvor.)

Wir waren auf den Kopf gefallen. Denn wir dachten, es würde irgendetwas bedeuten, absolut offensichtlich richtig zu liegen und von überall Bestätigung zu bekommen. Wir lagen falsch.

Ich schrieb vor Jahren, dass Deutschland in ein Entwicklungsland degeneriere. Quod erat demonstrandum.

Irreführende Marktbetrachtungen und ihre schwerwiegenden Konsequenzen

Zu den gestrigen vollkommen an der Realität vorbeigehenden Expertenprognosen zum Deutschlandumsatz von Amazon legt Jochen Krisch auf Exciting Commerce noch einmal nach:

Wie lange wollte der Versandhandel nicht wahr haben, dass Versandhandel weitaus besser ohne Katalog funktioniert? Dank Amazon boomen die Märkte für Buch- und Medienangebote, während der traditionelle Buchhandel kollabiert. Die Musikmärkte boomen, während die Tonträgerindustrie darbt. All dies geben die verfügbaren Marktstatistiken nicht her. Da definiert man sich einfach einen “rückläufigen Markt”, und schon scheint die Welt wieder in Ordnung.

[..]

Die Marktzahlen richten sich immer an den traditionellen Märkten aus. Neue Marktteilnehmer werden nicht oder nur unzureichend erfasst. Amazon ist dabei nur die Spitze des Eisbergs. Ein Ebay fällt bis heute durch sämtliche Raster und taucht in seiner vollen Dimension in keiner Handelsstatistik auf, weil dies die Grenzen des (Einzel-)Handels sprengen würde.

Märkte reformieren und transformieren sich, und zwar anders als dies die etablierten Player (und ihre Fürsprecher) gerne hätten. 

(Hervorhebung von mir)

Besonders erschreckend ist dabei nach wie vor der laxe Umgang mit Zahlen in vielen Publikationen, der auch im Bewusstsein so gehandhabt wird, weil konkrete Zahlen auf Leser wie harte Fakten wirken. Selbst wenn man Schätzung darüber schreibt.

Wie ich gestern bereits schrieb:

[Die] digitale Disruption führt dank ihrer branchenübergreifenden und somit umfassenden Konsequenzen, die über Jahrzehnte starre Beziehungen in Bewegung bringen, dazu, dass die öffentliche Debatte immer öfter einem Stochern im Nebel gleicht; und das im schlimmsten Fall von einigen Akteuren bewusst so initiiert.

Darüber hinaus gibt es auch methodische Probleme, die in der Öffentlichkeit dringend diskutiert werden müssen. 

eBay kann nicht einfach dank seiner Dimension schlicht ausgeklammert werden, weil allein die Dimension bereits eben auch eine Aussage über eine tektonische Verschiebung in der gesamten Volkswirtschaft darstellen kann. Dieses Problem geht aber noch weiter. Wir haben in der volkswirtschaftlichen Gesamtbetrachtung und damit politisch ein vor allem in Deutschland sich zunehmend sichtbar machendes Problem:

Die Wohlfahrtszuwächse der durch die Mehrheit der deutschen Bevölkerung gehenden Nutzung von Google, Facebook, Wikipedia und co. können aufgrund ihres Wesens nicht im Bruttoinlandsprodukt erfasst werden, weil sie spenden- oder werbefinanziert sind und damit kostenlos benutzt werden können. Weil wir nicht für die Wikipedia bezahlen müssen, was neben der P2P-Produktion der wichtigste Grund für ihre Bedeutung ist, findet die Wikipedia in der wirtschaftspolitischen Betrachtung nicht statt.

Die Folge: Die positiven gesamtgesellschaftlichen Folgen der Nutzung dieser Angebote wird nicht erfasst und deswegen auch nicht wahrgenommen. Stattdessen bekommen deutsche Unternehmen mit starker Lobbymacht, deren Anteil einen kleiner werdenden Bruchteil zur gesamtgesellschaftlichen Wohlfahrt beiträgt, ein exklusives Recht versprochen, zu dessen wichtigsten Nebeneffekten gehört, die Arbeit von Google über Facebook bis Wikipedia schwer bis unmöglich zu machen.

Im Mai letzten Jahres schrieb ich über diese Problematik:

Zusätzlich, weil keine direkten Geldflüsse zum Endnutzer existieren, wird der Wohlfahrtszuwachs von Wikipedia über Linux bis Google auch nicht im Bruttoinlandsprodukt sichtbar. Deswegen kommen die kulturkonservativen Kräfte von CDU bis Handelsblatt auch mit der Aussage durch, das Internet und seine Ökonomie würden nur zerstören ohne zu schaffen.

Wir stochern im Nebel und unsere blinden Flecke werden langsam aber sicher zu blinden Horizonten.

Sinkender E-Reader-Absatz ändert wenig für Buchverlage

Der Buchreport, der sich ausschließlich auf Zahlen und Schlussfolgerungen von iSuppli bezieht, es aber nicht schafft die Quelle zu verlinken:

Die Technologie-Marktforscher diagnostizieren einen „alarmierend rasanten Rückgang“ des E-Reader-Marktes, ausgelöst durch den Erfolg von Tablet-Computern:

In diesem Jahr würden weltweit 14,9 Mio E-Reader ausgeliefert, ein Rückgang von 36% gegenüber dem Vorjahr.

Im kommenden Jahr erwartet iSuppli nur noch 10,9 Mio Geräte, die von den Herstellern verschifft werden.

Bis 2016 werde die Zahl sogar auf 7,1 Mio sinken – zwei Drittel weniger als zum Höhepunkt im Jahr 2011. 

Bei einem so jungen Markt wie dem der E-Reader würde ich nicht allzu viel auf Schwankungen geben. Selbst wenn diese relativ groß sind. Ich würde auch die internationale Entwicklung nicht 1:1 auf den deutschen Markt übersetzen, der extrem hinter der globalen Entwicklung hinterherhinkt. Schon gar nicht würde ich, wie es iSuppli gemacht hat, eine Prognose für 2016 ausgeben. Bis dahin wird es mindestens drei Generationen von Tablets und E-Readern gegeben haben. Es ist nicht unwahrscheinlich, dass Amazon bis dahin angefangen hat, Kindle-Geräte an Stammkunden zu verschenken. Es ist nicht vorhersehbar, wie die Aufteilung der Geräteklassen am Markt im Jahr 2016 aussehen wird.

Letztlich aber ändert sich für die Buchverlage, die zu dem Publikum des Buchreports gehören, nur wenig: Wenn E-Reader zugunsten von Tablets einen geringeren Absatz finden, dann würde das bedeuten, dass zumindest für einen Teil der Käufer die Tablets als Substitute für E-Reader genügen. Das heißt also letztlich nur, dass das digitale Lesen auf einem anderen Gerät als einem dedizierten E-Reader stattfindet. Es heißt nicht, dass es zugunsten von Papierbüchern wieder zurückgeht.

Für Buchverlage ist das also, wenn überhaupt, dann alles andere als ein Grund zur Freude: Auf den Tablets ist die direkt auf dem Gerät befindliche Konkurrenz um ein Vielfaches größer als auf den E-Readern. Stichworte: AngryBirds und WorldWideWeb.

Durch die im Vergleich zu den etablierten E-Readern relative Offenheit der Tablet-Betriebssysteme von iOS über Android bis, irgendwann vielleicht, Windows RT, zeigt diese Nachricht allerdings zumindest, dass die Buchverlage auch dringend über ihre Plattformstrategien nachdenken und handeln sollten, solang der Markt noch in Bewegung ist.

Randnotiz zu den Plattformstrategien: Egal was passiert, ob nun E-Reader mit E Ink oder Multitouch-/Multipurpose-Tablets zu den bevorzugten Lesegeräten werden, Amazon ist mit seiner Kindle-Plattform praktisch überall präsent. Mit eigenen Readern, eigenen Tablets und Apps auf den Betriebssystemen der anderen Hersteller.

Die Dauer von Strukturwandel und die Ungeduld des Frank Schirrmacher

Clay Shirky hat einmal geschrieben, dass bei umwälzenden Veränderungen wie denen, die wir dank der Digitalisierung in nahezu allen Bereichen beobachten können, immer zuerst das Alte kaputt geht, bevor irgendwann das Neue in seiner erfolgreichen Ausprägung gefunden wird.

Wenn man darüber nachdenkt, ist diese Beobachtung, wie so viele Aussagen von Herrn Shirky, so logisch, dass sie sofort offensichtlich erscheint, auch wenn man vorher gar nicht über diesen Aspekt nachgedacht hat.

Nur weil der Matrose im Mittelalter weiß, dass er mit einer Triere keinen Ozean überqueren kann, heißt das nicht automatisch, dass ihm gleichzeitig mit dieser Erkenntnis der Bauplan für eine Karavelle in den Schoß fällt.

Die Zeit im Blick

Diese Erkenntnis ist wichtig, will man die aktuellen Entwicklungen nicht nur richtig einordnen, sondern auch das eigene Unternehmen auf die turbulente Zukunft vorbereiten. Denn wenn das Alte schneller kaputt geht als man das Neue finden kann, dann werden Experimente überlebenswichtig, um die Durststrecke zu verkürzen und möglichst auch zu überleben. Je mehr Experimente, je mehr ausprobiert wird, je mehr Testballons gestartet werden, desto mehr Feedback erhält man, vom Markt, von den Nutzern, und desto eher findet man den Bauplan für die Zukunft.

Das war die BWL-Sicht. Als Beobachter, der die gesellschaftlichen Entwicklungen einordnen will, ist natürlich auch der volkswirtschaftliche Blick wichtig. Und hier ist es ebenfalls wichtig, nicht zu erwarten, dass quasi ein gesellschaftlicher Kippschalter umgelegt wird. So funktioniert weder gesellschaftlicher Wandel allgemein noch tiefgreifender Strukturwandel in der Wirtschaft im Speziellen. (Trotzdem kommt dieser Wandel mittlerweile sehr schnell. In der Smartphonebranche etwa sind die einzigen zwei profitablen Unternehmen am Markt, eines das vor fünf Jahren noch nicht in diesem Markt war (Apple) und eines, das vor zwei Jahren noch nicht in diesem Markt war (Samsung). (Siehe auch Asymco zu den Zahlen und Entwicklungen.))

Während die alten Riesen straucheln, werden die neuen erst verlacht und wachsen dann exponentiell, wie etwa aktuell der E-Commerce-Sektor in Deutschland:

E commerce

E-Commerce wurde erst von den Katalogversendern als keine Konkurrenz abgetan und später als ein Nebenbeigeschäft behandelt, als ein weiterer Kanal, den man nicht entsprechend seinen Eigenheiten besonders behandeln muss.

Neckermann und Quelle sind heute (mehr oder weniger) Geschichte.

Hätten beide Unternehmen 2000 korrekt ihre Strategien für die nächsten 12 Jahre verkündet, hätte man auch 2000 schon sagen können, dass diese Unternehmen langfristig nicht überleben werden. Und das trotz der Tatsache, dass es 2000 in Deutschland noch praktisch keinen nennenswerten E-Commerce-Markt gab.

Strukturelle Veränderung ist von ihrem Wesen her immer eher ein Marathon als ein Sprint. Das liegt nicht zuletzt auch daran, dass Unternehmen und auch nicht gewinnorientierte Institutionen von der GEMA bis zu Behörden in Netzwerke eingespannt sind, die ihren Handlungsspielraum bestimmen. Clay Christensen spricht in seinem extrem wichtigen Buch “The Innovators Dilemma” hierbei von Wertschöpfungsnetzwerken.

Der E-Commerce ist in Deutschland aktuell auf dem Weg, den Marktumsatz des klassischen Versandhandels selbst aus dessen besten Zeiten weit hinter sich zu lassen.

Deutsche Webmedien und ihre punktuellen Erfolge

Frank Schirrmacher schreibt nun in der FAZ über das in Deutschland eingezogene Printsterben und die Reaktionen:

Achtzig Millionen Deutsche, die über Nacht ihre eigenen Verleger, Drucker, Autoren werden konnten – welches Modell hat funktioniert? Wo ist der neue Pulitzer, Augstein, Suhrkamp? Wer hat profitiert? Wo gibt es das Blogger-, Startup-, Nachrichten- oder Kommunikationsmodell, das auch nur ansatzweise funktioniert? Was ist wirklich geschehen mit der „Demokratisierung von Information“? An Versuchen hat es, wie jeder weiß, nicht gemangelt. Ihr Scheitern ist Legion. Alternativmedien, für die seinerzeit sogar Journalisten wie der Kollege Prantl ihre Urgesteinshaftigkeit zur Verfügung gestellt haben, Debattenportale, Netzzeitungen.

Natürlich gibt es diese Erfolge. Exciting Commerce, wo ich auch als Autor tätig bin, kann dieses Jahr Einnahmen im “mittleren sechsstelligen Bereich” verzeichnen. Aber natürlich können diese Erfolge nicht sofort die Dimensionen erreichen, für die die klassischen Medienunternehmen Jahrzehnte bis zu über einem Jahrhundert Zeit hatten. Aber weder müssen sie das, noch werden sie das höchstwahrscheinlich, weil ein Strukturwandel eben auch die Verteilung der Unternehmensgrößen in einem Markt beeinflusst. Und natürlich sind diese Erfolge hierzulande rarer gesät als in anderen westlichen Ländern. Der Unterschied zu den USA ist hierbei besonders extrem.

Frank Schirrmacher:

der Grimme-Online-Preis ist ein Kataster hochinteressanter, aber meist ökonomisch total erfolgloser geistiger Kleinfabriken.

Das könnte auch daran  liegen, dass der Grimme-Online-Preis bevorzugt hochinteressante, aber meist ökonomisch total erfolglose geistige Kleinfabriken auszeichnet.

Weder Zalando noch SoundCloud, weder Exciting Commerce noch Mobile Geeks (ehemals netbooksnews) und erst recht nicht myDealz, werden jemals einen Grimme-Online-Award erhalten, wenn die Nominierungen und Awards der letzten Jahre Indizien für die Zukunft sind. Allesamt stehen sie stellvertretend für die, ja, vielen, wirtschaftlich erfolgreichen Internetunternehmen auch in Deutschland, wobei die letzten drei nicht nur profitabel sondern auch journalistisch tätig sind. Der Grimme-Online-Award ist weder ein Gradmesser für wirtschaftliche Erfolge im Netz noch scheint er das sein zu wollen.

Netzwerkeffekte: Plattformen und ihre Konzentrierung

Herr Schirrmacher weiter in der FAZ:

Tatsache ist: Die Informationsökonomie hat in ihrer heutigen Alpha-Version ausschließlich zum Entstehen industrieller Giganten geführt, zu Konzentrationsprozessen, die den Einzelnen immer häufiger zum Ausbeuter seines eigenen Ichs machen. [..]

Kellys Prognose, dass jeder von zu Hause seine 15 Megabyte Ruhm und seine sprudelnden Werbeeinahmen generieren könne, hat sich, und das ist gesetzmäßig in der neuen Ökonomie, weltweit nur für einige wenige erfüllt. Das Einzige, was einem auf Anhieb einfällt, ist das Internetprojekt der Millionärin Arianna Huffington, von AOL gekauft und dafür bekannt, dass es seinen Autoren keine Honorare zahlt.

Frank Schirrmacher verquickt hier zwei Ebenen der Wertschöpfung. Das ist etwas, das mir in Gesprächen auf Konferenzen häufig begegnet.

Es gibt hier zwei Ebenen, die wir betrachten müssen:

1. Die Plattformen, die Aktivitäten verschiedenster Arten ermöglichen.

2. Die Aktivitäten auf diesen Plattformen.

Beides, die Konzentrierung unter den Plattformen (1.) und die Aktivitäten auf ihnen selbst (2.) sind geprägt von Netzwerkeffekten. Was auf der einen Ebene (1.) zu Konzentrierung führt, führt auf der anderen Ebene (2.) zu all den neuen Interaktionsformen von kollaborativem Konsum (carsharing) über Trödelverkauf (eBay) bis Finanzierung (Crowdfunding).

Erst die Konzentrationsprozesse auf der einen Ebene ermöglichen, auf den ersten Blick paradoxerweise, den Wohlfahrtszuwachs auf der anderen. Denn Netzwerkeffekte sind Externalitäten, die sich als positive Skaleneffekte äußern.

Was  bedeutet Erfolg in einer vernetzten Informationsökonomie?

Und natürlich hat nur Arianna Huffington, die Millionärin, es geschafft, ein Medienimperium mit Hilfe des Internets hochzuziehen. Ist sie deswegen die einzige oder zumindest eine von sehr wenigen, die erfolgreich ist?

Nur wenn man die Maßstäbe einer industriellen Informationsgesellschaft anlegt.

Wenn der Maßstab dagegen lautet, wer heute im Kleinen wie im Großen besser als gestern gestellt ist und seinem Geschäft heute im Kleinen wie im Großen durch das Internet besser nachgehen kann, dann sind es sehr viele, die heute sehr viel erfolgreicher sind.

Schauen wir uns etwa den noch recht jungen Trend Crowdfunding an.

Die Crowdfunding-Plattform Kickstarter ist reichlich drei Jahre alt. (Sie wurde im April 2009 gegründet.) Auf dieser Plattform wurden bis Mai 2012 über 23.000 Projekte von über zwei Millionen Menschen mit insgesamt über 230 Millionen US-Dollar finanziert. Das sind über 23.000 Projekte, die ohne Kickstarter und die Finanzierungsaktivität, die die Plattform ermöglicht, entweder gar nicht oder auf einem niedrigeren Niveau entstanden wären. Über 50 Millionen flossen in Filme, über 30 Millionen in Musikprojekte.

Das sind keine Peanuts.

Aber das ist nicht in der Größenordnung von Film- oder Tonträgerindustrie.

Aber das wird die Größenordungen dieser Industrien erreichen.

Und es wird die Größenordnungen dieser Industrien übersteigen.

Noch einmal. Speziell diese Plattform ist erst drei Jahre alt, und bereits jetzt wird darüber diskutiert, ob man Kickstarter als den zweitgrößten Publisher von Graphic Novels bezeichnen kann, weil die Plattform in diesem Bereich eine viel genutzte Alternative zu den etablierten Verlagen ist. Kickstarter selbst ist nicht nur erst drei Jahre alt, es ist auch Teil eines Trends, der für viele Menschen etwas Neues darstellt: Die Produktion vom Endkunden, Endnutzer, Fan vorfinanzieren zu lassen, war nicht der klassische Weg der vom Crowdfunding berührten Bereiche. Das heißt aber auch, dass viele Crowdfinanzierer eben dies zum ersten Mal in ihrem Leben gemacht haben.

Man kann jetzt die Crowdfundingzahlen betrachten und naserümpfend feststellen, dass man damit keinen Hollywoodblockbuster finanzieren kann. Also alles ein Luftschloss, richtig?

Wo wird diese Entwicklung in zehn Jahren stehen?

Was, wenn Crowdfunding als Ganzes eine Hockeystick-Entwicklung erfahren wird, wie es aktuell im deutschen E-Commerce passiert?

In Zeiten des Strukturwandels ist eine von den Entwicklungen losgelöste Betrachtung des Status Quo keine gute Ausgangsbasis für eine Aussage darüber, was dieses oder jenes bedeutet. Auch wenn damit viel Schindluder getrieben wird: Es geht nicht ohne eine Einbeziehung des relativen Wachstums der betrachteten Märkte, Unternehmen und Trends.

Versprechen, Abmahnungen und Leistungsschutzrechte

Frank Schirrmacher weiter:

Wer also unter denen, die die Chance ihres Lebens hatten, konnte den technologisch-ökonomischen Imperativ erfüllen? Nimmt man ernst, was die Heiligen der Netzintellektuellen zwischen TED-Konferenz und Internet-Beratung (das einzig florierende Geschäftsmodell) seit Jahren prognostizieren und fordern, kann man nur sagen: Chance verschlafen. Wer einfach nur sagt, Verlage (und sie sind nur ein Symbol) hätten ihre Chance im Netz verschnarcht, kann genau das Gleiche über all die sagen, die von Anfang in ihm zu Hause waren.

Er hat natürlich ein Stück weit recht in der Bestandsaufnahme des deutschen Medienwebs. Sowohl im Kleinen, wo etwa die im deutschen Social Web bekannteste Privatperson ihre Bekanntheit nur für eine wöchentliche SPON-Kolumne im Netz nutzt statt etwas eigenes, und wenn es nur nebenbei wäre, aufzubauen. Als auch im Großen: Das deutsche Web und seine Netzmedien krankten immer auch an der fehlenden strukturellen Unterstützung. Es fehlten lange Zeit hierzulande etwa die Durchlauferhitzer, die in den USA Digg und reddit waren und kleinste Nischenblogs in ihren jeweiligen Nischen relativ bekannt und damit auch wirtschaftlich tragfähig machen konnten.

Mittlerweile, und wie so oft, werden diese Funktionen auch hier von US-Unternehmen übernommen – Facebook, Twitter, Google+, Linkedin. Und das nicht zuletzt, und hier kommen wir wieder zu den Ursachen auch dank der FAZ, die gern juristich gegen deutsche Unternehmen vorgeht: Die verklagt nämlich gern neue Player vom Perlentaucher bis zu Startups wie Commentarist und Echobot. Die FAZ unterstützt auch, mit teilweise ausgesprochen dubiosen Methoden, das geplante Leistungsschutzrecht für Presseverlage, das in seiner aktuell geplanten Version katastrophal für das Web und besonders für junge Unternehmen wäre. Vor diesem Hintergrund erscheint es zumindest ein Stück weit zynisch, wenn ein Mitherausgeber der FAZ darauf verweist, dass nicht viel neues entstanden sei. Rechtsunsicherheit auf Märkten führt dazu, dass neue Unternehmen, die sich keine juristischen Auseinandersetzungen leisten können, nicht auf diese Märkte gehen. Die Massenabmahnungen gegen Blogger seit Jahren kann man auch vor diesem Hintergrund betrachten.

Partizipationsausprägungen und Likes

Frank Schirrmacher:

Auch die vom Silicon Valley vorausgesagte politische und soziale Selbstaufklärung des Menschen, der alle Informationen unter seinen Fingerkuppen hat, lässt medial noch auf sich warten. Partizipation beschränkt sich immer öfter auf Belohnungssysteme, die im Wesentlichen auf Empfehlungsbuttons hinauslaufen, permanente Plebiszite des Konsumenten und seiner „I like“- Befindlichkeit.

Auch hier muss man wieder differenzieren. Es liegt in der Natur der Sache, dass die schnell getätigte Ein-Klick-Geste in größerem Ausmaß auftritt als andere Arten der Partizipation, die mehr Zeit und damit mehr Aufwand in Anspruch nehmen. Diese vollkommen natürliche Verteilung sagt nichts darüber aus, wie stark die Partizipation zugenommen hat. Im Gegenteil, unterstützt sie doch die Distribution der Ergebnisse.

Akademiker und andere Freiwillige haben auf Guttenplag seinerzeit die Plagiatsstellen in der Doktorarbeit von Herrn Guttenberg zusammengesucht. Guttenplag selbst und die Ergebnisse daraus, wie etwa die empörten Artikel in der FAZ, wurden auch via Like-Button auf Facebook verbreitet, das mittlerweile mit Abstand das größte Social Network in Deutschland ist.

Man kann es auch so ausdrücken: Je besser alle möglichen Zeitfenster – von der einen Sekunde nach dem Lesen eines Artikels bis hin zum abendlichen Artikelschreiben auf Wikipedia – abgedeckt sind, desto mehr Partizipation wird es in all ihren Formen online geben. Desto besser kann sich das kognitive Surplus (Clay Shirky) online entfalten.

Jede Website mit Like-Buttons ist somit partizipativer als jede Printzeitung, wenn auch in den meisten Fällen nur marginal.

Frank Schirrmacher:

wer, im Ernst, von Einzelpersonen über Verlage bis zu ganzen Staaten, sagt denn, er verweigere sich dem Netz?

Das war noch vor zwei, drei Jahren eine Position, die man ohne Probleme in deutsche Feuilletons hineinschreiben konnte. Auch heute ist das leider noch keine seltene Position in der deutschen Öffentlichkeit.

Markt, Staat und P2P

Herr Schirrmacher weiter in der FAZ:

Nicht nur bei den Verlagen, in fast allen Bereichen geht es um das Verhältnis von Wert und Preis. Selbst kritische Köpfe vermögen immer seltener zu unterscheiden zwischen den legitimen Bedürfnissen des Konsumenten und der Tatsache, dass politische und kulturelle Werte mitsamt dem Inhalt des eigenen Kopfes zu Produkten dieses globalisierten Marktes werden. Netzkommunikation ist längst in der Phase, wo buchstäblich jedes Signal, das man sendet, Gegenstand einer Preisfindung, einer algorithmisch in Millisekundenschnelle ablaufenden Online-Auktion wird.

Es gibt, sehr allgemein gefasst, drei Produktionsformen:

1. Staatlich finanziert, also bürokratisch organisiert.

2. Marktwirtschaft.

3. Allmendebasierte Peerproduktion.

Über die Potentiale der allmendebasierten Peerproduktion schreibt Yochai Benkler in seinem 2006 erschienen Buch “The Wealth of Networks”, das bereits heute ein Klassiker ist. Zu den auf diese Weise produzierten Dingen zählen neben Linux und Wikipedia eben auch hierzulande Guttenplag.

Das Entscheidende ist, dass hier kein Marktmechanismus im Mittelpunkt steht. Die Vermarktlichung, Herr Schirrmacher spricht auch von der Ökonomie des Geistes, findet hier eben nicht statt. In dieser dritten Produktionsform und ihrer Verwebung mit den beiden anderen steckt das Potential des Internets.

Die wahre Vermarktlichung des Geistes steckt eher im von den Presseverlagen vorangetriebenen Presseleistungsschutzrecht. Dieses soll einen Marktmechanismus einführen, wo vorher keiner ist, mit all den systemischen und transaktionskostenbasierten Nachteilen. Nicht kollaborativ und lose verbunden sondern kontrolliert von Konzernen wie Axel Springer und klagewütigen Verlagen wie der FAZ.

Alle wollen nur Profite

Interessant ist, dass Herr Schirrmacher zumindest die Profitorientierung von Presseverlagen anerkennt; etwas, das in der pathosgetränkten Verteidigung des Leistungsschutzrechts durch eben diese eher selten ist:

Das Schlimme ist, schaut man beispielsweise auf die Sparmaßnahmen in Regionalzeitungen, dass Selbstausbeutung jetzt überall institutionalisiert zu werden beginnt. Von Apple lernen heißt siegen lernen! Wenn das magische iPhone von chinesischen Arbeitern in einer Charles-Dickens-Welt produziert wird, kann das auch mit Gedanken geschehen. Wer glaubt denn im Ernst, dass gerade ausschließlich auf Profite und Reflexe dressierte Verlagsunternehmen nicht begeistert von der Internetökonomie lernen könnten und noch Generationen blühen und gedeihen werden?

Unsinnig ist allerdings, dass er Internetökonomie und (Selbst-)Ausbeutung praktisch gleich setzt. Die Presseverlage mussten nicht von irgendjemandem erst lernen, ihren Mitarbeitern, besonders ihren freien, so wenig wie möglich zu zahlen.

(Apple lässt, wie alle anderen auch, in China produzieren. Der Bericht eines US-Performancekünstlers von Anfang des Jahres, bei Foxconn, das unter anderem von Apple beauftragt wird, würden Kinder arbeiten, hatte sich Wochen später als Lüge herausgestellt. Ein Arbeitsplatz bei Foxconn ist vor allem in den ländlichen Bevölkerungsschichten Chinas sehr beliebt. Chinesen stehen Schlange, wenn Foxconn neue Stellen ausschreibt. Eine Stelle bei Foxconn scheint viele also besser zu stellen. Sind die Bedingungen dort deswegen optimal? Nein. Aber man muss das auch im jeweiligen Kontext betrachten. Etwas, das aus europäischer Sicht schlecht ist, stellt für jemanden eine Besserung der eigenen Situation dar, wenn zwischen ‘schlecht’ und ‘sehr schlecht’ gewählt werden muss. Die Löhne in China steigen übrigens gerade so stark, dass bereits wieder ein Abwandern der Arbeitsplätze befürchtet wird. Foxconn will außerdem in Roboteranlagen investieren. Hat das irgendetwas mit der Internetökonomie und dem Medienwandel zu tun? Ich habe keine Ahnung. Fragen Sie Herrn Schirrmacher.)

Frank Schirrmacher:

Streitet das Land im einundzwanzigsten Jahrhundert ernsthaft über die Frage, ob man Dinge, die man liest, anfassen kann?

Leider ja. Haptik war in den letzten Jahren eines der am häufigsten vorgebrachten Argumente, warum die Printzeitung nicht sterben wird. Jetzt, wo langsam alle aufwachen, wollen wir diese Groteske nicht vergessen.

Die entscheidenden Fragen

Frank Schirrmacher schließt seinen Text mit einem Plädoyer für den Journalismus, wie er ihn kennt:

Wie kann eine Gesellschaft ohne guten Journalismus überleben? Jetzt, wo sich leider auch immer mehr Journalisten sich ihre sozialen Prognosen vom Silicon Valley und der Wall Street schreiben lassen, riskieren wir eine ganz einfache und ebenso gelassene Vorhersage: gar nicht.

Die entscheidende Frage ist nicht, wie eine Gesellschaft ohne guten Journalismus überleben kann. Die Frage lautet, wie können die Aufgaben des Journalismus in einer Gesellschaft gelöst werden, die von Digitalisierung und damit vernetzter Informationsökonomie geprägt ist. Das ist weder an Institutionen (sprich Presseverlage) gebunden, wie ich hier im Gespräch ausführte, noch an unsere Definition von Journalismus, wie wir ihn aus der industriellen Informationsökonomie kannten. Das ist Strukturwandel hautnah.

Kein Vertreter eines Enzyklopädien herausgebenden Verlages hätte jemals geglaubt, dass etwas wie die Wikipedia funktionieren könnte, geschweige denn, dass so etwas gesellschaftlich so viel wichtig werden könnte als irgendeine herkömmliche, industriell produzierte Ausgabe davor.

Wie kann eine Gesellschaft ohne guten Journalismus überleben?

Nein. Das ist nicht die Frage.

Nehmen Sie sich ein leeres Blatt Papier oder meinetwegen eine leere Textdatei.

Welche gesellschaftlich wichtigen Aufgaben nehmen Journalisten wahr?

Lassen sich diese Aufgaben auch auf andere als die bekannten Arten lösen?

Gibt es möglicherweise für manche Aufgaben bessere (in Bezug auf Objektivität, Effizienz, Ausmaß) Lösungsansätze als hierarchisch strukturierte, gewinnorientierte Unternehmen? Wie könnten diese aussehen?

Was, wenn wir heute bei Null anfangen würden?

Das sind die Fragen, denen wir uns stellen müssen. Und dann Experimente. Und Geduld und Aufmerksamkeit.

Wir haben den Vorteil, dass wir mit dem Blick in die USA einen Blick in die Zukunft werfen können. Ja, wir hinken in Deutschland, und in ganz Europa, hinterher. Aber wir hinken immerhin, wir sind noch nicht stehengeblieben.

Warum sollte ich als Trierenhersteller einen Blick über den Ozean werfen? Ist da überhaupt irgendetwas? Sieht nur nach Wasser aus.

Eine Herausforderung ist auch, dass der mittelalterliche Matrose hinter dem Ozean nicht das Ende der Scheibe sondern einen neuen Weg nach Indien erhoffen muss, um sich überhaupt auf die beschwerliche Reise zu machen, oder zumindest erst einmal ernsthaft darüber nachzudenken. Im Idealfall entdeckt er dann ein neues Land.

Der turbulente Markthintergrund zur Qype-Übernahme durch Yelp

Die gleiche alte Geschichte: Erneut verschwindet ein weiteres unabhängiges deutsches Webunternehmen, das vor allem im heimischen Markt erfolgreich war, aber nie aus Europa herausgekommen ist, weil es zwar früh mit dem initialen Produkt regional Netzwerkeffekte feiern konnte, den Machern aber irgendwann die konzeptionelle Puste ausging.

Wie beide Unternehmen heute bekanntgegeben haben, wird die Empfehlungsplattform Qype von ihrem US-Konkurrenten Yelp übernommen. Laut TechCrunch bezahlt Yelp zusammengerechnet 50 Millionen US-Dollar:

 It will pay €18.6 million for all of Qype’s shares and is adding another 970,000 shares of Yelp’s Class A common stock, for a total purchase price of approximately $50 million.

Yelp war 2010 auf den deutschen Markt gekommen, hat sich in den letzten Jahren aber sogar im webfreundlichen Berlin schwergetan. Es macht nicht den Eindruck als hätte Yelp in den letzten Jahren nennenswerte Fortschritte mit organischem Wachstum im deutschen Markt gemacht. (Man vergleiche das mit der Entwicklung von Facebook in Deutschland.) Ein Umstand, der sich allerdings auch ohne Qype-Übernahme geändert hätte. Den Grund findet man im letzten Abschnitt des Textes.

Paradigmenwechsel hin zum mobilen Web

Angesichts der letzten Bewertungen von Qype können die Investoren mit dem Übernahmepreis zufrieden sein. Deutsche Startups:

Die 2006 gestartete Bewertungsplattform Qype wurde in den vergangenen Jahren unter anderem von Vodafone Ventures, Advent Venture Partners, Partech, dw Capital und Wellington Partners unterstützt. Qype-Gründer Uhrenbacher war zuletzt noch mit 17 % am Unternehmen beteiligt. Insgesamt sammelte Qype in der letzten veröffentlichten Finanzierungsrunde Ende 2010 6,5 Millionen Euro ein. Im Herbst 2008 sammelte die Jungfirma zuvor 8 Millionen Euro ein. Die letzte bekannte Bewertung des Unternehmens lag beim Einstieg von Vodafone Ventures bei rund 43 Millionen Euro. 

Denn sowohl Qype als auch Yelp haben ein Problem. Sie sind Webdienste, die auf dem Desktop geboren wurden und dessen Logiken folgen. Sie lösen allerdings ein Problem, lokale Empfehlungen, das inhärent Smartphoneland ist. Ohne konzeptionelles Neudenken für diese Dienste wird Wachstum oder auch nur das Halten der Position schwierig.

Die größte Herausforderung von Yelp, das in den USA noch ein Juggernaut ist, sind deshalb mobil besser aufgestellte Lösungen für dieses Problem; und konkret: Foursquare.

Foursquare und die Herausforderungen für Yelp/Qype

Ich hatte es bereits zum Börsengang von Yelp im letzten Jahr erwähnt. Warum Foursquare das Zeug hat, zur ersten großen Plattform des mobilen Webs zu werden, hatte ich im November 2011 ausführlich analysiert:

Ob Prag oder Provinz, Foursquare scheint das Henne-Ei-Problem des ortsbasierten Webs – man fängt in jeder Region wieder bei Null an – schneller zu lösen als alle anderen und damit schneller als alle anderen überall präsent zu sein. Und das ist das Fundament, auf dem die Plattform, die Community, die Empfehlungsmaschine, die Apps und die Kooperationen gedeihen können.

Und hier, im mobilen Web, zeigte sich auch, dass Qype an die konzeptionellen Grenzen gelangt war.

Ich schrieb zum Yelp-IPO:

Yelps Website und mobile App sind allerdings recht gut gemacht und zum Beispiel hilfreicher konstruiert als jene vom deutschen Qype.

Qype hätte mit einer Kooperation und/oder Integration von Foursquare und anderen Diensten wichtige Daten ansammeln können, die die eigene Position hätten stärken können.

Mehr kleinteilige Daten in Form von Checkins hätten die Reviewdaten stärken können. Qype hätte Erfahrungen sammeln können, die dem großen US-Konkurrenten gefehlt hätten. Siehe hierzu etwa meine Ausführungen von August 2010.

Stattdessen hat Qype das Gleiche wie Yelp gemacht: Eine schlechte Checkin-Funktion ohne langfristige Strategie dahinter in die eigene App integriert. Stephan Uhrenbacher von Qype aus dem Jahr 2010 zufolge scheint es eine Entscheidung von Qype gewesen zu sein, diesen Weg zu gehen, statt eine von außen erzwungene:

Wir haben Gespräche mit Foursquare geführt, uns dann aber dazu entschieden, unser eigenes Checkin-System aufzubauen. Das bietet sich auch an, immerhin besitzen wir ja eine umfassende Location-Datenbank. Auf diese wiederum greifen andere Location Based Services über die Qype API zu.

Fast könnte man meinen, das wäre typisch für deutsche Webgründer: Immer versuchen alles selbst zu machen und am Ende unter anderem auch gerade deswegen mit dem Gegenteil dastehen; nämlich als Ableger eines US-Anbieters.

Qype, das wie studiVZ und Xing ein nur auf wenigen nationalen Märkten erfolgreicher Dienst war, sah sich nicht nur einem international wesentlich größer aufgestellten Konkurrenten gegenüber, sondern auch einem Paradigmenwechsel durch das kommende mobile Web.

Mit innovativen Ansätzen hätte Qype dank guter regionaler Basis mehr werden können. Dafür schienen aber die Visionen gefehlt zu haben.

Vor diesem Hintergrund ist der aktuelle Exit für alle Beteiligten auf der Qype-Seite ausgesprochen erfreulich.

Die neuen iOS-Karten als Heilsbringer für Yelp

Meine Aussicht auf Yelp, die zum Zeitpunkt des Börsengangs nicht sehr positiv ausgefallen war, hat sich in der Zwischenzeit etwas relativiert. Das liegt weniger am Produkt von Yelp und mehr an Apple: Denn Yelp ist einer der Partner für die neuen Karten auf iOS. Yelp selbst und die Reviews von Yelp sind damit mit einem Schlag zumindest im populären mobilen Betriebssystem iOS auf eine Stufe gerutscht, die im Web und auf Android und vorher auf iOS Google vorbehalten war.

Die iOS-Integration von Yelp ist eine Distributionsgoldmine. Allein deshalb sind Yelp-Reviews für Geschäfte mit einem Schlag wichtig.

Auch diese Entscheidung von Apple könnte in die Übernahmegespräche eingeflossen sein. Es ist zumindest eine interessante Randnotiz wert, dass Apple sich nicht die Mühe gemacht hat, hierzulande neben Yelp auch Qype, das wesentlich mehr Ergebnisse hat, zu integrieren. Wenn es für Qype keine Möglichkeit gibt, eine vergleichbare Partnerschaft mit Apple zu erlangen, wäre der Ofen mittelfristig so oder so aus gewesen – denn man erinnere sich: im mobilen Web liegt die Zukunft für Dienste wie Qype und Yelp.

(Warum Qype nicht bei den Apple-Karten dabei ist, spielt dabei gar keine so große Rolle. Vielleicht haben Yelp und Apple einen internationalen Deal abgeschlossen. Yelp hat naturgemäß einen besseren Blick auf seinen Markt als Apple, und dürfte die Vorteile besser erkannt haben. Oder Apple macht es sich leicht und sich selbst hier zum Kingmaker. So oder so: Allein die Tatsache, dass Qype, der Platzhirsch auf dem wichtigen deutschen Markt, kein iOS-Maps-Partner zum Launch war, spricht Bände.)

Man darf gespannt sein, inwiefern es Yelp gelingen wird, die Datenbanken zusammenzuführen. Vor allem deutsche iOS-User würden sich über eine erfolgreiche Übertragung der Daten freuen.

Maps sind für mobiles Web, was Webindex von Suchmaschinen für das Desktop-Web ist

Maps sind, das dürfte auch dem letzten nach dem aktuellen Drama um Google Maps und Apple Maps aufgegangen sein, der vielleicht wichtigste Baustein der langsam heranrollenden mobilen Webrevolution.

Maps sind, wenn man so will, das Äquivalent zum Webindex für das lokal getriebene Web. So wichtig, wie die Websuche für das ortsungebundene Web ist, so wichtig sind Maps für das mobile, oft  lokal getriebene Web.

Sie sind die Basis, auf der das mobile Web steht. Deswegen sind eigene Karten für Plattformprovider, von Apple über Google bis Amazon, strategisch wichtig.

Deshalb ist es besonders interessant, was Alexis C. Madrigal in The Atlantic über Nokias Maps schreibt:

There’s a third company that’s invested billions of dollars, employs thousands of mapmakers, and even drives around its own version of Google’s mythic “Street View” cars. 

That company is Nokia, the still-giant but oft-maligned Finnish mobile phone maker, which acquired the geographic information systems company Navteq back in 2007 for $8 billion. That’s only a bit less than the Nokia’s current market value of a bit less than $10 billion, which is down 93 percent since 2007. This might be bad news for the company’s shareholders, but if a certain tech giant with a massive interest in mobile content (Microsoft, Apple, Yahoo) were looking to catch up or stay even with Google, the company’s Location & Commerce unit might look like a nice acquisition they could get on the cheap (especially given that the segment lost 1.5 billion euros last year).

Das faszinierende ist, dass Nokia zumindest in den USA Zugang zu quantitativ – und damit in Aggregation auch qualitativ -hochwertigen Daten hat, von denen Apple als auch Google nur träumen können. Die GPS-Daten von den Paketdiensten FedEx und UPS:

People pointed out that while Google’s driven 5 million miles in Street View cars, UPS drives 3.3 billion miles a year. Whoever had access to these other datasets might be in the mapping (cough) driver’s seat.

Well, it turns out that Nokia is the company that receives the GPS data from both FedEx and UPS, the company’s senior VP of Location Content, Cliff Fox, told me.

Fazit: Wenn die neue Lumia-Reihe von Nokia mit Windows 8 floppt, entsteht eine Marktsituation, in der Nokias Maps-Abteilung zum Verkauf stehen könnte. Der Preis dürfte dann nicht einmal bei einem Zehntel der Kriegskasse von Apple liegen.

Zusätzlich ist es naheliegend, dass Apple und andere Unternehmen wie Amazon etwa künftig verstärkt auf Postdienste in aller Welt zugehen, weil diese auf einmal in einer Welt, in der Maps strategisch wichtig werden, auf einem Datenschatz sitzen. Sie wären dumm, würden sie es nicht tun.

Alles abschalten!

Google, Frau Wulff, und die Autovervollständigenfunktion. Ein klassisches deutsches Drama.

Am Sonntag habe ich in den Sat.1-Nachrichten anderthalb Sätze zum Fall Wulff gesagt.* Ich glaube, aktuell möchte niemand in der Haut von Frau Wulff stecken. Ein unangenehmes Gerücht verbreitet und verfestigt sich, und zum ersten Mal ist man als deutsche Prominente auch außerhalb der Bild-Seiten hilflos.

Das Verständnis von Meinungsfreiheit im deutschen Recht kennt enge Grenzen. Verleumdung, Rufmord, Behauptung falscher oder zumindest nicht beweisbarer Tatsachen, dagegen kann man gerichtlich vorgehen. Man kann sogar nach einer Verjährungfrist jede noch öffentlich erreichbare Berichterstattung über längere Zeit zurückliegende Verurteilungen und damit auch über die dort verurteilten Verbrechen entfernen lassen. Resozialisierung. Die Würde des einzelnen wiegt(e) in Deutschland immer um ein Vielfaches schwerer als die Meinungsfreiheit. Besonders wenn man sich gute Anwälte leisten kann.

Ich habe dieses Jahr Post von einer Kanzlei bekommen für einen Blogartikel, in dem ich auf einen  Zeitungsartikel verwies, der ebenso wie mein Blogartikel entfernt werden musste, weil das darin erwähnte Verbrechen nicht mehr öffentlich mit dem Namen der Person in Verbindung gebracht werden darf. Und das obwohl meines Erachtens in diesem Fall erhebliches öffentliches Interesse besteht.**

Von wegen das Internet vergisst nichts.

Aber was ist, wenn sich die Verbreitung einer Information dann doch überhaupt nicht mehr aufhalten lässt? Was wenn ein Gerücht nicht nur in Zeitungsartikeln, Blogs und Foren kursiert, sondern auch auf Twitter, Facebook und in den Buchschlagwörtern von Amazon, und, selbstverstärkend, danach gesucht, gegooglet, wird? Was wenn user content generieren und Algorithmen das dann auswerten?

Natürlich ist es ein Streisandeffekt, wenn man mit einer Klage, diesem in Deutschland bewährten Eindämmungswerkzeug öffentlicher Kommunikation, die Verbreitung der aufzuhaltenden Information nur noch befeuert. Es spielt dabei leider keine große Rolle, ob die Information selbst tatsächlich stimmt oder nicht.

Und natürlich ist es ärgerlich, das für die Verbreitung von Gerüchten im Internet der Wahrheitsgehalt die gleiche Rolle spielt wie bei der Berichterstattung in der Bild: Oft eine zu kleine. Im Zweifel entscheiden die eigenen Bauchgefühle und die vermuteten der anderen.

Was also tun? Klar, Google verklagen. Weil dieses die Verbreitung von Wortclustern algorithmisch in der Autovervollständigenfunktion der eigenen Suchmaschine abbildet.

Und dann natürlich die Frage: Sollte Google eingreifen? Sollten sie Verantwortung übernehmen? Ethik! Moral! Die großen Geschütze.

Wolfgang Michal, wer sonst***, impliziert auf Carta am 9.9., dass Google die eigenen Funktionen redaktionell begleiten müsse:

Das Recht zwingt die „neutralen“ Plattformen dazu, redaktionelle und verlegerische Aufgaben wahrzunehmen, also auszuwählen, zu filtern, zu ordnen, zu hierarchisieren und zu bewerten. Manche nennen das Zensur, andere sehen darin die Notwendigkeit zur Verantwortung.

Sascha Lobo fasst den Kern der Debatte auf Spiegel Online so zusammen:

Der Zorn, den Google auf sich zieht, wenn es Gerüchte über Gattinnen oder Meinungen über Mohammed verbreitet, entspricht einem bisher ungelösten moralischen Konflikt über die Auffindbarkeit: Ist der Überbringer einer Botschaft für den Inhalt verantwortlich? Eine grundsätzliche Diskussion wird notwendig; sie beginnt mit der schmerzhaften Feststellung, dass die Rolle des Botschafters in der digitalen Sphäre unklar geworden ist. Das liegt auch daran, dass die scheinbar neutrale Rolle des Überbringers, so selbstverständlich sie sich für Netzbewohner anfühlen mag, auch nur eine Hilfsmetapher ist. Und zwar eine, die dem Vermittler sämtlicher Inhalte eine grundsätzliche Neutralität zuschreibt.

Spielen wir das einmal durch:

Was, wenn Google verantwortlich ist, wenn es zur Verantwortung gesetzlich verpflichtet wird? Der reiche US-Konzern kann doch ein paar Leute einstellen, die sich darum kümmern könnten! Oder nicht?

Dann fragen wir doch einmal: Warum gibt es keine Autovervollständigenfunktion bei den internen Suchen von FAZ.net über sueddeutsche.de bis Spiegel Online? Die Inhalte und potentiellen Suchkombinationen umfassen im Vergleich nur einen Bruchteil der Suchen über das gesamte Internet bei Google. Und die jeweiligen Redaktionen sind nicht klein. Warum also nicht? Vielleicht, weil es nicht praktikabel ist, so etwas redaktionell zu lösen, selbst wenn die potentiell zu überblickende Menge vergleichsweise gering ist?

Viel wird bei dieser Debatte von Neutralität gesprochen. Das ist aber eine Nebelkerze. Google ist nicht neutral und kann es nicht sein. Google ist wie jede Suchmaschine eine einordnende Instanz. Aufgrund der algorithmischen Vorgehensweise sind die Möglichkeiten (Skalierbarkeit) auch unmittelbar mit den Grenzen (Unmöglichkeit der Einzefallabwägung) verbunden.

Will man Googles Rolle in diesem Schlamassel verstehen, muss man sich die Position in der Wertschöpfung, also die Stelle, an der Google etwas hinzufügt, veranschaulichen:

Google ist wie der Kioskbesitzer, der (selbstverständlicherweise) nicht für falsche Behauptungen in der Bild-Zeitung verantwortlich gemacht wird, nur weil er sie in seinem Laden verkauft; und übrigens auch nicht, wenn er diese Bild-Zeitung für alle sichtbar in’s Schaufenster legt.

Der Kioskbesitzer ist auch nicht neutral: Er nimmt seinen Kiosk bevorzugt dort in Betrieb, wo viele Leute vorbeikommen. Er platziert die Bestseller für alle Kunden gut sichtbar. Und zwar auch dann, wenn die Bestseller nachweislich permanent falsche Informationen verbreiten.

Und doch: Er hat zu keinem Zeitpunkt einen direkten Einfluss auf die Inhalte in den Publikationen, die er verkauft.

Dass Google nun punktuell Einfluss auf die Ergebnisse der Autovervollständigenfunktion nimmt und etwa filesharingrelevante Anfragen nicht vervollständigt, ändert daran nichts. Google ist nicht gut darin beraten, das zu tun und macht es, weil der Konzern gerade eine fundamentale Veränderung erlebt: Von einem vom Web lebenden Konzern (weil primär Suchmaschine) emuliert Google zunehmend Apples vertikale Integration und benötigt etwa für Google Play (Googles Äquivalent zu iTunes) Verträge von Filmstudios und Musiklabels. Um diese zu bekommen, springt Google auch bei der Suchmaschine durch Hulahoopreifen:

Punktuelle Beschneidung der Vervollständigenfunktion, Adminrechte für Entertainmentkonzerne bei Youtube, Rankingverluste für Websites, die viele DMCA-Takedowns erhalten. Das alles macht Google, weil sie, entgegen ihres Images in Deutschland, überhaupt kein Problem damit haben, großen Rechteinhabern entgegenzukommen. Und es zeigt nicht die Lösung sondern das Problem auf:

Mit jeder dieser Massnahme wird die Googlesuche ein kleines Stück schlechter.

Google kann Themen wie Filesharing oder Pornographie von der Autovervollständigenfunktion ausnehmen. Aber es kann nicht jede Form von Verleumdung vorhersehen. Es kann nicht entscheiden, was “gute” und was “schlechte” Wortkombinationen sind. Es ist eine Funktion, die entweder algorithmisch erzeugt angeboten wird oder gar nicht.

Übrigens: Auch Bing, Microsofts Suchmaschine, bietet als Ergänzungen zu den Wörtern “Bettina” und “Wulff” unter anderem “Rotlicht” und “Prostitution” an.

Letztlich hat das Fazit nur wenig mit dem Internet zu tun: Entweder wir lernen als Gesellschaft unser Verständnis von Meinungsfreiheit liberaler zu fassen, so etwa wie man es aus den USA kennt, also auch mit all den von da bekannten Vor- und Nachteilen, oder uns bleibt nur die gleiche deutsche Lösung wie bei Street View (verkrüppeln; hier aber bis zur Unkenntlichkeit, sprich die Funktion wird auf die handhabbaren ein Prozent der meistvorkommenden Suchen beschränkt) oder dem Like-Button:

Alles abschalten!

-

*Nicht online abrufbar, wenn ich das richtig sehe. Ich bin aber auch nicht in der Lage, die Website von Sat.1 länger als zwei Minuten zu benutzen, ohne ein Gehirnaneurysma zu bekommen.

**Aus nachvollziehbaren Gründen wird jede Vermutung in den Kommentaren, egal ob richtig oder falsch, unverzüglich gelöscht. Wer nicht gesperrt werden möchte, lässt das bitte gleich bleiben.

***Wolfgang Michal hatte vor Jahren einmal angeregt, Google könne doch seinen kompletten Index händisch auf Urheberrechtsverletzungen überprüfen.

Twitter beginnt mit der Vernichtung der Plattform

Twitter setzt auf Werbung als einzige Einnahmequelle und will dafür (Pageviews! Reichweite!) die eigene Plattform unter Kontrolle bekommen. Nun wurden die ersten konkreten Änderungen bekanntgegeben.

GIGA hat eine gute Zusammenfassung der Veränderungen:

Ein Client darf nun nur noch 60 mal pro Stunde die Twitter-API aufrufen, zuvor waren es noch 350 API-Aufrufe. Davon sind allerdings nicht alle API-Calls betroffen. So fällt etwa das Aufrufen von Profilen und die Suche nach Nutzern unter ein höheres Limit mit 720 Aufrufen pro Stunde.

Durch die heute vorgestellten Änderungen limitiert Twitter effektiv aber auch die maximale Zahl der Nutzer, die ein inoffizieller Client jemals haben kann. Ohne spezielle Erlaubnis dürfen nur 100.000 Nutzer einen Dienst nutzen. Ausnahme sind Apps, die bereits jetzt mehr als 100.000 Anwender haben. Diese dürfen auf bis zu 200 Prozent der heutigen Zahl wachsen.

Diese Begrenzung auf 100.000 User mag groß erscheinen, ist sie aber nicht. Sie trifft sogar kleine Nebenfeatures bei kleinen Diensten wie Instapaper:

Instapaper’s “Liked By Friends” feature reads timelines and will need more than 100,000 tokens. And that’s a relatively minor feature in a small web service run by one guy.

Besonders Regel 5a hat weitreichende Auswirkungen:

[5a] Tweets that are grouped together into a timeline should not be rendered with non-Twitter content. e.g. comments, updates from other networks.

Marco Arment:

In other words, apps cannot interleave chronological groups of Twitter posts with anything else.

This is very broad and will bite more services and apps than you may expect. It’s probably the clause that caused the dispute with LinkedIn, and why Flipboard CEO Mike McCue just left Twitter’s board.

Closer to home for me, it affects Instapaper’s “Liked By Friends” browsing feature, which will need to be significantly rewritten if I want it to comply. (If.)

Naturally, this also prohibits any client from interleaving posts from Twitter and App.net, or any other similar service, into a unified timeline.

 Davon ebenfalls betroffen sind Apps wie die populäre Chrome-/Firefoxerweiterung Yoono.

Die Überlegung von Twitter: Sie sind groß genug, um von Entwicklern und Usern genutzt zu werden, ohne mit anderen Networks zusammengeworfen zu werden. Das Ergebnis kennt man aus dem Instant-Messaging-Markt: Während nahezu jedes IM-Network in einem allgemeinen Client genutzt werden kann, läuft Skype nur über den eigenen Client. Macht das Skype attraktiver? Nein. Aber es erlaubt Skype das Schalten von Werbung.

 Twitter wird künftig nicht mehr in Apps wie Flipboard vertreten sein. 

Wer glaubt, dass das Mainstreamuser nicht treffen wird, unterschätzt die Popularität von Flipboard und ähnlichen Diensten.

Das alles ist gut für das Web, wie ich schon einmal schrieb: Endlich wird die Kreativität der Entwickler wieder frei und beschränkt sich nicht auf Twitter, das bis vor kurzem noch das naheliegendste Ziel war. Auf Twitter entwickeln ist ein gefährliches Geschäft geworden, das sich nicht mehr lohnt. Selbst wenn man heute noch unter die erlaubten Apps fällt: Wer weiß schon, was sich Twitter morgen ausdenken wird?

Denn das hier ist keine leichte Richtungsänderung; das ist ein Strategiewechsel um 180 Grad.

Marco Arments (Instapaper, Ex-Tumblr) Fazit:

But Twitter has proven to be unstable and unpredictable, and any assurances they give about whether something will be permitted in the future have zero credibility.

I sure as hell wouldn’t build a business on Twitter, and I don’t think I’ll even build any nontrivial features on it anymore.

And if I were in the Twitter-client business, I’d start working on another product.

Zu dem gleichen Ergebnis dürften künftig noch mehr Entwickler und Investoren kommen als bereits seit der Übernahme von Tweetie.

Für Twitter, das auf die kurzfristige Profitentwicklung achten muss, dürfte das vorerst egal sein. Vorerst.

Mit der Vernichtung der Plattform beginnt auch die Vernichtung der Bedeutung von Twitter. Was gut für das Web ist, ist schlecht für die mittel- bis langfristige Position von Twitter. Twitter mag glauben, dass sie groß genug sind, um ohne die kleinen und großen Apps auszukommen. Twitter wird aber lernen, dass viele kleine Nadelstiche auch zum Tod führen können.

Twitters Ringen mit der eigenen Plattform begleiten wir hier schon länger:

 

Private Chats sind 2012 nicht das, was Briefe 1948 waren.

Weil Facebook private Chats algorithmisch auswerten und auch bereits von Mitarbeitern hat auswerten lassen, fordert Sascha Lobo auf Spiegel Online nachvollziehbarerweise ein neues “Telemediengeheimnis“. Ein Gesetz, das das Briefgeheimnis auf Webdienste übersetzt. Er schreibt unter anderem:

Private Chats sind 2012 das, was Briefe 1948 waren.

So sehr ich die Grundintention verstehen kann, so muss ich trotzdem festhalten, dass die Prämisse nicht korrekt ist. Wer 1948 einen Brief an einen Freund geschickt hat, war auf die Post angewiesen. Wer heute auf Facebook mit einem Freund chattet, kann stattdessen auch Emails, GTalk, AIM, Jabber, Windows Live Messenger oder VZ- nutzen. Daraus folgen eine Handvoll Schlussfolgerungen:

1. Die Wahlmöglichkeit der Systeme minimiert das Problem.

2. Einige dieser Systeme kommen nicht von zentralen Providern mit Profitabsichten. Namentlich Jabber und Email lassen sich ohne weiteres verhältnismäßig sicher aufsetzen und nutzen. Bei beiden gibt es auch entsprechende Institutionen, die explizit Dienste in diese Richtung anbieten.

3. Wir stehen noch immer am Anfang einer gewaltigen Entwicklung, die man als große gesellschaftliche Experimentierphase wahrnehmen muss, auch und besonders, wenn es um gesetzgeberisches Vorgehen geht. Jede Regulierung kann in unserer heutigen Umbruchsphase ungeahnte Nachteile mit sich bringen. Und damit meine ich nicht einmal die Fundamentalisten rund um Herrn Gorny, weil mir nicht einfallen will, wie diese Gruppe ein solches Gesetz für sich nutzen könnte. (Was nicht heißt, dass dem Bundesverband Musikindustrie nicht doch etwas einfallen könnte.) Ich meine eher Funktionalitäten, die sich auch rund um eine private Unterhaltung flechten lassen. Automatische, semantische Analyse, die Zusatzdaten bereitstellt etwa. Und ungefähr ibzehn weitere Dinge, die wir uns heute noch nicht vorstellen können.

Mit einem Telemediengeheimnis wären folgende Szenarien möglich:

  • a.) Man kann als Nutzer auf dieses Recht verzichten. Auf diese Weise wird sichergestellt, dass die in (3) beschriebenen potentiellen Funktionen angeboten werden können. Ein wahrscheinliches Ergebnis: Anbieter wie Facebook nehmen die Genehmigung in die AGB auf. Es bleibt praktisch alles wie bisher.
  • b.) Auf dieses Recht kann nicht verzichtet werden. Private Kommunikation wird nur übermittelt, darf nicht verarbeitet, ausgewertet oder aufbereitet werden. Weitere Funktionen sind damit praktisch verboten. Reichhaltige Zusatzfunktionalität gibt es nur bei öffentlicher Kommunikation. User werden dazu gedrängt, eher öffentlich zu kommunizieren, wenn sie dies und jenes möchten. (Lustiger Nebeneffekt: Das Drängen zur öffentlichen Kommunikation ist auch so schon im Interesse von Facebook und co.)

Mir geht es nicht darum, der Überwachung von privater Kommunikation das Wort zu reden. Mir geht es darum, dass hinter solchen zunächst nachvollziehbaren Forderungen, die in Deutschland natürlicher- und frustrierenderweise immer breiten Beifall finden, ein enormer Rattenschwanz an Problemen und Herausforderungen und last not least an potentiell enormen gesellschaftlichen Kosten liegen. Warum? Weil wir aktuell nicht in einer Zeit der Stabilität leben. Wir leben in einem Zeitalter des gesellschaftlichen Umbruchs, der nicht gestern begonnen hat und heute vorbei ist, sondern der noch auf Jahrzehnte andauern wird.

Was wäre eine sinnvolle Gesetzgebung vor diesem Hintergrund? Sie sollte nicht den Wettbewerb zwischen den Systemen und damit deren Weiterentwicklung behindern. Sie sollte also immer wenn möglich nicht auf die Funktionen selbst abzielen. Stattdessen wäre es sinnvoll, die Kommunikation zwischen Anbietern von Webdiensten und Nutzern stärker zu regulieren. Ein klarer, gesetzlich vorgeschriebener Hinweis etwa, dass ein privater Chat auf Facebook mitgeschnitten und ausgewertet wird, würde den Boden ebnen für selbstbestimmte Nutzerentscheidungen darüber, ob ihnen das egal ist oder ob sie lieber auf Alternativen ausweichen.

Bleibt die Frage, warum in Deutschland tendenziell eher auf Regulierung statt auf Wettbewerb gesetzt wird. Es könnte etwas mit Menschenbildern zu tun haben.

***

P.S.: Kein neues Gesetz sollte sich jemals danach richten, ob “Die Eltern des Grundgesetzes es so gewollt” hätten. Entweder ist es ein Gesetz, auf das sich die Gesellschaft heute als wünschenswert einigt oder nicht. Vermutete Meinungen toter Frauen und Männer sind irrelevant.

Twitter will mehr wie Facebook werden

The Verge:

Twitter set off alarm bells across the web in recent weeks when it ended its partnership with LinkedIn and reiterated its warning that it would be cracking down on the terms of its API. The company didn’t offer any explanation for why it removed tweets from LinkedIn, but speaking with sources familiar with the company’s plans, The Verge has learned that major changes are coming in the next few months which will move Twitter from an open platform popular among independent developers towards a walled garden more akin to Facebook.

Entgegen der Annahme von The Verge, dass Twitter ‘so geschlossen wie Facebook’ werden soll, vermute ich eher, dass es um ein featurereicheres Grundangebot geht.

Damit einher könnte allerdings tatsächlich ein Ende der Twitter-Clients gehen, wie bereits seit längerem befürchtet wird:

The company doesn’t want to deal with fragmentation across different services, where it would have to work with API partners to ensure advertising and rich media was being properly displayed. This would become increasingly challenging, as sources familiar with Twitter’s plans say that it’s hoping to bring a number of new services into the Twitter stream, everything from booking a restaurant reservation to purchasing an item to playing a game.

[..]“They need full control of how the information is presented, and do not have the bandwidth to micromanage ads with third parties to prevent fraud, poor presentation, etc,” said Ollie Wagner, a designer for Twittelator, a third party client. “Do I think they’ll pull the plug on the API? No, not necessarily. But it may mean they’ll become so restrictive that third parties will want to pull it themselves.”

Amüsanterweise ist Facebook sehr viel stärker auf einem Plattformpfad als Twitter. Während Twitter gegen die eigene Plattform kämpft, ist praktisch jede Neuerung bei Facebook immer auch mit einem Plattformaspekt versehen, sei es eine neue API oder eine Erweiterung einer bestehenden API.

Der Unterschied allerdings: Facebook lädt aufgrund seines von Haus aus vorhandenen Funktionenreichtums stärker zum Verweilen ein. Und das hilft, wenn man mit Werbung Geld verdienen will. Twitter will mit Werbung Geld verdienen, und das offensichtlich fast ausschließlich auf diese Weise, und macht somit das Offensichtliche, egal wie falsch es langfristig sein könnte..

***

Viel wurde in der letzten Woche wieder über Twitter und seinen Strategieschwenk geschrieben. Mittlerweile haben viele die Sichtweise eingenommen, die ich bereits seit weit über einem Jahr vertrete.

Mittelfristig wird der Strategieschwenk zu hohen Einnahmen bei Twitter führen. Meine Vermutung: Das ist Teil der Prä-IPO-Roadmap. Der Börsengang von Twitter könnte bereits nächstes Jahr kommen. Also zu einem Zeitpunkt, zu dem Twitter noch enorme Wachstumsraten bei den Werbeeinnahmen vorweisen kann. Das ist eine sehr investorenfreundliche Entwicklung bei Twitter, die nicht verwunderlich ist: Die Investoren von Twitter waren bis dato sehr geduldig. Diese Geduld dürfte langsam zu Ende gehen.  Der Exit, der Twitter jetzt bleibt, nachdem man die Übernahmeangebote von Facebook bis Google (Gerüchteweise) abgelehnt hat, ist der Börsengang. Für den benötigt man kurzfristig gute Zahlen. Was danach passiert?

Das ist mehr als unklar.

Ein Twitter, das sich an Facebook orientiert? Facebook hat über 900 Millionen aktive Nutzer und längst selbst ein twitterähnliches erfolgreiches Abonnementmodell von Statusupdates. Schauen wir uns noch einmal die Entwicklung an einem Beispiel an:

Britney Spears auf Facebook: Anfang des Jahres: 1 Mio. Abonnenten  / Heute: 2,1 Mio. Abonnenten

Britney Spears auf Twitter  Anfang des Jahres: 12,5 Millionen  / Heute 18,4 Mio. Follower

Spears’ Facebook-Fanpage liegt heute übrigens mittlerweile bei über 20 Millionen Likes also Abonnenten. Das Publikum von Spears ist auf Facebook also größer als auf Twitter.

Extremer sind die Unterschiede bei dem ein jüngeres Publikum ansprechenden Justin Bieber. Twitter: 24,6 Mio. Follower. Facebook: 45,1 Mio. Likes.

Was passiert, wenn Twitter sich an Facebook annähert und dafür die den eigenen Status ausmachende Position verlassen muss? Ist Twitter erfolgreich genug, um als Facebook-Kopie bestehen zu können? Oder werden die Multiplikatoren und ihre Follower dann einfach (noch) stärker das Facebookoriginal nutzen, weil Twitter sein Alleinstellungsmerkmal im Webökosystem aufgegeben hat? Wer glaubt, Twitter kann ohne sein heutiges Ökosystem im Schatten von Facebook bestehen, ist meines Erachtens auf dem Holzweg.

Ich sehe langfristig keine erfolgreiche Zukunft für Twitter, sollte es tatsächlich diesen Weg gehen. Aber die langfristige Sicht ist für die auf den IPO schielenden Investoren auch nicht die relevante.

Twitters Kampf gegen die eigene Plattform geht in die nächste Runde

Twitter hat am letzten Freitag neben dem Ende der Kooperation mit LinkedIn bekanntgegeben, dass in den nächsten Wochen striktere API-Regeln eingeführt werden.

AllThingsD berichtet über die wahrscheinlichen Konsequenzen, die ein weiteres Ausbluten der Twitter-Clients bedeuten könnten:

While ending the LinkedIn deal was big, I’ve heard from several sources that we should expect more of the same in the not-too-distant future. Just give a close read to product manager Sippey’s blog post, which went up just minutes before LinkedIn’s post. Sippy’s missive contains some especially strong wording, a harbinger of what’s to come for other developers:

“…we’ve already begun to more thoroughly enforce our Developer Rules of the Road with partners, for example with branding, and in the coming weeks, we will be introducing stricter guidelines around how the Twitter API is used,” Sippey wrote.

Das ist lediglich die nächste Runde des Kampfes, den Twitter gegen die eigene Plattform führt, weil sie in ihrer aktuellen Form nicht mehr mit dem gewählten Geschäftsmodell kompatibel ist. Warum Twitter das macht und warum es für den Dienst nicht die beste Richtung ist, hatte ich in den letzten Jahren seit der Übernahme des Twitter-Clients Tweetie bereits mehrfach ausgeführt.

Hier die Kurzform: Das auf Werbung setzende Geschäftsmodell setzt voraus, dass die User die Werbung auch sehen. Wer weder die Website noch einen der offiziellen Clients benutzt, bleibt außen vor. Ab einem bestimmten Anteil an Nutzern wird das für Twitter inakzeptabel. Twitter muss also entweder die über Clients stattfindende Nutzung seines Netzwerks mit den eigenen Angeboten dominieren oder sie anderweitig kontrollieren. Daraus folgt der Verlust des Mehrwerts der Plattform für das Unternehmen wie seine Nutzer.

Der höchstwahrscheinlich nächste Schritt von Twitter, den ich seit längerem erwarte: Twitterclient-Anbieter, die mit ihren Angeboten eine normale Twitter-Nutzung abdecken, müssen die Werbeformen und andere ‘Features’ wie etwa Trending zwingend auf eine von Twitter vorgegebene Art integrieren. Angekündigt wird das indirekt bereits mit dem PR-Geschwurbel der ‘consistent Twitter experience’. Wie diese Vorgabe aussehen wird? Analog zu denen in den offiziellen Twitter-Clients. Twitter macht bereits über die Hälfte der Werbeeinnahmen über mobile Wege (Website, eigene App). Auf Smartphones dominieren Clients noch mehr als am Desktop. Der Schritt war unvermeidbar für ein rein auf Werbung fokussiertes Twitter.

Den Niedergang der Twitterplattform verfolge ich seit April 2010. Hier die Analysen in chronologischer Reihenfolge:

Das Problem für Twitter: Die für das Geschäftsmodell notwendige stärkere Kontrolle des User Interface steht diametral der Position von Twitter im Internet gegenüber.

Sichtbar wird das etwa am ersten Opfer, der Kooperation mit dem Businessnetzwerk Linkedin. Natürlich will Twitter lieber nicht, dass Tweets auf Linkedin statt auf dem werbefinanzierten Twitter gelesen, kommentiert und weiter verarbeitet werden. Aber erstens ist das Senden von Tweets an Linkedin dank Diensten wie ifttt ohnehin auch weiterhin einfach möglich, und zweitens, was wesentlich wichtiger ist, gehört dieses Multihoming für Poweruser zu den wichtigeren Eigenschaften des Mikrobloggingdienstes.

Das Dilemma: Twitters Position als einfacher Dienst ist auf die externen Erweiterungen über die API angewiesen. Jede kleinste Änderung am Kernprodukt kann sich sofort in der Nutzung bemerkbar machen und weitreichende Auswirkungen haben. Kein anderer Dienst, der auch nur ein Zehntel der Größe von Twitter erreicht hat, stand je vor diesem Problem in dieser Größenordnung.

Wahrscheinlich haben auch die Risikokapitalgeber diese Sonderstellung von Twitter bei ihren Bewertungen ignoriert. (Bei aller persönlicher Begeisterung dem Dienst als Nutzer gegenüber erschien mir Twitter immer als der am extremsten überbewertete Dienst der Web2.0-Ära. Bemerkenswerterweise sehen das bis heute die wenigsten Beobachter ähnlich, obwohl die Zeichen immer deutlicher werden.)

Diese Sonderposition von Twitter macht eine vertikale Integration strategisch genau so gefährlich wie das für andere Dienste offensichtliche Geschäftsmodell Werbung. Twitter hätte ein Grundstein der Webarchitektur werden können. Es hätte Geschäftsmodelle wie Yammer verfolgen können, das just für eine Milliarde US-Dollar von Microsoft übernommen wurde. Twitter hätte, genauer gesagt, in jede Richtung gehen können, die das asymmetrische Followerprinzip erlaubt; von Instagram bis Moped. Auch mit Nebenprodukten, die das Haupttwitter nur noch als Distibutionskanal und Identitätshub nutzen. Das alles wäre auf den ersten Blick riskanter erschienen, aber mit einem konsequenten Plattformansatz bei all diesen Richtungen aller Voraussicht nach erfolgreicher gewesen als die seit längerem eingeschlagene werbezentrische Richtung, die offensichtlich diesen Sommer zum lange erwarteten großen Clash führen wird. Gemeinsam mit Werbung als einer Einnahmequelle von vielen hätte Twitter sich mit diesem Ansatz tief in das Web verankern können. (Etwas, dass das aus unerfindlichen Gründen sehr viel stärker kritisierte Facebook erfolgreich macht.)

Tatsächlich scheint es laut Dalton Caldwell intern bei Twitter zwischen diesen zwei Ansätzen eine Debatte gegeben zu haben, deren Ausgang heute bekannt ist:

As I understand, a hugely divisive internal debate occurred among Twitter employees around this time [ca. 2008/2009]. One camp wanted to build the entire business around their realtime API. In this scenario, Twitter would have turned into something like a realtime cloud API company. The other camp looked at Google’s advertising model for inspiration, and decided that building their own version of AdWords would be the right way to go.

As you likely already know, the advertising group won that battle, and many of the open API people left the company.

Dalton Caldwell kommt zu dem gleichen Schluß, zu dem auch ich vor einiger Zeit gekommen bin:

While I can understand why the latter camp wanted to build an ad-based business, the futurist in me thinks this was a tragic mistake. If you are building an advertising/media business, it would then follow that you need to own all of the screen real-estate that users see. The next logical step would be to kill all 3rd-party clients, and lock down the data in the global firehose in order to control the “content”.

Dass Twitter die Ankündigung an einem Freitag Nachmittag veröffentlicht hat, zeigt, dass das Unternehmen weiß, welchen Shitstorm bei Entwicklern und Usern die eingeschlagene Richtung mit sich bringen wird. Eine gefährliche Richtung: Die Monetarisierung steht bei Twitter heute vor den Interessen der Entwickler und der User, und damit also der Plattform. Die Plattform hat Twitter groß gemacht. Das weiß man spätestens seit 2007. Ein plattformfeindliches Geschäftsmodell könnte bedeuten, dass Twitter wieder in die Bedeutungslosigkeit abrutscht.

Warum Google Mobilfunkbetreiber an den Einnahmen über Android beteiligt

Follow the money: Wenn wir einbeziehen, dass Google Hardwarehersteller und Mobilfunkbetreiber am Umsatz der mobilen Suchen auf Android, also an Googles eigenem Android-Umsatz beteiligt, zeichnet sich ein sehr viel klareres Bild vom mobilen OS-Markt und Android im Speziellen. 

Wie attraktiv Android für Telefonhersteller und Mobilnetzbetreiber noch vor zwei, drei Jahren gewirkt haben muss:

Hier ist die Antwort auf das iPhone. Sie kommt von Google, einem großen Unternehmen, ihr bekommt also Planungssicherheit. Wir machen das OS Open Source. Ihr könnt es also anpassen und müsst keine Lizenzen zahlen. Noch besser! Wenn Ihr die offizielle Google-Version von Android benutzt, müsst Ihr lediglich die Googledienste in Android beibehalten und Ihr erhaltet den Zugang zum Appstore und einen prozentualen Anteil an den Umsätzen, die wir mit der werbefinanzierten Suche über Android machen.

Das erklärt auch, warum es WebOS  unter anderem so schwer hatte: Obwohl es zwischenzeitig das mobile OS mit der besten User Experience war, fehlte dem OS neben den Apps auch der Hebel bei den Netzbetreibern. Die bewerben lieber ein Betriebssystem, bei dem sie noch zusätzlich mitverdienen können und, icing on the cake, das OS mit eigener Bloatware anpassen lassen können.

Apples Vorteil mit dem iPhone liegt im Nachfragesog bei den Endkunden. Der fehlte webOS und der fehlt noch Windows Phone.

Eine der vielen Fragen lautet nun, wie Microsoft auf diese Herausforderung antwortet. 

Google hat hier sehr clever die Geldflüsse auf einem mehrseitigen Markt entsprechend der Preissensitivitäten und der Machtgefälle positioniert. Mit open vs. closed hat das nur sehr am Rande etwas zu tun.

Google hat ein bemerkenswertes, komplexes Geschäftsmodell aufgebaut, das bisher vor allem an meines Erachtens zwei Umständen scheitert:

1. Die Einnahmen über bei mobilen Suchabfragen geschaltete Werbung ist bisher zu gering, um signifkante Werte zu schaffen.

2. Der Wettbewerb auf Hardwarseite ist in der Plattform zu groß, um dort bisher signifikante Profite zu ermöglichen.

Ersteres legt sich vielleicht über einen längeren Zeitraum. Letzteres ist direkt an die Architektur der Plattform gebunden.

Noch einmal: Google hat Motorola Mobility übernommen und könnte nun versuchen über den vertikal integrierten Weg, a la Apple, mehr Wert für sich aus der immensen Verbreitung der Plattform zu schlagen. Das lohnt sich für Google nicht nur aufgrund der höheren Margen, wenn sie eine attraktive Version anbieten, die anderen nicht bereitstünde, sondern auch weil hier die Traffic Acquisition Costs wegfallen. 

Für den Rest der Unternehmen im Ökosystem ist Android auch ohne dieses Szenario bereits nicht so attraktiv, wie es einst erscheinte.

Horace Dediu über die Zahlen:

Comparing revenue “run rates”, on a yearly basis Android is 2.5% of iPhone or 1.6% of iOS.

As various members of the Android ecosystem are rewarded from the 40% revenue share of Android, it would be important to consider the scales involved in these illustrations when considering the influence Google exerts. It could be argued that Google’s spreading of wealth from search creates strong incentives for participation in its ecosystem.

However, there is little wealth created. 40% of a little is a lot less.

Ein Windows Phone mag vielleicht trotz Lizenzzahlungen attraktiver erscheinen, weil die Plattform weniger interne Hardwarekonkurrenz besitzt, muss es aber nicht.

Was wäre aber mit anderen potentiellen Einsteigern in den Markt der Telefonbetriebssysteme wie Facebook oder Amazon?

Sie brauchen Anreize, um selbst den wen auch geringen Ausschüttungen von Google etwas entgegen zu setzen. Ihre Chance könnte gerade darin liegen, dass Googles Geschäftsmodellplay bisher nicht so aufgegangen ist wie geplant. Es ist aber alles andere als sicher.

Sicher ist dagegen, dass bei dem Androidschach die Endnutzer nicht die wichtigste Rolle spielen.

-

Zusätzlich zu den Artikeln auf asymco ist zu dem Thema besonders die aktuelle Ausgabe des Podcasts “The Critical Path” mit Horace Dediu sehr empfehlenswert.

Weitere Artikel zum Thema:

 

Das Potential eines Facebookphones liegt im Distributionskanal für ortsbasierte Dienste

Anhand von Oink und Echofy haben wir jetzt ein paar Mal über die Herausforderungen bei ortsbasierten Diensten gesprochen. Hier noch einmal die Grundaussage:

Denn ortsbasierte Dienste stehen immer vor der Herausforderung, die kritische Masse nicht nur einmal sondern an vielen Orten aufbauen zu müssen. Es ist vollkommen egal für einen User in Berlin, Hamburg oder der bayrischen Provinz, wie erfolgreich ein ortsbasierter Dienst in San Francisco oder New York ist und umgekehrt.

Das ist die Herausforderung, die nach Lösungen praktisch schreit.

Eine Lösung:

Facebook beweist seit längerem, wie stark es als Plattform das Wachstum von Diensten beschleunigen kann. Das Videostartup Viddy wächst dank Facebookintegration um 500.000 Nutzer pro Tag und ist in einem halben Monat von zehn auf 26 Millionen Nutzer gewachsen. Das ist nur ein Beispiel von vielen. On-Demand-Musikstreamingdienste sind nach einer tiefen Facebookintegration massiv gewachsen.

Nimmt man die Herausforderung für ortsbasierte Dienste und kombiniert sie mit den  Distributionspotentialen auf der Facebook-Plattform, ergibt sich die Marktchance für ein Mobiltelefon mit Facebook-OS.

Würde Facebook, das zufällig seit einem Jahr Stardesigner von allen Seiten ins Boot holt, ein eigenes mobiles OS entwickeln, müssten sie es schaffen, die Entwickler von Apps auf ihre Seite zu holen. Mit einem starken Distributionskanal haben sie den Sog für die Entwickler bereits parat. Diesem Sog könnte sich das Segment aufgrund der Herausforderungen nicht entziehen. Ein entsprechender spezieller Newsfeed für das Mobiltelefon oder eine mobile Segmentierung des Feeds wären erste offensichtliche Schritte.

Man sollte auch nicht den Fehler machen zu glauben, dass es hier nur um die klassischen Distributionskanäle von Facebook geht. Facebook bewegt sich mit der Follow-Funktion bereits von seinem symmetrischen Freunde-Prinzip weg. Ein mobiles Facebook-OS würde zwar auch sehr stark auf die expliziten symmetrischen Beziehungen setzen, aber es kann ebenso leicht weitere Daten auswerten.

Die Personenentdeckungsapps Highlight und Glancee zeigen bereits, was möglich ist: Auf Basis der Like-Daten und Freundesdaten von Facebook zeigen sie Personen in der unmittelbaren Nähe auf, die ähnliche Interessen und/oder die gleichen Freunde haben.

Was hindert Facebook daran, eine solche Funktion in ein eigenes mobiles OS zu integrieren?

Facebook hat mit Glancee bereits eine der Apps übernommen. Was hindert Facebook daran, diese Funktion wiederrum als API des mobilen OS für andere ortsbasierte Dienste bereitzustellen? Denkbar wäre auch ein Standard, über den ortsbasierte Daten von Drittanbietern an Facebook gepusht werden und dann, zur Steigerung der Relevanz mit dem Social Graph angereichert, von Facebook gefiltert in das mobile Facebook-OS integriert werden.

Das wäre ein sehr interessantes Alleinstellungsmerkmal für ein mobiles OS, das gegen die Platzhirsche iOS und Googles offizielle Version von Android Land gewinnen will.

Und für die Bezahlung der Apps stehen die Facebook Credits bereit, deren Konditionen – 30% jeder Transaktion geht an Facebook – auch denen in den Appstores von iOS und Android entspricht. 

Facebook wäre zumindest auf Appseite und Nutzerseite bestens aufgestellt, um mit einem Android-Fork zu einem mobilen Majorplayer zu werden.

Angesichts solcher Möglichkeiten sollte man auch die Entwicklungspotentiale des heute an die Börse gehenden Facebooks beurteilen.

Siehe zum Thema Facebook und Mobiltelefon auch:

Zum Thema Facebook-IPO:

 

TV-Apps und die Disruption der Fernsehbranche

Die New York Times berichtet über die voranschreitenden Entwicklungen im TV-Sektor. Dass Apps massgeblich für die Disruption der TV-Branche verantwortlich sein werden, scheint auf dem Weg, common sense zu werden.

Developers Are Working on Television Apps, but TV Industry Is Wary – NYTimes.com:

“The question that hasn’t yet been answered is whether television viewing will consist of a single app that mimics the pay TV bundle or a series of different apps that together form a content experience,” said Jon Miller, the chief digital officer at News Corporation, which owns Fox Broadcasting and cable channels like Fox News and FX.

Tatsächlich stellt sich vor allem ‘nur noch’ die Frage, wie das App-TV-Interface letztlich aussehen soll. Steve Jobs hat bekanntermaßen gegenüber Walter Isaacson gesagt, dass er die Lösung gefunden hat.

Die Lösung wird sicher kein Grid sein, wie man es von Tablets und Smartphones kennt. Ein Raster, auf dem die Apps angeordnet sind, ist sinnvoll für einen Touchscreen. Der Fernseher ist kein Touchscreen.

Die Frage lautet also: Wie bringt man Apps und ihre Inhalte, und vielleicht sogar deren VÖ-Fenster, in einem Interface zusammen? In diesem Interface müssen die Apps als Sendernachfolger (als Inhaltebündel) und ihre Inhalte sinnvoll dargestellt werden.

Wie dem auch sei. Die TV-Branche wird mit der Disruption ihrer Geschäftsgrundlage das gleiche durchleben, wie andere Branchen vor ihr. Einen ersten Geschmack bekommt man jetzt schon, wenn man Aussagen hierzulande und in Übersee beobachtet:

The so-called bundle setup helps little-watched channels bring in revenue from monthly cable fees and allows the most popular channels to get high fees from every subscriber, even the ones who don’t watch them.

The idea of undermining this model is so sensitive that media executives who think that apps are the future of television would not discuss the subject publicly, for fear of disturbing their cable and satellite partners.

Das ist das klassiche Dilemma von etablierten Unternehmen, wenn sie sich einer Disruption gegenüber sehen: Sie sind so stark in ihre Wertschöpfungsnetzwerke eingebunden, dass ihre Handlungsspielräume stark eingeschränkt sind. So stark, dass sie in der Regel gar nicht angemessen auf die Herausforderungen reagieren können.

Denn wenn man sich nicht einmal traut, die Veränderungen öffentlich anzusprechen, wie soll man dann auf sie reagieren können?

Für Deutschland sieht die Situation ein bisschen anders aus, weil wir hier keinen starken Paid-Kabel-Markt mit starren Bündeln haben. Aber für die deutschen TV-Sender wird es nicht minder bitter: Die privaten Sender sind oft Verwerter von US-Material. Die US-Studios könnten irgendwann an ihnen vorbei Inhalte über Apps distribuieren.

Neue Mittelsmänner: Netflix, von dem ich Aktien halte, und andere Angebote werden mit einem Eintritt auf dem deutschen Markt die größten Konkurrenten der deutschen Sender. Angebote wie Netflix sind heute schon auf allen relevanten TV-App-Plattformen von Apple TV über Roku bis Boxee vertreten.

Die deutschen TV-Sender werden zwar mit Lizenzvereinbarungen ein paar Entwicklungen verzögern, sie aber nicht aufhalten können. Ihr Problem ist das gleiche, wie das der US-Sender: Ihr Erlösmodell der Werbeunterbrechungen wird nicht ohne weiteres auf die App-Welt übertragbar sein, die andere Marktdynamiken als das lineare Fernsehen mitbringt.

Siehe auch:

Rangordnungen: Netzwerke sind keine Hierarchien

Johannes Kuhn schreibt im Digitalblog  der Süddeutschen über Klout:

In der Twitter-Debatte mit Torsten Kleinz hat sich noch ein weiterer Gedanke entwickelt: Ist die “Demokratisierung des Einflusses” überhaupt mit einem Unternehmen wie Klout in Einklang zu bringen? Das ist ein guter Punkt – denn Klout schafft ja quasi neue Hierarchien, wird zu einer Art Social-Media-Rating-Agentur. Das ist eigentlich das Gegenteil von Demokratisierung in einem Bereich, der wie im Artikel angeklungen, ja bereits demokratisiert ist.

Als jemand, der im Studium Organisationstheorie als einen Schwerpunkt hatte, muss ich vehement widersprechen. Netzwerke sind keine Hierarchien. Hierarchien sind top-down, Netzwerke bottom-up*.

Natürlich entstehen in Netzwerken über Zeit auch Rangordnungen. Diese Rangordnungen unterscheiden sich aber fundamental von denen in Hierarchien, die, weil von oben verordnet, fest(er) sind. Netzwerke sind flüssig(er). Das heißt, die Durchlässigkeit in alle Richtungen, und damit auch von unten nach oben, ist größer als bei Hierarchien. Bei Hierarchien wird einzig oben entschieden, wer nachkommen darf. Bei Netzwerken nicht.

Deswegen kommt die sich auch anders äußernde Macht in Netzwerken über Filter und nicht Gatekeeper.

Klout selbst schafft nun keine neuen Hierarchien, selbst wenn Netzwerke und Hierarchien identisch wären. Klout bildet diese ab oder versucht, sie abzubilden. Im November 2011 schrieb ich:

Reputation kann also nur sinnvoll durch Auswertung von so oder so stattfindenden Aktivitäten erkannt werden.

Etwas, das wir auch ohne Internet machen: Wer Sachbücher schreibt, die Bestseller werden, wird von uns höher angesehen. Wer akademische Papers schreibt, die von vielen anderen zitiert werden, wird von uns automatisch mit höherer Wahrscheinlichkeit als Autorität auf seinem/ihrem Feld angesehen.

Klout macht das, was ich eben beschrieben habe automatisiert für das Web: Es analysiert unter anderem die Reaktionen auf Handlungen auf Plattformen wie Twitter. Es versucht anhand der Tatsache, wie viele Retweets und Favs man im Schnitt pro Tweet bekommt, abzuschätzen, wie einflussreich man ist.

Also: Netzwerke, bottom-up, Filter statt Gatekeeper, das alles bedeutet natürlich Demokratisierung. Und Klout bildet ihr Ergebnis ab (mal besser, mal weniger gut). Das hat im besten Fall zur Folge, das nicht nur der Top-Politiker oder der durch Massenmedien berühmt gewordene Prominente in Hotels besser behandelt wird, sondern auch derjenige, der sich unermüdlich in Netzwerken wie Twitter mit Fachwissen zu Einfluss in seiner eigenen Nische geschrieben hat.

Man kann Klout doof finden und diese allgemeine Entwicklung trotzdem positiv beurteilen.

Dass auch im Netz Rangordnungen und mit ihnen Machtgefälle entstehen, liegt im übrigen daran, dass Transaktionskosten zwar durch das Internet an allen Stellen enorm gesunken sind, aber immer noch existieren und natürliche Grenzen wie die Stundenanzahl eines Tages bestehen bleiben.

“Everyone a pamphleteer” war schon immer Unsinn. Daraus aber zu schließen, dass alles beim alten bleibt, ist genau so großer Unsinn.

Siehe auch:

-

* Sehr vereinfacht.

Die neuen Presseplayer

Inhalt:

Die gesellschaftliche Aufgabe des Journalismus

Wie sieht die Zukunft des Journalismus aus? Um sich dieser Frage nähern zu können, muss man zuerst einen Schritt zurück machen und sich fragen, was Journalismus eigentlich ist beziehungsweise, welche gesellschaftliche Aufgabe er erfüllt. Bricht man diese Aufgabe so weit herunter wie möglich, ergibt das Folgendes:

Informationen für eine breite Öffentlichkeit und damit die Gesellschaft sichtbar machen, Informationen so zu verbinden, dass Sachverhalte verständlich oder überhaupt erst erkennbar werden und  die Grundlage, die Infrastruktur sozusagen, für einen gesellschaftlichen Diskurs bieten.

Vor dem von der Digitalisierung und dem Internet ausgelösten Medienwandel war die Sachlage relativ einfach: Kommerziell orientierte Organisationen, also Presseverlage, Radiosender und TV-Sender, haben Journalisten beschäftigt, welche – im Idealfall – Inhalte verschiedener Ausprägungen produziert haben, die die oben beschriebenen Aufgaben, gern auch unterhaltend, erfüllt haben. Diese Inhalte wurden dann im Bündel (Zeitung etc.) gewinnbringend verbreitet. Der Endnutzer, also der Leser, Zuhörer und Zuschauer, hat mit seiner Aufmerksamkeit bezahlt. Jedes der privaten Presseunternehmen war entweder komplett (Hörfunk, TV) oder zu einem großen Teil (Printpresse) werbefinanziert.

Wer an die Öffentlichkeit treten wollte, egal ob Politiker oder Werbekunde, musste über diese Presseunternehmen gehen. In einigen Ländern wie Deutschland gibt es zusätzlich zu den privaten Unternehmen noch öffentlich-rechtliche Institutionen. Diese unterscheiden sich aber in erster Linie nur in der Finanzierungsart von ihren Kollegen aus der Wirtschaft.

Betrachtet man die reinen Organisationsformen war die Presselandschaft recht übersichtlich.

Seit einigen Jahren verändert sich diese Landschaft nun dramatisch.

Die neue vielfältigere Presselandschaft und die Gefahr des Presseleistungsschutzrechts

Das Publizieren ist für Bürger in westlichen Ländern, die in der Regel über Internetanschlüsse verfügen, von einem teuren Unterfangen, für das man auf Unternehmen angewiesen ist, zu einem praktisch kostenfreien Vorgang geworden.

Diese erdrutschartige Veränderung auf der Kostenseite hat nicht nur Auswirkungen für mitteilungsbedürftige Einzelpersonen sondern auch auf die Art und Weise, wie Unternehmen in diesem Bereich strukturiert werden können. Kleine Teams können es mit großen Unternehmen aufnehmen.

Das ist die eine Seite. Die andere Seite, die vielleicht wichtigere Entwicklung, ist die nun erst in großem Umfang möglich gewordene Organisationform, die Yochai Benkler in “The Wealth of Networks” als commons based peerproduction, also als allmende­basierte, kollaborative Produktion bezeichnet hat. Die Ergebnisse dieser Organisationsform sind etwa Linux, Wikipedia und Guttenplag. Diese Organisationsform wird mit exklusiven Rechten, die von Unternehmen gehalten werden, massiv eingeschränkt.

Für den Freitag habe ich beschrieben, welche Gefahr ein Leistungsschutzrecht für Presseerzeugnisse, das implizit von der oben beschriebenen alten Presselandschaft ausgeht, für die neue, vielfältigere Presselandschaft darstellt.

Monopol: Goliath will Geld sehen — Der Freitag:

Es geht um Blogs, um Guttenplag und dessen Nachfolger PlagiPedi, um Wikileaks und um Wikipedia, dessen Aktualisierungsgeschwindigkeit es mittlerweile auch für Nachrichten relevant macht. Es geht um Infrastruktur­anbieter wie Google mit Google News und seiner Suche, um Twitter und Facebook. Es geht um Startups wie Flipboard oder Commentarist, welches bereits von FAZ und Süddeutsche verklagt wurde, während andere Verlage es gern benutzen. Kurz, es geht um alles Presseähnliche, was nicht von Presseverlagen kommt. Es geht um die Kontrolle des Markt­umfeldes. Es geht darum, die Verlage und ihre Leistungen über alles andere in der Wertschöpfungskette zu stellen.

Wurde der Jura-Professor für seine Funde von der Süddeutschen bezahlt? Wurde Guttenplag finanziell an den Artikeln beteiligt, die die dortigen Funde wiederholt haben? Wie lautet die Rechtfertigung, dass alle für das Weiterverbreiten von Informationen bezahlen sollen, nur die Verlage nicht?

Die Vertreter der Presseverlage sagen das nicht, aber ein Presseleistungsschutzrecht könnte auch die Wikipedia gefährden. Man fängt bei neuen weitreichenden Gesetzen natürlich bei den vermeintlichen bösen und übergroßen Unternehmen an, die man zähmen / zu ‘Fairness’ zwingen will (hier: Google), langfristig geht es aber natürlich darum, Kontrolle am Markt auszuüben, und damit sind dann alle Akteure gemeint, egal ob sie überhaupt am Markt agieren oder außerhalb stattfinden.

Man stelle sich vor, die Wikipedia könnte nicht mehr einfach Erkenntnisse aus Artikeln von Presseverlagen zusammenfassen, ohne diese dafür zu bezahlen.

Wer Zugang zu Bürgern hat, kann Öffentlichkeit schaffen, auch Anbieter von Webdiensten

Anfang 2012 hat sich gezeigt, dass mittlerweile im Netz noch eine weitere wichtige Macht entstanden ist, die Öffentlichkeit erzeugen kann: Jeder erfolgreiche Webdienst hat täglich Kontakt mit seinen Endnutzern. Etwas, das früher der Presse vorbehalten war. Öffentliche Meinungsbildung kann deshalb nicht nur über die Kommunikation unter den Nutzern auf diesen Plattformen entstehen, sondern auch von den Unternehmen dahinter.

Dienste wie Wikipedia, Google und Tumblr haben in den USA ihre Nutzer mobilisieren können. Diese haben ihre Abgeordneten zu den geplanten Gesetzen SOPA und PIPA kontaktiert und somit wohl auch massgeblich diese Gesetze zu Fall gebracht.

Jetzt könnte man meinen, dass das gefährlich sei: Diese Unternehmen können jetzt immerhin die Öffentlichkeit nach ihrem Gusto formen und leiten! Zu diesem Schluss kann man nur kommen, wenn man den Bürgern zutraut, sich in großer Zahl gegen ihre Interessen mobilisieren zu lassen. Tatsächlich ist diese in der Tat neue und weitreichende Macht dieser Unternehmen an einer entscheidenden Stelle stark eingeschränkt: Ihre Mitteilungen auf ihren Websites haben keinen direkten Einfluss auf die politische Willensbildung. Sie müssen die Nutzer mobilisieren. Nur die mobilisierten, die aktiv gewordenen Bürger können Einfluss nehmen.

Das ist ein wesentlicher Unterschied zu der Macht der Presseverlage: Diese mussten immer nur den Volkswillen vermuten und konnten damit Einfluss nehmen.

Google, Wikipedia, Tumblr und co. haben eine neue Macht bei der Formung von Öffentlichkeit, aber nur solang ihre Interessen und die ihrer Nutzer konform gehen. Sie können nicht eigene Partikularinteressen vorantreiben. Presseverlage können das dagegen sehr wohl.

Um das zu verdeutlichen: Gibt es eine erfolgreiche Petition, in der über 50.000 besorgte Bürger die Einführung des Presseleistungschutzrechts fordern? Nein. Warum nicht, wenn dieses Recht so wichtig ist, dass die Zukunft der Presse und damit der Demokratie davon abhängt, wie es mancher Verlagsvertreter behauptet? Kann die Presse ihre eigenen Leser, ihr Publikum, nicht mobilisieren? Warum nicht? Vielleicht weil ihre Interessen in diesem Fall doch nicht mit denen der Gesellschaft übereinstimmen?

Das Internet und seine Partizipationsmöglichkeiten macht auch auf diesem Weg offensichtlich, wie Presseverlage trotz ihres eigenen Anspruchs nicht zwingend das Sprachrohr für die Gesellschaft sind. Keine bahnbrechende Erkenntnis, aber doch eine, die immer offensichtlicher wird.

Fazit

Tritt man einen Schritt zurück, sieht man wie vielfältig die Presselandschaft bereits geworden ist. Man kann auch sehen, wie sehr sich das Erzeugen von Öffentlichkeit wandelt. Der gemeinsame Nenner dieser Veränderungen: Sie schwächen in erster Linie die Position der Presseverlage und der anderen etablierten Institutionen. Und das nicht nur auf der wirtschaftlichen Seite, sondern auch auf der Seite der Legitimation, auf deren Grundlage gesetzliche Sonderregelungen wie das Listenprivileg und jetzt das Leistungsschutzrecht durchgeboxt werden.

Besonders wenn man die Gesamtheit betrachtet, also all die neuen Formen der Informationsbeschaffung und -organisierung, wird offensichtlich, wie gefährlich ein zusätzliches exklusives Recht sein kann.

Die Informationsflüsse in unserer Gesellschaft werden durch das Internet vielfältiger. Beschränken wir diese Vielfältigkeit nicht, bevor sie ihr wahres Potential entfalten konnte, nur weil Konzerne wie der Axel-Springer-Verlag, welcher just Rekordgewinne vermeldete, noch mehr Marktmacht wollen.

Das unaufhaltsame iPad

Ipad 2

Farhad Manjoo vergleicht auf Slate die Entwicklung des iPads mit der des iPods, um zu zeigen, in welche Richtung der Tabletmarkt aktuell zeigt:

Apple begins by releasing a novel, category-defining product. Then, as rivals scramble for some way to respond, Apple relentlessly puts out slightly better versions every year, each time remaining just out of reach of the competition. Meanwhile it lowers its prices and expands its product lineup, making its devices more accessible to a wider audience. Then, to finish the game, it finds a way to boost its position through network effects and customer lock-in. (In the iPod’s case, it accomplished this through the iTunes software and built-in music store.) Put it all together and you have a device that’s unbeatable. In 2011, 10 years after its release, the iPod still represented a whopping 78 percent of the market share in music players.

Er hat recht.

Preis: Bereits vor dem neu vorgestellten iPad konnte kein Tablet-Hersteller ein vergleichbares Tablet zum gleichen Preis anbieten. Jetzt existiert ein iPad mit einem Display, das keiner der Konkurrenten bieten kann. Gleichzeitig ist das Vorgänger-iPad noch einmal günstiger geworden.

Apples iPads sind in ihrer Featureklasse die günstigsten am Tabletmarkt.

Was viele ausblenden, sind die enormen Skaleneffekte, auf die Apple im Zuliefererbereich zurückgreifen kann. Apples Supply-Chain-Management ist aktuell unangreifbar. Das erlaubt es Apple, das iPad gleichzeitig günstiger anzubieten als es ein Konkurrent könnte und hohe Gewinne damit einzustreichen.

Features: Das iPad scheint genau die richtigen Features für ein Tablet mitzubringen (oder: die Präferenzen genau richtig zu setzen):

Part of the problem is that nobody really wants the alleged improvements to the iPad—Flash and extra hardware ports, for instance. The bigger problem is that, as a technical matter, rivals are having a very hard time beating Apple’s most important features. The iPad’s custom-made processors and battery technology mean that it keeps getting more powerful without sacrificing any battery life. None of Apple’s rivals has managed to even match the iPad’s battery life.

Das Problem für andere Plattformen wie Android oder Windows: Während die Hardwarehersteller Probleme haben, mit Apples Hardware mitzuhalten, rennen auf der Software-Seite die Netzwerkeffekte zu gunsten von Apple immer weiter davon. Wer heute Tabletapps schreibt, schreibt iPadapps.

Das Problem für die Industrie: Der zweiseitige App-Markt verfestigt sich immer weiter auf iOS. Manjoo:

Microsoft may thus find itself on the wrong end of a network-effects loop, the same position it once pushed Apple into in the PC market: Customers will choose an iPad over a Microsoft tablet because there are 200,000 apps for the iPad, and only a fraction of that for Windows. This will push app developers to favor the iPad over Windows as their primary platform—that’s where the customers are—which will, in turn, fuel more iPad sales. At some point, customer lock-in will become extremely important: If your last tablet was an iPad, your next one will be too, because that’s where all your apps are.

Und auf Jahre hin könnte sich diese Situation zementieren. Denn starke gegenseitige indirekte Netzwerkeffekte sind ein festes Fundament, wie Apple und Microsoft im Desktopbereich aus verschiedenen Perspektiven erlebt haben.

Im Verbund mit einer günstigen Hardware, die noch dazu Features mitbringt, die andere nicht haben – das Retina-Display -, wird das zumindest heute unbesiegbare Angebot komplett.

Warum das Retina-Display wichtig ist und nicht etwa ein Spec wie die auf Gadgetblogs immer wieder beschriebenen Quadruple/Trillioncore-Chips, die jetzt im nächsten Killergerät verbaut werden, an das sich in einem halben Jahr niemand mehr erinnert, beschreibt Ryan Block auf gdgt:

The core experience of the iPad, and every tablet for that matter, is the screen. It’s so fundamental that it’s almost completely forgettable. Post-PC devices have absolutely nothing to hide behind. Specs, form-factors, all that stuff melts away in favor of something else that’s much more intangible. When the software provides the metaphor for the device, every tablet lives and dies by the display and what’s on that display.

Das populärste Tablet mit dem besten Ökosystem, das gleichzeitig das beste Preis/Leistungsverhältnis hat, hat gerade ein Display-Update bekommen, mit dem die Konkurrenten nicht mithalten können.

Die einzige Frage bleibt, wie wichtig der Tabletmarkt für den Computersektor werden wird. Wird er sehr wichtig, wird das ein riesiges Problem für den Rest der Branche. Manjoo auf Slate:

If the iPad becomes the future of computing, the fortunes of Microsoft, Intel, Dell, and to some extent Hewlett-Packard will begin to plummet. Meanwhile Google, which makes all its money through ads, will find itself reaching its customers through a device made by a hostile rival. As I said: Be very afraid.

Obwohl ich Apple-Aktien halte, beobachte ich mit Unmut, wie schwer es den restlichen Unternehmen fällt, auch nur eine akzeptable Antwort auf das iPad zu formulieren.

Die Post-PC-Welt hat im Gegensatz zu den Neunzigern Platz für mehr als ein alles dominierendes OS. Das gilt auch für Teilmärkte wie den Tabletmarkt.

Aber kein Tablet bietet vergleichbare Technik zum gleichen oder günstigeren Preis. Windows bzw. Metro kommt spät. Und Android ist, was man in der Fachwelt einen Clusterfuck nennt.

Das iPad ist aktuell ein unaufhaltsamer Juggernaut.

Lesenswert zu Apples Geschäft ist immer auch asymco. Dort findet man oft Einsichten in das Geschäft hinter iPhone und iPad.

Highlight & Glancee: Die neuen ortsbasierten Killerapps

Im Mai letzten Jahres hatte ich Sonar.me vorgestellt. Eine App, die auf die Social-Graph-Daten von Facebook, Twitter und Foursquare und die Checkin-Daten von Foursquare setzt, um Kontext zu Personen im näheren Umfeld zu liefern.

Jetzt kommen die ersten mobilen Apps, die die Möglichkeiten auf sehr spannende neue Arten nutzen, im Hintergrund die Verortung des Mobiltelefons vorzunehmen und Menschen auf Basis der Social-Graph-Daten von Facebook aufeinander hinzuweisen.

Die neuen Apps heißen Highlight (iPhone) und Glancee (iPhone, Android).  Sie zeichnen sich vor allem dadurch aus, dass sie nicht nur die Beziehungen von Facebook nehmen und etwa mitteilen, dass ein Freund oder der Freund eines Freundes in der Nähe ist (Sonar.me arbeitet so). Sie nutzen auch die Like-Daten, um auf Personen mit gleichen Interessen hinzuweisen.

Ein perfektes Beispiel, welche neuen Dinge an der Schnittstelle zwischen Mobile Web und Social Web möglich werden.

So ist es etwa möglich, dass man über diese Apps fremde Personen kennenlernt, die einen gleichen Musik- oder Literaturgeschmack haben. Oder man lernt jemanden aus der eigenen Branche kennen, mit dem man mehr als den Beruf gemeinsam hat. usw. usf.

In diesem TechCrunch-Artikel findet man viele weitere Einsatzzwecke, die das Potential dieser Dienste deutlich machen dürften.

Möglich wird das alles nicht zuletzt, weil Facebook nicht nur ein immens großes Social Network ist, sondern auch, weil es den Zugriff auf diese Like-Daten über APIs erlaubt.

Eric Eldon erklärt auf TechCrunch, warum Highlight ein (sorry, da müssen wir jetzt durch) echtes Highlight werden kann:

Instead of the normal business card swapping that happens at the event, it’s sounding like Highlight is going to get some sort of feature for marking and saving the favorite people you meet in person. Thinking through the New York coffee shop scenario, imagine seeing a notification that says “You met Robert Scoble at the Trendy Startup BBQ party in Austin. Now he’s two blocks away at a bagel place. Go say hi!” Instead of just using mutual friends and Liked Facebook pages to determine relevancy, Highlight is getting a new layer of behavior data.

Now indulge a little bit of speculation about where all this could go (I don’t know Highlight’s specific plans). You can also imagine the app adding features like an auto-created group or list of “Friends From Austin.” A few weeks after the conference, what if you could see a list of all of these people and message them through Highlight to reconnect. And because Highlight uses Facebook data, it could also tap into the social network to allow users to share the phone numbers, email addresses and other contact info they already have stored. I would love a feature that said “Robert Scoble is sharing his contact info, click here to download it to your address book.”

And boom, business cards would be dead. Forget stuffing your pockets full of cardboard at a party, going back home, throwing them on your hotel room dresser as you pass out, and forgetting them when you have to rush out the next morning to catch your flight. You’d just mark the people you want to stay connected to right when you meet them, and then at your convenience connect with them later.

Das wäre tatsächlich das erste Anzeichen für ein mögliches Ende der Visitenkarte. Aber es geht natürlich weit darüber hinaus: Hier entsteht eine neue Art Social Network, die neue Interaktionsarten mitbringt und neue Möglichkeiten des Kennenlernens und Vertiefens von Beziehungen ermöglicht.

Nicht minder besonders daran ist, dass der einzelne Nutzer fast keinen Zusatzaufwand betreiben muss, um diese Apps zu nutzen. Das ist ein Zeichen unserer Zeit: Auf Facebook liegt bereits unsere Indentität bereit.

Wir als User können die Früchte unserer ‘Arbeit’, die wir auf Facebook erbracht haben – mit Freunden vernetzen, Pages folgen, die uns interessieren, Like klicken, wenn uns etwas gefällt –  einfach an die Apps weiterleiten.

App installieren. Push-Nachrichten und Ortsdienste freigeben.

Mit Facebook verknüpfen.

Fertig.

Die Facebook-Daten und die App machen den Rest.

Das ist besonders wichtig, was die potentielle Verbreitung solcher Apps angeht: Die Zeichen stehen ausgesprochen gut.

Oder: Zumindest so gut wie es überhaupt möglich ist. Denn Apps, die nur nützlich sind, wenn andere Menschen in der Umgebung sie auch nutzen, haben es schwer, eine kritische Masse zu erreichen. Deshalb müssen die übrigen Barrieren möglichst entfernt werden. Egal zu welchen Kosten.

Im Vergleich zu Highlight und Glancee muss man beim unsinnigen Hashable* etwa per Hand permanent Einträge vornehmen, nur um am Ende eine Kontaktdatenbank zu erhalten. Die Ansätze könnten unterschiedlicher nicht sein:

Highlight übernimmt das Festhalten der getroffenen Personen im Hintergrund. Ein Hinzufügen von Kontakten kann später stattfinden, nicht vollkommen unsozial während man noch auf der Cocktailparty steht und es schnell machen muss, weil man es sonst vergisst.

Im Gegensatz zu Glancee, das in der App nur temporäres Ausschalten des Locationstrackings erlaubt (eine Stunde oder über Nacht), ermöglicht Highlight das Deaktivieren für unbestimmte Zeit. Letzteres dürfte die Mehrzahl der Nutzer eher zusagen.

Robert Scoble hat auf The Next Web Highlight und Glancee gegenübergestellt.

Meine Prognose: Von diesen Diensten werden wir in der nächsten Zeit noch viel hören.

Highlight scheint mir ein Stück bessser ausgearbeitet zu sein als Glancee, das im Gegenzug etwas aufpolierter erscheint. Das gleiche Bauchgefühl hatte ich von Anfang an bei Foursquare (vs. Gowalla).

***

Die Älteren unter uns werden sicher in der Zwischenzeit Folgendes gedacht haben: aka-aki.

Das Berliner Startup aka-aki ist vor einigen Jahren angetreten, das Kennenlernen interessanter Menschen einfacher zu machen, indem die App andere Nutzer anzeigt, die sich in der Nähe befinden. Angefangen hatte der Dienst, bevor GPS in Smartphones Einzug gehalten hat, Die App musste offen gelassen werden und wollte andere Kontakte über Bluetooth finden. Ein asusgesprochen unattraktives Angebot. Mittlerweile nutzt aka-aki auch die integrierten Ortsdienste bei iPhone und Android. Aka-aki bietet auch die Möglichkeit, über “Sticker” eigene Interessen anzugeben und gleicht die Interessen mit denen der anderen Nutzer ab.

Aber: weder werden die Interessen von Facebook importiert, noch werden die Beziehungen auf Facebook oder anderen Social Networks einbezogen. So bleibt aka-aki bedeutungslos, für die meisten potentiellen User von vorn herein komplett nutzlos, und wird von der sehr viel jüngeren Konkurrenten aus den USA mühelos in der Nutzerschaft überholt werden.

Bemerkenswert, dass man bei aka-aki anscheinend nicht gemerkt hat, dass das eigene Grundkonzept auf einmal viel besser über die Anknüpfung an Facebook umsetzbar geworden ist. Die auf der Hand liegenden Vorteile habe ich oben beschrieben.

*Eine der größeren Webtragödien des letzten Jahres war die Abschaltung des fantastischen Wirtschaftsnachrichtenaggregators Tracked.com, der zugleich auch eine unerschöpfliche Datenbank zu nicht börsennotierten Unternehmen war, zugunsten von Hashable, weil letzteres kurzzeitig ein wenig Interesse bei Twitter-Junkies hervorrief und die Macher sich darauf konzentrieren wollten.