Tatsache: Digitale Inhalte sind kopierbar und werden verteilt

Die tatsächliche Gretchenfrage der Urheberrechtsdebatte ist: Wie gehen wir mit dieser Tatsache um?

Dirk von Gehlen über Pinterest, das Teilen von Inhalten und Verständnisprobleme:

Die Welt, die sich im Digitalen öffnet, ist grundlegend anders als jene Welt, die sich die Politiker vorstellen, die Anfang März im Kanzleramt über das Leistungsschutzrecht sprachen. Die Prinzipien, die in dieser digitalen Welt gelten, unterscheiden sich deshalb so fundamental, weil sie eine Prämisse nicht nur akzeptieren, sondern beständig fortentwickeln, die die Politik einbremsen oder gar rückgängig machen möchte: digitalisierte Inhalte sind leicht teilbar, sie sind gleichzeitig an unterschiedlichen Orten verfügbar und kaum einzubremsen. Diese Tatsache ist unabhängig von der moralischen Beschaffenheit der Netznutzer, sie hängt nicht an deren Erziehung oder am Respekt, den Bürger gegenüber Urhebern (die sie im übrigen ja selber sind) aufbringen. Diese Tatsache ist vor allem dies: eine Tatsache.

Christian Buggedei in einem Kommentar zu einem Carta-Artikel:

Es gibt viele Dinge, bei denen man die “Das ist Technik, das geht halt so und nicht anders” nicht hinnehmen muss. Da kann man neue, bessere Technik konstruieren, da kann man Verbote aussprechen und sie auch kontrollieren.Dieses eine Ding – Inhalte kopieren – ist leider eine Ausnahme. Wenn wir dieses wirksam kontrollieren und einschränken wollen, müssen wir das Internet so wie es ist abschaffen. Komplett. Eigene, spontan erstellte Seiten und Dienste wird es nicht mehr geben, jeglicher Kommunikationsvorgang muss überwacht und kontrolliert werden. Alles andere wird fast sofort umgangen werden.

Siehe auch Kristian Köhntopp:

Es ist nicht das Urheberrecht das Problem, sondern es sind mehrere Mechanismen am Werk, die strukturelle Dinge ändern:
1. Weil Kopien machbar sind werden sie gemacht. Das ist auch nicht zu verhindern, ohne daß etwas ganz schreckliches entsteht, daß niemand von uns will.
2. Weil jeder sich und seine Werke publizieren kann, fragmentiert der Markt. Dazu kommt, daß viele ihre Werke kostenlos oder zu sehr niedrigen Kosten publizieren. Dadurch entsteht ein Race to the bottom.
3. Weil jeder sich publizieren kann, und die publizierten Werke teilweise Fragmente sind, die dann wieder weiter verarbeitet werden, ist Urheberschaft teilweise ein schwer feststellbares Konzept.

Die Antwort auf die Gretchenfrage, von denjenigen, die das veraltete Urheberrecht aufrechterhalten wollen, lautet: Wir ignorieren diese Tatsache. Und wenn die Auswirkungen doch zu groß werden, bekämpfen wir sie mit allen uns zur Verfügung stehenden und mittels Politikdruck hinzufügbaren Mitteln.

Wir müssen 2012 noch immer über die Tatsache reden, dass digitale Inhalte ohne zusätzliche Kosten kopierbar sind und dass dies ein wesentlicher Bestandteil des Internets ist, der größten Kopiermachine der Welt, die immer effizienter wird.

Was sagt uns das über den bisherigen Verlauf der ‘Debatte’?

Der nächste große Trend: Privates Filesharing über Facebook

Als ich vor einigen Tagen über den langsamen Aufstieg von Darknets im Filesharing schrieb, erwähnte ich auch das schnell wachsende Retroshare. Retroshare setzt für das private Teilen auf PGP-Schlüssel. Das ist ausgesprochen unhandlich und wenig mainstreamfähig. Bis heute verwenden verhältnismäßig wenige Leute PGP für Email. Werden sie für Filesharing damit auf breiter Basis anfangen? Unwahrscheinlich.

Welches Problem löst Retroshare mit PGP? Es löst das Problem der sicheren Identifizierung von Personen. Auf diese Art wird sichergestellt, dass man sich nur mit den Personen verbindet, mit denen man das auch möchte.

Die größere Hürde zur Verbreitung von Darknets ist die möglichst reibungsfreie Auflösung von Identitäten.

Moment. Identität haben wir im Netz doch schon gelöst. Facebook kann als größtes Social Network der Welt 850 Millionen aktive Nutzer verzeichnen.

Was wäre wenn Facebook und Darknets zusammen finden würden?

Martin Weigert auf netzwertig.com beschreibt mit dem aus Berlin kommenden Dienst Pipe einen ersten Filesharingdienst, der auf Facebook aufsetzt:

Das Trio nutzt für die kostenfreie Facebook-App, die momentan in einem kleinen Büro in Berlin-Mitte den letzten Feinschliff erhält, das so genannten Real Time Media Flow Protocol (RTMFP) von Adobe, welches eine direktere Peer-to-Peer-Verbindung zwischen zwei Adobe-Flash-Anwendungen ermöglicht. Nach der einmaligen Installation von Pipes Facebook-Anwendung können Nutzer jedem ihrer Kontakte bei dem sozialen Netzwerk direkt im Browser Dateien senden, die diese unmittelbar entgegennehmen, ohne dafür Facebook verlassen zu müssen. Die maximale Dateigröße beträgt ein Gbyte, was vorrangig auf übliche Begrenzungen des lokalen Browsers-Caches zurückzuführen ist. Pipes eigene Server übernehmen bei Datentransfers lediglich die Verbindung der zwei User und arbeiten nach den Worten von Mitgründer Eggersglüß “als eine Art Telefonbuch”.

Sean Parker, gebrannt von seinen Erfahrungen bei der Tauschbörse Napster, musste in den Anfangstagen von Facebook Mark Zuckerberg davon abbringen, neben Facebook an einem Filesharingdienst weiterzuarbeiten, den dieser mit Facebook verbinden wollte.

Welche Ironie der Geschichte:  Einige Jahre und beispielloser Erfolg von Facebook später, könnte dessen Plattform doch noch die von Zuckerberg angedachte Hochzeit von Social Network und Filesharing bringen. Aber eben nur, weil Zuckerberg von seinem Vorhaben doch abließ und sich auf Facebook konzentrierte.

Und die Rechteverwerter würden gar nicht zwingend etwas davon mitbekommen: Eben weil Darknets nicht in der Öffentlichkeit stattfinden, sind sie weder messbar noch verfolgbar. Auch Facebook merkt davon nichts, wenn die Architektur  des Darknets denn echtes P2P ist und nur für die initialen Verbindungen zwischen den Usern auf Facebooks Identifizierungssystem setzt.

Deswegen ist der Pipe-Ansatz zwar ein möglicher aber aufgrund der Beschränkungen nicht der interessanteste: Mehr Potential hätten Dienste, die nicht im Rahmen der Website von Facebook laufen, sondern ‘nur’ die Beziehungen zwischen den Facebooknutzern zur Erkennung von Freunden nutzt. Also mehr Facebook Connect als Facebook-App.

Man denke in die Richtung von Dropbox und Box mit Facebook Connect.

Auch andere Informationen wie etwa Streaminglinks oder von der jeweiligen Regierung nicht erwünschte Inhalte (Think Arab Spring) könnten über für die Identitäten an Facebook gekoppelte Darknet-Aggregatoren eine einfache aber sicherere Verbreitung erfahren, die trotzdem massenfähig ist.

Darknets fehlte immer eine einfache und damit massenkompatible Identifizierung von Nutzern. Die ist jetzt in Form von Facebook da.

Wie kann das künftig noch besser skalieren?

Die Antwort ist offensichtlich. Ein erweiterter Sharingbereich: Friend of a Friend.

Das unaufhaltsame iPad

Ipad 2

Farhad Manjoo vergleicht auf Slate die Entwicklung des iPads mit der des iPods, um zu zeigen, in welche Richtung der Tabletmarkt aktuell zeigt:

Apple begins by releasing a novel, category-defining product. Then, as rivals scramble for some way to respond, Apple relentlessly puts out slightly better versions every year, each time remaining just out of reach of the competition. Meanwhile it lowers its prices and expands its product lineup, making its devices more accessible to a wider audience. Then, to finish the game, it finds a way to boost its position through network effects and customer lock-in. (In the iPod’s case, it accomplished this through the iTunes software and built-in music store.) Put it all together and you have a device that’s unbeatable. In 2011, 10 years after its release, the iPod still represented a whopping 78 percent of the market share in music players.

Er hat recht.

Preis: Bereits vor dem neu vorgestellten iPad konnte kein Tablet-Hersteller ein vergleichbares Tablet zum gleichen Preis anbieten. Jetzt existiert ein iPad mit einem Display, das keiner der Konkurrenten bieten kann. Gleichzeitig ist das Vorgänger-iPad noch einmal günstiger geworden.

Apples iPads sind in ihrer Featureklasse die günstigsten am Tabletmarkt.

Was viele ausblenden, sind die enormen Skaleneffekte, auf die Apple im Zuliefererbereich zurückgreifen kann. Apples Supply-Chain-Management ist aktuell unangreifbar. Das erlaubt es Apple, das iPad gleichzeitig günstiger anzubieten als es ein Konkurrent könnte und hohe Gewinne damit einzustreichen.

Features: Das iPad scheint genau die richtigen Features für ein Tablet mitzubringen (oder: die Präferenzen genau richtig zu setzen):

Part of the problem is that nobody really wants the alleged improvements to the iPad—Flash and extra hardware ports, for instance. The bigger problem is that, as a technical matter, rivals are having a very hard time beating Apple’s most important features. The iPad’s custom-made processors and battery technology mean that it keeps getting more powerful without sacrificing any battery life. None of Apple’s rivals has managed to even match the iPad’s battery life.

Das Problem für andere Plattformen wie Android oder Windows: Während die Hardwarehersteller Probleme haben, mit Apples Hardware mitzuhalten, rennen auf der Software-Seite die Netzwerkeffekte zu gunsten von Apple immer weiter davon. Wer heute Tabletapps schreibt, schreibt iPadapps.

Das Problem für die Industrie: Der zweiseitige App-Markt verfestigt sich immer weiter auf iOS. Manjoo:

Microsoft may thus find itself on the wrong end of a network-effects loop, the same position it once pushed Apple into in the PC market: Customers will choose an iPad over a Microsoft tablet because there are 200,000 apps for the iPad, and only a fraction of that for Windows. This will push app developers to favor the iPad over Windows as their primary platform—that’s where the customers are—which will, in turn, fuel more iPad sales. At some point, customer lock-in will become extremely important: If your last tablet was an iPad, your next one will be too, because that’s where all your apps are.

Und auf Jahre hin könnte sich diese Situation zementieren. Denn starke gegenseitige indirekte Netzwerkeffekte sind ein festes Fundament, wie Apple und Microsoft im Desktopbereich aus verschiedenen Perspektiven erlebt haben.

Im Verbund mit einer günstigen Hardware, die noch dazu Features mitbringt, die andere nicht haben – das Retina-Display -, wird das zumindest heute unbesiegbare Angebot komplett.

Warum das Retina-Display wichtig ist und nicht etwa ein Spec wie die auf Gadgetblogs immer wieder beschriebenen Quadruple/Trillioncore-Chips, die jetzt im nächsten Killergerät verbaut werden, an das sich in einem halben Jahr niemand mehr erinnert, beschreibt Ryan Block auf gdgt:

The core experience of the iPad, and every tablet for that matter, is the screen. It’s so fundamental that it’s almost completely forgettable. Post-PC devices have absolutely nothing to hide behind. Specs, form-factors, all that stuff melts away in favor of something else that’s much more intangible. When the software provides the metaphor for the device, every tablet lives and dies by the display and what’s on that display.

Das populärste Tablet mit dem besten Ökosystem, das gleichzeitig das beste Preis/Leistungsverhältnis hat, hat gerade ein Display-Update bekommen, mit dem die Konkurrenten nicht mithalten können.

Die einzige Frage bleibt, wie wichtig der Tabletmarkt für den Computersektor werden wird. Wird er sehr wichtig, wird das ein riesiges Problem für den Rest der Branche. Manjoo auf Slate:

If the iPad becomes the future of computing, the fortunes of Microsoft, Intel, Dell, and to some extent Hewlett-Packard will begin to plummet. Meanwhile Google, which makes all its money through ads, will find itself reaching its customers through a device made by a hostile rival. As I said: Be very afraid.

Obwohl ich Apple-Aktien halte, beobachte ich mit Unmut, wie schwer es den restlichen Unternehmen fällt, auch nur eine akzeptable Antwort auf das iPad zu formulieren.

Die Post-PC-Welt hat im Gegensatz zu den Neunzigern Platz für mehr als ein alles dominierendes OS. Das gilt auch für Teilmärkte wie den Tabletmarkt.

Aber kein Tablet bietet vergleichbare Technik zum gleichen oder günstigeren Preis. Windows bzw. Metro kommt spät. Und Android ist, was man in der Fachwelt einen Clusterfuck nennt.

Das iPad ist aktuell ein unaufhaltsamer Juggernaut.

Lesenswert zu Apples Geschäft ist immer auch asymco. Dort findet man oft Einsichten in das Geschäft hinter iPhone und iPad.

Twitter: Der Niedergang einer Plattform

twitter

Als Twitter vor einigen Tagen mit der Einführung der Quickbar/Dickbar seine Werbeform auf recht brutale Art (die schnell korrigiert wurde) in den vor einem Jahr gekauften, mittlerweile offiziellen Twitter-iOS-Client integrierte, dürfte dem letzten klar geworden sein, wohin Twitter steuert. Deswegen wollte ich vor einigen Tagen einen Artikel über Twitter und das notwendig feindseliger werdende Verhältnis zur eigenen Plattform schreiben.

Aber dann kommt mir Twitter am Freitag zuvor und macht, womit ich seit der Übernahme von Tweetie rechnete: Twitter erklärt den eigenen Twitter-Client-Entwicklern, dass sie sich besser eine andere Geschäftsgrundlage suchen sollen.

Clients, die sind jetzt Twitter-Sache.

Inhalt:

Was bisher geschah

Am vergangenen Freitag hat Ryan Sarver, Director of Platform bei Twitter, eine Bombe im Developerforum von Twitter platzen lassen. Die Hauptaussage: Drittanbieter sollen keine Clients mehr entwickeln, genauer gesagt: keine Clients, die sich an den Mainstream-Enduser richten.

Entwickler sollen sich lieber an anderen Zusatzdiensten versuchen:

  • Publisher Tools
  • Curation
  • Realtime data signals
  • Social CRM, enterprise clients, brand insights

Bedenkt man, dass das Client-Ökosystem massgeblich für Twitters Erfolg verantwortlich war und sogar den Dienst selbst massgeblich geformt hat (siehe unten zur API als Grund für den Erfolg), dürfte es kaum interessant sein für Entwickler, sich auf diese Felder mit vielen Ressourcen einzulassen.

Das Client-Plattform-Verhältnis: Werbung als Erlösmodell und vertikale Integration

Was vor ein paar Tagen passiert ist war, wie gesagt, seit der Übernahme des Clients Tweetie abzusehen. Die Timeline sieht ungefähr so aus:

1. Twitter kauft den Twitter-Client Tweetie.

2. Twitter entschließt sich, einen Teil seiner Einnahmen über Werbung/Promoted Tweets zu generieren. Die Promoted Tweets werden auf der Website eingesetzt.

Zu diesem Zeitpunkt hätte jedem Beobachter klar sein müssen, dass Twitter und Entwickler auf Kollisionskurs sind. Und wie erwartet gingen daraufhin auch die Investitionen in das Twitter-Ökosystem zurück.

Der bei jeder vertikalen Integration im Softwarebereich herangezogene Vergleich zu Windows und MS Office, der auch hier von einigen gezogen wurde, war, wie wir mittlerweile sehen können, fehl am Platze: Das Verhältnis zwischen Twitter und Clients ist eher vergleichbar mit dem zwischen Microsoft und Hardwareherstellern. Twitters Tweetie-Übernahme und der Erlösstrom Werbung wäre äquivalent mit einem Microsoft, das anfängt, eigene PCs zu bauen und zu vertreiben. Es ist eine grundlegende Änderung der Ausrichtung der Plattform.

Denn so ging es weiter:

3. Twitter integriert die Promoted Tweets in einen der offiziellen Clients.

4. Twitter beendet mehr oder weniger die Entwicklung neuer Enduser-Clients, um mögliche Konkurrenz für den eigenen Client zu minimieren.

Und so wird es weiter gehen:

5. Twitter wird die Anbieter von bestehenden Clients an die enge Leine nehmen. Twitter steht vor einem Dilemma: Am liebsten würden sie die bestehenden, weitverbreiteten Clients wie etwa Tweetdeck verschwinden sehen, weil sie Konkurrenz für die offiziellen Clients mit der integrierten Werbung sind. Je mehr Twitter Werbung in den Vordergrund schiebt, desto stärker schaffen sie Anreize für die User, den Client zu wechseln.

Twitter hat letztlich mehr oder weniger zwei Möglichkeiten, damit umzugehen, wenn sie an den Werbeerlösstrom glauben:

  • a.) Sie schaffen ein Modell, in dem sie die Client-Anbieter für die Werbeeinblendung an den Einnahmen beteiligen.
  • b.) Sie fordern die Einblendung von Trends und Promoted Tweets mit einer weiteren Änderung der TOS der API ein. (Darauf deutet die PR-Sprache mit der einheitlichen Mainstream-User-Experience hin.)

(Eine weitere Möglichkeit wäre, den Entwicklern einen werbefreien Premiumzugang zur API zu ermöglichen.)

Für was sie sich entscheiden, wird interessant zu beobachten sein. Auf jeden Fall werden die bestehenden Clients in das Werbemodell von Twitter einbezogen werden müssen. Das gilt besonders für die bestehenden mobilen Clients.

Es ist zu befürchten, dass Twitter kein Interesse daran hat, Anbieter von mobilen Clients die Alternative A anzubieten. Oder anders: Twitter könnte ihnen ein schlechtes Angebot machen, das sie aber nicht ablehnen können, weil Twitter als Plattform-Provider am längeren Hebel sitzt.

TechCrunch hat eine vielsagende Änderung in den API-TOS von Twitter entdeckt:

January 3 version:

We want to empower our ecosystem partners to build valuable businesses around the information flowing through Twitter.

March 11 version:

We want to empower our ecosystem partners to build valuable tools around the information flowing through Twitter.

Twitter sieht sich offensichtlich nicht mehr als Plattform, auf der Unternehmen florieren können.

Auch das ist wenig verwunderlich. Ich schrieb vor einem Jahr:

Es ist kein Zufall, dass kurz nach der Tweetie-Übernahme die Clients Seesmic und Tweetdeck in ihren neuen Versionen vor allem mit neu unterstützten Diensten glänzen.

[..] Das ist das einzige, was für Client-Anbieter wie Tweetdeck sinnvoll ist: Massiv Multihoming unterstützen.

Twitters eigene Applikation ist dabei gleichzeitig im Nachteil, wenn es keine Plattformen neben Twitter unterstützt; und das wird es natürlich nicht.

Twitter hat ein Problem:

Twitters Strategie der Werbefinanzierung über vertikale Integration läuft der aktuellen Marktentwicklung zuwider. Kein anderes Social Network, das über Clients abrufbar ist, versucht mit einem eigenen Client Werbung an die Nutzer zu liefern. Diese Strategie bedeutet, dass die API-Nutzung von Client-Entwicklern den eigenen Erlösstrom unterläuft. (Wenn man trotzdem auf Werbung setzt, muss man Funktionen schaffen, die die Nutzer nur im eigenen Angebot vorfinden, um die Gefahr der Kannibalisierung durch die API zu begegnen.) Jetzt kann man natürlich auch die API-Nutzung beschneiden und beschränken. Aber was, wenn sich der Markt längst weiterentwickelt hat? Und zwar zu ungunsten der eigenen Integrationsstrategie?

Die erfolgreichsten Clients, von Seesmic über Tweetdeck bis Yoono, gehen alle zum Multihoming auf Services-Seite über beziehungsweise haben damit bereits teilweise vor Jahren begonnen: Tweetdeck etwa unterstützt neben Twitter auch Facebook, Google Buzz, MySpace, LinkedIn und Foursquare. Seesmic hat sogar eine eigene API, über die andere Dienste sich in den Client integrieren können. (Konzeptuell der spannendste Ansatz, dessen Umsetzung leider technisch zu wünschen übrig lässt.)

Dass Twitter in einem solchen Markt weg von der Ausrichtung des Produkts als Protokoll und hin zu einer Strategie geht, die auf den Client setzt, ist wenig erfolgversprechend: Das funktioniert nicht in einer Welt, in der Facebook über 600 Millionen aktive Nutzer hat. Es ist relativ sicher zu sagen, dass nahezu jeder Twitter-Nutzer auch Facebook-Nutzer ist. Wir leben in einer Welt, in der zumindest für die Poweruser Clients mittlerweile dazugehören.

Multihoming in Clients auf der Services-Seite ist und bleibt also etwas wichtiges für Nutzer, das zum Nachteil von Twitter auch noch an Bedeutung weiter zunehmen wird.

Feature-Reichtum in anderen Clients ganz allgemein ist ein Problem für Twitter, wenn der eigene Client aus strategischen Gründen beschnitten wird:

With version 3.3, third-party URL shortening support is gone. Now, long URLs are automatically shortened with Twitter’s own t.co service. While Twitter says the service can help prevent links to malicious sites, it doesn’t provide any detailed analytics. Twitter’s certainly gathering data about who’s clicking what, but it’s not sharing that information with the users who are generating those clicks.

Twitter’s removal of support for third-party URL shorteners isn’t new. It’s no longer in the iPad Twitter, Mac and Android clients. And while there are certainly plenty of independent Twitter clients for all platforms that do support third-party link shorteners, this is a disturbing trend for Twitter.

Bullshit-PR

Man verstehe mich nicht falsch: Jedes Unternehmen lässt seine PR-Abteilung die Narration rund um das Unternehmen nach außen in ein vorteilhaftes Licht drehen. Google etwa spricht immer von ‘Offenheit’, wenn es in Wirklichkeit um ein extrem erfolgreiches Geschäftsmodell geht (im Long Tail skalierende Werbung), das sehr gut mit Komplementärgütern (Android, Maps, etc.) gekoppelt werden kann.

Twitter aber ist entweder extrem schlecht darin, das eigene Vorgehen gut zu kommunizieren, oder einfach nur arrogant. Ein paar Beispiele:

Seit 2007 sprach der Twitter-CEO von der immensen Bedeutung der API. Was seinerzeit noch eine relativ neue Erkenntnis im Webbereich war, ist heute mittlerweile allgemein anerkannt: Twitters Erfolg basiert massgeblich auf dessen API. 2007 schrieb ich:

Twitters API lässt Twitter überall erreichbar sein: genau das, was ein solcher Dienst braucht. Und genau das macht Twitter zur Zeit schlicht unschlagbar.

Als Twitter Tweetie 2010 übernahm, wurde auf einmal von der geringen Bedeutung der API für Twitter gesprochen. Warum Tweetie übernehmen, wenn die Nutzung von Twitter nicht über Clients sondern über die Website geschieht?

Mit der Änderung der API-Guidelines geht der offensichtliche Bullshit von Twitter weiter:

Der Director of Platform bei Twitter schreibt über eine konsistente User Experience..:

The mainstream consumer client experience. Twitter will provide the primary mainstream consumer client experience on phones, computers, and other devices by which millions of people access Twitter content (tweets, trends, profiles, etc.), and send tweets. If there are too many ways to use Twitter that are inconsistent with one another, we risk diffusing the user experience. In addition, a number of client applications have repeatedly violated Twitter’s Terms of Service, including our user privacy policy. This demonstrates the risks associated with outsourcing the Twitter user experience to third parties. Twitter has to revoke literally hundreds of API tokens / apps a week as part of our trust and safety efforts, in order to protect the user experience on our platform.

..und meint im Grunde die Quickbar und die Werbeeinblendungen von Twitter.

Noch absurder wird es, wenn Twitter davon spricht, dass man von einer fragmentierten Twitter-Erfahrung wegwill und gleichzeitig angibt, dass 90(!) Prozent der Twitter-Nutzung über offizielle Clients/Website stattfindet:

As we point out above, we need to move to a less fragmented world, where every user can experience Twitter in a consistent way. This is already happening organically – the number and market share of consumer client apps that are not owned or operated by Twitter has been shrinking. According to our data, 90% of active Twitter users use official Twitter apps on a monthly basis.

Das ergibt schlicht keinen Sinn. Schauen wir uns die zwei Möglichkeiten an:

  1. Twitter schönt die Nutzungsverteilung, um potentiellen Werbekunden indirekt versichern zu können, dass sie mit den Promoted Tweets die Twitter-Nutzer erreichen können.
  2. Twitter sieht 90 Prozent offizielle Nutzung mit 10 Prozent Nutzung über Drittanbieter tatsächlich als bedenkliche Fragmentierung. Was die Frage aufwirft, warum man dann überhaupt noch Clients erlaubt.

So oder so, keine der beiden Möglichkeiten gibt ein besonders vertrauenserweckendes Bild von Twitter für Entwickler ab.

API: Der Grund für den Erfolg von Twitter

Die API war nicht nur dafür verantwortlich, dass Twitter über die Clients schnell auf allen Betriebssystemen mit miteinander konkurrierenden Interfaces vertreten war, die mittelfristig (Konkurrenz!) zu den besten Ergebnissen führten, was erheblich zum Erfolg beitrug. Die Kreativität der Entwickler formte außerdem massgeblich das heutige Twitter.

Hier einige der heute von Twitter integrierten Features, die vom Client Twitterific eingeführt wurden:

First use of “tweet” to describe an update (see page 86 of Dom Sagolla’s book.)
First use of a bird icon.
First native client on Macintosh.
First character counter as you type.
First to support replies and conversations (in collaboration with Twitter engineering.)
First native client on iPhone.

Retweets wurden von Client-Entwicklern eingeführt, bevor diese Funktion auf eine andere Art in Twitter integriert wurde. Sicher gibt es noch mehr Beispiele.

Twitter versetzt sich mit dem Abwürgen der Clients nicht nur in eine strategisch gefährliche Lage. Es legt auch die Quelle der Mehrzahl der Innovationen des Dienstes trocken.

Man könnte es auch anders sagen: Bei Twitter scheint man zu glauben, dass die Evolution des eigenen Grundangebots abgeschlossen ist. Ein Gedanke, der bei anderen Webstartups wie den deutschen Social Networks studiVZ oder wer-kennt-wen auch einmal vorherrschte. Das Ergebnis kann man hierzulande aktuell beobachten.

Twitter als Plattform, ein Unfall?

Letztes Jahr im Juni schrieb ich über Twitter:

Ich beschäftige mich seit einiger Zeit intensiv mit Plattformen im Internet. Eine Konstante bei allen Plattformen ab einer bestimmten Größe von der Plattform selbst und/oder dem Ökosystem ist das Anbieten eines offfiziellen Verzeichnisses von Applikationen.

[..]

Twitter, das bereits 2007(!) stolz verbreitete, dass zehn Mal(!) mehr Traffic über die API als über die Site selbst kommt (weitere Zahlen: 75% der Tweets sollen über Applikationen kommen), hat kein Verzeichnis für diesen wichtigen Teil des eigenen Geschäfts. Bemerkenswert. Das Einzige, was Twitter aktuell macht, um Drittanbieter und Nutzer zusammen zu bringen, ist eine willkürliche Auswahl von Angeboten, die einzeln in der Sidebar angezeigt werden:

Über die API wird noch über Twitter verbreitet, über welchem Dienst oder von welchem Client ein Tweet abgesetzt wird. Mehr Sichtbarkeit erhalten Drittanbieter über den Dienst selbst nicht.

Angesichts der Bedeutung der API für Twitter bin ich nach wie vor mehr als verwundert, warum ausgerechnet Twitter kein offizielles Verzeichnis der Applikationen bietet. Ausgerechnet das überlässt man anderen? (Man erinnere sich auch an die Aussagen über die einheitliche Experience.)

Das ergibt keinen Sinn. Es sei denn, Twitter stand und steht dem eigenen Ökosystem schon immer ambivalent gegenüber.

Als die neue Twitter-Website eingeführt wurde, viel mir eine subtile aber vielsagende Veränderung auf: Die Angabe “via [Appname]” unter den Tweets fehlte. Die bereits vorher minimale Verbreitungsform der Apps direkt über die Plattform wurde nochmal verringert. Die Via-Angabe findet man jetzt nur noch in der Einzelansicht der Tweets.

Man könnte fast meinen, Twitter gibt sich besondere Mühe, die Plattform vor den Usern zu verstecken.

Im Vergleich dazu Facebook: Das größte Social Network der Welt setzt erstaunlich konsistent auf den Plattformansatz. (Wenn auch mit eigenen Problemen) Ein Beispiel: Facebook Places als eines der neueren Bereiche ist durch und durch als Plattform angelegt . Sucht man den Places-Stream seiner Freunde auf, findet man dort unter den Check-ins “via Gowalla” und ähnliches. Facebook setzt im Gegensatz zu Twitter konsequent auf einen Plattformansatz. Wenig verwunderlich, wenn man weiß, dass Facebook-CEO Mark Zuckerberg das eigene Angebot von Anfang an als Utility verstanden wissen wollte.

Twitter scheint, auch aufgrund der nach wie vor nicht so guten Erlössituation, ein gespaltenes Verhältnis zur eigenen Plattform zu haben.

Das alles sind keine guten Zeichen für Entwickler. Besonders das Fehlen des App-Verzeichnisses würde mir als Entwickler sehr zu denken geben.

Fazit: Investoren bedrohen die langfristigen Aussichten von Twitter

Twitters Investoren haben auf Grundlage hoher Bewertungen viele Millionen in den Dienst gesteckt. Twitter verkauft zwar die Tweetstreams an Bing und Google und dürfte damit Break Even erreichen, aber darüber hinaus hat Twitter bis dato keine wirklich ergiebige Geldquelle gefunden wie etwa Facebook, das bereits erhebliche Gewinne einstreicht. (ebenfalls mit Werbung)

Dass Twitter, wahrscheinlich unter dem Druck der eigenen Investoren, Werbung vorantreibt und dafür anfängt, das eigene Angebot zu verschieben, ist wenig verwunderlich. Verwunderlich ist allerdings, dass kaum in andere Richtungen geschaut und experimentiert wurde. Zeit genug war da.

Es gäbe noch mehr zu schreiben zur verhältnismäßig einzigartigen Position von Twitter, aber ich gehe davon aus, dass nun ersichtlich ist, dass der eingeschlagene Weg zwar kurzfristig für Twitter gewinnversprechend sein kann, langfristig aber gefährlich für Twitter ist.

Würde Twitter sich als Protokoll verstehen und mehr versuchen über das Ökosystem Geld zu verdienen, wäre das auch langfristig für das Unternehmen nachhaltig. Eine erfolgreiche Plattform braucht ihre Entwickler.  (Und es wäre unter Umständen nicht minder gewinnträchtig. Twitter hat bereits eine Größe erreicht, bei der sich vieles umsetzen lies, das andere nicht machen können. Einziges Problem: Im Gegensatz zum Werbeansatz wäre vieles unerprobt und relativ neues Terrain.)

Man verstehe mich (wieder) nicht falsch: Twitters asymmetrisches Follower-Prinzip (und die weit verbreitete API!) sorgen für einen relativ festen Sattel. Twitter konnte sich regelmäßige Ausfälle des Systems von 2007 bis 2009 erlauben, ohne dass das dem Netzwerk einen Abbruch getan hätte. Auch die aktuelle Richtung wird der Popularität nicht sofort schaden. Aber es beginnt hier und jetzt.

Twitter macht einen Fehler, der ausgerechnet ihnen eigentlich nicht passieren sollte: Sie unterschätzen die Bedeutung des Ökosystems.

Aber vielleicht haben sie keine Wahl. Wer weiß, welche Gespräche das Twitter-Board führt.

Update: 42 Prozent der Tweets kommen über Drittanbieter-Clients. /Update

~

Eine ausführliche Analyse der Plattform-Situation von Twitter, nachdem sich die aktuelle Strategie abzeichnete, hatte ich im Juni letzten Jahres veröffentlicht.

Artikel zur Entwicklung der Twitter-Plattform:

Netzwerkeffekte sind wichtiger als alles andere für den Erfolg von Webdiensten

Sascha Lobo schreibt in einem lesenswerten Text auf Spiegel Online über die Bedeutung von Einfachheit und Verständlichkeit von Interfaces und die Bedeutung von UIs generell.

Das ewige Ziel der einfachstmöglichen Benutzbarkeit aller digitalen Dinge ist noch fern, denn die technologieformende Wirtschaft orientiert sich bisher zu wenig am Idioten.

Es ist richtig, dass Interfaces und User Experience generell in der Techwelt noch zu wenig wichtig genommen werden. Apple ist nicht zuletzt deswegen so erfolgreich, weil sie weit mehr als der Rest der Industrie auf die Gestaltung von User Interface (UI) und User Experience (UX) achten. (Siehe Quora für die Unterschiede zwischen den beiden Begriffen.)

Man kann die Bedeutung des Interfaces leicht unterschätzen. Sascha Lobo macht das selbst anhand des ersten iPhones:

Das erste iPhone von 2007 bestand aus zusammenmontierten Fehleinschätzungen, Unzulänglichkeiten und Zumutungen. Das Basismodell musste mit vier Gigabyte Speicherplatz auskommen – weniger als der erste iPod von 2001. Das schon zwei Jahre zuvor selbstverständliche UMTS hatte Apple ignoriert, genau wie die MMS, eine Videofunktion und benutzbares Bluetooth. Nicht einmal eigene Klingeltöne ließen sich installieren. Die brillante, weltverändernde Idee des neuen Bedienungskonzepts war zu Beginn eingesperrt in einen Käfig aus veralteten Bauteilen. Trotz dieser offensichtlichen Mängel fanden sich in den ersten drei Monaten anderthalb Millionen Käufer, die so die Idee am Leben hielten.

Das iPhone war das erste Smartphone, mit dem man tatsächlich mobil in’s Netz gehen konnte, ohne Kopfschmerzen zu bekommen. Das hat für den Erfolg ausgereicht. Alles andere war nebensächlich neben dieser Funktion.

Der Kommentar von Slashdot zum ersten iPod, der – ganz Nerd-Sicht – nur auf die Features schaut, und UI und UX ausblendet, ist mittlerweile legendär:

No wireless. Less space than a nomad. Lame.

Also: Ja, die Benutzbarkeit und die Verständlichkeit von Angeboten sind enorm wichtig. So wichtig, dass sie mehr oder weniger allein für den Erfolg verantwortlich sein können.

Netzwerkeffekte ftw

Aber: Im Zusammenspiel mit anderen Funktionen und Dynamiken ist es bei Webdiensten ganz und gar nicht so, dass allein das beste, weil einfachste und am wenigsten missverständliche, Interface über Erfolg und Misserfolg entscheidet.

Zwei Beispiele, die jeder nachvollziehen kann:

Erstes Beispiel:Twitter hatte von 2007 bis 2009 mit teilweise massiven Ausfällen zu kämpfen, die nicht nur regelmäßig auftraten sondern oft auch einen halben Tag oder länger anhalten konnten.

Trotzdem hat sich Twitter gegen Jaiku, Pownce und andere Konkurrenten behaupten können.

Der Grund: Netzwerkeffekte. Twitter hat relativ schnell relativ erfolgreich User (direkte Netzwerkeffekte) als auch Entwickler für die API (indirekte Netzwerkeffekte ) an Bord bekommen.

Deswegen sind die Leute auch in den Zeiten absurdester Ausfälle immer wieder zurück zu Twitter gekommen. Weil sie nur dort ihre eigenen Follower und Freunde, ihren dort aufgebauten Social Graph, vorfanden. Alles andere war wesentlich unwichtiger, sogar die Instabilität des Angebots und damit die Verfügbarkeit selbst.

Zweites Beispiel: Wer einzig auf die Verständlichkeit der Oberfläche schaut, kann seit 2007 Facebook anschauen und sagen, ‘Nee, das wird nix’. Facebook war im Vergleich zu anderen Social Networks weitaus komplexer seit Einführung der Plattform 2007. Am besten konnte man das im direkten Vergleich mit dem Klon studiVZ beobachten. Trotzdem ist Facebook schneller gewachsen und hat inzwischen mehr oder weniger gewonnen. Warum?

Facebook hat zwar eine schwierig zu verstehende Oberfläche, aber die Benutzung der Site ist auf maximalen Nutzengewinn für die User angelegt. (Newsfeed statt Fotogallerien der Freunde abgrasen) Diese Stickyness untermauert den direkten Netzwerkeffekt auf Endnutzerseite. Aber das allein reicht nicht aus:

Indirekte Netzwerkeffekte sorgen für stabilere Systeme: Zusätzlich kommen die indirekten Netzwerkeffekte der Plattform hinzu. Wer es schafft, erfolgreich indirekte Netzwerkeffekte zu erzeugen, erhält damit ein stabileres System, als wenn der Erfolg nur auf direkten Netzwerkeffekten aufbaut.

Deshalb konnte Twitter auch dank seiner erfolgreichen API bestehen, wie ich bereits 2007 anmerkte. Selbst wenn nur eine Teilmenge der User die API nutzte, so war und sind diese Teilmenge die Poweruser und Multiplikatoren, die die Plattform wiederrum für den Rest attraktiv machen. Und diese User fanden diese Möglichkeiten nirgendwo anders vor. Friendster hatte nur den direkten Netzwerkeffekt auf Nutzerseite und hat deshalb dank ähnlicher Ausfälle der eigenen Site aufgrund zu schnellen Nutzerwachstums mittel- bis langfristig gegen MySpace und Facebook verloren. Direkte Netzwerkeffekte erzeugen nur instabilen Erfolg.

Das ist also auch der gleiche Grund, warum es bei den Social Networks bis zu Facebook und seiner Plattform eine durchaus feststellbare Fluktuation gab (Friendster, Bebo, MySpace etc.), Facebook aber langsam den Bereich dominiert und auch aller Voraussicht nach für mindestens die nächsten zehn Jahre dominierenwird:

Facebook hat es erfolgreich geschafft, eine Plattform mit starken direkten und indirekten Netzwerkeffekten aufzubauen. Bereits heute haben nicht nur mehr Endnutzer ein Interesse an Facebook (was nur ein Unterschied in Umfang zu vorherigen Netzwerken bedeutet), sondern auch sehr viel mehr Nutzergruppen als jemals an einem Social Network: App-Entwickler, Website-Betreiber mit Interesse an einfachen Login-Systemen und/oder Traffic etc. pp.

Deswegen wird Facebook nicht so schnell nach dem Aufstieg wieder verschwinden wie seinerzeit etwa Friendster. (Und deswegen ist der oft gebrachte Vergleich von Facebook mit Nightlife-Clubs und deren Vergänglichkeit kompletter Blödsinn.) Konkret: Facebook Connect und Facebooks Like-Buttons sind in weiten Teilen des Webs mittlerweile integriert. Diese Integrationen werden nicht wieder verschwinden, solang es viele Endnutzer gibt. Viele Enduser wiederrum ziehen einen Zusatznutzen aus Facebook, weil Facebook neben der Kommunikation mit dem eigenen Social Graph auch diese Funktionalitäten ermöglicht. (Und zwar in der Form und Verbreitung als einziges Social Network weltweit.)

Folge: Ein relativ stabiles System.

Netzwerkeffekte, besonders indirekte Netzwerkeffekte, werden noch immer erheblich unterschätzt. Eyeballs first bzw. Nutzerwachstum im Fordergrund und vor allem anderen ist deswegen durchaus eine sinnvolle Strategie, solang das Endgame des Betreibers eine Plattform bzw. also der Aufbau eines zweiseitigen Marktes ist. Dann hilft das Nutzerwachstum im Idealfall nämlich dem Aufbau eines erfolgreichen und nachhaltigen Angebots. Das ist die Quintessenz der Ökonomie von Webdiensten.

Zu glauben, dass ein Social Network mit einer besseren Oberfläche als Facebook gegen den Giganten allein deswegen eine Chance hätte, wäre also vollkommen illusorisch. Und somit relativiert sich auch wieder die Bedeutung des UI. Das Interface kann nur helfen, Nutzer zu halten, um so mehr Nutzer zu generieren – auf allen Seiten der Plattform. Es ist aber nicht unbedingt kriegsentscheidend.

Einfachheit und Verständlichkeit sind also nicht das Ziel der Anbieter von Webdiensten, das automatisch mit Erfolg gleichsetzbar ist, sondern eher das Mittel zum Ziel. Und dieses Ziel, das mit Erfolg gleichsetzbar ist, ist das Erzeugen von Netzwerkeffekten. Wer einmal eine solche positive Rückkopplung im System hat, kann sich viel erlauben. Auch ein suboptimales User Interface.

Groupons Erfolg erklärt: Raus aus der Vollkostenfalle und rein in die Preisdifferenzierung

groupon-logoEs ist erstaunlich, wie sehr Groupon, dessen Erfolg und, vor allem, dessen Bewertung und rekordverdächtige Finanzierung, oft für Unverständnis bei Beobachtern sorgt.

Groupon ist nicht nur eines der fünf interessantesten Webdienste 2010, Groupon wird auch 2011 weiter für Furore sorgen. Nicht zuletzt, weil Groupon neben LinkedIn und Facebook zu den Web-Unternehmen gehören wird, die voraussichtlich 2012 an die Börse gehen werden. Angesichts dessen erscheint es mir sinnvoll, einmal zu erklären, worin die Attraktivität von Groupon für teilnehmende lokale Händler liegt. Die folgenden Ausführungen könnten auch für an Groupon interessierte Händler interessant sein.

Was bedeutet die Täglicher-Deal-Site für teilnehmende Händler konkret bzw. was bietet Groupon diesen überhaupt an?

Groupon verspricht den lokalen Händlern im Grunde zwei Dinge:

  • a.) Eine effiziente Art, Neukunden zu generieren und evtl. zu Stammkunden zu machen.
  • b.) Das Füllen von Leerlaufzeiten.

Selbst wenn sich a.) als minimal herausstellt (was man für die Mehrheit der Deals bezweifeln kann), existiert immer noch b.).
Der Witz an b.) ist, dass man nicht die Vollkosten, sondern nur die variablen Kosten einberechnen muss, was die 50%-Rabatte erst ermöglicht und wirtschaftlich sinnvoll ist. Warum, beschreibe ich im Folgenden.

Nicht in die Vollkostenfalle tappen

Warum können Groupon und co. Rabatte von bis zu 50 Prozent anbieten? Weil die teilnehmenden Händler bei der Kalkulation für ihren Groupon-Deal nicht in das tappen, was man in der Unternehmensrechnung die Vollkostenfalle nennt. Ich erkläre kurz, was damit gemeint ist:

Wenn ich ein Restaurantbesitzer bin, fallen mir für das Betreiben des Restaurants diverse Kosten an. Beispielsweise:

  1. Die Miete für die Räumlichkeiten, die Gehälter der Angestellten, etc.
  2. Kosten für die Getränke und Zutaten zu den Gerichten, etc.

Unter Punkt 1 finden wir die festen Kosten. Das sind die Kosten, deren Höhe nicht mit dem tagtäglichen Umsatz variiert (sie sind fest).

Unter Punkt 2 finden wir die variablen Kosten. Diese sind abhängig von der Anzahl der verkauften Produkte, hier also von den servierten Gerichten und Getränken. (Ein Running Gag in den Wirtschaftswissenschaften ist die Aussage, dass langfristig alle Kosten variabel sind. Die Unterscheidung zwischen den zwei Kostenarten hängt also nur vom betrachteten Zeithorizont ab. Man kann bsp. auch Leute entlassen und die Miete der Räume kündigen.)

Um die anfallenden Kosten wieder einzuspielen, müssen diese in die Betrachtung zur Preisgestaltung einbezogen werden. Man muss also ermitteln, welche Kosten einem für das Betreiben des Geschäfts anfallen, um so die Untergrenze für die Preise bestimmen zu können. Dafür gibt es verschiedene Ansätze, die für verschiedene Situationen mal mehr, mal weniger sinnvoll sein können.

In der Vollkostenrechnung werden alle im Betrieb anfallenden Kosten auf die Produkte gelegt. Da man alle Kosten wieder einspielen will, ist es sinnvoll, alle Kosten bei der Preisgestaltung der Produkte einzubeziehen. Die Vollkostenrechnung ergibt zum Beispiel Sinn, wenn der Restaurantbetreiber seine Menükarte erstellt und die für ihn sinnvollen Preise für die Gerichte ermitteln will. In diesem Fall muss er alle Kosten einbeziehen.

So weit, so gut. Kommen wir nun zu einer anderen Situation. Angenommen das Restaurant ist nicht immer komplett ausgebucht. Eine durchaus gängige Situation. Ich sehe mich also als Restaurantbetreiber leeren Tischen gegenüber.

Wenn ich jetzt diese leeren Tische füllen will, welche Kosten muss ich für meine Entscheidung einbeziehen? Wieder alle? Nein, nicht in jedem Fall. Wer immer so rechnet, tappt in die Vollkostenfalle.

Egal, ob die Hälfte der Tische Dienstags Mittags leer steht oder nicht, ich muss meine Mitarbeiter bezahlen und die Miete für die Räume entrichten. Diese Kosten fallen so oder so an. Verlange ich Dienstags Mittags für meine Gerichte den gleichen Preis wie Samstag Abends, kalkuliert nach meiner Vollkostenrechnung!, nehme ich nicht mehr ein, weil die Zahlungsbereitschaften zum dienstäglichen Mittagessen anders aussehen als am Samstag Abend.

Ich bleibe also auf meinen leeren Tischen sitzen. Die entscheidende Frage für mich als Restaurantbetreiber ist in Wirklichkeit, wie tief ich meine Preise senken kann, um auch am Dienstag Mittag noch einen Gewinn einnehmen zu können. Um diese Frage beantworten zu können, beziehe ich für die anfallenden Kosten lediglich die tatsächlichen Kosten für das Zubereiten der Gerichte und das Bedienen der Gäste ein. Denn wir erinnern uns: Miete und die anderen festen Kosten fallen an, egal ob die Tische besetzt sind oder nicht. Ich will aber zusätzlich Gewinn machen, wo ich aktuell mit Leerlaufzeiten konfrontiert bin.

Für die Entscheidungsfindung, um zu diesem zusätzlichen Gewinn zu kommen, benötige ich lediglich die zusätzlichen Kosten, die beim zusätzlichen Umsatz anfallen.

Preisdifferenzierung für die Profitmaximierung

Wie kann ich diese leeren Tische im Restaurant also füllen und mehr Geld verdienen? Eine gängige Praxis sind unter Einbeziehung der oben genannten Kostenüberlegungen günstigere Preise für Gerichte, die man zum Beispiel tagsüber werktags verlangt. Dieses Vorgehen nennt man Preisdifferenzierung (oder oft auch Preisdiskriminierung).

Das Produkt wird in verschiedenen Ausrichtungen zu verschiedenen Preisen angeboten, um möglichst viele Zielgruppen mit unterschiedlichen Präferenzen anzusprechen. Wikipedia definiert Preisdifferenzierung so:

Preisdifferenzierung ist eine Preispolitik von Anbietern, für die gleiche Leistung unterschiedliche Preise zu fordern. Die Differenzierung kann zeitlicher, räumlicher, personeller oder sachlicher Art sein. Mit diesem Instrument der Preisgestaltung versuchen Anbieter, die Zahlungsbereitschaft der Nachfrager optimal auszuschöpfen.

[..]

Eine Preisdifferenzierung liegt vor, wenn ein Unternehmen für gleiche oder gleichartige Produkte unterschiedliche Preise verlangt, die sich nicht oder nicht gänzlich durch Kostenunterschiede begründen lassen

Preisdifferenzierung ist eine klassische Geschäftsstrategie, die man vielerorts vorfinden kann. Ein paar weitere Beispiele:

  • Vermarktung von Filmrechten (zuerst Kino dann DVD dann TV)
  • Bücher im Hardcover-Format und später im Taschenbuch-Format

Groupon-Angebote fallen auch in die Kategorie Preisdifferenzierung. Die Unterscheidung zwischen dem regulären Angebot mit den regulären Preisen findet hier oft statt in:

  • Auswahl: Man bekommt vom Gesamtangebot genau eine Leistung günstiger (Massage statt Auswahl aus dem Wellness-Angebot, Menü X statt Auswahl aus der Karte des Restaurants)
  • Zeit : Die Groupon-Coupons können nur bis zu einem bestimmten Zeitpunkt nach dem Deal eingelöst werden. Außerdem muss der Nutzer in der Regel vorbestellen.

Groupon ist also ein weiterer Weg, wie beispielsweise Restaurantbetreiber ihre leeren Tische mit Preisdifferenzierung füllen können. Groupon ist ein weiteres Mittel für ein Vorgehen, das Restaurants bereits einsetzen.

Der Groupon-CEO Andrew Mason hat in einem Interview mal gesagt, der Markt von Groupon sei jeder unbesetzte Restaurant-Tisch.

Es ist klar: Die Groupon-Deals sind gute Angebote, sie können aber nicht das komplette Angebot des Restaurants XY ersetzen.

Die Herausforderung beim Einsatz der Preisdifferenzierung liegt immer auch darin, die Gefahr der Selbstkannibalisierung zu minimieren.

Ein Buchverlag erreicht mit den Taschenbuchausgaben Zielgruppen, die er mit dem Hardcover nicht erreichen würde. Gleichzeitig gibt es natürlich eine Gruppe der Taschenbuch-Käufer, die auch die Hardcover-Ausgabe kaufen würde, wenn es keine Taschenbuch-Ausgabe gibt. In der Buchbranche wird diese Kannibalisierung verringert, indem die Taschenbuch-Ausgabe erst nach der Hardvocer-Ausgabe erscheint.

Selbstkannibalisierung ist sowohl bei der Aufteilung des Angebots als auch bei den Preisen immer mit zu bedenken. Ist das eine Gefahr für an Groupon teilnehmende Händler? Ja, aber nicht mehr und auch nicht weniger als es das für jede andere Form der Preisdifferenzierung ist.

Die Kunst bei der Preisdifferenzierung und damit auch bei Groupon liegt also darin, sowohl das eigene Angebot als auch die Zielgruppe möglichst gut zu analysieren und beides in Gruppen aufteilen zu können, um so die jeweiligen Präferenzen, sprich Zahlungsbereitschaften für x und für y, erkennen zu können und sinnvoll bedienen zu können.

Für die Kalkulierung, wie tief ein Anbieter mit seinen Preisen gehen kann, um immer noch ein Minimum an zusätzlichem Profit (oder zumindest keinen zusätzlichen Verlust) einzufahren, ist es beim Füllen der Leerlaufzeiten sinnvoll, die Teilkostenrechnung einzusetzen. Wie oben beschrieben, zählen bei der Betrachtung des Leerlaufs lediglich die variablen Kosten, denn es geht hier für die Händler um ein zusätzliches Geschäft, nicht um das ‘Hauptgeschäft’.

Aufgrund der Mindestzahl an verkauften Deals, ab der das Angebot erst stattfindet, lässt sich auch mit einem Mindestvolumen rechnen, durch das man wiederrum etwaige Mengen-Rabatte bei Lieferanten in die Kalkulation mit einberechnen kann.

Es ist ebenso die Möglichkeit einzubeziehen, auf diesem Weg neue (Stamm-)Kunden zu generieren, wie das Risiko mit einkalkuliert werden muss, die regulären Angebote zu kannibalisieren. Die Kunst liegt in der Abwägung dieser Vor- und Nachteile.

Wenn sich teilnehmende Händler nun dabei verkalkulieren, dann ist das nicht unbedingt Groupons Schuld. Die Zahlen , die man öfters sieht, deuten außerdem darauf hin, dass viele zufrieden sind und wieder mit Groupon zusammenarbeiten möchten:

A Rice University study attempted to provide an academic approach to this question, finding 32% of Groupon promotions are unprofitable for the merchant in a survey. This contrasts somewhat with a survey we performed this sumer, where 94% of merchants who ran a Daily Deal would like to do so again (versus 40% in the Rice survey). No doubt countless other surveys have been performed, with varying conclusions on either side of the profitability question.
Merchants may not understand the profitability of their own promotions

Den letzten Satz halte ich für entscheidend: Für nicht wenige Händler dürften die Potentiale und Risiken von Groupon und co. beim ersten Deal dieser Art noch unklar sein bzw. die Kalkulation dürfte oft auf noch wackeligen Füßen stehen. Das ändert sich aber mit der Zeit, weil natürlich Erfahrungen gesammelt werden.

Smoothly bubbling along?

Fazit: Wenn ein lokaler Händler sowohl die eigenen bestehenden als auch potentiellen Kunden richtig einschätzt und die Bepreisung richtig kalkuliert, macht er im Idealfall zusätzlichen Gewinn und erhält Neukunden, die künftig wiederkommen. Das klingt für mich nach einem durchaus guten Angebot, das Händler ansprechen dürfte und auch tut.

Der Markt der unbesetzten Restaurant-Tische ist gigantisch und Groupon könnte (muss nicht, aber könnte) das AdSense dieses Marktes werden. Die vermeintlich gigantischen Zahlen rund um Groupon  basieren auf diesen Perspektiven und darauf, dass Groupon die notwendigen Kennzahlen und die notwendige Strategie vorweisen kann.

So baut Groupon aktuell eine eigene Plattform auf, was zum Spannendsten gehört, das aktuell im E-Commerce passiert. Die dortigen Groupon Stores und alles, was dazu noch kommt, werden weitere interessante Möglichkeiten zur Preisdifferenzierung für die Händler bieten.

Alles in allem würde ich also in Bezug auf Groupon trotz der zweifellos vorhandenen organisationalen Herausforderungen durch das immense Wachstum im Gegensatz zu anderen nicht von einer Blase reden.
(Ganz abgesehen davon, dass die Bewertung eines einzelnen Unternehmens schon per se keine Blase mit all ihren Implikationen sein kann.)

~

Auf Exciting Commerce berichten wir naturgemäß seit längerer Zeit intensiv über Groupon. Einige aktuelle Exciting-Commerce-Artikel von mir über Groupon:

5 Aspekte der aktuellen WikiLeaks-Revolution

wikileakslogoDer Kindergeburtstag in Sachen Internet ist vorbei. Wikileaks greift die etablierten Strukturen mit bisher ungekannter Stärke an und zeigt, zu was das Internet in der Lage ist oder was es anrichten kann; je nachdem, wie man es sieht.

5 Aspekte der aktuellen WikiLeaks-Revolution:

Reaktionen: (journalistische) Institutionen statt (journalistische) Kulturpraktiken

Ausgesprochen bemerkenswert an der aktuellen Diskussion ist, wie schwer es vielen Journalisten und Redakteuren zu fallen scheint, mitanzusehen, wie eine wichtige Aufgabe ihrer Profession von einer Outsider-Organisation wahrgenommen wird.

Viele, hierzulande und in den USA , sind nicht in der Lage oder nicht willens, die gesellschaftliche Aufgabe (Journalismus bzw. das Informieren der Öffentlichkeit) von den sie ausübenden Organisationen (früher nahezu ausschließlich Presseverlage und andere journalistische Institutionen, mittlerweile u.a. auch Blogger und Wikileaks) zu trennen.

Das ist insofern bedauerlich, als dass die Rolle von WikiLeaks nicht nur wichtiger als die der exklusiv beteiligten Medien ist, sondern WikiLeaks auch leichter als noch recht frischer Aussenseiter im Medienzirkus angegriffen werden kann, ohne dass die Angreifer sich mit der Pressefreiheit auseinandersetzen müssen; denn es ist letztlich alles eine Frage der Definition.

Im Guten wie im Schlechten filtert die New York Times (NYT) etwa mehr und klärt vorher mit der US-Regierung, ob sensitive Daten veröffentlicht werden dürfen. Ist das besser oder schlechter als das unkontrollierbare Verhalten von Wikileaks (Das bei den US-Depeschen gar nicht so unkontrolliert ist)? Das ist vielleicht die Gretchenfrage. Auf jeden Fall scheint es die NYT in sicheres rechtliches Gewässer zu manövrieren.

Deshalb greift die US-Regierung WikiLeaks an und nicht etwa die NYT (oder den Guardian, der die Depeschen an die NYT weiterleitete, oder den Spiegel): Die Rolle der NYT ist zum einen kontrolliert und zum anderen austauschbar. WikiLeaks hätte mit der Washington Post oder der LA Times zusammenarbeiten können. Der Guardian hätte die US-Depeschen statt an NYT auch an LA Times oder Washington Post weiterleiten können.

WikiLeaks selbst dagegen ist der Akteur in der Geschichte, der gefährlich, weil unkontrollierbar ist und deswegen ausgeschaltet werden muss. (So zumindest das Denken in der US-Administration. Wie wir unter Punkt 2 sehen werden, geht es aber eher um das Internet als Ganzes denn um WikiLeaks im Einzelnen.)

Die aktuell stattfindenden Vorgänge könnten auch traditionelle Presseverlage oder andere etablierte journalistische Institutionen treffen:

One wonders if Lieberman feels that he, or any Senator, can call in the company running The New Yorker’s printing presses when we are preparing a story that includes leaked classified material, and tell it to stop us. The circumstances are different, but not so different as to be really reassuring.

[Während ich den Artikel schrieb, verkündete US-Senator Joe Lieberman an, dass er auch eine Ermittlung gegen die NYT sehen möchte.]

Warum würde das aber wohl nie passieren? Der kollektive Aufschrei der kompletten westlichen Presse wäre wohl sicher. Es würde keine Frage geben: Das ist ein Angriff auf die Pressefreiheit. Der gleiche Vorgang bei WikiLeaks scheint für viele ok zu sein, weil WikiLeaks ‘lediglich’ keine allgemein anerkannte journalistische Organisation ist (weil ihr Vorgehen relativ neu ist) und weil sie weit mehr Informationen veröffentlichen, als vielen lieb ist.

Man kann es auch direkter formulieren: Die Tatsache, dass WikiLeaks aktuell so vehement von allen Seiten angegriffen werden kann und etwa die finanziellen Transaktionsmöglichkeiten abgeschnitten werden können, ist nur möglich, weil nicht die komplette Presse hinter WikiLeaks steht, wie sie hinter einer NYT oder einem Guardian stehen würden, deren Bankkonten plötzlich überall aufgelöst würden.

Ob man das Vorgehen von WikiLeaks für richtig hält oder nicht: Das Vorgehen der USA, jedes Unternehmen mit Einschüchterung zum Abbruch der Beziehungen zu WikiLeaks zu bewegen, ist ohne gesetzliche Grundlage weder demokratisch und noch rechtens .

Was wäre passiert, wenn der Informant mit den Dokumenten nicht zu Wikileaks sondern etwa zur New York Times gegangen wäre?

  • Die NYT hätte die Rohdaten, also die Dokumente selbst, nicht veröffentlicht. Maximal Zitate und Absätze wären veröffentlicht worden. Der Rest wäre über Nacherzählungen in Artikel eingeflossen.
  • Die NYT hätte nur Inhalte veröffentlicht, die sie nicht in Bedrängnis mit der US-Regierung bringt. Ein Großteil der geleakten Inhalte wäre also unter Verschluss geblieben.
  • Es hätte ein allgemeines Loblied in den westlichen Medien auf den noch immer starken investigativen Qualitätsjournalismus gegeben.

Die Unterschiede zur WikiLeaks-Herangehensweise sind offensichtlich: Geringere Radikalität, größere Sicherheit der Organisation gegenüber Bedrängnis durch die US-Administration. (Die Ironie dabei:Die NYT und jedes andere etablierte journalistische Medium wäre a priori, wie oben ausgeführt, zumindest ein bisschen sicherer vor (ungesetzlichen) Massnahmen gewesen als der Aussenseiter WikiLeaks. Trotzdem ist es höchst wahrscheinlich, dass sie sich selbst weniger erlauben würden, wenn sie die Wahl hätten. (Und deswegen gibt es WikiLeaks überhaupt.))

Die Reporter ohne Grenzen verurteilen das Vorgehen gegen WikiLeaks zu Recht:

RoG sagt, zum ersten Mal sehen sie den Versuch der internationalen Gemeinschaft, eine Webseite zu zensieren, welche zu den Prinzipien der Transparenz steht. „Wir sind über Länder wie Frankreich und den Vereinigten Staaten schockiert, die plötzlich ihre Regeln über die Meinungsfreiheit auf das gleiche tiefe Niveau wie das von China senken. Wir möchten darauf hinweisen, dass in Frankreich und den USA ist es die Aufgabe der Gerichte und nicht der Politiker zu entscheiden, ob eine Webseite geschlossen werden darf oder nicht.“

WikiLeaks ist eine neue Art von Publisher. WikiLeaks ist eine journalistisch tätige Organisation:

Why should we care about any of this? Because more than anything else, WikiLeaks is a publisher — a new kind of publisher, but a publisher nonetheless — and that makes this a freedom of the press issue. Like it or not, WikiLeaks is fundamentally a journalistic entity, and as such it deserves our protection.

Viele Journalisten aber sehen WikiLeaks nicht als einen der ihren an, was nachvollziehbar ist. Sie sehen dann aber auch nicht, dass der Vorgang sie auch betrifft: Jemand veröffentlicht Informationen, die von mächtigen Akteuren wie Regierungen nicht öffentlich gesehen werden wollen, an denen aber offensichtlich breites Interesse herrscht. Und dieser Jemand wird deswegen von diesen Akteuren massiv unter Druck gesetzt. Ist das Bereitstellen der Informationen nicht eine der ursprünglichen Aufgaben des Journalismus gewesen? Kann dieser unter Druck gesetzte Jemand nicht auch leicht die New York Times oder der Spiegel sein?

Siehe hierzu auch die Ausführungen von Hans-Martin Tillack vom Stern.

WikiLeaks als ein Symptom der vernetzten Informationsgesellschaft wird nicht wieder verschwinden

Aktuell existieren über 1000 Mirrors der Wikileaks-Seite.

Die über WikiLeaks veröffentlichten Dokumente werden über BitTorrent verbreitet. Die WikiLeaks-Seite selbst ist kaum mehr als ein Schaufenster, sie ist nicht das Ladengeschäft selbst.

WikiLeaks ist hier und geht nicht wieder weg. Oder, wenn es verschwinden sollte, wird WikiLeaks das Schicksal mit Napster teilen: Unzählige, dezentralere Nachkommen, die schwerer kontrollierbar sind. (Neben dem bestehenden Cryptome plant der ehemalige Sprecher von Wikileaks, Daniel Domscheit-Berg, seine eigene Leak-Site . Das dürfte erst der Anfang sein.)

Dass WikiLeaks nicht mehr verschwinden kann, ist nicht allein Wunsch radikaler Hacker :

It seems to me that at the end of this chain is BitTorrent. That when WikiLeaks wants to publish the next archive, they can get their best practice from eztv.it, and have 20 people scattered around the globe at the ends of various big pipes ready to seed it. Once the distribution is underway the only way to shut it down will be to shut down the Internet itself. Politicians should be aware that these are the stakes.

Das ist auch mehr oder weniger Konsens bei den Publikationen, die sich nicht nur oberflächlich mit WikiLeaks auseinandersetzen:

Guardian:

But politicians now face an agonising dilemma. The old, mole-whacking approach won’t work. WikiLeaks does not depend only on web technology. Thousands of copies of those secret cables – and probably of much else besides – are out there, distributed by peer-to-peer technologies like BitTorrent. Our rulers have a choice to make: either they learn to live in a WikiLeakable world, with all that implies in terms of their future behaviour; or they shut down the internet. Over to them.

The Economist :

If Mr Assange is murdered tomorrow, if WikiLeaks’ servers are cut off for a few hours, or a few days, or forever, nothing fundamental is really changed. With or without WikiLeaks, the technology exists to allow whistleblowers to leak data and documents while maintaining anonymity. With or without WikiLeaks, the personel, technical know-how, and ideological will exists to enable anonymous leaking and to make this information available to the public. Jailing Thomas Edison in 1890 would not have darkened the night.

Im New-Yorker-Porträt über Assange heißt es:

Assange calls the site “an uncensorable system for untraceable mass document leaking and public analysis,” and a government or company that wanted to remove content from WikiLeaks would have to practically dismantle the Internet itself.

WikiLeaks mag am immer am Rande des Abgrunds agieren.Wie sehr WikiLeaks am Rande des Abgrunds operiert, wird vielleicht im Assange-Porträt des New Yorkers klar, das im Juni dieses Jahr erschien:

Assange was sitting opposite Rop Gonggrijp, a Dutch activist, hacker, and businessman. Gonggrijp—thin and balding, with a soft voice—has known Assange well for several years. He had noticed Assange’s panicky communiqués about being watched and decided that his help was needed. “Julian can deal with incredibly little sleep, and a hell of a lot of chaos, but even he has his limits, and I could see that he was stretching himself,” Gonggrijp told me. “I decided to come out and make things sane again.” Gonggrijp became the unofficial manager and treasurer of Project B, advancing about ten thousand euros to WikiLeaks to finance it. He kept everyone on schedule, and made sure that the kitchen was stocked with food and that the Bunker was orderly.

Aber: WikiLeaks hat den Vorteil, die Dezentralisierungsmöglichkeiten des Webs zu nutzen. Denzentrales lässt sich schwer abschalten. Das sieht man nicht nur an al-Qaida sondern auch an Filesharing-Protokollen wie BitTorrent.

Grundsätzlich lassen sich viele Parallelen zum Filesharing ausmachen:

  • Die Verteidigungsmassnahmen richten sich gegen den ersten Vertreter der neuen Art, im Irrglauben es wäre eine Anomalie. (Damals Napster, heute WikiLeaks)
  • Selbst wenn dieser erste Vertreter vom Netz gehen sollte, verschwindet die zugrunde liegende Tätigkeit nicht wieder. Filesharing starb nicht mit Napster. Das Leaken geheimer Dokumente im (für unsere heutigen Verhältnisse) großen Stil würde auch mit dem Sterben von WikiLeaks nicht verschwinden.
  • Filesharing wie das Veröffentlichen von geheimen Dokumenten a la WikiLeaks sind neue Formen des Umgangs mit Informationen, die durch das Internet ermöglicht wurden.
  • Beides wird nicht wieder verschwinden. Genauer: So lang es ein freies Internet gibt, in dem Bürgerrechte gelten, wird es Filesharing und eine Art von WikiLeaks geben.

Guardian:

Our rulers have a choice to make: either they learn to live in a WikiLeakable world, with all that implies in terms of their future behaviour; or they shut down the internet.

Der Ansatz von Assange und WikiLeaks zielt auf unsere aktuelle Zeit des Übergangs

Einige haben mit Widerwillen angemerkt, dass Assange und WikiLeaks das Veröffentlichen der diplomatischen US-Berichte wie ein Theaterstück inszenieren. Das ist richtig. Warum machen sie das? Sie haben das Internet! Sollen sie doch alles einfach veröffentlichen.

Wir befinden uns in einer Zeit des Übergangs in der neue Medienformen (WikiLeaks, Blogs, Online-Aggregatoren) und die alten Medienformen und ihre Organisationen parallel existieren.

WikiLeaks hat den perfekten Ansatz gefunden, um heute die Wirkung zu maximieren. Sie arbeiten exklusiv mit Medien zusammen, so dass diese mit einem bestimmten ROI dank Zeitvorsprung rechnen können. WikiLeaks arbeitet mit der Tatsache, dass Platz in Tageszeitungen und auch die Aufmerksamkeit der Öffentlichkeit begrenzt sind. Anstatt also alle Depeschen sofort zu veröffentlichen und zu riskieren, dass dank der Masse nur ein Bruchteil überhaupt wahrgenommen wird, gibt es einen rigorosen Veröffentlichungsplan, der auch so funktioniert, wie er soll:

WikiLeaks und die US-Depeschen sind seit Tagen in den Medien. Das ist angesichts der Aufmerksamkeitsspanne der etablierten westlichen Medien eine beachtliche Leistung.

Ein vorheriger Ansatz von WikiLeaks hat nicht funktioniert:

In 2007, he published thousands of pages of secret military information detailing a vast number of Army procurements in Iraq and Afghanistan. He and a volunteer spent weeks building a searchable database, studying the Army’s purchasing codes, and adding up the cost of the procurements—billions of dollars in all. The database catalogued matériel that every unit had ordered: machine guns, Humvees, cash-counting machines, satellite phones. Assange hoped that journalists would pore through it, but barely any did. “I am so angry,” he said. “This was such a fucking fantastic leak: the Army’s force structure of Afghanistan and Iraq, down to the last chair, and nothing.”

Bei etablierten Medien arbeitende Journalisten, so scheint es, wollen mehrheitlich nicht brisante Daten in leicht auswertbarer Form, sondern eine attraktive Narration; und Exklusivität.

WikiLeaks beschleunigen mit diesem wirkungsmaximierenden Vorgehen einen Vorgang, der auch ohne sie oder ohne diesen Ansatz stattfinden würde ; er wäre nur eben langsamer.

Was wir hier erleben, dürfte aller Voraussicht nach eine historische Anomalie sein. WikiLeaks ist aktuell die einzige Organisation, an die sich Informanten wenden können und deren Bekanntheitsgrad groß genug ist, dass potentielle Personen übehaupt auf die Idee kommen, das zu tun. Wie in Punkt 2 ausgeführt, wird es bald einige WikiLeaks-Konkurrenten geben, die sich etwa auch der Dokumente annehmen können, die jetzt bei WikiLeaks aufgrund der größeren Geschichten unter den Tisch fallen.

In ein paar Monaten oder Jahren wird die Situation dann so aussehen: Informanten übergeben ihre Dokumente, die sie unbedingt in der Öffentlichkeit sehen wollen, gleichzeitig an verschiedene konkurrierende Leak-Organisationen.

Ein Orchestrierung, wie wir sie gerade miterleben, wird dann nicht mehr möglich sein. Stattdessen konkurrieren die Leak-Organisationen dann untereinander darüber, wie viel sie gewillt sind, zu veröffentlichen. (Mögliche neue Regelwerke und ihre Durchsetzbarkeit einmal außen vorgelassen.)

Assanges Tage in Freiheit sind waren gezählt. In der Zwischenzeit will wollte er so viel wie möglich erreichen. (Der Guardian hat ein Liveblog eingerichtet, auf dem über aktuelle Entwicklungen wie z.B. Assanges Verhaftung berichtet wird.)

Assanges und WikiLeaks öffentlichkeitsmaximierende Radikalität hat die Grenzen von Unternehmen aufgezeigt. Wie es jemand auf Twitter formulierte: “For freedom of speech, there’s #wikileaks. For everything else, there’s #Mastercard. And #Visa. And, um, #Paypal. And #Amazon. And…” (Und dass man mit PayPal den Ku Klux Klan aber nicht WikiLeaks unterstützen kann, spricht auch Bände.)

Das wird den öffentlichkeitsträchtigen Boykott-Ausrufen zum Trotz keine nennenswerten Auswirkungen auf die Unternehmen haben. Aber einige Aktivisten auf der ganzen Welt werden jetzt anfangen, sich zu überlegen, wie man eine wikileakable Infrastruktur auf allen Ebenen möglichst dezentral und sicher vor solchen Übergriffen aufbauen kann. Alternativen sind gefragt.

Das ist genau das, was Assange und WikiLeaks unter anderem wohl mit ihrem Frontalangriff auf die USA und andere Regierungen im Hinterkopf hatten. Angesichts des diesjährigen Dauerfeuers an geleakten Dokumenten, das anscheinend kein Ende nimmt, müssen die Reaktionen auf allen Seiten mehr oder weniger vorhersehbar gewesen sein.

Allein der kurzzeitige Wechsel zu Amazons S3, also zu einem US-amerikanischen Cloud-Computing-Anbieter, lässt sich nur damit erklären, dass WikiLeaks möglichst gut sichtbar machen wollte, dass man sich eben nicht auf Hoster jeder Art verlassen kann. Anders ergibt dieser Schritt keinen Sinn, der wohl kaum hohen organisatorischen Aufwand bedeutet haben wird. (Brisant ist das vor allem, weil immer mehr Startups, auf deren Plattformen Kommunikation stattfindet, s3 für Hosting einsetzen.)

Alles vielleicht ein Theaterstück. Aber wie ein gutes Theaterstück zeigt uns WikiLeaks mit den provozierten Reaktionen der Unternehmen und Regierungen die wahre Welt.

WikiLeaks als ein Ergebnis kleinteiligerer Arbeitsteilung

WikiLeaks und die anderen Leak-Organisationen sind Teil einer Entwicklung, die man in vielen Bereichen beobachten kann: Das Internet erlaubt, unter anderem dank radikal gesunkener Transaktionskosten, kleinere Organisationseinheiten und eine kleinteiligere Arbeitsteilung weil die Zusammenarbeit über das Web, also organisationsextern, einfacher wurde.

WikiLeaks operiert zwischen Informanten und traditionellen Medien. Mit seinen Mitarbeitern und Helfern kann es sich darauf konzentrieren, möglichst anonym und sicher für Informanten brisante Dokumente entgegen zu nehmen. (Gleichzeitig können sich Experten intern leichter einbringen.) WikiLeaks agiert quasi als Proxy des Informanten gegenüber Medien und Öffentlichkeit. Technische Expertise ist nicht zwingend eine Kernkompetenz von klassischen Medienorganisationen. Und das muss sie jetzt auch nicht mehr sein.

Dass diese kleinteiligere Arbeitsteilung in diesem Fall effizienter ist, dürfte nach den Veröffentlichungen dieses Jahr niemand mehr anzweifeln.

The Atlantic:

The idea that Wikileaks is a threat to the traditional practice of reporting misses the point of what Assange and his co-workers have put together – a powerful tool that can help reporters circumvent the legal barriers that are making it hard for them to do their job. Even as he criticizes the evident failures of the mainstream press, Assange insists that Wikileaks should facilitate traditional reporting and analysis. “We’re the step before the first person (investigates),” he explained, when accepting Amnesty International’s award for exposing police killings in Kenya. “Then someone who is familiar with that material needs to step forward to investigate it and put it in political context. Once that is done, then it becomes of public interest.”

Julian Assange gegenüber The Atlantic im Juli :

Assange told me, “I want to set up a new standard: ‘scientific journalism.’ If you publish a paper on DNA, you are required, by all the good biological journals, to submit the data that has informed your research—the idea being that people will replicate it, check it, verify it. So this is something that needs to be done for journalism as well. There is an immediate power imbalance, in that readers are unable to verify what they are being told, and that leads to abuse.”

The New Yorker :

But, in the Bunker one evening, Gonggrijp told me, “We are not the press.” He considers WikiLeaks an advocacy group for sources; within the framework of the Web site, he said, “the source is no longer dependent on finding a journalist who may or may not do something good with his document.”

Natürlich stellt sich die Frage, ob und inwiefern Wikileaks und die anderen neuen Leak-Organisationen neuen Regeln und Gesetzen unterworfen werden sollten, wie es Clay Shirky fordert .

Ist Wikileaks so anders, als dass es neue Regeln braucht? Ist die etablierte Presse einfach nur zu brav geworden? Und was lässt sich überhaupt noch durchsetzen?

WikiLeaks ist die bis dato größte Belastungsprobe für die Gesellschaft im Internet-Zeitalter

Assanges Ansatz (siehe 3.) ist so erfolgreich, dass wir mindestens die nächsten Monate, wahrscheinlich aber Jahre, mit den konkreten Auswirkungen zu tun haben werden. Und darüber hinaus mit der folgenden Gesetzgebung.

What the attacks on WikiLeaks tell us:

The first is that it represents the first really serious confrontation between the established order and the culture of the Net. As the story of the official backlash unfolds – first as DDOS attacks on ISPs hosting WikiLeaks and later as outfits like Amazon and PayPal (i.e. eBay) suddenly “discover” that their Terms of Service preclude them from offering services to WikiLeaks — the contours of the old order are emerging from the rosy mist in which they have operated to date. This is vicious, co-ordinated and potentially comprehensive, and it contains hard lessons for everyone who cares about democracy and about the future of the Net.

[..]

Thirdly, the attack of WikiLeaks ought to be a wake-up call for anyone who has rosy fantasies about whose side cloud computing providers are on. The Terms and Conditions under which they provide both ‘free’ and paid-for services will always give them with grounds for dropping your content if they deem it in their interests to do so. Put not your faith in cloud computing: it will one day rain on your parade.

Große internationale Firmen trennen die Verbindungen mit WikiLeaks (Amazon, EveryDNS.net, PayPal, Visa, Mastercard, Post Finance). Das dürfte vielen die Augen geöffnet haben. Was wiederrum dazu führt, dass standfestere Alternativen gesucht und notfalls geschaffen werden müssen. Es ist nicht abwegig, anzunehmen, dass das ein Ziel von WikiLeaks und Assange war. Ein weiteres Ziel, relativ offensichtlich aus Assanges in den letzten Jahren veröffentlichten Texten herauslesbar, ist die zukünftige Erschwerung der Kommunikation von privaten staatlichen Gruppen. Machtmissbrauch soll schwerer werden:

The basic point is not to necessarily expose any specifically damaging information (and many have argued that nothing all that surprising has been exposed in this latest dump), but to reduce the ability of governments to communicate secretly — because when you allow widespread communication by governments in secret, “conspiracies” form. That word is quite loaded, so I’m not sure it’s really the best word to use. Perhaps a better way of thinking about it is that if larger groups within the government feel that they can act without oversight, they are much more likely to do things they would never do with oversight. By regularly leaking information — even banal information — the response is to clamp down on information sharing within the government. And, in fact, that’s exactly what the federal government is doing.

Das ‘Geschäftsmodell’ von WikiLeaks, auch interessant vor dem Hintergrund des Medienwandels, sind Spenden: Die Veröffentlichung des Collateral-Murder-Videos hat WikiLeaks 200.000 US-Dollar eingebracht.

Ich bin mir nicht sicher, inwiefern WikiLeaks und vergleichbare Organisation von außen kontrolliert und im Zaum gehalten werden können. Der Hau-Ruck-Ansatz von WikiLeaks dieses Jahr hat aber unmissverständlich allen klar gemacht, dass sich hier etwas grundlegend geändert hat. Die Bestrebungen zur umfassenden Kontrolle und der Unterbindung, dass das wieder geschieht, sind vorhersehbar und meines Erachtens mehr oder weniger nutzlos. (siehe die Analogien zum Filesharing)

Wie die Regierungen der Welt damit umgehen, und was die Bürger und Medien ihnen an (Gegen-)Massnahmen durchgehen lassen werden, wird darüber entscheiden, wie die Gesellschaft im 21. Jahrhundert aussehen wird.

WikiLeaks hat auch den letzten Unwilligen aus den westlichen oberen Etagen in das 21. Jahrhundert geschubst.

Die Revolution hat 2010 begonnen.

This is a revolution, and all revolutions create fear and uncertainty. Will we move to a New Information Enlightenment or will the backlash from those who seek to maintain control no matter the cost lead us to a new totalitarianism? What happens in the next five years will define the future of democracy for the next century, so it would be well if our leaders responded to the current challenge with an eye on the future.

Die Konterrevolution auch.

~~~

Lesenswerte Texte zum Thema WikiLeaks:

*WikiLeaks just made the world more repressive:

Ironically, WikiLeaks is inflicting the same collateral damage it so loudly abhors. The “Cablegate” release is not a real victory for a more open world. It will lead to a more closed world, where repressive governments will be more free to commit atrocities against their own people and the people who try to stop them will have even less information to help prevent this.

*Wikileaks fördert das demokratische Prinzip nicht:

Dass Wikileaks vor allem Daten aus den USA publiziert, liegt ja nicht daran, dass das Reich des Bösen in Washington liegt, sondern dass die Daten dort offenbar deutlich einfacher zu besorgen sind als in diktatorischer verfassten Systemen. Das Ergebnis: Ausgerechnet eine dynamische und relativ liberale Demokratie wird lächerlich gemacht, worüber sich die regierenden Spitzbuben der Welt verstohlen amüsieren dürften. Am Ende stehen neue, noch bizarrere Sicherheitsgesetze und mithin weniger Bürgerrechte. Paradox aber wahr: Assanges Vision von einer besseren Welt verkehrt sich ins Gegenteil: Wikileaks schwächt offene Systeme, bestärkt andererseits aber restriktive Tendenzen, in den USA wie im Rest der Welt.

*Wikileaks and the Long Haul

The key, though, is that democracies have a process for creating such restrictions, and as a citizen it sickens me to see the US trying to take shortcuts. The leaders of Myanmar and Belarus, or Thailand and Russia, can now rightly say to us “You went after Wikileaks’ domain name, their hosting provider, and even denied your citizens the ability to register protest through donations, all without a warrant and all targeting overseas entities, simply because you decided you don’t like the site. If that’s the way governments get to behave, we can live with that.”

Over the long haul, we will need new checks and balances for newly increased transparency — Wikileaks shouldn’t be able to operate as a law unto itself anymore than the US should be able to. In the short haul, though, Wikileaks is our Amsterdam. Whatever restrictions we eventually end up enacting, we need to keep Wikileaks alive today, while we work through the process democracies always go through to react to change. If it’s OK for a democracy to just decide to run someone off the internet for doing something they wouldn’t prosecute a newspaper for doing, the idea of an internet that further democratizes the public sphere will have taken a mortal blow.

*Willkommen im Informationskrieg

Man muss schon sehr naiv sein, wenn man glaubt, dass die westlichen Demokratien sich nun ausgerechnet von übereifrigen Netzaktivisten davon überzeugen lassen, die Demokratie zu stärken und mehr Informationen zu veröffentlichen. Das Gegenteil wird der Fall sein. Die Gesetze werden verschärft, die Kontrolle des Netzes ausgebaut und die Bürgerrechte eingeschränkt werden.

*Noam Chomsky: WikiLeaks Cables Reveal “Profound Hatred for Democracy on the Part of Our Political Leadership”

*WikiLeaks: Viele offene Fragen und viele falsche Antworten

*Keine Wikileaks-Mirrors bei Hetzner

Andere deutsche Provider sind übrigens anderer Meinung, wie z.B. domainfactory.

*Das Julian-Assange-Porträt im New Yorker vom Juni 2010: A Reporter At Large: No Secrets

*Blockade-sichere Webbanner für WikiLeaks (TAZ)

*Julian Assange in The Australian:

WikiLeaks coined a new type of journalism: scientific journalism. We work with other media outlets to bring people the news, but also to prove it is true. Scientific journalism allows you to read a news story, then to click online to see the original document it is based on. That way you can judge for yourself: Is the story true? Did the journalist report it accurately?

*Warum Julian Assange ein Terrorist ist – eine Analyse

*Missing the point of WikiLeaks:

Consider what young Bradley Manning is alleged to have accomplished with a USB key on a military network. It was impossible 30 years ago to just waltz out of an office building with hundreds of thousands of sensitive files. The mountain of boxes would have weighed tons. Today, there are millions upon millions of government and corporate employees capable of downloading massive amounts of data onto tiny devices. The only way WikiLeaks-like exposés will stop is if those with the permissions necessary to access and copy sensitive data refuse to do so. But as long as some of those people retain a sense of right and wrong—even if it is only a tiny minority—these leaks and these scandals will continue.

*Jeff Jarvis in der WELT:

Heute, im Internet-Zeitalter, verschiebt sich die Macht von denen, die Geheimnisse haben, zu denen, die Öffentlichkeit herstellen. Das ist die neue Realität, die gerade entsteht. Die Wirtschaft sollte gewarnt sein: Ihr seid als nächste dran.

*Hillary Clinton: Then And Now On Internet Freedoms And Censorship

*Kriegsgerät Serverplatz:

So wie niemand die Redakteure des Spiegel für ihre “Enthüllungen” einbuchten kann, so wenig könnte man es in Deutschland mit den Machern von WikiLeaks machen.

Die einzige Unsicherheit wäre die Frage, ob WikiLeaks wirklich “Presse” ist. Daran besteht für mich aber kein Zweifel. Zwar beschränkt sich die Tätigkeit von WikiLeaks auf die Dokumentation. Aber gerade die Dokumentation ist eine der Kernaufgaben des Journalismus. Zudem ändern sich die Zeiten. Das Internet ermöglicht nun mal erst einen ganz neuen Journalismus durch Fakten. Denn hier gibt es anders als bei Printmedien keine Obergrenzen für die Informationsmengen und auch keine Begrenzung des Publikums. WikiLeaks hat das als erstes begriffen, es kongenial umgesetzt und sich so wahrscheinlich zum weltweit derzeit meistbeachteten und vermutlich auch wichtigsten Medium überhaupt gemacht.

[..]

Wer sich das Providerprivileg nicht selbst verhageln möchte, sollte seinem “Gast” möglichst freie Hand auf dem Server geben. Wer dagegen eigenständig entscheidet, welche Inhalte der “Gast” auf dem Server ablegen darf, macht sich durch Prüfung und Freigabe dessen Inhalte zu eigen. Das führt dann entsprechend schnell zu eigener Haftung.

*Like It or Not, WikiLeaks is a Media Entity:

The fact is that freedom of the press, like freedom of speech in general, is a crucial part of the fabric of a free society. Every action that impinges on those freedoms is a loss for society, and a step down a slippery slope — and that applies to everything that falls under the term “press,” regardless of whether we agree with its methods or its leaders. As the Electronic Frontier Foundation has pointed out, online speech is only as strong as the weakest intermediary. Any action that the government or its representatives take against a publisher like WikiLeaks should have to meet a very high bar indeed — and as Dan Gillmor argues, everyone working at the New York Times or any other media outlet should feel a shiver when they see Joe Lieberman attacking WikiLeaks, because it could just as easily be them in the spotlight instead of Julian Assange.

*WikiLeaks founder praised by Pentagon Papers exposer

In a statement, Ellsberg and associates said comparisons saying the Pentagon Papers were good while WikiLeaks’ material is bad is, “just a cover for people who don’t want to admit that they oppose any and all exposure of even the most misguided, secretive foreign policy. The truth is that EVERY attack now made on WikiLeaks and Julian Assange was made against me and the release of the Pentagon Papers at the time.”

*Wikileaks – Substanz und Inszenierung

*How Wikileaks has woken up journalism.:

Yochai Benkler, Harvard law professor and the author of Wealth of Networks commented that he thought that the nature of the latest disclosures demonstrated that the job of the mainstream media has now become one simply of ‘amplification’. Referring to the efforts by news organisation such as the New York Times to consult with the government on which areas of the documentation to redact, Benkler added that ‘The next Daniel Ellsberg [who leaked the Pentagon Papers to the New York Times] would not risk their career, or their liberty, going to the New York Times’.

*Wikileaks’ Julian Assange verhaftet (Zusammenfassung der Geschehnisse vom Perlentaucher)

* Weitere Linktipps sammelt Martin Lindner auf Delicious..

*..und hat Ulrike Langer in ihrem Blog veröffentlicht.

*Außerdem sammelt John Naughton viele Linktipps und interessante Gedanken zu WikiLeaks in seinem Blog Memex 1.1.

Döpfner und Handelsblatt: Der Aufstieg der Konkurrenz-Kultur

twitter-julius01

Hans-Peter Siebenhaar (Der Handelsblatt-Autor, der vor kurzem bereits über das von Presseverlagen geforderte Leistungsschutzrecht und erfundene ‘Raubritter im Netz’ schrieb) hat gemeinsam mit Gabor Steingart für das Handelsblatt Springer-Vorstand Mathias Döpfner interviewt. Das Interview ist auf beiden Seiten erstaunlich voll mit Halbwahrheiten und Nebelkerzen.

So sagt Döpfner bereits am Anfang:

Gute Inhalte bedeuten einen Aufwand. Sie stellen einen Wert dar und müssen daher bezahlt werden.

und

In den vergangenen Jahren haben manche geglaubt, sie könnten die Gesetze der Schwerkraft in der Marktwirtschaft aus den Angeln heben. Wir haben scheinbar innovative Geschäftsmodelle diskutiert. Manche waren überzeugt, allein schon die Aufmerksamkeit für Inhalte stelle einen unternehmerischen Wert dar. Doch das waren fromme Hoffnungen oder von Interessen gesteuerte Thesen. Man kann nicht mit Aufmerksamkeit bezahlen.

Was Döpfner ausblendet und die Interviewer ebenfalls nicht zu interessieren scheint: Medien seit sehr langer Zeit mehrheitlich werbefinanziert. In den USA seit ungefähr 180 Jahren:

Since then, for about 180 years, the retail price of a newspaper has never reflected the total cost of assembling and producing it. Any paper that tried to charge such a price (6x more) would lose circulation and be undercut by correctly priced competing papers.

Werbefinanzierung ist das Geldverdienen mit Aufmerksamkeit. Man verkauft die Aufmerksamkeit der Leser bzw. die eigene Reichweite an die Werbekunden.

Niemand hat je behauptet, man könne von Aufmerksamkeit allein leben. Aufmerksamkeit ist ein Wert, der dank der Informations- und Kanalzunahme allgemein steigt, und der natürlich wirtschaftlich genutzt werden kann. (Es ist eine klassische rhetorische Strategie, eine möglichst absurde Position zu formulieren, diese dem ‘Gegner’ zu unterstellen, und dann kopfschüttelnd auf die Absurdität zu verweisen. In solchen Situationen könnten Interviewer gut nachhaken.)

Bemerkenswert ist auch, wie die Interviewer sich selbst Fronten ausdenken:

Vor allem die Internet-Konzerne aus dem Silicon Valley, Google & Co., predigen noch immer die Umsonst-Kultur des World Wide Web als Errungenschaft der Zivilisation und als demokratischen Fortschritt.

Kein Internet-Konzern, auch nicht Google, ‘predigt’ die ‘Umsonst-Kultur’. Letzerer Begriff ist ein ausgedachter Umstand von Menschen, die kein Verständnis von Querfinanzierungen, Preisstrategien und (marginal komplexeren) Geschäftsmodellen haben.

Warum sind Google-Angebote in der Regel kostenfrei verfügbar? Weil Google sich mit Werbung refinanziert. Und das überaus erfolgreich. Die Google-Zahlen des dritten Quartals 2010:

Revenues jumped 23 percent to $7.3 billion. Net income was up 18 percent to $2.2 billion.

[..]

Non-text search, including display ads from DoubleClick and YouTube ads, are on a $2.5 billion revenue run-rate. Google is putting ads on 2 billion video views a week. And mobile search is on track to be a $1 billion business this year.

Das hat nichts mit Predigen und nichts mit Umsonst-Kultur zu tun. Das ist sinnvolles, erfolgreiches Wirtschaften.

Mathias Döpfner:

Wenn der Supermarkt kostenlose Butter anbietet, nehmen wir die gerne mit. Es kümmert uns wenig, ob der Butterproduzent später bankrottgeht oder nicht.

Und darauf die Wirtschaftsjournalisten vom Handelsblatt:

Deswegen gibt es im Supermarkt auch nichts umsonst, weder die Butter noch die Plastiktüte.

Ein vollkommen hanebüchener Vergleich. Wie oben bereits ausgeführt, verbreiten Pressemedien ihre Inhalte bereits seit sehr langer Zeit unter Kosten. Online sind die Kosten pro Leser weitaus niedriger als sie es pro Tageszeitungsausgabe sind. Letztere muss gedruckt und verbreitet werden. Die Kosten für das Bereitstellen und Ausliefern einer Webseite mit Text pro ansurfenden Leser ist so gering, dass sie oft vernachlässigt werden kann. (Erst in der aggregierten Masse machen sich die Kosten bemerkbar. Wäre es anders, würde es zum Beispiel wohl weitaus weniger als Hobby betriebene Blogs geben.)

Unter Kosten führt also online leicht zum maximal niedrigsten Preis: Null. Mit diesem erreicht man die maximale Reichweite und kann (zum Beispiel) Werbung verkaufen. So wie man das bereits früher gemacht: Aufmerksamkeit verkaufen, maximale Reichweite mit Preisen pro Einheit die unterhalb der Kosten pro Einheit liegen.

Beim Preis selbst liegt der einzige Unterschied zwischen heute und vor dem Internet in der absoluten Höhe: Der Preis kann ohne weiteres auf Null sinken, weil die zugrundeliegenden Kosten es erlauben. Am relativen Verhältnis hat sich nichts geändert: Der Preis, den die Leser direkt zahlen, lag und liegt unter den Bereitstellungskosten.

Diese Dynamik einem schnäppchen-versessenen Konsumenten unterzuschieben, ist ein Strohmannargument. Aber, wenn die Presse schon immer so vorgegangen ist, wo liegt dann das Problem? Warum beschweren sich Pressevertreter wie Mathias Döpfner?

Weil online noch ganz andere Dynamiken entstanden sind, die den Presseverlagen tatsächlich zu schaffen machen. Auf der einen Seite ist die Anzahl der Werbeflächen enorm gestiegen. Werbekunden können heute über Google auf deren Suchseiten und auf Millionen von kleinen Websites werben. Facebook und andere neuartige Angebote nehmen zusätzlich Werbegelder ab. Angebote wie Immobilienscout24 oder Immonet und ähnliche Dienste in anderen Sparten graben das Geschäft mit Kleinanzeigen ab.

Damit nicht genug: Früher hatten Presseverlage oft lokale Monopole auf Werbeflächen. Sie konnten entsprechende Preise setzen. Die Presseverlage sind also nicht nur von mehr Konkurrenz bedrängt, sie sehen sich in vielen Bereichen historisch erstmals überhaupt Konkurrenz gegenüber.

Eines der Hauptprobleme der Presseverlage, um es kurz zu machen, ist also nicht, dass sie ihr Angebot unter Kosten an die Leser verbreiten, so wie sie es immer schon getan haben, sondern dass sie neuerdings mit Konkurrenz aus unzähligen Richtungen konfrontiert sind.

Aber wie soll man das alles knackig in der Öffentlichkeit verbreiten, wenn man gleichzeitig ein Artenschutzrecht für sich bei der Politik einfordert?

Von einer Konkurrenz-Kultur reden? Von einer Kultur des Wettbewerbs sprechen?

Nein, das geht natürlich nicht.

Das alles führt zwangsläufig zu strukturellen Veränderungen innerhalb der Branche. Der Springer-Konzern berichtet regelmäßig von Rekordgewinnen. Warum? Unter anderem weil in presseferne Webangebote investiert wurde:

Axel Springer steigerte den Konzernumsatz – wie bereits am 25. Februar 2009 vorab veröffentlicht – im Geschäftsjahr 2008 um 5,8 Prozent auf EUR 2.728,5 Mio. (Vj.: EUR 2.577,9 Mio.). Zu diesem Anstieg trugen insbesondere die 2007 akquirierten Unternehmen bei, unter anderem die Aktivitäten in der Schweiz sowie zanox.de und auFeminin.com.

Es ist Döpfner als Vorstandschef des Springer-Konzerns nicht vorzuwerfen, dass er mehr Geld verdienen will und dafür auch in Interviews marktwirtschaftliche Gesetze in seinen diesbezüglichen Forderungen ausklammert. Das ist Öffentlichkeitsarbeit und nachvollziehbar, auch wenn sie ihn nicht immer unbedingt als jemanden dastehen lässt, der weiß, wovon er redet.

Aber dass das Handelsblatt, das als Wirtschaftszeitung wirtschaftliche Zusammenhänge offen legen und erklären sollte, völlig an der Realität vorbei berichtet und in einem solchen Interview keinerlei kritische Ansätze oder Fragen formuliert werden, die auf ein grundlegendes Verständnis der sich verschiebenden Marktdynamiken hindeuten, ist wirklich bemerkenswert.

~

P.S.: Alle werbefinanzierten Medien sind zweiseitige Märkte. In Kürze werde ich auf neunetz.com die Preisstrategien für zweiseitige Märkte besprechen, die auch auf Medien zutreffen und noch einmal allgemein erklären, warum es wirtschaftlich sinnvoll sein kann, sein Produkt an eine Kundengruppe unter Kosten abzugeben.

Crowdfunding-Plattformen in Deutschland: Startnext und mySherpas

Startnext

Startnext ist eine neue deutsche Crowdfunding-Plattform, die offiziell am 09.10.2010 für Projektinitiatoren gestartet ist. Seit dem 21.10. ist die Dresdner Plattform komplett im Netz: Seit diesem Zeitpunkt können Projekte finanziell unterstützt werden. Aktuell sind 13 Projekte online. Insgesamt 25 Projekte befinden sich laut Eigenaussage in der Einrichtungsphase. Startnext beschränkt sich auf medien-kulturelle Projekte.

startnext

Startnext behält von erfolgreichen Projekten zehn Prozent ein. Projektbudgets werden auf 110 Prozent hochgerechnet, so dass die Projekteinsteller ihre 100 Prozent erhalten. Das führt zu teilweise eigenartigen Summen, für die die Projekte werben. (Und führt jedem Nutzer, der sich darüber wundert und nachfragt, direkt zu den zehn Prozent für Startnext.)

Wie auch bei der erfolgreichen us-amerikanischen Crowdfunding-Plattform Kickstarter werden die Zahlungen nur ausgezahlt, wenn das Projekt in der vorgegebenen Zeit die gewünschte Summe erreicht.

Hierfür arbeitet Startnext mit der e-wallet von der Fidor Bank und nicht mit PayPal. Die Beweggründe, die vor allem in den hohen Transaktionsgebühren von PayPal liegen, hat Tino Kreßner hier aufgeschrieben, die er auch im Startnext-Blog noch weiter ausführt:

Im Bereich Geldtransfer konnten wir durch unsere Kooperation mit der Fidor Bank weitere weltweite Alleinstellungsmerkmale herausarbeiten. So gibt es bei allen Transaktionen auf der Plattform keinerlei Transaktionskosten. Alle Unterstützer bekommen bei Anmeldung 5 € und zum Launch der Plattform 15 € geschenkt, die direkt in Projekte investiert werden können. Bei Startnext.de wird es zudem ergänzende Finanzierungsdienstleistungen geben. So können sich die Projektinitiatoren von Unterstützern Geld leihen oder Mikrokredite beantragen. Ein eventuell eingezahlter Eigenanteil des Projektinitiators geht direkt ohne jeglichen Abzug von Kosten durch das System.

Mitgründer Denis Bartelt im Startnext-Blog zum gleichen Thema:

Crowdfunding ist ein komplexer Prozess. Es fließen viele Gelder auf Projektkonten. Die Beträge sind vor allem klein und einige davon groß. Wenn ein Projekt nicht stattfindet, dann muss das Geld wieder zurück an den Supporter. Zahlungsmittelanbieter verdienen ihr Geld durch Transaktionsgebühren. Es ist nicht schwer festzustellen, dass das Geld vom vielen hin und her bewegen einfach auch ALLE WERDEN kann.

Das e-Wallet ist KOSTENFREI und es werden KEINE GEBÜHREN FÜR TRANSFERS zwischen den Konten verlangt.

Kickstarter arbeitet für die Zahlungen mit Amazons Flexible Payments Service. Das heißt, das zusätzlich zu den fünf Prozent, die Kickstarter von erfolgreichen Projekten einbehält, noch weitere ungefähr 3 Prozent je nach Transaktionshöhe von Amazon einbehalten werden.

Gegründet wurde Startnext von Tino Kreßner und Denis Bartelt.

Carta hat Tino Kreßner interviewt:

Aus Dresden kommt nun der Versuch, dem Kickstarter-Ansatz eine spezifisch deutsche Ausprägung gegenüberzustellen: Stärker auch staatliche Kulturfördermechanismen einbindend, stärker Vereine einbindend, stärker auf Kultursponsoring und ‘branded entertainment’ setzend.

Im Carta-Video spricht Kreßner auch von einem zusätzlichen B2B-Ansatz:

Tino Kreßner hat bereits Erfahrung mit dem Social Web. Unter anderem hat er mit drei anderen Filmstudenten 2007 eine interaktive Filmproduktion umgesetzt, mit Crowdsourcing, Blog, Video- und Podcast.

mySherpas

Eine weitere deutsche Crowdfunding-Plattform ist das am 21. Oktober 2010 gestartete mySherpas. Interessierte Nutzer können ihr Projekt auf der Plattform einstellen. Anschließend wird das Projekt vom mySherpas-Team geprüft. (Dabei geht es vor allem um Adressenachweis und das Überprüfen der angegebenen Daten, so dass man Betrug ausschliessen kann.) Das Prüfen soll ungefähr drei bis fünf Tage dauern.

mysherpas

In der Regel will man möglichst alle Projekte zulassen und die Masse der Nutzer über die Zukunftsfähigkeit der Projekte entscheiden lassen, so Mitgründer Tim Busse mir gegenüber.

Die Laufzeit der Projekte auf mySherpas ist auf 50 Tage beschränkt.

Auch bei mySherpas wird die Summe wie bei Kickstarter und bei Startnext erst ausgezahlt, wenn die vorgegebene Höhe auch erreicht wurde.

Was unterscheidet mySherpas von Startnext? Während Startnext auf das e-Wallet der Fidor Bank setzt, versucht mySherpas es mit anderen Einzahlungsarten: Neben Paypal wird auch die Direktüberweisung unterstützt.

Das hat Vor- und Nachteile: Zum einen ist die Wahrscheinlichkeit bei mySherpas damit wohl höher, dass man es schafft, neue Nutzer zu einer Zahlung für ein Projekt zu überreden. Auf der anderen Seite erhöht das auch die Belastung durch Gebühren, die auf mySherpas zukommen. Zehn Prozent nimmt mySherpas von abgeschlossenen, also finanzierten Projekten. Laut Busse fallen ca. zwei Prozent davon für Paypal an. Noch 19 Prozent Mehrwertsteuer und man befindet sich ungefähr in den Sphären der fünf Prozent, die Kickstarter in den USA einbehält.

Wird die Summe nicht erreicht, bucht mySherpas die per PayPal oder Direktüberweisung bereitgestellten Summen an die Unterstützer zurück.  Die Gebühren bei PayPal trägt mySherpas. Mitgründer Tim Busse via Email:

Der Unterstützer bezahlt keine Gebühren, der Empfänger (mySherpas.com) muss diese Gebühren tragen (analog zu jedem Onlineshop, hier trägt auch der Shopbetreiber die Transaktionsgebühren). Die Rücküberweisung wird auch durch uns durchgeführt und fällt zu unseren Lasten.

(Anmerkung: Mir ist nicht ganz klar, wie das kalkuliert ist. Meiner Ansicht nach kann mySherpas sich leicht in den Transaktionsgebühren für die Rückbuchungen nicht erfolgreicher Projekte verzetteln und damit viel Geld verlieren. Auf  jeden Fall wird das ein konstanter Kostenpunkt für mySherpas, den startnext und Kickstarter gar nicht haben.  Aber vielleicht übersehe ich auch etwas.)

Trotzdem: Zehn Prozent sind viel und könnten potentielle Unterstützer leicht davon abhalten, Geld zur Verfügung zu stellen.

Es gibt nichtrationale Grenzen bei der Bepreisung, die starken Einfluss auf den Konsum haben. Solche psychologischen Grenzen findet man oft an willkürlichen aber optisch sichtbaren Punkten, wie dem Übergang von einstellig zu zweistellig, zweistellig zu dreistellig usw.

Ritter Sport etwa hat jahrelang versucht, den Preis pro Schokoladentafel auf über eine Mark zu bekommen – erfolglos. Erst mit der Einführung des Euros ist die Erhöhung des Schokotafel-Preises gelungen. Warum? Weil tatsächlicher Gegenwert in Geld und die damit verbundene Zahl nun in einem veränderten (für Milka günstigen) Verhältnis standen.

Die Lektion für Startups wäre: Psychologische Grenzen bei der Bepreisung bedenken. An der Stelle von mySherpas oder Startnext würde ich zum Beispiel versuchen, die Prozentzahl, die man abzwackt, auf einen einstelligen Bereich zu drücken, auch wenn das bedeutet, dass ich sehr knapp kalkulieren muss. Der mögliche Umsatz und die wahrscheinlicheren, damit einhergehenden positiven Presseberichte machen den geringeren Gewinn wett und sorgen für einen wahrscheinlicheren langfristigen Erfolg der Plattform.

Aktuell sind fünf Projekte auf mySherpas online.

mySherpas ist offen für strategische Partnerschaften. Die Crowdfunding-Plattform ist aktuell eigenfinanziert.

Eine weitere deutsche Crowdfunding-Plattform ist VisionBakery. Die Leipziger Plattform ist noch nicht gestartet.

Siehe zum Thema auch:

Trend: Zunehmend (erfolgreiche) Experimente mit Crowdfunding

Immer mehr Startups experimentieren mit verschiedenen Ansätzen des Crowdfundings. Wikipedia definiert Crowdfunding so:

Crowdfunding ist eine Art der Finanzierung, durch die sich Aktionen (Produkte, Projekte oder auch Geschäftsideen von Privatpersonen) mit Fremdkapital versorgen lassen. Als Kapitalgeber fungiert die anonyme Masse der Internetnutzer.

Eine Aktion ist durch eine Mindestkapitalmenge gekennzeichnet, die durch die Masse fremdfinanziert sein muss, bevor die Aktion startet. Im Verhältnis zur Mindestkapitalmenge leistet jedes Mitglied der Masse (Crowdfunder) nur einen geringen finanziellen Anteil.

Kickstarter stellt eine Crowdfunding-Plattform für Kreative bereit.

kickstarter

Zuletzt war Kickstarter in den Nachrichten, als das Projekt musopen innerhalb weniger Tage mit Kickstarter über 68.000 US-Dollar eingenommen hat, um mit diesem Geld klassische Werke als gemeinfreie, also urheberrechtsfreie, Aufnahmen aufzuzeichnen und bereitstellen zu können.

Auch Leo Laportes konstante Fanspenden, die monatlich auf über 10.000 US-Dollar kommen können, kann man entfernt zum Crowdfunding hinzurechnen.

Auf Exciting Commerce habe ich heute über Startups geschrieben, die mit dem Crowdfunding-Prozess den Fashion-Bereich revolutionieren könnten: FashionStake, Catwalk Genius, Styletrek und das österreichische Garmz.

Spot.us bringt Crowdfunding zum Journalismus.

Ulrike Langer hat vor einigen Tagen eine Übersicht über Crowdfunding-Modelle für Blogs und kleine Websites veröffentlicht (die mehrheitlich meines Erachtens allerdings nur bedingt dem Begriff zuzuordnen sind).

Eine Übersicht über Social Payments und Crowdfunding hat auch Karsten Wenzlaff auf ikosom.de veröffentlicht:

Es gibt zahlreiche weitere Crowdfunding Plattformen, wie zum Beispiel GoFundme oder SellaBand die sich an unterschiedliche Zielgruppen richten. Und es gibt Mischplattformen – Spendenportale, Crowdfunding-Portal und Nachrichtenportal in einem wie zum Beispiel reset.to oder Betterplace.org.

Sehenswert zu diesem Thema ist auch eine Präsentation von Leander Wattig zum Thema Kachingle, flattr und freiwillige Zahlungen.

Auch der Economist hat sich mit dem Thema Crowdfunding auseinandergesetzt:

Yancey Strickler, Kickstarter’s chief community officer, says the firm accepts about half the projects submitted to it. “We turn down projects that are charity, that are just straight business expenses, or ‘my dog has cancer’,” he says. Of those that are accepted, about half meet their funding goals: around 1,600 projects had been funded by July 2010. (Another crowdfunding firm, RocketHub, screens out only projects it deems illegal or in bad taste.) Kickstarter says it has raised over $15m for its users since its launch in 2009. Sellaband says it has raised over $3m and has contributed to the funding of 50 albums since 2006. Crowdfunding firms typically take a 5% commission and charge a 3-4% payment-processing fee.

Zweiseitiger Markt: Warum Google TV günstig sein wird

google-tv

Google hat die offizielle Seite von Google TV gelauncht, dem kommenden Versuch Googles das Web plus TV auf den Fernsehschirm zu bringen. Des weiteren hat Google einige Kooperationen bekanntgegeben:

Google also announced a few new apps: NBC Universal has created a CNBC Real-Time app which lets you access stock and news feeds while watching CNBC content, and the NBA has also created an NBA Game Time ap which lets you follow scores and highlights in real-time. The company has also worked with technology and media companies to optimize sites “like The New York Times and USA Today; music sites like VEVO, Pandora and Napster; information networks like Twitter; and online networks like blip.tv.”

Die erste Hardware mit Google TV werden eine Settop-Box von Logitech und Fernseher von Sony sein.

Vergleichbare Angebote oder kommende Angebote sind Apple TV, Roku und Boxee, die NewTeeVee mit Google TV verglichen hat.

 

Google TV teuer? Wird nicht passieren.

Business Insider befürchtet, dass Google TV zu teuer sein wird, um erfolgreich zu sein:

Google TV is going to be costly, probably hundreds of dollars, and most people probably won’t want to pay it. Google TV will be built-in to some Sony TVs, but because there is an Intel chip involved, it’s probably going to be significantly more expensive than typical TV sets. And the standalone Logitech Google TV box — for the rare audience who might buy a separate box for their TV — is rumored to cost $300.

Das wird so nicht eintreten beziehungsweise nicht sehr lang so bleiben. Warum? Google ist ein Werbeunternehmen. Mit Google TV setzen sie auf einen lukrativen Markt. Den lukrativsten Werbemarkt überhaupt: der globale TV-Markt. Das ist ein Markt mit Milliarden von potentiellen jährlichem Umsatz für Google.

Google wird also Google TV, das das Einfallstor für Google in diesen Markt darstellt, so attraktiv wie möglich machen. An allen Fronten. Dazu zählt auch, Google TV günstig, bezahlbar zu halten. Notfalls auch, indem Google sein Google TV derart subventioniert, dass die Partner die Hardware günstiger herstellen und vertreiben können. (Google könnte auch, noch einmal, selbst in das Hardwaregeschäft einsteigen. Dieses Mal, weil ohne torpedierende Netzbetreiber, wäre das mit besseren Erfolgsaussichten als beim Mobiltelefon Nexus One.)

Die Überlegung ist recht simpel:

  1. Hohe Stückzahlen an Google TV im Wohnzimmern ->
  2. konstante, potentiell hohe Werbeeinahmen ->
  3. Hohe Werbeeinnahmen rechtfertigen Quersubvention der Google-TV-Plattform; auch der Hardware ->
  4. Günstige Google-TV-Hardware bzw. Hardware mit Google-TV-Zusatz ohne nennenswert höheren Preis

Lossleader-Strategie im zweiseitigen Markt

Das initiale Plattformangebot als Lossleader verkaufen, um so eine Reichweite aufzubauen, ist eine verbreitete Strategie in zweiseitigen Märkten.

Im Spielkonsolenmarkt ist das seit langem üblich: Spielkonsolen wie Sonys Playstation oder Microsofts Xbox wurden mit einem Preis verkauft, der unter den Grenzkosten liegt. Das heißt, die Konsolenhersteller machen in der Regel Verlust(!) mit jeder verkauften Einheit (zumindest in der Anfangszeit des Produktzyklus bis zum Beispiel Erfahrungswerte bei der Produktion zu Kostensenkungen führen). Es rechnet sich aber trotzdem, beziehungsweise gerade deshalb:

Auf diese Weise erlangt der Plattformprovider die notwendige Reichweite, um dann seine (auch bisher verlorenen und darüber hinausgehenden) Einkünfte von einer der Seiten zu erhalten: Im Spielkonsolenmarkt sind das die Lizenzen, die Spiele-Hersteller kaufen müssen, für Google TV sind das die Gelder, die die Werbetreibenden zahlen werden. Mit dem anfänglichen Verlust lassen sich Millionen und Milliarden aufgrund der Externalitäten in zweiseitigen Märkten verdienen.

Diese Dynamik dürfte insgesamt für eine rasante Preisspirale nach unten bei der Hardware im kommenden Web-TV-im-Wohnzimmer-Segment sorgen. Denn wie oben bereits angesprochen, versuchen sich neben Google noch Apple und (mindestens) Roku und Boxee an der Wohnzimmer-Cashcow. Sie haben teilweise unterschiedliche Ansätze, aber für alle kommt es darauf an, Reichweite zu erhalten.

In den nächsten Tagen wird die Artikel-Reihe über zweiseitige Märkte im Internet weitergehen. Wir werden uns auch ausführlich mit Preisstrategien beschäftigen.

Sofortkultur und das Ende der Monopole für Inhaltedistribution

newyork

Felix Schwenzel weist auf einen auf absurde 7 Unterseiten aufgeteilten Artikel über die “Kostenlos-Kultur” hin, den er für screen.tv geschrieben hat. Darin nimmt er einige Themen auf, die wir hier auch regelmäßig diskutieren:

Diejenigen, die jetzt lauthals über die angebliche „Kostenlos-Kultur” klagen, wissen natürlich ganz genau, dass „kostenlos” keinesfalls ein Internet- Phänomen ist, sondern ein bewährtes, Umsatz steigerndes Marketinginstrument. Ansonsten hätten sich die Manager der Musikindustrie sicher nicht jahrelang dafür eingesetzt, dass ihre Songs im Radio und ihre Videos im Musikfernsehen laufen. Und: Kostenlos ist nicht nur ein Geschäftsmodell, sondern tatsächlich auch eine „Kultur”. Kultur wächst und gedeiht durch (Mit-)teilen, Weitergeben, Empfehlen und dadurch, dass sie allen gleichermaßen zur Verfügung steht. Erst durch Mund-zu-Mund- Propaganda entsteht Popularität, die sich dann wiederum zu Geld machen lässt. Ohne jede „Empfehlungs-Kultur” ließen sich Musik, Filme oder Serien auf Dauer schwer verkaufen.

Felix Schwenzels Lösung für die wirtschaftlichen Probleme einiger Branchen mit der Digitalisierung:

Die Frage ist also nicht, ob Paid Content im Internetzeitalter Chancen hat, sondern wie man die Nachfrage zügig bedient und die Bezahlprozesse so einfach und schmerzfrei gestaltet, dass sie von den Konsumenten angenommen werden.

In der deutschen (Online-)Debatte über künftige Geschäftsmodelle für Presseverlage und Anbieter von Musik und Filmen wird oft die Lösung vorgebracht, die auch Felix Schwenzel bringt:

Eine legale, umfassende und attraktive Plattform, mit möglichst geringen Transaktionskosten für die Endnutzer. (Das ist auch Sascha Lobos Lösung für die Musikindustrie.)

Das klingt bereits schwierig (und unattraktiv) genug für die etablierten Akteure. Aber es wird noch schwieriger.

Unautorisiertes Filesharing und illegale Streaming-Angebote werden nicht verschwinden, wenn es eine legale Plattform gibt, die mit ihnen konkurriert. Es würde schwerer für sie, weil sie Konkurrenz hätten. Aber die legalen Anbieter haben dann auch etwas, das sie früher nicht hatten: Konkurrenz.

Urheberrecht und Copyright sind Rechte, die zeitlich begrenzte Verwertungsmonopole gewähren. Das heißt, wer ein Urheberrecht auf eine Fernseh-Serie hat, hat das Monopol über die Verbreitung selbiger. Wenn jetzt jemand diese Serie ausstrahlen oder ansehen will, muss er bei mir als Produzent eine Lizenz erwerben oder die Serie von mir auf DVD erwerben etc. Er muss immer zu mir kommen und kann nicht zu jemand anderem gehen.

Im Internet muss eine legale Plattform mit Filesharing und Streaming konkurrieren, die unautorisiert stattfinden. Abschalten lässt sich das niemals komplett, weil es eine Folge der Digitalisierung ist (verlustfreie Kopien + Vernetzung).

Wozu führt das?

Die Monopolrente, also das, was die Produzenten früher mit dem Ausstrahlen oder Verkaufen verdienen konnten, fällt stark ab auf das Niveau des Gewinns eines sich im Wettbewerb mit anderen Akteuren befindlichen Unternehmens.

Das heißt, ohne Monopol geringeres Einkommen über diese Wege. Warum?

  • Einkünfte: Zum Beispiel kann Hulu nicht so viel Werbung zwischen den TV-Episoden ausstrahlen, wie das im TV möglich war, weil die Zuschauer sonst angenervt zu Alternativen wechseln, die vorher nicht bestanden. (Der Balanceakt hat sich zu Ungunsten der Anbieter verschoben.) Auch eine monatliche Zugangsgebühr kann nicht so hoch ausfallen wie in einer Welt ohne Alternativen.
  • Qualität: Man muss alles schnell und in guter Qualität verfügbar machen, weil die Nutzer sonst zu Alternativen wechseln, die das Gleiche anbieten; kostenlos.

Angebote wie Hulu, dem Streaming-Angebot einiger US-Fernsehsender, können sich auch keine Ausfälle und schwankende Performance erlauben. Die Alternativen bleiben einen Klick entfernt. Und wenn man jetzt die Serie XY sehen will, werden die wenigsten warten, bis die legalen Anbieter sich wieder gefangen haben.

Felix Schwenzel:

Das ist das eigentliche Problem der Medienindustrie: Wenn die Content- Produzenten es nicht schaffen, die Nachfrage zu bedienen, übernehmen das andere und stellen fremde Inhalte kostenlos ins Netz.

Der Nachteil der legalen Anbieter ist offensichtlich: Während die unautorisierte Konkurrenz nur auf die variablen Kosten der Vervielfältigung und Verbreitung der Inhalte achten muss, müssen die legalen Anbieter auch die Kosten für die Erstellung der Inhalte refinanzieren:

Filesharing kostet die beteiligten Endnutzer mit Flatrate-Anschluss keine zusätzlichen Kosten. Megavideo und Rapidshare zum Beispiel müssen lediglich die Traffic-Kosten für Streaming respektive Download refinanzieren. Aggregatoren wie Sidereel haben sogar noch geringere Kosten. (Warum “das Verbieten” solcher Angebote nicht einfach beziehungsweise nicht ohne massive Kollateralschäden möglich ist, kann man unter anderem hier bezüglich Sidereel und User Generated Content und hier konkret am Fall Sixtus vs. GVU nachlesen.)

Die legalen Anbieter können also in der direkten Konkurrenz nicht darauf setzen, ihre Kosten allein auf diesen Weg komplett wieder einzuspielen.

Fazit: Ja, legale Angebote, die bezahlbar und qualitativ hochwertig sind und mit geringen Transaktionskosten für die Endnutzer kommen, werden den Produzenten von Film, Musik etc. helfen, auch im Netz Geld zu verdienen. Aber wer glaubt, dass das zu vergleichbar hohen Einkünften wie in der Zeit vor dem Netz führen wird, irrt. Die auf diese Wege erzielten Margen für die Produzenten werden nahezu immer geringer sein.

Das alles heißt aber auch nicht, dass die Kulturproduktion mit dem Netz endet. Es bedeutet ‘lediglich’, dass sich die Geschäftsmodelle tatsächlich ändern und nicht nur von analog zu digital wechseln.

Der Gesamtumsatz der Musikbranche, dem Kanarienvogel der Digitalisierung, wächst schließlich in vielen Ländern. Das sollte Grund genug für Optimismus sein.

Die Erlösquellen ändern sich, aber vielleicht führt das insgesamt nicht zur von Lobbyisten des öfteren prophezeiten Kultur-Apokalypse sondern zum exakten Gegenteil: Einer Renaissance unserer Kulturproduktion in ungeahnten Höhen.

(Foto: kevindooley; CC-Lizenz)

Filesharing, Flattr und Bezahlschranken: Die Auflösung historischer Unfälle

cds

Als ich neulich Clay Shirkys neues Buch Cognitive Surplus (Affiliate-Link) las – Review des Buches folgt -, ist es mir wie Schuppen von den Augen gefallen. Es existiert ein offensichtlicher Zusammenhang zwischen der öffentlichen Debatte zur Digitalisierung, der Existenz von Filesharing, dem Potential von Micropayment-Systemen wie Flattr und Kachingle und dem vorhersehbaren Misserfolg der meisten Versuche, Bezahlschranken zu errichten.

Seit einigen Jahren schreibe ich über die Verschiebungen der Kostenstrukturen, wenn die Wertschöpfung von analog zu digital wechselt. Die Tatsache, dass Vervielfältigung und Distribution von autonomen digitalen Gütern (i.d.R. Dateien) zu einem (Grenz-)Kostenpunkt von Null möglich sind, hat weitreichende Auswirkungen, derer sich eine Mehrheit der Gesellschaft – die digitale Gesellschaft eingeschlossen – noch gar nicht bewusst ist. Warum fällt es vielen so schwer, sich mit diesen Veränderungen anzufreunden?

Shirky beschreibt in Cognitive Surplus wie die Kosten, die für die industrielle Verbreitung von Informationen notwendig waren, unsere Vorstellung von Wert und Wertschöpfung und damit auch von Preisen und Bepreisung beeinflusst haben.

So schreibt Shirky auf Seite 49:

Scarcity is easier to deal with than abundance, because when something becomes rare, we simply think it more valuable than it was before, a conceptually easy change.

Wenn etwas also rarer wird, vermuten wir dahinter eine Steigerung des Wertes. Eine natürliche Reaktion. Sie spiegelt die analoge Welt wider, die Welt in der wir aufgewachsen sind.

Aktuell passiert aber folgendes: Viele Produkte oder handelbare Güter gehen in ihrer Verfügbarkeit von Knappheit zu Überfluss über. Logisch: Informationen, die früher über physische Güter transportiert wurden, liegen jetzt in ihrer reinen Form vor: Filme, Musik und Texte wurden früher mittels DVDs, VHS, CDs, Vinyl, Papier oder Steintafel verbreitet. Heute liegen sie alle mehr oder weniger in Dateiform vor. Dateien, die mit Grenzkosten von Null vervielfältigt und über das Netz verbreitet werden können.

Der ‘Wert’ der Filme, der Musik und der Texte hat sich nicht geändert. Wohl aber die zugrundeliegenden Kosten und damit auch, was man mit ihnen machen kann; was wirtschaftlich sinnvoll ist.

Shirky merkt zurecht an, dass Überfluss Experimente erlaubt; man kann jetzt vorher wertvolle weil teure Dinge so behandeln, als seien sie billig genug, um sie zu verschwenden. (ebenfalls S. 49)

Vielen Leuten fällt es aber schwer, sich damit anzufreunden. (Nicht zuletzt auch, weil viele falscherweise Preis und Wert gleichsetzen .) Sie nehmen die alten Rahmenbedingungen und wenden darauf basierende Erkenntnisse auf die neuen an, als hätte sich nichts geändert. Shirky:

Because abundance can remove the trade-offs we’re used to, it can be disorienting to the people who’ve grown up with scarcity. When a resource is scarce, the people who manage it often regard it as valuable in itself, without stopping to consider how much of the value is tied to scarcity.

Wenn ich meine Musik oder meinen Film oder meine Publikation unter das Volk bringen wollte, musste ich hohe Investitionskosten aufbringen, um Kopien erstellen zu lassen und diese dann über den entsprechenden Vertrieb an die Geschäfte liefern zu lassen.

So eine Kostenstruktur mit ihrem hohen Risiko aufgrund der notwendigen Vorleistungen verlangt nach Profis. Deshalb gab es früher in diesen Bereichen kaum Amateure. Deshalb wurde früher vor der Veröffentlichung gefiltert und ausgesiebt und nicht danach.

Alles wollte gemanagt und bezahlt sein. Heute ist das nicht mehr nötig. Ob über Filesharing, Linksharung und/oder über Plattformen wie Youtube und co.: Die Trennung von Produktion und Distribution zieht sich wie ein roter Faden durch die Digitalisierung. Ich als Produzent kann in der Regel keine so effiziente Distribution sicherstellen, wie es andere, oft meine eigenen Leser, Nutzer, Fans, für mich erledigen können.

Die Implikationen sind relativ offensichtlich, werden aber trotzdem noch weitgehend ignoriert. Warum?

Weil wir, nach Shirky, mit historischen Unfällen aufgewachsen sind und diese oft ohne zu hinterfragen als gegeben hinnehmen.

Eine auf so einen Unfall basierende Annahme ist, dass das Publizieren an sich eine wertvolle, ernsthafte Tätigkeit ist. Ist es aber nicht. Wer vor dem Internet Inhalte veröffentlichen wollte – also vervielfältigen und verbreiten -, sah sich enormen Kosten gegenüber. Diese Kosten haben das Publizieren teuer gemacht, folglich musste man sich vorher genau überlegen, was überhaupt publizierenswert ist. Das Internet hat diesen Unfall, die nahezu untrennbare Verknüpfung von Publizieren und kostenintensivem Verbreiten, aufgehoben: Jeder kann ein Blog oder einen Account bei Twitter und co. anlegen und seine Inhalte mit einem Klick auf Publish veröffentlichen und verbreiten. Die Kostensenkung hat dazu geführt, dass das Filtern von vor dem Publizieren auf nach dem Publizieren verschoben werden konnte: Deshalb sind Online-Medien Filter und keine Gatekeeper . Und letztlich ist das auch schon immer sinnvoll gewesen, es war nur früher ökonomisch nicht tragfähig.

Der Akt des Publizierens an sich: nur aus Versehen teuer und damit als wertvoll betrachtet (‘valuable’).

Warum also für diese Tätigkeit bezahlt werden? Oder: warum für diese Tätigkeit bezahlen?

Flattr, Kachingle und co. sind die ersten genuinen Bezahlsysteme für diese Verschiebung in der Wertschöpfung:

  • Sie senken die mentalen Transaktionskosten um der Kleinteiligkeit und hohen Verteilungsrate der Entstehungsorte zu entsprechen.
  • Sie nehmen die Bezahlung nach dem Konsum vor, nicht davor.

Die Implikation: Man bezahlt nicht für das Publizieren sondern für das künftige Produzieren. Letztlich sind ‘Spenden’ auch genau das: Selbst wenn sie als Dankeschön gedacht sind, so sorgen sie bewusst oder unbewusst dafür, dass der Produzent weiter seiner Tätigkeit nachgehen kann – in welcher Form und welchem Umfang auch immer -. Allerdings wäre es für die Debatte rund um Systeme wie Flattr sicher sinnvoll, von der Bezeichnung als Spenden abzusehen, weil dieser Begriff hier etwas irreführend ist. (Auch wiederrum, weil viele Menschen freiwillige Zahlungen als Spenden noch im Kontext industrieller Wertschöpfung sehen und somit missverstehen können.)

Bezahlung lag schon immer in der Regel hinter der Produktion des Gutes, jetzt liegt sie zunehmend auch zeitlich hinter dem Konsum. Oder anders ausgedrückt: Schlicht vor der künftigen Produktion. (Die Produktion von Inhalten ist ein knappes Gut, das Publizieren und Verbreiten von Inhalten nicht. Bei der Konzeption von Geschäftsmodellen im Internet muss man immer die Unterscheidung zwischen knappen und nichtknappen Gütern einbeziehen.)

Bezahlschranken für Newsangebote dagegen etwa setzen vor dem Konsum an. Sie funktionieren nach der Logik der industriellen Rahmenbedingungen: Es kostet mich etwas, das bereit zu stellen, ich gehe ein Risiko ein, also Bezahlung vor Lieferung oder mindestens vor Konsum.

Bei der Auslieferung von Printpresse-Erzeugnissen war das gar nicht anders möglich: Die Finanzierung findet zwar seit Jahrzehnten mehrheitlich über Werbung statt, aber der Restposten von Kosten und Profit, der von den Konsumenten kommt – der Preis pro Kopie -, musste vor dem Konsum abgegolten werden. Die Distribution von Tageszeitungen etwa verschlingt schließlich eine Menge Geld und die Vervielfältigung will geplant und mit Vorschuss umgesetzt sein.

Online ist das aber nicht der Fall. Nicht nur sind die Distributionskosten und Vervielfältigungskosten der Newsseiten für die einzelnen Seitenaufrufe im Vergleich zu den anderen Kostenposten vernachlässigbar. Zusätzlich trennen Bezahlschranken auch noch mit ihrer Platzierung vor dem Konsum das Produkt von seinem wichtigsten Distributionskanal: Der Verbreitung durch die eigenen Leser.

Das Bezahlen bevor man wusste ob das Produkt überhaupt die erwartete Qualität hatte, war früher für Informationsgüter notwendig, weil sie an physische Güter mit ihren entsprechenden Kosten gekoppelt waren. Andere Geschäftsmodelle waren für die Anbieter oft nicht ökonomisch sinnvoll. Das ist heute nicht mehr so. Die Kopplung ist nicht mehr notwendig. Ohne die Kopplung sehen die zugrunde liegenden Kosten auf einmal komplett anders aus. Sie erlauben andere Herangehensweisen und nehmen den Konsumenten, Nutzern, Lesern, Hörern, Fans in der Regel das Risiko des (relativ) blinden Kaufs eines Magazins oder eines Albums ab. Wenn ich einen Artikel flattr, dann habe ich ihn bereits gelesen und für gut befunden.

Wenn ich einen Artikel bei faz.net und co. aus dem digitalen Archiv kaufe, weiß ich vorher nicht, ob der Artikel überhaupt die Informationen enthält, die ich erwarte. Das kann ich erst mit letzter Gewissheit wissen, wenn ich ihn gelesen also konsumiert habe. Dieses Risiko ist neben anderen Gründen ein wichtiges Hemmnis für Paid Content, das online mit frei zugänglichen und damit risikolosen Inhalten konkurriert. Dass die deutschen Presseverlage also ihre Inhalte mehrheitlich hinter Bezahlschranken verstecken, ist keine kluge Entscheidung.

Historische Unfälle haben unser normales Verhalten zurückgehalten. Ein Beispiel von Shirky für einen historischen Unfall (S. 101): Früher haben wir uns Telefonnummern eingeprägt, weil sie notwendig waren, um uns nahestehende Personen immer anrufen zu können. Aber wir haben das nicht gemacht, weil wir wollten sondern weil wir mussten. In dem Moment, in dem Telefonnummern in Mobiltelefonen abspeicherbar wurden, verschwand die Notwendigkeit, sich Telefonnummern einzuprägen. Das Einprägen der Nummern war eine unbequeme Notwendigkeit, kein natürliches Verhalten.

Wenn diese historischen Unfälle aufgehoben werden, wird das von ihnen zurückgehaltene Verhalten sichtbar, weil möglich (S. 101):

We did those things for decades or even centuries, but they were only as stable as the accidents that caused them. And when the accidents went away, so did the behaviors.

[..]

Those bits of new behavior, though, are extensions of, rather than replacements for, much older patterns of our lives as social creatures.

Filesharing: Unautorisiertes Filesharing existiert nicht, weil die heutigen Jugendlichen moralisch verwerfliche Egoisten sind. Generationen unterscheiden sich vor allem aufgrund der unterschiedlichen Möglichkeiten, die sie in ihrer Zeit zur Verfügung haben, so Shirky. Sie unterscheiden sich nicht durch Charaktereigenschaften, die angeblich für alle Mitglieder einer Generation zutreffen, weil diese generationsvereinenden Eigenschaften gar nicht existieren.

Filesharing findet nicht statt, weil die heutigen Jugendlichen moralisch verfallen sind. Wenn das so wäre, dann wären auch Ladendiebstahl und andere Verbrechen ähnlich stark angestiegen. Der Grund wieder: Die Kostenstruktur digitaler Güter. Musik kann heute so leicht mit anderen geteilt werden wie Gedanken oder Telefonnummern. Reine Information. Dieser Umstand hat ein zutiefst menschliches Verhalten freigesetzt.

Man kann mit anderen etwas teilen, ohne dass einem selbst Nachteile entstehen. Weder muss man auf den jeweiligen Gegenstand verzichten, noch entstehen einem zusätzliche Kosten. Wer unter solchen Vorbedingungen nicht teilen will, erscheint als kein guter Mensch. Shirky (S. 125):

The decision not to make someone else’s life better when it would cost you little or nothing has a name: spite. The music industry, in order to preserve its revenues, wanted (and still wants) all of us to be voluntarily spiteful to our friends.

Die Kostenverschiebung durch die Digitalisierung hat mit dem Möglichmachen von Filesharing also ein zutiefst menschliches Verhalten ermöglicht. Und das noch dazu in Verhältnissen, die in der industriellen Gesellschaft nur auf der Ebene großer Unternehmen möglich war.

Dieses Verhalten ist nicht revolutionär angehaucht. Da dieses Verhalten aber das Geschäftsmodell der Plattenlabel, die ihr Vorgehen, für die Weitergabe von Musikaufnahmen Geld zu verlangen, eins zu eins auf das Web übertragen wollen, untergräbt, muss es fälschlicherweise mit Diebstahl gleichgesetzt werden. Nur so kann man die Diskurs-Oberhand behalten.

Sowohl Geschäftsmodell der Plattenindustrie als auch das aktuelle Urheberrecht stehen also einem zutiefst menschlichem Verhalten diametral gegenüber, das durch industrielle Beschränkungen erst auf natürliche Art verhindert und jetzt durch die Digitalisierung in branchenerschütterndem Ausmaß ermöglicht wurde.

Fazit:

Für Geschäftsmodelle im Netz muss man sich lösen von Wertvorstellungen und Vorgehensweisen, die aus der analogen Welt stammen und ebenso vieles, was man als gegeben annimmt, gründlich hinterfragen. Die Verschiebung der Wertschöpfung löst durch ihre neue Flüssigkeit zwischen den Wertschöpfungsebenen historische Unfälle auf. Was vorher untrennbar verbunden war, wird in seine natürlichen Bestandteile aufgedröselt.

Das eigene Geschäftsmodell auf einen historischen Unfall aufzubauen, obwohl dieser obsolet wurde, ist keine gute Entscheidung. Natürliches menschliches Verhalten, das durch die Veränderungen möglich wurde, wird sich nicht einfach wieder abstellen lassen. Wozu auch?

Im Digitalen gehen die Veränderungen tiefer als den meisten klar ist. Denn viele wirtschaftlichen Vorgänge und gesellschaftlichen Vorstellungen basieren auf Knappheiten, die aktuell nach und nach wegbrechen. “Überfluss zerstört mehr Dinge als Knappheit.”

Weitere Artikel zum Thema:

(Foto: loop_oh, CC-Lizenz)

Facebook Places, Google Places, Foursquare & co.: Das ortsbasierte Web

Jetzt werden sie Mainstream: Mit dem Einstieg von Facebook in das Geschäft ortsbasierter Dienste geht der Boom jetzt richtig los. Aber Facebook ist nicht der einzige Plattformprovider auf dem Markt ortsbasierter Dienste. APIs und Plattformen ermöglichen bereits unzählige Mashups und innovative Ansätze.

Ein Überblick über das aktuelle Angebot und die Aussichten.

Inhalt:

Facebook Places

facebook-placesFacebook Places ist letzte Nacht in den USA gestartet und wird stückweise weiter ausgerollt. Wahrscheinlich wird Facebook Places in den nächsten zwei Tagen auch in Deutschland ankommen (“a roll out over the next day or two”).

Die wichtigsten Merkmale

  • Auch Facebook Places ist check-in-orientiert.
  • Check-Ins auf Facebook Places sind per default nur für Freunde sichtbar. (Abgesehen von den Check-In-Anzeigen auf den Profilseiten der Orte, die für jeden sichtbar sind.)
  • In der Nähe befindliche Facebook-Nutzer werden anderen Facebook-Nutzern beim Check-In im “People Here Now”-Bereich angezeigt. Diese Anzeige ist zeitlich beschränkt. Außerdem kann man sich aus der Auflistung austragen.
  • Man kann eigene Freunde in Orten einchecken. Das nennt Facebook “taggen”. Eine interessante Funktion, die die Check-In-Häufigkeit erhöhen dürfte, aber auch für einige Irritationen sorgen wird. (Lässt sich ebenfalls deaktivieren.)
  • Orte besitzen eigene Profilseiten. Facebook hat bereits einen How-To-Guide zum Einrichten veröffentlicht.
  • Die neue Funktion steht über die iPhone-App und die Touch-Seite von Facebook zur Verfügung.
  • Facebook setzt bei den Karten auf Bing statt auf Google Maps, das in der Regel von vergleichbaren Diensten genutzt wird.
  • Die Check-Ins werden im Newsfeed der Nutzer mit einem Kartenausschnitt von Bing angezeigt. Die Nutzer können sich dort auch gleich eine Wegbeschreibung über Bing anzeigen lassen.
  • User können auf Facebook nicht vorhandene Orte anlegen. In den USA arbeitet Facebook außerdem mit Localeze für das Verzeichnis von Places-Seiten zusammen.

Facebooks Place-Seiten werden für Geschäfte enorm wichtig werden. Wie TechCrunch ausführt, werden diese Seiten eine enorme Masse an Daten beinhalten:

Many businesses have already been flocking to Facebook as both and advertising and marketing platform, and now they can have their address, map, phone number, PLUS all the public social activity that is going on at a location. A merged Places page will include a considerable amount of information, including the number of check-ins, who checked-in to a place, number of Likes, the Places’ Wall, and more.

Screenshot einer Places-Seite auf Facebook:

Facebook Places Seite

Facebooks Plattform-Ansatz und die Facebook-Places-API

Facebook setzt wie zu erwarten war auch bei seinem ortsbasierten Angebot auf den Plattformansatz.

Die API zu Facebook Places wird vorerst nur lesbar sein. Das heißt, es wird zunächst über die API nur möglich sein, Check-Ins bestimmter Nutzer und für bestimmte Orte auszulesen und die Check-Ins von Freunden eines Nutzers zu erfassen. (Die API wird künftig dreigeteilt sein und read, write und search umfassen.)

Lediglich die Launch-Partner Yelp, Booyah, Foursquare und Gowalla haben vollen Zugriff auf die les- und beschreibbare API. Abgesehen anscheinend von Foursquare, was für einen “Launch-Partner” zumindest eigenartig ist.

Wie dem auch sei, das Ziel von Facebook ist klar: Mit der bald verfügbaren beschreibbaren API will Facebook zu der Plattform für Check-Ins und damit langfristig auch für lokale Informationen werden. Und die Chancen dafür stehen gut.

Interessant für Entwickler in diesem Zusammenhang ist auch, dass Facebook jüngst zu seinem iPhone-SDK die Social Graph API und OAuth 2.0 hinzugefügt hat:

Last week, Facebook brought its technology to iOS by introducing a new version of the Facebook SDK for iPhone, iPod Touch and iPad enhanced with the Graph API and OAuth 2.0 protocol. Together with the already available Facebook SDK for Android, you can now utilize both APIs and build social apps across two major mobile platforms.

Google Places API

Google setzt mit seinem ortsbasierten Dienst Latitude auf das Loggen des Standorts statt auf die Ein-Klick-Geste Check-In. Nichtsdestotrotz hat Google mit seiner Places API eine API für Check-Ins eingeführt; wohl nicht zuletzt als Präventivschlag gegen Facebook Places.

ReadWriteWeb hat zum Launch spekuliert, dass Googles Places API für Check-Ins sein könnte, was Google Maps für Online-Karten war. Google Maps hat Online-Karten nicht nur zu etwas allgemein Verfügbarem gemacht, sondern außerdem unzählige Mashups ermöglicht. (bis dato basieren die meisten Mashups auf Google Maps)

ReadWriteWeb über die API:

Developers building apps that include a “check in at this place” feature can use the Places API to search across all the places users might check in for basic information like business name, address, phone number and other descriptive information. That information will be editable by the businesses listed and no caching of data is allowed, so apps will have to ping Places regularly for real-time data.

Die Aussage von ReadWriteWeb über Googles Places API dürfte meines Erachtens aktuell eher auf Facebook Places zutreffen: Facebook Places wird für Check-Ins sein, was Google Maps für Karten war.

Aktuell hat Google gegen Facebooks Gesamtangebot keine Chance. Deshalb fällt auch Googles Places API gegen Facebook Places ab. Aber wer weiß, wenn Googles Places API clever in Googles kommenden Facebook-Konkurrenten integriert wird, könnte sich das auch wieder ändern.

APIs von Foursquare, Gowalla und co.

Foursquare hat bereits seit längerem eine beschreibbare API und erhält seit längerem auch bereits über 20 Millionen Zugriffe pro Tag auf die API. Seit Anfang August ist auch die API von Gowalla beschreibbar.

Foursquares API hat bereits einige interessante Mashups hervorgebracht und ist ein wichtiger Teil der Strategie von Foursquare .

Neben weiteren APIs mit ortsbasierten Informationen ist ein Dienst noch gesondert zu erwähnen: SimpleGeo, eine Plattform für geographische Daten :

SimpleGeo launched its highly anticipated geographic data platform (our SimpleGeo API profile) and announced a data marketplace. The platform allows developers to store up to 1 million points of their own data for free. Once the data is on SimpleGeo, you can do lookups, such as finding the closest points.

Ein weitere Übersicht über APIs für ortsbasierte Daten hat O’Reilly Radar im April veröffentlicht.

Fazit

Künftig kommt man im ortsbasierten Segment nicht mehr an Facebook mit seinen über 500 Millionen aktiven Nutzern vorbei. Spätestens wenn die API beschreibbar wird, werden bald viele auf die neue Funktion aufsetzende Apps das Licht der Welt erblicken.

Facebook wird mit dem Sog, den seine 500 Millionen Nutzer erzeugen, aller Wahrscheinlichkeit nach das erreichen, was viele, inklusive Google, versuchen aber noch nicht geschafft haben: Ein umfangreiches Verzeichnis lokaler Geschäfte.

Während ich mir vorstellen kann, dass das innovative Foursquare, das unter anderem den Check-In erfunden hat, einen Mehrwert über Facebook hinaus finden wird, wird es für andere Check-In-Dienste schwer. Es ist durchaus wahrscheinlich, dass Dienste wie Gowalla ihre Nische künftig als Client für Facebook Places finden werden. Da Facebook bis dato eine konsequentere Plattform-Strategie als Twitter verfolgt, ist das nicht die schlechteste Aussicht für diese Dienste. Zusätzlich werden ortsbasierte Dienste künftig mehr Richtung Mashup denn selbstständiges Angebot gehen. So wie heute kein Dienst seine eigenen Karten bereitstellt, muss künftig kein Dienst mehr seine eigene Check-In-Infrastruktur bereithalten.

Naturgemäß werden Clients mit integriertem Multihoming für Facebook Places und andere Check-In-Dienste mit beschreibbarer API das Licht der Welt erblicken, sobald Facebooks Places-API beschreibbar wird. Apps wie Future Checkin, das automatisch in Lieblingsorte auf Foursquare eincheckt, drängen sich dafür förmlich auf.

Zusätzlich werden viele Dienste wie die Launch-Partner von haus aus eine Integration in Facebook Places anbieten(dank 500 Millionen Nutzer). Ähnlich wie man es bereits von Twitter und den Status-Updates auf Social Networks von Facebook, über VZ-Netzwerke bis LinkedIn kennt, wird Facebook Places überall integriert werden.

Twitter bietet sich gut als Vergleich an: Facebook Places wird aller Voraussicht nach das Twitter für Check-Ins werden. Überall integriert, wo es sinnvoll um Check-Ins geht.

Alle APIs, die zusätzlich neben Facebook Places noch existieren, decken den Infrastruktur-Markt für ortsbasierte Dienste gut ab. Das ist für neue Anbieter nicht schlecht, im Gegenteil: Jetzt ist ein hervorragender Zeitpunkt, um als Startup die vorhandenen Plattformen zu nutzen und mit geringstem Mittelaufwand zu experimentieren und spannende neue Ansätze (Beispiel: Info über Geschlechterverteilung in der Lieblingsbar via Foursquare) zu finden, was man auf die bestehenden Angebote aufbauen kann.

Das ortsbasierte Web wird nicht lang Brachland bleiben. Das FarmVille der Check-Ins dürfte nicht mehr weit weg sein.

Der Aufstieg der Ein-Klick-Geste

Ein-Klick-Geste

Mit einem Klick Inhalte bewerten, weiterverbreiten oder Aktivitäten wie das Bekanntgeben des eigenen Standortes ausführen: Die kleinste Einheit von bewusst getätigter Aktivität, ein einzelner Klick, nimmt an Bedeutung für das Web zu. Die Ein-Klick-Geste gehört zum wichtigsten Instrumentarium von Web-Angeboten und prägt das Web in ihren unterschiedlichsten Ausprägungen.

Inhalt:

Die Geschichte der Ein-Klick-Geste

Es fing mit der Social-News-Site Digg an. Mit einem Klick können Nutzer eingereichte News bewerten und damit noch oben und auf die Startseite wählen. Mittlerweile hat die Ein-Klick-Geste einen bemerkenswerten Siegeszug quer durch das Social Web vollzogen. Nicht überraschend:

Keine direkte Aktivität im Web kann kleiner sein als ein einzelner Klick. Für viele Webangebote wird diese Aktivität damit zur leicht zu implementierten Geste, mit der sich verschiedene Funktionen und Tätigkeiten verbinden und abbilden lassen.

Heute kommt, ob bewusst oder unbewusst, kein neuer Dienst auf den Social-Web-Markt, der nicht mindestens eine Ein-Klick-Geste implementiert hat. Ortsbasierte Dienste hatten ihren Durchbruch sogar erst, als sie sich auf die Ein-Klick-Geste als zentrales Merkmal stützten. (siehe unten)

Beispiele für die Ein-Klick-Geste

Digg: Hat als erster Dienst die Ein-Klick-Geste zum zentralen Merkmal des eigenen Angebots gemacht.

Friendfeed: Hat als erster Service den Like-Button direkt in den Aktivitätenstream integriert, und darauf aufbauend eine Gewichtung unabhängig vom Veröffentlichungszeitpunkt geschaffen.

Facebook: Der Like-Button hat zuerst im Newsfeed des Social Networks die Funktionen von Friendfreed imitiert. Mittlerweile kann man auch Kommentare im Facebook-Newsfeed ‘liken’ und Sites und Objekte ausserhalb von Facebook über den mittlerweile allgegenwärtigen Like-Button bewerten.

Twitter: Das unscheinbare Feature der Favoriten-Markierung hat zu einem eigenen Ökosystem geführt (siehe etwa Favstar.fm), das diese redistribuiert und für viele überhaupt erst zum Anreiz wurde, Twitter zu nutzen. Zusätzlich hat Twitter mit der Implementierung des Retweets eine weitere Ein-Klick-Geste hinzugefügt.

Weitere Dienste wie die Hypemachine oder Last.fm nutzen Ein-Klick-Gesten für Favoriten, die eine Bookmark-Funktion innehaben und gleichzeitig den Diensten helfen, die Objekte (hier Songs) zu gewichten.

Nutzen und Funktionen der Ein-Klick-Geste

An die Ein-Klick-Geste können verschiedenste Funktionen geknüpft werden:

Redistribution, Aggregation und ‘Charts’

Digg, Reddit und co. nutzen die über den gesamten Dienst aggregierten Ein-Klick-Gesten, um die Topp-Items auf den Startseiten anzuzeigen. Twitter nutzt seine Toptweets-Accounts (international, deutsch) für das Retweeten und damit Verbreiten von bereist oft mit Retweets bedachten Tweets. (toller Satz)

Eine entsprechende API vorausgesetzt, kann die Aggregation und Aufbereitung auch off-site stattfinden. Das mittlerweile nicht mehr existente favrd und das davon inspirierte Favstar.fm sind Beispiele für die off-site vorgenommene Aggregation von Twitter-Favoriten.

Hypemachine nutzt die Favorites um Charts der populärsten aktuellen Songs zu erstellen.

Entscheidend für diese Aggregationsmöglichkeiten ist eine möglichst große Datenbasis. Möglich wird das damit also erst durch die Tatsache, dass der einzelne Klick die kleinste Einheit online bewusst ausgeführter Tätigkeit darstellt und somit die theoretisch größtmögliche Anzahl an Dateneinheiten bedeutet.

Personalisierung

Die wohl offensichtlichste Nutzung der durch Ein-Klick-Gesten entstehenden Daten. Last.fm beispielsweise nutzt die Favorites neben den Protokolldaten, um das Radio den Interessen der Nutzer anzupassen.

Facebooks mit den Like-Buttons eingesammelte Daten lassen sich für die Personalisierung auf anderen Diensten verwenden. Das geht von Angeboten wie Lunch.com bis hin zu jüngst Amazon.

Daten, immer wieder Daten

Vor einiger Zeit hat Facebook das Bewerten von einzelnen Kommentaren im Newsfeed eingeführt. ReadWriteWeb spekulierte daraufhin, was Facebook mit diesen Daten anstellen kann:

Any time a social interaction can be instrumented – turned into data and made measurable – that opens up new opportunities for cross referencing it with other data points, for illuminating more connections between people. Imagine being able to see who from your high school gets the most comments liked, or to see a stream of books liked by people whose comments you liked more than once. There are many possibilities.

Je kleinteiliger die messbaren Daten werden, desto besser wird ihre potentielle Auswertbarkeit.

Mit den Daten aus den Ein-Klick-Gesten erhalten die Betreiber der Dienste unzählige Möglichkeiten zur Auswertung. Die über die Zeit angehäufte Datenmenge lässt sehr umfangreiche Rückschlüsse über einzelne Nutzer und die gesamte Nutzerschaft zu, die sich auf verschiedenste Weise für den Anbieter nutzen lassen.

Da ein Klick praktisch ein Opt-In von Fall zu Fall ist, ist auch die Privatsphäre der Nutzer zunächst nicht beeinträchtigt. (Vorausgesetzt es herrscht ein gegenseitiger Konsens über die Auswertungsarten der Daten.)

Andere Einsatzarten

Im Bereich der ortsbasierten Dienste haben Ein-Klick-Gesten einen erstaunlichen Aufstieg erfahren. Mit Foursquare ist der sogenannte Check-In zum zentralen Element dieser Dienste geworden. Interessant dabei ist, dass zugunsten einer Verbreitung über Twitter und Facebook Foursquare etwa auf eine echte Ein-Klick-Geste verzichtet und mehrere Klicks für einen Check-In verlangt.

Mit Flattr ist die Ein-Klick-Geste erstmals mit einer realen finanziellen Transaktion verbunden. Auch hier ist die niedrige Schwelle zum Handeln essentiell.

Ein-Klick-Geste vs. Protokollieren

Die Ein-Klick-Geste ist zwar, wie oben ausgeführt, die kleinste Einheit online bewusst ausgeführter Tätigkeit, sie ist aber nicht die aufwandärmste Tätigkeit. Die aufwandärmste Tätigkeit ist das Sich-Protokollieren lassen. Also passive Nutzung. Das bekannteste und älteste Beispiel dafür ist Last.fm. Last.fm protokolliert (“scrobbling”) die Musik, die man am Rechner anhört und erstellt daraus Charts, Konzertempfehlungen und mehr. Zusätzlicher Aufwand für den Nutzer: Nach der Konfiguration nicht existent.

Readness.com protokolliert das Lesen von Artikeln auf ausgewählten Websites und erstellt daraus und aus den Protokollen der Freunde Empfehlungen für weitere Artikel.

Im Bereich der Micropayments sehen wir gerade einen ‘Kampf’ zwischen dem Ansatz des Protokollierens (Kachingle setzt auf Websitebesuche) und der Ein-Klick-Geste (Flattr setzt auf Klicks als Grundeinheit). (siehe auch hier zum Unterschied zwischen Flattr und Kachingle)

Selbiges sieht man im Bereich der ortsbasierten Dienste: Wie oben beschrieben haben die Ein-Klick-Gesten mit Foursquare als Vorreiter in Form von Check-Ins einen beispiellosen Aufstieg erfahren. Der Unterschied zum vorherigen Ansatz, wie man ihn heute noch bei Google Latitude sieht, ist offensichtlich. Der Nutzungsunterschied zwischen passivem Sich-tracken-lassen und aktivem Check-In ermöglicht unterschiedliche Ansätze, weil man von Opt-out zu Opt-In wechselt während der Beteiligungsaufwand minimal gehalten wird.

Im Wechselspiel zwischen Ein-Klick-Geste und Protokollieren liegt aber noch viel Potential. Denkbar ist beispielsweise etwa ein ortsbasierter Dienst, der sich automatisch bei Aufenthalt an oft besuchten Orten eincheckt, wenn man das so vorher eingestellt hat. Auch im Bereich der Micropayments erscheint ein Ansatz, der die Funktionen von Flattr und Kachingle clever vereint, sinnvoll.

Fazit

Die Ein-Klick-Geste wird, nicht zuletzt dank Facebooks bald allgegenwärtigem ‘Like’, eine zunehmend wichtige Rolle im Web spielen. Bereits heute ist sie kaum noch wegzudenken und ist auf dem Weg, omnipräsent zu werden. Sie macht das Web ein Stück weit demokratischer, weil der Beteiligungsaufwand minimiert wird.

Auf unterschiedliche Weise lassen sich die so entstandenen Daten auswerten und nutzen. Im Verbund mit dem Protokollieren werden künftig noch viele Innovationen möglich werden.

Jedes an Endnutzer gerichtete Startup sollte sich überlegen, in welcher Form es sinnvoll eine Ein-Klick-Geste implementieren kann. Denn einfacher kann man aktive Beteiligung nicht ermöglichen.

Klick!

“Verleger-Schreck” Flipboard: Auch auf Tablets gelten Marktdynamiken des Webs

flipboardVor zwei Monaten hatte ich über Medien-Applikationen auf dem iPad geschrieben und ausgeführt, dass auch auf dem iPad die Marktdynamiken des Internets weitgehend ihre Gültigkeit behalten. Das betrifft beispielsweise die zunehmend um sich greifende Trennung von Produktion und Distribution von Inhalten. Ich schrieb unter anderem:

Auch in einem Ökosystem, in dem Apple die meisten Infrastruktur-Fäden in der Hand hält, bleibt die Grundausgangslage die gleiche: In einem digitalen Markt, der von Vernetzung bestimmt ist, kommt es zu einer kleinteiligeren Arbeitsteilung zwischen Unternehmen, weil die Vernetzung eine einfachere Verknüpfung der Wertschöpfungsbeiträge ermöglicht. Die mittlerweile bekannte Senkung der Transaktionskosten. Jene Art von Kosten, welche nach Ronald Coase bekanntlich massgeblich für das Entstehen von Unternehmen verantwortlich sind.

Das macht sich unter anderem in Feedreader-Applikationen bemerkbar. Das iPad scheint aber auch eine besondere Art von Apps zu begünstigen, die neben oder statt RSS-Feeds auf Links aus dem Social Graph setzen. Als Webapplikationen dieser Art von Aggregatoren sind Twitter Times und andere bekannt.

Eine bemerkenswerte neue Applikation dieser Gattung für das iPad ist das jüngst erschienene Flipboard. Es setzt neben auswählbaren Inhaltebündeln vor allem auf die Integration der auf Twitter und Facebook geposteten Links. Nach Integration des Twitter- und/oder Facebook-Accounts mit Flipboard, landen dort die Artikel, die von Freunden verlinkt wurden. Und es kommt mit einer ansprechenden Optik. Das Flipboard ging nach dem Launch einmal quer durch die Blogosphäre und die Mainstreammedien . Eine Zusammenfassung der Funktionen findet man auf dem iPad-Magazin.

Was zeichnet das kostenlose Flipboard aus?

1. Es sieht gut aus.

2. Es bezieht die Inhalte statt aus einer hierarchischen Redaktion aus dem Social Graph des Nutzers; also von seinen Online-Kontakten auf Twitter und Facebook. Die so erhaltenen Inhalte werden ausserdem noch automatisch ausgewertet.

3. Und es ist gut in die bestehenden Netzwerke integriert (Man kann beispielsweise bereits Links an Twitter schicken und auf Facebook eingestellte Inhalte mit einem ‘Like’ versehen.)

Punkt Zwei ist die Trennung von Produktion und Inhalt. Die Flipboard-Macher müssen sich nicht mit der Produktion von Inhalten beschäftigen. Das Web gibt ihnen die Möglichkeit, die Produktion (Publisher) _und_ die Distribution (Nutzer von Facebook und Twitter) anderen zu überlassen.

Die Flipboard-Macher konzentrieren sich auf die Aufbereitung, das Interface und weitere Funktionen. Das führt zu Punkt Eins und Drei. Bereits in der ersten Version kann die Flipboard-App mit vielen Verlags-Applikationen mithalten und ist im Bereich Eye-Candy sogar oft besser.

Während die Presseverlage alles – Inhalte zu allem, und ihre Verbreitung und Aufbereitung – aus einer Hand bieten wollen, konzentriert sich Flipboard auf genau eine Aufgabe. Weil der Rest vom Web erledigt wird. Flipboard hat für das Aufbauen eines Unternehmens rund um die Lösung dieser Aufgabe von Investoren 10,5 Millionen Dollar erhalten. Welcher IT-Abteilung eines Presseverlages wird wohl ein ähnliches Budget zur Verfügung stehen?

Ich führte die unterschiedlichen Ausgangslagen von unabhängigen App-Entwicklern und internen Lösungen von Presseverlagen vor zwei Monaten so aus:

Gute(!) Entwickler haben in der Regel bessere Verdienstmöglichkeiten mit selbständig angebotenen Apps, statt diese im Auftrag für Verlage zu entwickeln. (Der Entwickler Marco Arment kann von den Instapaper-Einnahmen nach eigener Aussage sein Haus bezahlen.) Und sie haben einen entscheidenden Wettbewerbsvorteil auf der inhaltlichen Seite.

Der Vorteil auf der inhaltlichen Seite: Applikationen wie das Flipboard sind publikationsagnostisch. Die Inhalte erscheinen, egal wo sie publiziert wurden. Die Apps der Presseverlage sind lediglich hübschere, an die Multi-Touch-Bedienung angepasste Oberflächen der eigenen Websites.

Fazit: Im Vergleich zum industriellen Zeitalter finden wir eine kleinteiligere Arbeitsteilung im vernetzten Informationsmarkt vor.

Das Geschäftsmodell der heutigen Presseverlage beruht darauf, alles aus einer Hand anzubieten. Folglich passt ihnen diese Entwicklung natürlich nicht. Vielen wird bald angesichts von Flipboard dämmern, dass Eye-Candy nicht das durchschlagende Argument für Bezahlschranken auf dem iPad sein wird.

Meedia hat bereits zum Launch getitelt: Flipboard: Verleger-Schreck auf dem iPad. Spiegel Online fragt gleich im Lead-In seines Testes: “Ein Angriff auf klassische Medien?” und schließt mit folgendem Fazit:

Viele Profi-Layouter, Journalisten und andere Fachleute werden nicht begeistert sein, dass das Social-Media-Magazin von morgen von einem Algorithmus gestaltet werden soll. Aber wesentlich besser, reicher, wertiger als eine Twitter-Timeline oder ein Facebook-Newsfeed sieht das Angebot von Flipboard schon jetzt aus. Und der Angriff auf die klassischen Medienanbieter hat erst begonnen.

Und Carta führt aus:

Mit ziemlicher Sicherheit dürfte sich in den nächsten Monaten irgendwo einen Verlag finden, der seine Inhalte hier zu Unrecht übernommen sieht. Das Grundproblem hierfür liegt aber weniger in der Auslegung überkommener oder neuerer Rechtsvorschriften (Leistungsschutzrechte!), sondern im Paradigmenwechsel der Distribution von Nachrichten.
Hierfür werden die Verlage noch einsehen müssen, dass die klassischen Bindung der Leser, wie sie im Zeitalter der Printmedien möglich und üblich war, sich in der digitalen Gesellschaft nicht wird aufrechterhalten lassen.

Beschwerden von Verlagsseite liesen nicht lang auf sich warten: Unter anderem Handelsblatt und Sueddeutsche veröffentlichten eine Meldung der dpa, in der sich der BDZV (Bundesverband Deutscher Zeitungsverleger) vorsorglich bezüglich Urheberrecht und Leistungsirgendwas besorgt zeigt. Matthias Spielkamp kommentiert recht passend die Frage, wie der BDZV über Fragen zu einem Recht sinniert, das gar nicht existiert.

Aber die Existenz von Flipboard könnte auch darauf deuten, was die Presseverlage mit dem Leistungsschutzrecht auch wollen: Die Kontrolle über ihre Inhalte so weit ausbauen, dass notfalls disruptive Markteinsteiger abgewürgt werden können. Mit dem Urheberrecht kommen sie da bisher nicht weit. (Wie man unter anderem an Aggregatoren wie Google News sehen kann.)

Anbieter von Applikationen wie Flipboard haben enorme Wettbewerbsvorteile, wie oben bereits ausgeführt wurde. Das Geschäftsmodell der Presseverlage und ihre eigenen Strukturen verhindern ihnen mehr oder weniger, einen ähnlichen Weg zu gehen. Also müssen sie diesen Weg für andere unterbinden, notfalls eben mit gesetzlichen Schranken.

Natürlich wird es noch eine Debatte rund um Flipboard und dessen Praktik geben müssen, Artikel von Websites zu nehmen und in der Applikation anzureissen. Siehe dazu etwa Gizmodo und GigaOm. Man kann argumentieren, dass Flipboard lediglich eine Art hübscherer Feedreader mit innovativer Abo-Funktion ist. Aber vor allem Websites von Mainstream-Angeboten bieten oft nur RSS-Feeds mit kurzen Teasern an, die für die längeren Anrisse bei Flipboard nicht verwendet werden. Flipboard setzt eine eigene Parsing-Engine ein, die die Länge der Artikel-Anreisser auch von der Länge der Inhalte in den RSS-Feeds abhängig macht, wie man gegenüber Gizmodo ausführte.

(Davon abgesehen ist die New York Times kürzlich erst gegen eine RSS-Applikation vorgegangen, weil diese den NYT-Feed verwendet hat. Der Beweggrund der NYT dürfte der selbe gewesen sein, wie der der deutschen Presseverlage bei der Initiative zum Leistungsschutzrecht. Es geht um Kontrolle der Distribution.)

Flipboard wird nicht die letzte Applikation dieser Art sein. Ganz im Gegenteil. Und schließlich wird nicht eine Applikation allein die für das Web so fundamentale Trennung von Produktion und Distribution weiter vorantreiben, sondern die gesamte Klasse dieser Applikationen.

Sollte Deutschland ein Leistungsschutzrecht für Presseverlage bekommen, könnten etwa Applikationen wie Flipboard über kurz oder lang aus dem deutschen AppStore verschwinden. Dass damit eine effizientere Lösung des Problems der Informationsverbreitung eliminiert würde, ist dabei ein Feature, kein Bug.

Bemerkenswert, wie schnell der Traum der Verleger platzt, Multitouch-Tablets könnten die Medienwelt zurückdrehen und die Netzökonomie aushebeln. Aber zum Glück gibt es ja noch Lobbyisten.

500 Millionen: Nach dem Google-Jahrzehnt kommt jetzt das Facebook-Jahrzehnt

Facebook hat die schlagzeilenträchtige Marke von 500 Millionen aktiven Nutzern bekanntgegeben. Aktive Nutzer bei Facebook sind solche, die sich in den letzten 30 Tagen mindestens einmal eingeloggt haben.

Inhalt:

Kontext

Irgendwann letztes Jahr, aber spätestens dieses Jahr zum Start des Open Graph Protocols und der Social Plugins ist Facebook vom größten Social Network der Welt endgültig zum Internet-Giganten geworden (siehe hier für eine ausführliche Analyse zu den Social Plugins, Open Graph Protocol und Graph API). Während vielen Beobachtern angesichts des Wachstums von Facebook langsam mulmig wird (warum, dazu gleich mehr), scheint vielen die Tragweite von Facebook immer noch nicht klar zu sein:

Das letzte Internet-Jahrzehnt wurde mehr oder weniger von Google bestimmt. Pagerank, Websuche, SEO.

Das jetzt kommende Internet-Jahrzehnt wird von Facebook bestimmt. Facebook ist nicht einfach ‘nur’ das nächste Google, was die Tragweite für das Web betrifft. Will man Facebooks mittelfristige Auswirkungen auf das Internet begreifen, muss man sich ein Google vorstellen, das zusätzlich noch mit seinem Aufkommen den Hyperlink erfand.

Facebook bei den Zahlen

Noch ein paar weitere Zahlen, um die Größe und die Dynamik von Facebook besser einordnen zu können.

Aus der Pressemitteilung:

  • 50 Prozent der aktiven Nutzer loggen sich täglich ein. (das heißt 250 Millionen Nutzer, die sich täglich einloggen)
  • Mehr als eine Million Entwickler und Unternehmer nutzen die Plattform in mehr als 180 Ländern.
  • Mehr als eine Million Websites haben die Facebook-Plattform bereits integriert.
  • Mehr als 150 Millionen Nutzer interagieren mit Facebook jeden Monat über externe Sites.

Aktuelle Nutzerzahlen im deutschsprachigen Raum:

Deutschland: 9,95 Mio. (+100.000 seit Juni 2010)
Schweiz: 2,23 Mio.
Österreich: 2,08 Mio.

Weitere Eckdaten:

Inside Facebook hat Facebooks internationales Wachstum visualisiert:

facebook-wachstum

‘Das ist nicht mehr mein Internet!’

Facebook, das mit seiner Außenintegration nebenbei das semantische Web voranbringt, wird das Internet für die nächste Zeit massgeblich bestimmen.

Douglas Adams hat einmal geschrieben:

1) everything that’s already in the world when you’re born is just normal;

2) anything that gets invented between then and before you turn thirty is incredibly exciting and creative and with any luck you can make a career out of it;

3) anything that gets invented after you’re thirty is against the natural order of things and the beginning of the end of civilisation as we know it until it’s been around for about ten years when it gradually turns out to be alright really.

Apply this list to movies, rock music, word processors and mobile phones to work out how old you are.

In letzter Zeit konnte man einige enttäuschte Utopisten und Netz-Idealisten aus den Neunzigern dabei beobachten, wie sie sich am Social Web abarbeiteten; hierzulande immer wieder dankbar aufgenommen und verbreitet von der FAZ. Das Internet wurde nicht zu dem Utopia, das sie sich erhofft hatten. Stattdessen dominieren etwa werbefinanzierte Dienste das Web. Pfui.

Mit Facebooks Aufstieg zu einer der zentralen Mächte im Web werden wir etwas ähnliches beobachten können: Einiges, was im letzten Jahrzehnt über das Web abstrahiert gedacht wurde, zerbröselt, je größer Facebook wird. Der anonyme Hyperlink; Texte verlinkt, geschrieben von anonymen Personen; Google, das Inhalte rankt, unabhängig vom Schöpfer (zumindest auf der direkten Ebene). All das bleibt zwar bestehen, aber es ist nicht der Mittelpunkt des Webs, das einzige Wesen des Internets, für den es viele hielten, die in den Nuller Jahren im Web sozialisiert wurden.

Beziehungen zwischen Menschen, gern auch mit bürgerlichem Namen im Netz, haben an Bedeutung gewonnen. Ein zentraler Beziehungshub, auf den jeder zugreifen kann, wenn er will, auf dem sich immer mehr Personen befinden und vernetzen, ist das große Gegengewicht zum inhaltelastigen Web, das vorher dominierte. Die Dynamiken, die mit dem Social Web ab 2005 begonnen haben, gewinnen mit dem mittlerweile gigantischen Facebook als Brennpunkt eine neue Dimension.

Facebook verändert massgeblich das Web.

Die grundsätzlichen Ressentiments gegen alles, was von Facebook kommt, kann man bereits jetzt auf diversen Blogs beobachten. An der Realität ändert das nichts. Facebook wächst sowohl in Nutzerzahlen als auch in der Funktionalität. Mein Fazit zur Einführung des Open Graph Protocols und der Social Plugins:

Mittelfristig ( = die nächsten Jahre) bedeutet das, dass das Internet auf eine sehr zentralisierte Form mit Facebook im Mittelpunkt zusteuert. Ich sehe aktuell nicht, wie Facebook noch aufgehalten werden kann. Die Netzwerkeffekte, direkt auf Nutzerseite, indirekt und mehrseitig auf der gesamten Plattform, sind auf Facebooks Seite.

Jedem, der sich in das Google-Web in seiner Nuller-Jahre-Form verliebt hat, muss es dabei eiskalt dem Rücken herunterlaufen.

Zentralität und Dezentralität

Ich schreibe seit Jahren über APIs, Plattformen und die Auswirkungen von gesunkenen Transaktionskosten. Ich schreibe seit Jahren darüber, wie die neuen Marktbedingungen durch das Internet an vielen Stellen zu geringeren Unternehmensgrößen führen (besonders markant ist das etwa im Mediensektor). Ich bin also, glaube ich, relativ unverdächtig, eine konservative, einseitige Sicht auf die Bedeutung zentral und hierarchisch organisierter Aufgabenlösung einzunehmen.

Zentralität, oder genauer vertikale Integration, hat ihre Vor- und Nachteile genauso wie ihre dezentralen Alternativen die ihren haben. Genau so wie Apples Appstore-Erfolg wären auch Facebook-Netzwerk und -Plattform als offenes Konstrukt von mehreren gleichberechtigten Partnern so nicht möglich gewesen. (Selbst Apples größter Konkurrent, Android, ist zwar offen, wird aber von einem Unternehmen, Google, geleitet und bestimmt.)

Wie schwierig das Unterfangen ist, eine erfolgreiche Plattform auf Social Networks aufzusetzen, sieht man unter anderem am eher wenig erfolgreichen Open Social. Man muss es so deutlich sagen wie nur irgendmöglich: Keine auf offene Standards setzende, also dezentrale, Alternative zu Facebooks Angeboten kann einen vergleichbaren Erfolg vorweisen. Die Erschließung beziehungsweise Erschaffung neuer Märkte scheint vertikal integrierten Unternehmen einfacher zu fallen. (siehe wieder etwa Apple und iPad) Auch dafür gibt es mehrere Gründe, die hier nicht näher ausgeführt werden sollen. Aktuell bereitet Facebook den Roll-out seiner Währung Facebook Credits vor. Kein alternatives, dezentrales System hat dem etwas entgegenzusetzen. (Meines aktuellen Wissenstandes nach noch nicht einmal konzeptionell.)

Diese Erschließungsmöglichkeit von neuen Märkten ist ein Vorteil für Zentralität oder vertikale Integration. Ein Nachteil ist die asymmetrische Verteilung von Macht zwischen Plattformprovider und Plattformnutzer zugunsten des Plattformproviders. Diese äußert sich zum Beispiel in einseitig vom Plattformprovider veränderten Rahmenbedingungen – Facebooks schwieriges Verhältnis zur Privatsphäre.

Der Treppenwitz der Diskussionen rund um Facebook, als dieses seine Außenintegration vorantrieb, war, dass dem offensten Netzwerk der Welt von Beobachtern eine Walled-Garden-Strategie vorgeworfen wurde. Abgesehen davon, dass jedes Unternehmen innerhalb der bestehenden Gesetze sein Geschäft nach seinem Gusto führen kann: Kein anderes Social Network ermöglicht Drittanbietern so viele Erlös-Möglichkeiten und seinen Nutzern so viele Einsatzmöglichkeiten ihres Social Graphs. Und Facebook setzt, wenig überraschend, überall auf die Plattform, sowohl im mobilen Sektor als auch bei der eigenen Währung. Warum geht kein Schrei durch das deutsche Web, dass jetzt endlich die Öffnung von wer-kennt-wen kommen müsse? Warum schreibt niemand in den USA, dass Facebook zwar geschlossen sei, MySpace aber noch viel geschlossener ist?

Woher kam und kommt die Kritik, Facebook sei zu geschlossen und deshalb schlecht für das Web?

Facebook ist durch seine Öffnung zur Plattform, erst als Binnenintegration 2007 und dann 2010 nach außen zum mit großem Abstand nützlichsten Social Network geworden. Leider ist Facebook gleichzeitig auch das mit Abstand größte Social Network. (Beide Tatsachen hängen sicher zusammen.)

Aus diesen beiden Tatsachen ergibt sich eine enorme und steigende Bedeutung von Facebook. Diese Bedeutung ist es, die vielen Angst macht.

Die Natur des Marktes, auf dem sich Facebook befindet, deutet zumindest partiell darauf hin, dass es hier um zentral angebotene Plattformen geht. Facebooks Öffnung nach außen führte zum Open Graph Protocol. Denn dieses ist notwendig für eine sinnvolle Verknüpfung von Facebook und Außenweb. Google hat für seine Websuche und seinen Pagerank kein eigenes Protokoll benötigt. Es konnte an die Verlinkung via Hyperlinks anknüpfen. Facebook kann das nicht: Es existiert nichts dergleichen. Zumindest nichts, was eine weite Verbreitung erfahren hätte.

Dass es durchaus zum Thema des Walled Garden Facebook auch Grautöne gibt, wird oft übersehen: Das Open Graph Protocol unterstützt das OWF Agreement, wie ich in meiner damaligen Analyse bereits berichtete. Andere Plattformen können ebenfalls auf das Protokoll aufsetzen:

Basically, it means that the new Open Graph Protocol announced by Facebook yesterday is under a completely open license agreement that other platform creators can adopt, use, and freely distribute without worry of patent. As I said, in many ways it is similar to the GPL, in that platforms created under this agreement are intended to be re-used and distributed across the web, keeping the license in tact.

Die “Like”-Button-Daten lassen sich zusätzlich auch aus Facebook importieren.

Kein anderes Social Network bietet ansatzweise vergleichbare Funktionen.

Nochmal: Facebook wird für seinen geschlossenen Ansatz umso heftiger angegriffen, je weiter es sich öffnet. Hysterical.

Markteintrittsbarrieren und der Diaspora-Mythos

Was für eine Geschichte: Das riesige Netzwerk Facebook wird böse, schreibt seinen Nutzern Veränderungen in den Privatsphäre-Einstellungen vor und alle sind dem Goliath hilflos ausgeliefert. Und da kommen vier Studenten aus New York und sagen, sie bauen mit Diaspora eine Facebook-Alternative, offen und dezentral. Der biblische Kampf zwischen David und Goliath, er wird wiederholt im Social-Network-Markt.

Ein Märchen. Ein hübsches zwar, aber ein Märchen.

Facebooks Größe (siehe Zahlen oben) und seine funktionierende Plattform (siehe Zahlen oben) haben mittlerweile beachtliche Markteintrittsbarrieren geschaffen.

Es mag eine schöne, emotionale Story abgeben – und damit gut für die Pageviews sein-, von vier idealistischen Studenten zu berichten, die auszogen, dem Zuckerwolf das Fürchten zu lehren, aber mit der Realität hat es leider wenig zu tun.

Niemand würde heute über einen ernsthaften Google-Herausforderer schreiben, der von vier Studenten aus New York kommt. Denn jeder weiß mittlerweile, dass der Suchmarkt nicht so ohne weiteres geknackt werden kann. Wer es nicht weiß, sollte mal Steve Ballmer anrufen; der kann ein Lied davon singen.

Mir scheint, dass vielen Beobachtern die Markteintrittsbarrieren nicht bewusst sind, die rund um den massiv wachsenden Facebook-Komplex entstanden sind und weiter wachsen. Facebook kann durch seine Plattform vielen Beteiligten verschiedenste Vorteile bieten, die den Alternativen fehlen: Deshalb ist beispielsweise Facebook Connect erfolgreicher als das wesentlich ältere und bereits von einigen großen Sites angenommene OpenID. Facebook hat mit seiner Plattform einen erfolgreichen zweiseitigen Markt etabliert.

Noch einmal zum Vergleich: Würde Diaspora innerhalb der ersten ein, zwei Jahre nach dem (aktuell noch nicht ersichtlichen) Launch auf 50 Millionen aktive Nutzer kommen, wäre das ein gigantischer Erfolg – und immer noch nur ein Zehntel von der Größe, die Facebook heute bereits innehat.

Selbst unter den optimistischsten Annahmen würde ein bei Null anfangendes Projekt wie Diaspora wahrscheinlich fünf bis zehn Jahre brauchen, um überhaupt als ernsthafter Facebook-Konkurrent wahrgenommen zu werden. Und dabei ist die Entwicklung, die Facebook selbst in den nächsten Jahren erfahren wird, noch gar nicht mit eingerechnet.

Von technischen Hürden eines dezentralen Ansatzes ganz zu schweigen: So müssten die Privatsphäre-Einstellungen naturgemäß bei einem dezentralen Ansatz entweder mindestens ebenso komplex wie bei Facebook oder noch komplexer gestaltet sein, weil im Hintergrund mehr Parteien am Werk sind.

Eine realistischere Facebook-Alternative

Unvorstellbar für die Datenschützer, die von der Facebook-Datenkrake weg wollen, aber der wohl einzige, der sie vor Facebooks Allmacht retten kann, ist ein altbekannter: Google.

Facebook wächst natürlich auch zu Kosten der anderen Social Networks auch hierzulande (etwas, das seit Jahren vorhersehbar war). Diese Netzwerke haben zu diesem Zeitpunkt alleinstehend mittelfristig keine Chance mehr. (Business-Networks ausgenommen)

Aktuell wird es den Betreibern von Social Networks wie MySpace, Bebo oder den VZ-Netzwerken noch nicht bewusst sein, aber nur gemeinsam können sie ihr Überleben sichern.

Es gab seit der ersten Bekanntgabe der Facebook-Plattform vor drei Jahren unzählige Initiativen, die Facebook etwas entgegensetzen wollten. Selbst jemand wie ich, der sich relativ intensiv damit beschäftigt, verliert dabei irgendwann den Überblick. OpenSocial, XAuth und wie sie alle heißen, waren und sind bis dato halbherzige Versuche; oder zumindest ihre Implementierung ist halbherzig umgesetzt.

Gegen eine übergroßen Marktführer wie Facebook kommt man in einem Informationsmarkt in erster Linie nur mit Multihoming und Ankopplung an, also mit offenen Standards.

Google hat das begriffen. Mit Google Buzz setzt der Suchgigant aus strategischen Gründen auf offene Standards. Und auch der gerüchteweise kommende Facebook-Konkurrent von Google wird massiv auf offene Standards setzen. Vielleicht wird “Google Me” sogar der Standard selbst sein.

Die aktuellen, noch existierenden Netzwerke müssen sich auf eine mit einem offenen Standard umgesetzte, weitgehende Durchlässigkeit zwischen ihren Netzwerken einigen. Dieser Standard müsste diverse netzwerkübergreifende Grundfunktionen umfassen:

  • allgemeines Vernetzen
  • Nachrichten diverser Art schreiben (Social-Graph-öffentliche und komplett öffentliche Status-Updates, private Nachrichten)
  • Austausch diverser Medieninhalte (Fotos, Videos)
  • Instant Messaging
  • Integration des Open-Graph-Protocol
  • evtl. ein standardisierter Newsfeed zur Integration weiterer unterschiedlicher Aktivitäten

Der Standard muss offen sein, und jeder Anbieter muss via API Provider als auch Konsument des Standards sein. Nur so könnte der netzwerkübergreifende Zusammenschluss genügend Fahrt aufnehmen. (Und selbst dann ist ein Erfolg alles andere als sicher.)

Wahrscheinlich ist so eine Initiative nur unter der Federführung von Google möglich, das technisches Know-How, Ressourcen und genügend Neutralität mitbringen würde.

Wahrscheinlich ist es allerdings nicht, dass dies in absehbarer Zeit passiert. Zu aufwendig umzusetzen und gleichzeitig zu unattraktiv aus kurzfristiger Sicht wäre die Aussicht für die Netzwerke. Immerhin würden die beteiligten Netzwerke sich auf das Interface reduzieren lassen müssen. Weitere Probleme dieses Ansatzes, wie Lock-In-Aufrüstung mittels proprietärer Funktionen, sollen hier nicht diskutiert werden, mir sei aber noch der Hinweis erlaubt, dass Dezentralität auf Plattformproviderseite bei mehrseitigen Märkten eben nicht nur Vorteile hat.

In meinem Fazit zu den diesjährigen F8-Bekanntgaben schrieb ich:

Langfristig wird es ein Wettkampf zwischen Facebook auf der einen Seite und einem komplett auf offene Standards setzenden, dezentralen Verbund von Anbietern mit unter anderem Google auf der anderen Seite hinauslaufen. Mit offenem Ausgang. Am wahrscheinlichsten ist langfristig eine Koexistenz der Ansätze mit exzessivem Multihoming auf Anbieter- und Nutzerseite.

Fazit

Das ist eine Menge, die man verdauen muss.

Facebook, und besonders seine Plattform, stellt die nächste Stufe im Web dar. Dass diese mittelfristig sehr stark von einem einzelnen Unternehmen kontrolliert werden wird, ist äußerst bedauerlich aber  wohl unvermeidbar.

Vernetzung auf Hyperlink-Basis – etwas, das letztlich auch Googles Basis ist – wird immer der wichtigste Grundpfeiler des Internets bleiben. Komplexere Vernetzungsmöglichkeiten wie sie Facebook erst möglich macht, sind aber die Zukunft des Webs. Facebook ist nicht ‘nur’ das nächste Google. Es ist ein Google, das seine eigene Hyperlink-Struktur gleich mitbringt. Facebook zeigt die Zukunft des Webs auf. Vielleicht wird Facebook in zehn Jahren von etwas anderem abgelöst oder zumindest in seine Schranken verwiesen so wie heute Google, aber bis es so weit ist, ist es relativ sicher, dass Facebook das Internet maßgeblich prägen wird.

Den größten Fehler, den man aktuell machen kann ist, Facebook zu unterschätzen.