Alles außer Kontrolle

22. Mai 2015    |    Autor: Ralf-Thomas Hillebrand

Die Websites deutscher Verbände stecken voller technischer Fehler und Defizite, die kommunikative Reichweite kosten. Mit ein paar einfachen Regeln im Projektmanagement ließen sich solche Probleme – zumeist sogar ohne Mehrkosten – vermeiden.

Wenn man die Homepages der Deutschen Geophysikalischen Gesellschaft, der Gewerkschaft Erziehung und Wissenschaften oder der Bundesvereinigung der Deutschen Arbeitgeberverbände aufruft, ist es schon ein wenig Glücksache, ob man mit jedem Browser wirklich etwas zu sehen bekommt. Denn in allen drei Fällen sendet die Website zunächst HTML-Code zurück, der dem Browser eine andere, jeweils längere Adresse der Homepage mitteilt – eine Umleitung dorthin, wo sich tatsächlich Inhalte befinden.

Nur: Die programmiertechnische Methode dieser Browserumleitung ist veraltet. Sie wurde vom W3-Konsortium, der Normungsorganisation für Internettechnologien, bereits im November 2000 – also vor anderthalb Jahrzehnten – als obsolet eingestuft. Dass alle Browser neuester Gerätetypen sich mit der missbilligten Methode umleiten lassen, ist daher immer weniger gewiss, zumal die meisten Browser die fragwürdige Funktion aus Sicherheitsgründen zu blockieren erlauben. Noch riskanter für die Websitebetreiber ist aber: Suchmaschinen dürften in der aus mehreren Gründen problematischen Weiterleitungsmethode einen Grund sehen, solche Websites in den Suchergebnisseiten weiter hinten zu platzieren. So warnen jedenfalls Fachleute für Suchmaschinenoptimierung.

metarefresh

Abbildung: “HTML Techniques for Web Content Accessibility Guidelines 1.0” des W3-Konsortiums vom 6. November 2000

Wenn man sich auf dem Laufenden darüber halten möchte, ob der Zentralverband des Deutschen Handwerks oder der Deutsche Hotel- und Gaststättenverband neue Artikel auf ihren Websites eingestellt haben, wird man eine der dafür gebräuchlichsten Funktionen vergeblich suchen, über die nahezu jedes noch so simple Blog heutzutage verfügt – nämlich einen RSS-Feed. RSS ist ein Dienst, der Abonnenten automatisch auf neue Inhalte hinweist, ohne dass man dafür die entsprechende Website besuchen muss.

Während ZDH und Dehoga darauf schlicht und einfach verzichten, hat der Bundesverband der Deutschen Industrie zwar einen RSS-Feed auf seiner Website, nur wird die Suche danach schwierig. Denn die Programmierer haben vergessen, eine simple Zeile HTML-Code einzufügen, mit der moderne Browser das Vorhandensein eines RSS-Feeds erkennen und dem Nutzer anzeigen können. Man muss daher beim BDI schon auf den entsprechenden Texthinweis stoßen, der sich weit unten auf der Seite befindet. Und auch dann ist unproblematischer Genuss des RSS-Feeds nicht garantiert, denn der BDI-Feed ist technisch fehlerhaft programmiert, wie sich mit einem vom W3-Konsortium online gestellten Tool einfach ermitteln lässt (http://validator.w3.org/feed/).

Fehlerhafte Programmierung bei RSS ist im Verbändewesen weit verbreitet: Weder beim Republikanischen Anwältinnen- und Anwaltsverein, noch beim Bundesverband Mittelständische Wirtschaft, beim VDE Verband der Elektrotechnik Elektronik Informationstechnik oder bei der IG Metall ist das W3-Tool mit dem RSS-Feed zufrieden. Und das ist Normalität: In einer Untersuchung von 1.768 in der Lobbyliste des Bundestages registrierten Organisationen der politischen Interessenvertretung mit einer eigenen Website hatten im Jahr 2011 gerade einmal 7,8 Prozent der Websites einen brauchbaren, technisch korrekt umgesetzten RSS-Feed.

Will man eine Pressemitteilung von der Website des Deutschen Bibliotheksverbands auf Facebook teilen, also seinen eigenen Kontakten zum Lesen empfehlen, hat man ein kleines Problem: Facebook sieht sich außer Stande, einen hübschen, mit adäquatem Anrisstext versehenen “Teaser” zu erzeugen. Der Facebook-User, der etwas teilen möchte, muss die Inhaltsangabe also selbst formulieren oder zumindest umständlich aus dem Artikel heraus kopieren. Grund ist, dass die Website des Bibliotheksverbands keine sogenannten Meta-Tags besitzt, aus denen Facebook die notwendigen Inhalte für den Teaser gewinnen kann. Das ist übrigens beim Teilen von Artikeln des Bundesverbands Deutscher Stiftungen oder des Bundesverbands Großhandel, Außenhandel, Dienstleistungen nicht anders. Empfehlungen ihrer Onlineartikel in Sozialen Netzwerken schätzen wohl die meisten Verbände, aber nur geschätzt 10 Prozent der Websites im deutschen Verbandswesens setzen die von Facebook dafür vorgesehenen “Open-Graph-Tags” technisch korrekt.

og-bug-stiftungen

og-bug

Abbildung: Die Nachricht des Bundesverbands Deutscher Stiftungen über Bewerbungen zum Zukunftsforum Türkei wird von Facebook nicht korrekt dargestellt, weil die Social-Media-Tags nicht gesetzt sind.

Eine Stichprobe lässt das Ausmaß unzulänglicher Programmierung erahnen: Das W3-Konsortium stellt neben dem schon erwähnten Testtool ein weiteres bereit, um den HTML-Code von Websites zu testen (http://validator.w3.org/). Von den 35 (gemessen am Google PageRank) wichtigsten Internetauftritten aller Organisationen aus der Lobbyliste des Bundestages fallen dort 33 durch, nur die des Deutschen Instituts für Normung und jene des Verbands der Studentwerke sind fehlerfrei. Immerhin 20 der Websites weisen sogar eine zweistellige Zahl von Programmierfehlern im HTML-Code auf, wie etwa jene des Börsenvereins des Deutschen Buchhandels oder des Verbands Deutscher Zeitschriftenverleger. Dies bedeutet zwar in aller Regel nicht, dass die Website in üblichen Browsern nicht zu lesen ist; aber prinzipiell besteht bei solchen – völlig überflüssigen – Fehlern die Gefahr von Darstellungs- oder Funktionsmängeln, wenn der Browser fehlerhaftes HTML nicht “versteht”.

Die meisten beschriebenen Mängel kosten die Websites zwangsläufig Besucherverkehr und schwächen daher die kommunikative Reichweite des jeweiligen Verbandes. Dabei wären die Fehler und Schwächen in aller Regel vergleichsweise einfach und ohne große Kosten zu beseitigen. Vor allem aber: Eigentlich hätten sie gar nicht auftreten müssen!

Denn: Wer kontrolliert eigentlich Entwickler, wenn sie Websites für Verbände programmieren? Die Antwort lautet erstaunlicherweise fast immer: Die Entwickler kontrollieren sich selbst!

Wenn nämlich die technischen Details eines Website-Projekts festgelegt werden, ist der Auftrag normalerweise bereits vergeben – entweder an eine “Hausagentur” oder aber an eine Agentur, die im Wettbewerb mit anderen bei einem Pitch die schönsten Entwürfe gezeigt hat. Die Agentur schreibt dann nach der Vergabe ein Konzept und legt darin – als Berater – die technischen Anforderungen fest, die sie hernach – als Auftragnehmer – ausführt.

Dies führt zu einem Interessenkonflikt: Zum einen besteht das ökonomische Interesse der Agentur als Auftragnehmer nach der Auftragsvergabe nicht mehr in einem möglichst wettbewerbsfähigen Leistungsumfang, sondern – zumindest, sofern der Preis bereits feststeht – tendenziell in einem möglichst geringen Aufwand. Zum anderen ist der Auftragnehmer aus ökonomischem Eigeninteresse gezwungen, sich dem Wissensniveau des Auftraggebers anzupassen, den er eigentlich möglichst professionell beraten soll. Designfragen rücken in den Vordergrund, während die technische Funktionalität, von der der Auftraggeber meist weniger versteht, tendenziell ausgeblendet wird. Der Agenturmitarbeiter kann beim Hauptgeschäftsführer eines Verbands mit einem guten Design wohl glänzen, mit Details zu Normen des W3-Konsortiums, zu RSS und OpenGraph-Tags wird das hingegen schwer.

Wie unglücklich aus kaufmännischer Sicht eine solche, bei Verbänden weitverbreitete Vergabestrategie ist, wird plastisch, wenn man sie mit dem Vorgehen der öffentlichen Hand vergleicht: Dort ist es bei IT-Projekten üblich, dass zunächst ein so genannter Projektant gemeinsam mit dem Auftraggeber die technischen Anforderungen eines Projekts definiert – in der Regel für die nachfolgende Ausschreibung der eigentlichen Leistungen. So hat beispielsweise die vom Bund getragene Alexander-von-Humboldt-Stiftung die kürzlich durchgeführte Ausschreibung zum Relaunch ihrer Website in vier Lose aufgeteilt, von denen das erste ausschließlich Beratungsleistung bei der Ausschreibung der anderen Lose beinhaltete. Um Interessenkonflikten vorzubeugen, hieß es in der Ausschreibung zu Los 1: “Es wird vorausgesetzt, dass keine Eigenbewerbung für diese Dienstleistungen (Lose 2, 3 und 4 des Gesamtprojekts) erfolgt.”

humboldt-ausschreibung

Abbildung: Humboldt-Stiftung: Ausschreibung mit getrennter Projektierung

“Projektantenproblematik” nennen Juristen das Risiko, dass ein Projektant bei der Definition technischer Anforderungen für ein Projekt illegitime Eigeninteressen verfolgen könnte. Denn da er potenziell auf Kriterien für das spätere Vergabeverfahren Einfluss nimmt, kann er theoretisch sich oder mit ihm verbundenen Unternehmen Vorteile verschaffen. Im Zweifel wird daher seine Teilnahme, etwa wie im zuvor genannten Beispiel, am weiteren Bieterverfahren ausgeschlossen (vgl. http://tinyurl.com/projektanten).

Eines ist übrigens im öffentlichen Vergaberecht völlig ausgeschlossen: Nämlich dass ein Projektant nicht nur vorab berät, sondern zudem persönlich an der Entscheidung in einem Vergabeverfahren mitwirkt, in dem er selbst auch Anbieter ist. Das untersagt § 16 der Vergabeverordnung für alle Ausschreibungen der öffentlichen Hand ganz grundsätzlich. Sonst könnte der Projektant ja darauf hinwirken, dass er selbst den Zuschlag erhält – und zwar auch dann, wenn er nicht das beste Angebot vorgelegt hat.

Ziemlich ähnlich ist der Fall jedoch bei vielen Internetprojekten von Verbänden gelagert. Ob der Auftragnehmer nämlich das beste Angebot aller potenziell in Frage kommenden Anbieter macht, bleibt völlig offen. Denn die beauftragte Agentur wird erst nach der Auftragsvergabe zum Projektanten gemacht und legt nun den zu Angebot und Auftrag gehörenden Leistungsumfang im Nachhinein selbst fest. Es gibt somit keinen realistischen Wettbewerb, eine qualifizierte Ausschreibung wird ausgehebelt.

Dem Interessenkonflikt kann der Auftraggeber nur entgehen, indem er zunächst seine Spezifikationen für den Auftrag so genau wie eben möglich festlegt, und zwar in einem so genannten “Lastenheft” – gegebenenfalls mit Hilfe eines externen Projektanten. Das Lastenheft setzt die kommunikativen Anforderungen an den Webauftritt in funktionale und technische Anforderungen um. Mit ihm lässt sich eine Ausschreibung für alle weiteren Arbeiten durchführen, bei der es Interesse aller Anbieter sein wird, möglichst leistungsstarke Angebote vorzulegen.

Nach der Auftragsvergabe verfasst der Auftragnehmer ein so genanntes “Pflichtenheft”. Darin legt er weitere technische Details der Umsetzung dar. Er hat sich dabei aber an das Lastenheft mit allen darin beschriebenen Funktionen und Spezifikationen der Website zu halten und kann den Leistungsumfang nicht mehr einseitig reduzieren.

Grundregel sollte also immer die komplementäre Darstellung des Projekts in einem Lasten- und einem Pflichtenheft sein. Der Projektant und der Auftragnehmer sollten zudem unbedingt unabhängig voneinander sein. Nur so sind Interessenkonflikte weitestgehend auszuschließen. Und nur so kann sichergestellt werden, dass die Website eines Verbands nicht im Hinblick auf wesentliche kommunikativen Aufgaben scheitert.

Gelegentlich werden sich Projektant und Verband wegen hohen Kostenaufwandes nicht auf die komfortabelsten Funktionen festlegen. So erhöht beispielsweise die Verwendung der Programmiersprache Javascript oft die Benutzerfreundlichkeit bestimmter Funktionen einer Website – aber nur, sofern der Browser des Besuchers Javascript auch aktiviert hat. Für die wenigen User, die Javascript aus Sicherheitsgründen deaktiviert haben, wird die Website dadurch hingegen teilweise unbrauchbar – sofern für solche Besucher nicht eine eigene Funktionalität programmiert worden ist, die Javascript umgeht. Unter Umständen mag dem Auftraggeber solch Programmierarbeit für wenige Nutzer zu teuer sein, und er verzichtet bewusst darauf.

Die Webpräsenz des Bundesverbands Garten-, Landschafts- und Sportplatzbau ist jedoch ein Musterbeispiel dafür, dass diese Abwägung oft nicht sachgerecht getroffen wird. Die Website hat ein modernes “One-Page-Design”, dessen schicke Bewegungseffekte nur mit Javascript funktionieren. Dass Besucher mit deaktiviertem Javascript jedoch die Startseite ohne das dominierende Foto und stattdessen mit verwirrendem HTML-Code zu sehen bekommen, ist ein grober Mangel. Denn es wäre ohne Aufwand möglich und ist technisch geboten, in solchen Fällen einen Hinweistext zu zeigen – mit der Bitte an den Nutzer, doch Javascript zu aktivieren, damit die Website funktioniert. Mit einem solchen Hinweis hätte man zudem Besuchern geholfen, die beim Ausdrucken von Dokumenten scheitern – weil die Drucker-Buttons wegen deaktiviertem Javascript funktionslos geworden sind.

galabau_normal

galabau_2.tiff

Abbildungen: Die Homepage des Bundesverbands Garten-, Landschafts- und Sportplatzbau mit ein- und mit abgeschaltetem Javascript

Völlig konträr zu den Interessen der Verbandskommunikation dürfte auch sein, dass viele Verbandswebsites nicht auf Smartphones angepasst sind. So haben beispielsweise der Arbeitgeberverband Gesamtmetall und der Verband der Chemischen Industrie noch in den letzten beiden Jahren das Design ihrer Websites überarbeitet, ohne dabei für mobile Endgeräte optimierte Seiten einzurichten. Zu diesem Zeitpunkt nutzten laut der Initiative D21 bereits 40 Prozent der Deutschen mobile Endgeräte für den Zugang zum Internet.

Hinweis: Die dokumentierten Mängel der Websites von Verbänden wurden, soweit nicht anders angegeben, in der zweiten Februarhälfte 2015 ermittelt und Anfang Mai 2015 erneut dokumentiert. Möglicherweise wurden sie seitdem behoben.

Zehn Tipps, damit Ihre Seiten bei Google weit vorne zu finden sind

Nicht ungewöhnlich: Ein Pharmaverband entwickelt ein politisch kluges “Wording” und überlässt damit Pharmakritikern die ersten 20 Seiten bei Google. Wer online gefunden werden will, muss die Prinzipien kennen, nach denen Suchmaschinen ihre Ergebnisse zusammenstellen. Wer trickst, dem droht sogar Bestrafung in Form verschlechterter Platzierung.

In der gesundheitspolitischen Debatte um jene Medikamente, welche von Kritikern als “Scheininnovationen” angegriffen werden, hat ein großer deutscher Verband der Pharmaindustrie sich zu einem strategischen Wording entschlossen: Um dem Vorwurf bewusster Täuschung des Gesundheitssystems durch Pharmaunternehmen Wind aus den Segeln zu nehmen, soll die Öffentlichkeit verstehen, dass Arzneimittel oft von mehreren Unternehmen über mehr als ein Jahrzehnt parallel entwickelt werden – und die jeweiligen Verlierer im Wettlauf der konkurrierenden Entwicklungen nicht etwa bewusst Arzneien mit wenig oder gar keinem Zusatznutzen kurzfristig in den Markt drücken, wie viele Menschen glauben. Der Verband spricht deshalb konsequent von Analogpräparaten.

Sucht man bei Google nach diesem Begriff, ist einer der ersten Treffer im Suchergebnis ein entsprechender Text ebenjenes Verbands. Alles gut, könnte man also meinen.

Doch wer sich dem Thema ohne Vorkenntnisse online nähert, wird die Argumente des Verbands über Suchmaschinen kaum finden. Denn es ist anzunehmen, dass er jenen Begriff “googelt”, den man allenthalben hört oder liest – nämlich: “Scheininnovationen”.

Sucht man bei Google nach dem Begriff “Scheininnovationen”, findet sich ein Text des Pharmaverbands erst auf der zwanzigsten Suchergebnisseite – hinter knapp 200 Treffern bei Medien, Krankenkassen, Fachinstituten, Parteien und anderen Stakeholdern, die allesamt auf ihren Websites eine pharmakritische Haltung demonstrieren. Und den Eintrag auf Seite 20 gibt es auch nur deshalb, weil in dem verlinkten Dokument doch ausnahmsweise einmal das Wort “Scheininnovationen” vorkommt.

Suchmaschinen entscheiden im politischen Diskurs in hohem Maße mit, wer wessen Argumente zur Kenntnis erhält. Suchmaschinenoptimierung, von Insidern auch oft als SEO bezeichnet (Akronym für: Search Engine Optimization), ist daher für Verbände ein Muss. Sie fängt – wie das Beispiel belegt – bereits damit an, die Begrifflichkeiten verschiedener Zielgruppen im eigenen Issue Management korrekt zu identifizieren.

Jedoch wird Suchmaschinenoptimierung von Entscheidern in Verbänden und anderen politischen Institutionen oft bestenfalls als Geheimwissenschaft von Nerds angesehen, die bei der Programmierung umgesetzt wird – und dann weitgehend von selbst funktioniert. Längst sind aber die Algorithmen der Suchmaschinenbetreiber so ausgeklügelt, dass ein bisschen smarte Programmiertechnik nicht mehr genügt, damit ein Dokument bei Google ganz oben steht.

“Tricks” sind in der SEO schon lange weitestgehend obsolet – spätestens seit Google den Autohersteller BMW vor acht Jahren zeitweise aus den Suchergebnissen verbannte, weil dessen Website dem Google-Robot andere, suchmaschinen-geeignetere Inhalte gezeigt hatte als normalen Besuchern (siehe http://tinyurl.com/q8sa5aj). Solche Methoden werden als “Black-Hat-SEO” bezeichnet – gemäß der Binsenweisheit, dass in Western die Bösen immer schwarze Cowboyhüte tragen.

Seit einiger Zeit verhängt Google daher auch die gefürchtete Google Penalty, das Herabsetzen einer Website im Suchergebnis. Und zwar dann, wenn im Web Hyperlinks zu der betreffenden Site zu finden sind, die darauf hindeuten, dass sie nur deshalb existieren, um die verlinkte Site manipulativ mit erhöhter Reputation auszustatten (siehe dazu auch http://tinyurl.com/mcmcepv). Suchmaschinenoptimierer sehen sich seither immer öfter gezwungen, einst mühselig geschaffene Verlinkungen wieder rückgängig zu machen oder machen zu lassen. Google bietet dazu ein so genanntes “Webmaster-Tool” an, das solche schädlichen Links zu identifizieren hilft (ausführlicher Artikel dazu: http://tinyurl.com/nxc49fb).

White-Hat-SEO, legitime Suchmaschinen-Optimierung, ist daher unausweichlich. Denn die von Suchmaschinen eingesetzten Kriterien wie PageRank, semantische Analyse und aus dem Social Web gewonnene Big-Data-Streams erlauben es in weiter zunehmendem Maße, dem Ideal der Suchmaschinentechnologie sehr nahezukommen – nämlich die inhaltliche Relevanz eines Dokuments, seine redaktionelle Qualität und die soziale Reputation seiner Website exakt zu bestimmen.

Über die technischen Details von SEO informiert Google heutzutage ausführlich, sodass Websiteentwickler Fehler leicht vermeiden können (siehe http://tinyurl.com/phxf3ez und http://tinyurl.com/q9f3god). Weil es aber mehr und mehr um die immer genauer messbaren drei grundlegenden Kriterien Relevanz, Qualität und Reputation geht, wird kontinuierliche Suchmaschinen-Optimierung zunehmend vor allem zu einer Disziplin redaktioneller Arbeit. Dies trifft auf die Websites von Verbänden in besonderem Maße zu, da deren Inhalte kontinuierlich anwachsen.

Die nachfolgenden Regeln sollten deshalb im Redaktionsalltag beachtet werden:

(1) Denke unbedingt schon beim Schreiben an den Suchbegriff, mit dem dein Text gefunden werden soll!
Suchmaschinennutzer geben meist ein bis drei Suchbegriffe ein (siehe http://tinyurl.com/kf79bmm). Je mehr ein Dokument die jeweilige Sucheingabe antizipiert und daraufhin formuliert worden ist, umso eher steht es weit oben im Suchergebnis. “Keywords” müssen daher – ohne damit zu übertreiben – häufig im Text vorkommen. Sie, wie in der Literatur, möglichst oft durch liebevoll gewählte Synonyme zu ersetzen ist kontraproduktiv. Aus der Notwendigkeit zu möglichst hoher Übereinstimmung mit Sucheingaben ergibt sich auch: Jedes Dokument darf sich ausschließlich mit jenem Thema beschäftigen, mit dem das Keyword in direktem Zusammenhang steht. Typische Gegenbeispiele aus Verbänden sind beispielsweise in einem Dokument zusammengefasste “Question & Answers” zu verschiedenartigsten Problemen oder Protokolle, die verschiedenste Themen behandeln. Solche Dokumente kann eine Suchmaschine kaum bestimmten Sucheingaben zuordnen. Gegebenenfalls sollte man daher multithematische Texte splitten.

(2) Nutze bei der Keyword-Definition die Terminologie deiner Zielgruppe!
Das Beispiel am Beginn dieses Artikels zeigt, wie gravierend es sich auswirken kann, wenn man sich von der Terminologie der Zielgruppen entfernt. Gerade Verbände neigen dazu, der Fachterminologie ihrer Branche den Vorzug vor dem Volksmund zu geben. Gegebenenfalls ist es dann jedoch sinnvoll, einen zusätzlichen Artikel zu schreiben, in welchem erläutert wird, warum der in der Öffentlichkeit verbreitete Begriff nicht angemessen ist – und selbigen dabei als zentrales Keyword zu verwenden. Das zusätzliche Dokument fungiert dann als “Landing-Page” für jene Besucher, die nach dem obsoleten Begriff suchen, und verlinkt von dort auf weitere Artikel.

(3) Gib den Keywords Gewicht in den Headlines!
Man könnte sagen: Suchmaschinen ticken wie Zeitungsleser – nur humorloser! Denn sie orientieren sich bei der Beurteilung der Relevanz ebenfalls besonders stark an der Headline. Allerdings: Ein Dokument mit der Headline “Was unser Verband von der Bundesregierung fordert …” würde eine Suchmaschine wegen der Begriffe “Bundesregierung” und “Verband” zwar den Themenbereichen “Politik” zuordnen, aber die Relevanz des Textes für Begriffe, die dann nur im Fließtext auftauchen, eher geringer einschätzen als vielleicht erhofft. Eine optimale Headline sollte daher unbedingt das Keyword (oder gegebenenfalls die Kombination mehrerer Keywords) beinhalten und darüber hinaus weitere Substantive vermeiden. Besser als das Beispiel wäre also: “Wir fordern weniger Regulierung”. Sofern Suchmaschinennutzer den Text finden sollen, wenn sie nach dem Begriff “Regulierung” suchen, darf die Headline jedoch – trotz ähnlicher Bedeutung – keinesfalls lauten: “Wir fordern Deregulierung” (vergleiche Punkt 1).

(4) Verwende das Keyword im Dokumentennamen!
Auch wenn vieles darauf hindeutet, dass die Bedeutung des Dokumentennamens in den Algorithmen der Suchmaschinen deutlich geringer geworden ist: Ein Link wie www.meinverband.de/produkthaftung.html wird von Suchmaschinen immer noch als relevanter für das Suchwort “Produkthaftung” angesehen als www.meinverband.de/index.php?id=329. Sofern das CMS solche sogenannten “speaking URLs” zu vergeben erlaubt, ist es sinnvoll, diese Möglichkeit zu nutzen und das Keyword darin unterzubringen.

(5) Orientiere dich beim Schreiben an gutem Nachrichtenstil!
Wichtigster Aspekt: Was dem Text Nachrichtenwert verleiht – etwa ein aktuelles Ereignis oder eine entstandene Kontroverse -, gehört in einem guten Text an den Anfang. Agenturjournalisten etwa fassen eine Nachricht im ersten Satz zusammen, Zeitungsredakteure stellen ihren Texten oft eine kurze Zusammenfassung voran, einen meist fett gedruckten Absatz, der “Vorspann” oder “Lead” genannt wird. Ein Vorspann bringt viele Vorteile für die SEO, darunter zwei sehr wichtige: Erstens steigt die Chance auf Verlinkung des Dokuments durch andere Websites stark an, da Leser sehr schnell den Nutzen des Dokuments erkennen können – und Links bringen Reputation (bei Google: “PageRank”). Zweitens kann und sollte der Vorspann in Teasern auf der eigenen Website, im RSS-Feed der Website und in den für Social Media vorgesehenen Meta-Tags im HTML-Code jeder Seite verwendet werden. Dies erhöht immens die Chancen, dass das Dokument in sozialen Netzwerken geteilt wird. Auch solche Verlinkungen werten Suchmaschinen positiv.

(6) Überlege beim Schreiben, wer das Dokument verlinken könnte, und frage nach Veröffentlichung dort an!
Nicht nur, dass diese Überlegung permanent darin trainiert, zielgruppenorientierte Inhalte zu produzieren, sie ist vor allem auch dazu geeignet, sich gegenüber den Suchmaschinen als Anbieter von Qualitätsinhalten zu präsentieren. Denn Links beispielsweise bei hochwertigen Fachmedien oder angesehenen Stakeholdern, die auf einzelne Dokumente verweisen, belegen zweifelsfrei die fachliche Kompetenz des Verfassers in einem spezifischen Wissensgebiet -und die Suchmaschinen würdigen genau das besonders. (Hände weg hingegen von sogenanntem “Link Building”, bei dem die Qualität des Inhalts der eigenen Website keine Rolle spielt – wie etwa durch Linktausch, bezahlte Links oder bei sogenannten Artikelverzeichnissen, die nur zwecks SEO existieren!) (siehe http://tinyurl.com/mcmcepv)

(7) Sei freigiebig mit dem Erstellen von Content für andere, hochwertige Websites – wenn ein Hyperlink dabei herausspringt!
So wie es im Printbereich gang und gäbe ist, dass Repräsentanten von Verbänden Namensartikel oder Debattenbeiträge für Medien schreiben oder sich von ihnen interviewen lassen, sollte man es auch mit Online-Medien halten – sofern diese Qualität groß schreiben und Links auf die Verbandswebsite zu setzen bereit sind. Hyperlinks zu Hintergrundinformation bezüglich eines bestimmten Themas ist dabei immer der Vorzug vor einem Link auf die Startseite zu geben.

(8) Verlinke wichtige Inhalte auf der Website an prominenter Position – am besten auf der Homepage!
Suchmaschinen erkennen die Wichtigkeit eines Dokuments aus Sicht des Verfassers auch daran, wie es in der Struktur der Website platziert ist. Je leichter es von der Startseite aus erreichbar ist, desto wichtiger erscheint es ihnen. Startseiten mit dauerhaft gleichem Inhalt sind daher kontraproduktiv. Die im Verbandswesen typische Website-Struktur, bei der die Navigation den Abteilungen der Geschäftsstelle nachgebildet ist und bei der man daher von der Startseite bis zu wichtigen Dokumenten drei- oder viermal klicken muss, ist ebenfalls nachteilig.

(9) Werte mit der gesamten Redaktion regelmäßig die trafficstärksten Links aus!
Jede Software zum Erstellen von Nutzungs-Statistiken für Websites erlaubt die Auswertung nach dem sogenannten Referrer, also dem Link, über den Besucher auf die eigene Website gelangt sind. Es lässt sich daher leicht ermitteln, welche Inhalte für andere Websites attraktiv genug zum Verlinken sind und welche externen Links die meisten Besucher bringen. Diese Maßnahme korrespondiert eng mit der unter Punkt 6 genannten Empfehlung.

(10) Lasse deine Websiteentwickler im Hinblick auf SEO von Fachleuten beraten!
Wie sorgfältig Inhalte auch immer erstellt werden – wenn sie nicht optimal formatiert oder in den Seitenkopf des HTML eingebunden werden, können sie ihre volle Wirkung auf Suchmaschinen nicht entfalten.

Dieser Text erschien auch im Verbände-Report. Der Artikel kann als PDF hier heruntergeladen werden.

Alles nur Handwerk

5. Dezember 2014    |    Autor: Ralf-Thomas Hillebrand

Warum eine Online-Petition von Handwerksverbänden zu scheitern droht…

Ein Lehrstück für die Kommunikation von Verbänden in Sozialen Medien spielt sich gerade im Bereich des deutschen Handwerks ab.

Die Vorgeschichte ist schnell erzählt: Nach mehreren höchstrichterlichen Urteilen stellt die deutsche Rechtsprechung Handwerksbetriebe seit einiger Zeit anders als normale Verbraucher, wenn mangelhafte Materialien verbaut worden sind, die danach wieder ausgetauscht werden müssen. Während Verbraucher dann über den Ersatz des mangelhaften Materials hinaus vom Hersteller auch die Baukosten für den Austausch einklagen können, können Handwerksbetriebe dies nicht und bleiben somit auf diesem Teil eines Bauschadens sitzen. Natürlich kann man trefflich darüber streiten, ob das gerecht ist. Eines dürfte aber klar sein: Die Majorität der Handwerksbetriebe empfindet das nicht nur als ungerechtfertigte Benachteiligung, sondern als potenziell existenzgefährdend.

Zwar hat die Bundesregierung im Koalitionsvertrag eine handwerkerfreundliche gesetzliche Regelung in Aussicht gestellt, jedoch lässt diese nun auf sich warten – Vertreter des Handwerks sprechen von massivem Widerstand der Industrie, den deren Lobbyisten gegenüber der Bundesregierung zum Ausdruck gebracht hätten (vgl. http://polkomm.net/x/d5xctc und http://polkomm.net/x/i5q6x8).

Ende Juli 2014 haben deshalb mehrere Verbände aus dem Handwerk eine Initiative gestartet, deren Ziel es ist, mittels einer Bundestagspetition eine öffentliche Anhörung vor dem Petitionsausschuss zu erreichen. Dafür sind 50.000 Mitzeichner erforderlich, die allerdings innerhalb von vier Wochen nach Veröffentlichung der Petition auf der Online-Plattform des Bundestages zusammenkommen müssen. Die Website www.miteinerstimme.org sammelt daher seit Juli Unterstützer, die sich zum Mitzeichnen der Petition bereit erklären – und wenn es soweit ist, informiert werden sollen.

Derzeit, Anfang Dezember und damit nach über vier Monaten, haben sich gerade einmal knapp 7.400 Unterstützer als mitzeichnungswillig eingetragen – trotz einer Zahl von einer Million Handwerksbetriebe in Deutschland mit über 5 Millionen Beschäftigten. Schon klagt das Branchenportal handwerk.com in einer Headline verzweifelt: “Unterstützer für Online-Petition gesucht” (http://polkomm.net/x/a0u15z).

Woher rühren solche Probleme bei der Mobilisierung der eigenen Klientel?

Die Antwort lässt sich im Grund in einem Satz zusammenfassen: Wer Instrumente der Online-Kommunikation und -Partizipation nutzen will, darf nicht erst damit anfangen, wenn ihm das Wasser politisch bis zum Halse steht.

So sind vier jener Organisationen, welche die Kampagne tragen, - jedenfalls soweit man das auf deren Websites und über Google ermitteln kann - in Sozialen Netzwerken nicht selbst aktiv (Decor-Union, Bundesverband Estrich und Belag, Zentralverband Parkett und Fußbodentechnik und FHR Fachhandelsring). Und auch die anderen sechs haben in der Vergangenheit nicht vermocht, relevante Anteile ihrer Mitgliedschaft zur Vernetzung zu bewegen: Das Netzwerk Boden hat bei Facebook 86 Fans (http://polkomm.net/x/gpub57), der Bund der Selbständigen Rheinland-Pfalz und Saarland BDS hat dort 145 Fans (http://polkomm.net/x/jk316i) und bei Xing eine Gruppe mit 10 Mitgliedern (http://polkomm.net/x/czoqv2), der Zentralverband Raum und Ausstattung hat 148 Facebook-Fans (http://polkomm.net/x/2vueho), der Tischler Schreiner Deutschland – Bundesverband Holz und Kunststoff hat es bei Facebook zu nur 162 Fans gebracht und dort bereits seit drei Jahren nichts mehr gepostet (http://polkomm.net/x/87fik2) und Parkettprofi hat zwar immerhin 308 Facebook-Fans, aber die Zielgruppe der Seite sind ganz offensichtlich potenzielle Kunden (http://polkomm.net/x/n9rpoc). Einzig der Bundesverband Farbe Gestaltung Bautenschutz scheint mit seinen 1.091 Fans auf Facebook (http://polkomm.net/x/5rm4jg) und 128 Followern auf Twitter (http://polkomm.net/x/fcfx37) etwas aktiver zu sein; bei 43.000 Betrieben und 200.000 Beschäftigten, die er vertritt, relativieren sich diese Zahlen jedoch stark.

Der Zentralverband des Deutschen Handwerks hält sich mit einer Unterstützung der Kampagne zwar demonstrativ zurück. Allerdings wäre von ihm ohnehin kaum nennenswerte Hilfe zu erwarten, denn der ZDH ist in Sozialen Netzwerken ebenfalls nicht aktiv. (Dies gilt erstaunlicherweise sogar für seine Nachwuchskampagne “Dein Start im Handwerk“, die – von Youtube als Hoster für Videos abgesehen – auf Social-Media-Nutzung verzichtet.)

Das Bündnis setzt notgedrungen auf Publikationen in Print und Online (Beispiel: http://polkomm.net/x/175985, Übersicht: http://polkomm.net/x/1u39ic), deren Mobilisierungseffekt jedoch gering ist, möglicherweise auch, weil die tatsächlichen Reichweiten überschätzt und die Medienschranke zwischen Print und der Kampagnenplattform unterschätzt werden.

So kommt schließlich die Facebookseite der Kampagne, die im Campaigning anderer, erfolgreicher ePetitionen üblicherweise eine maßgebliche Quelle für Besucher-Traffic, Mobilisierung der Community und Zufuhr von Mitzeichnern darstellt, hier nur auf bescheidene 1.103 Fans (http://polkomm.net/x/jofbwj). Die Seite zeigt die ganze Ratlosigkeit der Kampagnenaktivisten: Im Wesentlichen besteht der Inhalt aus Meldungen über den Stand der Unterstützerzahlen. Auf die Idee, betroffenen Handwerkern das Wort zu erteilen, kommt anscheinend niemand.

Es gibt durchaus vielfältige Gründe, warum Verbände in Sozialen Medien zurückhaltend agieren. Wenn jedoch damit zu rechnen ist, dass man im politischen Diskurs oder Krisensituationen im Social Web um öffentliche Unterstützung werben möchte, dann sind heutige Social-Media-Aktivitäten eine Investition in die politische Zukunft.

Wie können Verbände mit einfachen Mitteln ihre Website nutzen, um mit ihren Nachrichten online eine größere Reichweite zu erzielen? Welche technischen Bedingungen müssen bestehen und welche rechtlichen Rahmenbedingungen müssen beachtet werden?

Für digital versendete Information gilt in Deutschland grundsätzlich das Prinzip des Opt-in: Der Empfänger einer E-Mail, eines Newsletters oder einer Nachricht in sozialen Netzwerken muss vorab zugestimmt haben, eine solche Nachricht empfangen zu wollen. Entsprechend wichtig ist für eine ausreichende Kommunikationsfähigkeit via Internet eine möglichst gute Vernetzung. Die Zielgruppen müssen also dazu gebracht werden, in entsprechende Dienste einzuoptieren. Instrumente wie RSS-Feeds, Social-Media-Accounts und auch automatisierte E-Mail-Benachrichtigungen sind deshalb Voraussetzung für eine reichweitenstarke Verbreitung von Verbandsinformationen.

Der Oswald-Metzger-Fall

Er wollte wohl nicht darauf hoffen müssen, dass sie von selbst seine Website besuchen: Eine dreistellige Zahl E-Mails versendete der Politiker Oswald Metzger im Frühjahr 2010 an Honoratioren der Stadt Ravensburg. Vor der Stichwahl um das Bürgermeisteramt bat der als grüner Finanzexperte bekannt gewordene und unterdessen zur CDU gewechselte ehemalige Bundestagsabgeordnete um Unterstützung einflussreicher Bürger. Die E-Mail-Adressen für seine Wahlwerbung hatte er selbst recherchiert, teils online, teils in gedruckten Publikationen. Als ihm der Südkurier am Freitag vor dem entscheidenden Wahlgang in einem groß aufgemachten Artikel vorwarf, “Wahlkampf-Spam” versendet zu haben, zeigte sich Metzger – der die Wahl zwei Tage später knapp verlieren sollte – ahnungslos: Da die Mailadressen aus “öffentlichen Quellen” stammten, hätte er eine “andere Rechtsposition”, seine Wahlwerbung sei keineswegs unrechtmäßig gewesen. (Artikel im Südkurier: http://tinyurl.com/ye5xecd)

Nicht nur einzelne Politiker spammen, sondern auch Parteien: Die FDP sendete in der heißen Phase des Bundestagswahlkampfs 2009 millionenfach Mails und hunderttausendfach SMS ungefragt an Wähler. “Spam-Partei” nannte sie wenig später deshalb eine große Tageszeitung.

Rechtslage bei Spam

A) Gegenüber Privatpersonen:
Privatpersonen können sich auf ihr “allgemeines Persönlichkeitsrecht” berufen und einen Unterlassungsanspruch gegen Versender von Mails durchsetzen, deren Empfang sie nicht zugestimmt haben. Zur Durchsetzung stehen ihnen Abmahnung oder das Verlangen einer strafbewehrten Unterlassungserklärung des Versenders offen, dies gegebenenfalls auch gerichtlich. Spamming kann daher schnell zu Kosten im vierstelligen Bereich führen.
(siehe http://tinyurl.com/nlaz8s8 und http://tinyurl.com/nzf5gep)

B) Gegenüber Gewerbetreibenden:
Geschäftsleute haben ein “Recht am eingerichteten und ausgeübten Gewerbebetrieb”, das sie vor Störungen oder Kosten bewahren soll. Auch sie können, wie Privatpersonen, einen Unterlassungsanspruch geltend machen, allerdings liegen der Streitwert und damit alle Kosten für einen Spammer meist höher. Ignoriert der Versender eine Einstweilige Verfügung und versendet erneut Spam, kann ein Gericht zudem ein Ordnungsgeld von etlichen Tausend Euro verhängen.
(siehe http://tinyurl.com/nkkxd62)

C) Gegenüber Wettbewerbern:
Nach dem Gesetz gegen den unlauteren Wettbewerb (UWG) haben Wettbewerber einen weiterreichenden Unterlassungsanspruch, der sich nicht nur auf sie selbst bezieht. Vielmehr können Wettbewerber gegenüber einem Spammer auch einen Unterlassungsanspruch geltend machen, der sich auf die Zusendung an Dritte erstreckt, sofern deren Einwilligung nicht vorliegt. Ordnungsgelder können daher deutlich höher ausfallen als in den beiden zuvor genannten Szenarien, hier droht sogar Ordnungshaft.
(siehe http://tinyurl.com/lppxdkc)

D) Gestaltung der Mails:
Verschleiert der Versender einer E-Mail deren werblichen Charakter, begeht er eine Ordnungswidrigkeit, die mit einem Bußgeld bis zu 50.000 Euro geahndet werden kann. Als Verschleierung wird es dabei bereits angesehen, wenn Absenderangabe und Betreff so gestaltet sind, dass der Empfänger den werblichen Charakter erst nach dem Öffnen der Mail erkennen kann.
(siehe http://tinyurl.com/344d42g)

In beiden Fällen wollten Politiker in kurzer Zeit möglichst hohe Reichweite erzielen – etwas, das eine Website ohne entsprechende Funktionalität kaum leisten kann. Denn die wartet stumm auf das information pull eines vorbeikommenden Besuchers. Aber im Wahlkampf oder in politischen Debatten wollen die Akteure information push betreiben.

Will man mit einer Website kurzfristig Reichweite für einzelne Dokumente generieren können, so muss man sich die Adressatengruppe vorher unter Einsatz entsprechender Instrumente erarbeiten – und darin sind deutsche Verbände nicht unbedingt versierter als deutsche Politiker.

Während im Falle von E-Mail-Versand die Rechtsprechung den Absender zwingt, sich um vorherige Double-opt-ins (zur Rechtsprechung siehe Kasten am Ende dieses Textes) seiner Zielgruppe zu bemühen, ist es im Social Web kaum möglich ohne vorheriges Einverständnis zu kommunizieren. Wer die Rezipienten seiner Botschaften via Facebook oder Twitter erreichen möchte, muss sie zunächst zu Facebook-Freunden und -Fans oder Twitter-Followern machen. Wer darauf hofft, dass ein neuer Artikel auf seiner Website möglichst viele Leser findet, muss sich darum bemühen, Abonnenten für seinen RSS-Feed zu finden (zur Funktion von RSS siehe Kasten am Ende dieses Textes). Vor der Kommunikation steht also die Vernetzung, sonst kann keine Reichweite entstehen.

Doch gerade hier scheitern viele Verbände bereits an niedrigen Hürden.

Beispiel RSS: Eine Untersuchung kam im Jahr 2011 zu dem Ergebnis, dass nur 7,8 Prozent von gut zweitausend deutschen Verbänden RSS nutzen und zugleich auch technisch fehlerfrei auf ihrer Website einsetzen. (Mehr Infos und Download der Studie: http://tinyurl.com/n2xlbp2)

Beispiel Twitter: Einer im Sommer 2013 publizierten Studie der Otto-Brenner-Stiftung zufolge betreiben knapp zwei Drittel der untersuchten 160 Verbände keinen eigenen Twitter-Account. (siehe http://tinyurl.com/l9ab6z9)

Wohlgemerkt: Hinweise mit Hyperlinks auf neue, online publizierte Artikel, Nachrichten oder Pressemitteilungen via Twitter zu versenden ist nicht gleichbedeutend mit einer ressourcenintensiven Dialogstrategie für soziale Medien. Sondern ein solches, sogenanntes Social-Media-Broadcasting dient ausschließlich dem Zweck, auch in sozialen Netzwerken Angebote für Opt-ins bereitzustellen und Inhalte dort empfangbar zu machen. Es fordert, insbesondere weil es vollständig automatisierbar ist, nicht zwangsläufig zusätzlichen Aufwand.

Was kann eine Website anbieten, damit sich möglichst viele Besucher dauerhaft vernetzen – ohne dass zugleich Mehraufwand bei der redaktionellen Betreuung anfällt?

RSS
Eigentlich beherrscht mittlerweile fast jedes Content-Management-System (CMS) das vollautomatisierte Bereitstellen von RSS-Feeds, mit denen eine Website RSS-Abonnenten auf alle neuen Inhalte hinweist (zu RSS siehe Kasten am Ende dieses Textes). Websites, die ohne CMS aufgesetzt wurden, können Online-Dienste wie Feedity (http://feedity.com) nutzen, die aus einem Webdokument – etwa einer Übersicht über Pressemitteilungen oder Verbandsnachrichten – einen RSS-Feed erzeugen. Sehr oft wird jedoch etwas Wichtiges vergessen: Ein RSS-Feed sollte nicht nur sichtbar auf der Website beworben werden, sondern muss unbedingt auch im für Besucher unsichtbaren HTML-Code der Dokumente einer Website deklariert werden (siehe dazu: http://tinyurl.com/pm4dupt). Denn nur so können Browser und Suchmaschinen per “Auto-Detection” erkennen, dass eine Website über einen RSS-Feed verfügt. Gerade die Nutzer von Smartphones haben es sonst schwer, den Feed zu finden und zu abonnieren.

Mail-Alerts
Nur etwa jeder zehnte Internetnutzer abonniert RSS-Feeds. Deshalb ist es sinnvoll, wenn man den Besuchern seiner Website eine Alternative anbietet, nämlich E-Mail-Benachrichtigungen über neu publizierte Dokumente. Sofern das eigene CMS diese Funktion nicht bietet, kann man auch hierfür Online-Dienste, wie etwa FeedBlitz (http://www.feedblitz.com), nutzen: Man bettet einfach ein Anmeldeformular in seine Website ein, in das Abonnenten ihre Mailadresse eingeben können — den kurzen HTML-Code dafür kann man herunterladen (Beispiel: http://tinyurl.com/ll34kb4). Und man gibt die Webadresse des RSS-Feeds der eigenen Website bei FeedBlitz an. Sobald im RSS ein neuer Inhalt der Website angezeigt wird, erhalten Abonnenten der Benachrichtigungen eine E-Mail. Letztlich hat man damit einen vollautomatischen Newsletter für seine Website.

Twitter-Broadcasting
Automatisiertes Twittern bieten Dienste wie Dlvr.it (http://dlvr.it). Auch hier gibt man den URL seines RSS-Feeds an, außerdem die Zugangsdaten zu seinem Twitter-Account. Danach twittert der Dienst alle neu im RSS-Feed auftauchenden Headlines vollautomatisch. Diese sollten dann natürlich – zusammen mit dem von Twitter automatisch auf etwa ein Dutzend Zeichen gekürzten Link – 140 Zeichen nicht überschreiten. Automatisiertes Posten ist auch in andere Netzwerke möglich, allerdings ist es bei Facebook und Co ungleich wahrscheinlicher als bei Twitter, dass man sich durch Kommentare anderer Nutzer, insbesondere natürlich kritische, zum Dialog bewegen lässt, was Ressourcen bindet. Für automatisiertes Posten bieten übrigens viele soziale Netzwerke Programmierschnittstellen (application programming interfaces, API) an, über die auch individuelle technische Anbindungen möglich sind. So beherrschen beispielsweise auch immer mehr Content-Management-Systeme das automatisierte Posten in soziale Netzwerke, vor allem Twitter.

Social-Media-Tags
Was die Nutzer in Sozialen Netzwerken “teilen”, worauf sie also andere Nutzer hinweisen, hat sich mittlerweile zu einer bedeutenden Quelle von Besucherverkehr im Internet entwickelt. Viele Websites, auch von Verbänden, zeigen daher unterhalb jedes Artikels Social-Media-Buttons an, über die man das jeweilige Dokument mittels weniger Mausklicks in sozialen Netzwerken teilen kann. Genau genommen nehmen diese Buttons dem Nutzer allerdings nur die Arbeit ab, den Link des Dokuments aus der Adresszeile des Browsers zu kopieren und ihn auf der Seite des sozialen Netzwerkes in das Formular für Postings einzufügen. Um die viel wichtigere Aufgabe, nämlich, wie das geteilte Dokument nachher in einem Posting dargestellt wird, kümmern sich die meisten Websites mit Social-Media-Buttons hingegen nicht! Dabei dürfte einleuchten, dass gerade das maßgeblich darüber mitentscheidet, ob das Posting tatsächlich Besucher anlockt.
     Nehmen wir das wichtigste Beispiel, nämlich Facebook: Möchte ein Facebook-Nutzer seinen Netzwerkkontakten einen Artikel empfehlen, fügt er den entsprechenden Link in ein Formular bei Facebook ein (oder klickt auf einen Social-Media-Button, was das Gleiche bewirkt). Da auch Facebook selbst ein starkes Interesse daran hat, seinen Nutzern möglichst aussagekräftige und interessante Inhalte zu zeigen, wird automatisch eine Kurzdarstellung für den Artikel erstellt. Dazu ruft ein Robot des Unternehmens im Hintergrund die verlinkte Seite auf und sucht dort nach Informationen über den Artikel – beispielsweise nach der Überschrift, nach einem Bild und nach einem Text, der den Artikel gut in maximal 300 Zeichen zusammenfasst. Doch woran kann ein Robot erkennen, welche Zeile die Überschrift ist, welcher Satz eine gute Zusammenfassung bietet oder welches der vielen Bilder zum Artikel gehört und nicht etwa ein Logo der Website ist? Dazu hat Facebook eigene HTML-Tags entwickelt, die im Code der Seite enthalten sein sollen – die OpenGraph- oder OG-Tags (siehe http://ogp.me). Sind sie nicht korrekt mit entsprechenden Inhalten versehen, zeigt das Posting später unpassende Bilder (siehe Screenshots unter diesem Absatz) die ersten 300 Zeichen des ersten Absatzes im Fließtext, der vielleicht erst nach 500 Zeichen wirklich auf den Punkt kommt. Oder es zeigt allgemeine Selbstbeschreibungstexte der Website, die mit dem Thema des Artikels nichts zu tun haben.
 
Richtig: Nach Einfügen des Links erstellt Facebook automatisch einen Teaser
tsr-bdi
 
Falsch: Die Social-Media-Tags sind nicht korrekt programmiert
falsch

Aber: Technik allein ist nicht alles! Der Gestaltung einer Website kommt ebenfalls enorme Bedeutung dafür zu, dass sich möglichst viele Besucher dauerhaft vernetzen.

Es muss ja nicht gleich ein aufwendig gestalteter Social-Media-Newsroom sein, der alle Aktivitäten eines Verbandes im Social Web bündelt, aber der Besucher einer Website sollte schon erkennen können, wie er sich vernetzen kann. Dennoch ergab Ende 2012 eine Untersuchung unter 43 deutschen Verbänden ein kurioses Ergebnis: So verlinkten 26 Prozent jener Verbände, die Twitter nutzten, ihren eigenen Twitter-Account nicht auf ihrer Website. Bei Facebook betrug dieser Wert sogar 30 Prozent. (Artikel im PR-Report zur Studie: http://tinyurl.com/pfmuuwq)

Spielt man einmal durch, wie sich Besucher über die eigene Website bewegen, wird auch Folgendes einleuchten: Es gibt keinen besseren Platz für den Link zu einem Newsletter als unterhalb eines Artikels – dort, wo ihn jemand sieht, der gerade etwas bis zum Ende durchgelesen hat, weil er es interessant fand, und der ähnliche Inhalte vermutlich künftig auch lesen möchte. In der Realität jedoch sind die Links zu den Newslettern deutscher Verbandswebsites zumeist in der Navigation versteckt.

Spielt man weiter durch, wie man die Attraktivität von Newslettern, Mail-Alerts oder RSS-Feeds erhöhen und damit die Wahrscheinlichkeit steigern kann, dass Benutzer sich vernetzen, dann wird es lohnen, darüber nachzudenken, ob man verschiedenen Zielgruppen jeweils eigene Kanäle anbietet, damit die Inhalte im Einzelfall passender auf den Empfänger zugeschnitten sind. Den größtmöglichen Komfort bietet man Nutzern, wenn man die Dienste so gestaltet, dass sie auf bestimmte Themen beschränkt werden können.

RSS
RSS bedeutet “Rich Site Summary”. Es stellt inhaltlich eine – gegebenenfalls mit Bildern oder anderen Multimedia-Inhalten angereicherte – Nachrichtenliste über die neuesten Dokumente einer Website dar. Diese ist chronologisch absteigend sortiert, sodass das Neuste oben steht. Technisch ist RSS eine Textdatei, die in der Scriptspache XML geschrieben ist. Dadurch können RSS-Reader oder Internetbrowser mit RSS-Funktionalität die Datei nach dem Download aus dem Internet in einzelne Nachrichten zerlegen und überprüfen, welche sie beim letzten Download schon gefunden hatten. Nur die bisher unbekannten Meldungen werden dann dem Nutzer angezeigt. Die Downloads des RSS laufen zyklisch im Hintergrund ab – solange keine neuen Meldungen gefunden werden, bemerkt der Nutzer also davon nichts.

Double-opt-in
Die Rechtsprechung des BGH schreibt das so genannte Double-opt-in- Verfahren vor, bevor man ein E-Mailing durchführt. Dabei muss der künftige Rezipient dafür gewonnen werden, seine E-Mail-Adresse online in einen E-Mail-Verteiler – beispielsweise für einen Newsletter – einzutragen. Das System muss ihm dann eine (in der Regel automatisiert erzeugte) E-Mail zusenden, mit der die angegebene Mailadresse verifiziert wird. Erst nach der Verifikation durch den Klick auf einen Link in der Mail darf die neue E-Mail-Adresse in den Verteiler aufgenommen werden (zur BGH-Rechtsprechung siehe auch: http://tinyurl.com/p8sjg6e).

Dieser Text erschien auch im Verbände-Report. Der Artikel kann als PDF hier heruntergeladen werden.

Erstwähler-Kampagnen im Web scheitern

30. August 2013    |    Autor: Ralf-Thomas Hillebrand

So viel Gutes zu kritisieren, fällt schwer. Vielleicht tut es deshalb niemand.

Das Ziel ist gut und richtig: Junge Menschen dazu bewegen, dass sie bei der anstehenden Bundestagswahl von ihrem Wahlrecht Gebrauch machen. Drei Millionen Jungwähler sollen zum Gang an die Wahlurne bewegt werden – eine Gruppe, bei der 2009 die Wahlbeteiligung mit nur 63 Prozent um knapp acht Prozentpunkte unter dem Durchschnitt von 70,9 Prozent lag (http://polkomm.net/x/t8v6hd). Diesen schlimmen Wert gilt es zu verbessern.

Die breite Front der Akteure verheißt ebenfalls Gutes: Die beteiligten Institutionen genießen hohes Ansehen in der gesamten deutschen Öffentlichkeit und verfügen zusammen über enorme Ressourcen – wie etwa der Deutsche Bundestag, die “Bundeszentrale für politische Bildung“, die “Robert Bosch Stiftung“, eine Vielzahl von Medienkonzernen, darunter “Gruner + Jahr” und der “Bauer“-Verlag, sowie das Politportal “Abgeordnetenwatch“.

Nur was dabei heraus kommt, das ist reichlich mager.

Mit der Kampagne “Du bist die Wahl” (www.dubistdiewahl.de) hat mitmischen.de, das Jugendportal des Deutschen Bundestages, seine Nutzer, sofern diese volljährig sind, zu einem Videowettbewerb aufgerufen. In dreißig Sekunden sollen sie in die Kamera sagen, “warum Ihr Wählen wichtig findet“. Alle Videoclips sollen später zusammengeschnitten werden und “den längsten deutschsprachigen Wahlaufruf der Welt” ergeben. Die Kampagne wird von einer beeindruckenden Liste von Medienpartnern unterstützt (http://polkomm.net/x/91yrf3).

Doch dem ermunternden “Seid dabei!” von der Homepage mochten sich bis drei Tage vor Einsendeschluss nur gerade 39 Teilnehmer anschließen (http://polkomm.net/x/jlxfmz). Nur gut 6.000 Menschen haben sich auf dem Youtube-Channel des Wettbewerbs das Video mit dem Aufruf zur Teilnahme angesehen. Und nur 80 User haben den Channel abonniert, um auf dem Laufenden gehalten zu werden. Und zusammen bringen es alle eingesandten Videos auf gerade einmal knapp 20.000 Abrufe.

Dabei hat die Kampagne inklusive aller Werbemaßnahmen – darunter auch in Kinos und Printmedien – nach einem Medienbericht insgesamt 3,2 Millionen Euro verschlungen (http://polkomm.net/x/25eitf).

Eine ganze Reihe von Schwächen in der Kampagnenplanung sind offensichtlich:

(1) Das “Jugendportal des Deutschen Bundestages“, mitmischen.de, kann eine solche Kampagne nicht tragen. Die Website, die alljährlich einen sechsstelligen Betrag kostet, hatte im Jahr 2012, rund zehn Jahre nach ihrem Start, 200.000 Besuche zu verzeichnen – pro Monat also gerade einmal 17.000 (http://polkomm.net/x/i3wc5v). Das entspricht etwa der Besucherzahl der Online-Ausgabe der Fachzeitschrift “PlastVerarbeiter” (http://polkomm.net/x/shmmd5). Und die wenigen Besucher sind träge: Im Diskussionsforum von mitmischen.de sind die aktuellsten Beiträge der meisten Rubriken im Schnitt einen Monat alt, aktiv seien von 11.424 Benutzern nur noch 19, zeigt eine Statistik an (http://twitpic.com/daxz8z). Nur knapp 1.500 Facebookuser haben der Facebook-Seite von mitmischen.de (http://polkomm.net/x/m3pw3w) ein “Like” verliehen. Auch in Sozialen Netzwerken hat die Website somit keine ausreichende Basis.

(2) Für eine Online-Kampane in Kinos und Printpublikationen zu werben, bedeutet Medienbrüche (http://polkomm.net/x/rf5feq) in Kauf zu nehmen, die fahrlässigem Cash-Burning gleichkommen.

(3) Die im Hinblick auf Reichweiten üppig erscheinenden Medienpartnerschaften haben de facto keine nennenswerten Besucherströme zu den Webpräsenzen der Kampagne transportiert. Vielmehr haben die Medienhäuser mit Hyperlinks gegeizt, wie ein Blick in die Google-Suche belegt (http://polkomm.net/x/60mxeu).

Da verwundert kaum, dass die Wahlaufruf-Videos nur in geringer Zahl eingehen.

Im Falle einer anderen Kampagne gleichen Zieles sind solche gravierenden Schwächen auf den ersten Blick nicht zu erkennen, dennoch ist auch hier die Beteiligung des Publikums schwach – und zwar beim “Katerfrühstück”.

Youtube-Stars, Jungwähler und Politiker: Alle zusammen beim Katerfrühstück? Das geht nur in der neuen politischen Hangout-Show!“, heißt es in der Selbstdarstellung der Video-Diskussion auf der Plattform “Google Hangouts On Air“. “Rund um die Bundestagswahl” gehe es beim “Katerfrühstück” darum, die “Politiker der großen Parteien mit Jungwählern zusammenzubringen – und die Themen zu besprechen, die trotz 3 Millionen Erstwählern in der Politik oft zu kurz kommen“.

Der vorgestern erstmalig ausgestrahlte Livestream ist eine Kooperation der Initiative “Du hast die Macht” (www.duhastdiemacht.de), die hauptsächlich von der “Robert Bosch Stiftung” finanziert wird, und der auf das öffentliche Befragen von Parlamentariern ausgerichteten Website “Abgeordnetenwatch” (www.abgeordnetenwatch.de). “Du hast die Macht” hat gerade mit einer Kampagne beim Publikumspreis des Grimme-Online-Awards den dritten Platz belegt, in der Hobby-Rapper aufgefordert worden waren, politische Rap-Songs einzusenden – und 252 Bands hatten komponiert und mitgemacht (www.raputation.tv).

Als Moderatoren der Show verpflichteten die Macher des “Katerfrühstücks” prominente, auf Youtube erfolgreiche deutsche Videokünstler (“Youtube-Stars“), wie beispielsweise Philipp Betz, der als MrTrashpack mit einem Youtube-Channel über Neuerungen auf der Videoplattform berichtet und dort 183.000 Abonnenten hat (http://polkomm.net/x/pt1nl7).

Als Partner von “Du hast die Macht” fungieren darüber hinaus unter anderem die Bundeszentrale für politische Bildung und die Zeitungen “Berliner Zeitung“, “taz” und “Mitteldeutsche Zeitung” (http://polkomm.net/x/esgdwc).

Mitte Juli ruft “Abgeordnetenwatch” seine 15.000 Fans via Facebook (http://polkomm.net/x/ei3v23) und seine 9.500 Follower via Twitter (http://polkomm.net/x/xlzqv8) zu Themenabstimmung auf. Das Ergebnis signalisiert bereits eine eher geringe Anteilnahme der Zielgruppe: Nur 412 Internetuser stimmen ab. 301 plädieren für das Thema “Cannabis-Legalisierung”, 24 für “doppelte Staatsbürgerschaft”, 58 für “digitale Bürgerrechte” und 29 machen weitere eigene Vorschläge (http://polkomm.net/x/veodv0). In knochentrockenem Nominalstil, der wohl das geringe Interesse zu vernebeln versucht, verkündet die Mitteilung zum Abstimmungsergebnis: “Mit 412 Gesamtbeteiligungen, schaffte es das Thema Cannabis-Legalisierung mit einem enormen Vorsprung von 301 Stimmen auf den ersten Platz – und damit in die Show”  (http://polkomm.net/x/cg5sld).

Kurz vor der Sendung gibt es dann jedoch noch einmal ein Online-Trommelfeuer auf potenzielle Zuschauer: MrTrashpack weist über 12.000 Fans auf Facebook auf die Show hin (http://polkomm.net/x/nd3ar4), “Du hast die Macht” die eigenen knapp 4.800 (http://polkomm.net/x/q9n62l) und “Abgeordnetenwatch” seine 15.000 Facebook-Fans (http://polkomm.net/x/u8o7h2) und 9.500 Twitter-Follower (http://polkomm.net/x/fhipka). Vor allem aber weisen die Zeitungen “Berliner Zeitung” (http://polkomm.net/x/hlmir6), “taz” (http://polkomm.net/x/gyikan) und “Mitteldeutsche Zeitung” (http://polkomm.net/x/ropvjc) auf das “Katerfrühstück” hin – und steuern dabei hohe Reichweiten bei.

Zur Zahl der Zuschauer sagen die Veranstalter später nichts. Für das Video der Sendung, das man bei Youtube abrufen kann, ist die Zahl der Abrufe gesperrt. “Für dieses Video wurden die Statistiken deaktiviert“, steht stattdessen dort, wo andere Clips Auskunft über ihre Reichweite geben (http://polkomm.net/x/qru9ch).

Doch es gibt klare Indizien für eine desaströse Zuschauerzahl:

(1) Auch wenn eine Anmeldung zur Teilnahme nicht notwendig war: Die über Facebook lancierte Einladung zur Show lässt erahnen, wie gering das Interesse gewesen sein wird. Gerade einmal 160 Personen haben sie angenommen (http://polkomm.net/x/m732ar).

(2) Während der laufenden Sendung wird das Hashtag #katerfruehstueck, das auch Fragen der Zuschauer an die Politiker im Studio markieren soll, auf Twitter weniger als zehnmal verwendet (http://polkomm.net/x/n26mwl).

(3) Die während der Sendung bei Youtube abgegebenen Kommentare erreichen zwar knapp eine Anzahl von 500, jedoch nur deshalb, weil einige User sich gleich dutzendfach äußern (http://polkomm.net/x/qru9ch).

Dass die auf eine Stunde angelegte Sendung nach etwa 40 Minuten wegen technischer Probleme abrupt endet, kann da noch eher als Lappalie gelten.

Man darf konstatieren, dass es auch bei dieser Kampagne Optimierungspotenzial in konzeptioneller Hinsicht gab. So hat beispielsweise nur “Abgeordnetenwatch” die Abstimmung über das Thema öffentlich promotet, während die Medienpartner nur pflichtschuldig kurz vor der Sendung aktiv wurden und Publizität herstellten. Die Bundeszentrale für politische Bildung hielt sich sogar komplett zurück. Ein kontinuierliches Bewerben des Katerfrühstücks fand somit kaum statt.

Doch die größte Schwäche liegt ganz offensichtlich in einer strategischen Fehlannahme begründet: Die erfahrenen “Youtube-Stars” werden schon wissen, was sie tun, wird man sich in allen beteiligten Führungsetagen gesagt haben. Doch die jungen Videokünstler waren, so konzeptionell allein gelassen, plötzlich nicht mehr innovativ, sondern ahmten ganz konventionelle TV-Talkshows nach – quasi ein “Ilner/Jauch/Plasberg für Arme”. Nicht nur, dass sie dabei mit den beiden Bundestagsabgeordneten Jens Spahn (CDU) und Frank Tempel (Die Linke) sowie dem Bundesvorsitzenden der Jungen Liberalen, Lasse Becker (FDP), im Vergleich zu den Vorbildern äußerst unterdurchschnittlich besetzt waren – sie hatten sich zum auch noch von ihren Zuschauern ein Thema aufs Auge drücken lassen, das professionelle Programmmacher weder als hinreichend kontrovers und vielschichtig noch als aktuell genug angesehen hätten, um daraus eine einstündige Sendung zu stricken.

Beide Kampagnen haben somit bedauerlicherweise – trotz völlig unterschiedlicher Herangehensweise – ihre Zielgruppe mit einem so wichtigen Anliegen nur unterhalb der Nachweisgrenze erreicht, wahrscheinlich nicht einmal annähernd zu einem Promille.

Ist das nicht peinlich für Wirtschaftsminister Philipp Rösler? Da twittert er stolz positive Prognosen seines Ministeriums: “Können optimistisch in Zukunft schauen. #Konjunktur zieht an, Arbeitslosigkeit sinkt. Prognose BIP 2013: 0,5%, 2014: 1,6% #bmwi” (http://polkomm.net/x/7sid79). Und dann antwortet der SPD-Abgeordnete Ulrich Kelber schlagfertig: “@philipproesler Übernommen haben Sie 4,0% Wachstum und das auf 0,8% geschrumpft. Nach Ihrer Abwahl geht’s dann wieder aufwärts :-)“. Eine passende Antwort, wenn es sie denn gibt, hat Rösler nicht parat – und so geht der Dialog 1:0 für die Opposition aus.

Könnte man meinen.

Minister Rösler ist sein ursprünglicher Tweet samt Antwort längst egal, denn es kommt nicht auf den Inhalt an, sondern auf die Form. Es ist fest davon auszugehen, dass nur ein kleiner Teil der 7.000 Follower Röslers den Tweet gelesen hat – und die Antwort, die Kelber erst eine Stunde und 19 Minuten später absandte, noch viel weniger. Egal.

Das entscheidende Kalkül zielte auf die Wahrnehmung in den Massenmedien. “Rösler hebt BIP-Prognose via Twitter an“, titelte die Online-Version des Stern hölzern aber begeistert, wiederholte die Info zum Verbreitungsweg der Nachricht gleich im Untertitel und bettete den Tweet zum Beweis auch noch grafisch in den Artikel ein (http://polkomm.net/x/f6jyoz). Wie beispielsweise auch Bild online (http://polkomm.net/x/t5gegw) reichte fast der gesamte deutsche Blätterwald eine dpa-Depesche weiter, in der es – trotz aller Kürze der Meldung – hieß, Rösler habe die Prognose “vor der offiziellen Pressekonferenz via Twitter” bekannt gegeben. Von dem für die Kommunikationsprozesse der Echtzeit-Ära sehr späten Bonmot Kelbers erfährt das Millionenpublikum nichts.

Mit der Verzerrung, dass in den Massenmedien die Verbreitungsmethode gegenüber einer Nachricht selbst in den Vordergrund tritt, darf man als Politiker oder Kampagnenstratege rechnen – jedenfalls, wenn die Nachricht selbst nicht allzu kontrovers ist. Da stört übrigens nicht einmal, dass die Zahlen längst in Umlauf waren; denn bereits um 4:55 Uhr, also knapp sechs Stunden vor Röslers Tweet hatte die ARD-Tagesschau sie unter Berufung auf eine ungenannte Quelle öffentlich gemacht (http://polkomm.net/x/6reoxq).

Es ist Image fördernd für einen Politiker, einen Wirtschaftspolitiker zumal, dass er sich moderner Medien bedient. Die Öffentlichkeit goutiert es, wenn sie von Politikern einen Tick eher bedient wird als die Gatekeeper der Massenmedien, selbst wenn das eine Illusion ist, da ja nur ein infinitesimal kleiner Teil der Öffentlichkeit zu den Followern Philipp Röslers gehört. Ein Tweet nach diesem Schema hat Geschichte geschrieben. Es war jener, mit dem Barack Obama 2008 bekannt gab, wen er als Kandidaten für das Amt des Vizepräsidenten ausgewählt hatte: “Announcing Senator Joe Biden as our VP nominee. Watch the first Obama-Biden rally live at 3pm ET on http://BarackObama.com” (http://polkomm.net/x/ubeids). Die Presse wurde erst nach diesem Tweet informiert.

Aber es ist nicht mehr nur politische Kreativität, sondern längst auch öffentlicher Druck, dem Politiker im Hinblick auf die Nutzung Sozialer Medien unterworfen sind: Ob Mitteldeutsche Zeitung (http://polkomm.net/x/t1ff7f), NDR (http://polkomm.net/x/atvbvc), Stuttgarter Zeitung (http://polkomm.net/x/ifmzbu), Spiegel Online (http://polkomm.net/x/6jmgj1) oder Handelsblatt (http://polkomm.net/x/vem7ct) – landauf, landab werden tagtäglich von Journalisten der Massenmedien die Facebook- und Twitteraccounts von Politikern ausgezählt. Wer nicht mitmacht, gilt als “Twitter-Muffel” (NDR) oder muss sich zur Kategorie “tote Hose” (Stuttgarter Zeitung) zählen lassen. Wer im Netzwerk hingegen die meisten Kontakten hat, darf sich, selbst wenn er dort nur Belangloses austauscht, “Spitzenreiter” (Mitteldeutsche Zeitung) oder “Web-Champion” (Spiegel Online) nennen lassen.

Die großen Parteien wüssten, dass die virtuelle Kommunikation kaum Einfluss auf die Wähler habe, zitiert die FAZ denn auch den emeritierten Professor für Publizistik der Mainzer Universität Hans Mathias Kepplinger. “Aber sie müssen es machen, da es gut für das Image ist”, so der Wissenschaftler (http://polkomm.net/x/jej0uw).

Man kann durchaus von einer Medialisierung 2.0 sprechen, bei der sich nicht mehr nur die Inhalte in der politischen Kommunikation den Kriterien der massenmedialen Berichterstattung zu unterwerfen haben, sondern nunmehr, im Zeitalter des Social Web, auch die Form. Es ist nicht mehr entscheidend, ob ein Politiker seinen Wählern zuhört, sondern ausschlaggebend ist zunehmend, dass er in der Berichterstattung der Massenmedien einen entsprechenden Eindruck hinterlässt – egal, inwieweit der zutrifft oder nicht.

Wie groß der Druck ist sich dem irrationalen Bild anzupassen, das die Massenmedien im Kontext des Social Web von der Loyalität der politischen Kaste gegenüber der Wählerschaft zeichnen, belegt die geradezu hysterische Berichterstattung zu “Abgeordnetenwatch”. Begierig saugt der Qualitätsjournalismus auf, wenn eine aus dem grün-alternativen Milieu stammende Schar von Politaktivisten Schulnoten dazu vergibt, wie oft auf ihrer Website Politiker anwurfschwangere Fragen oder gar reine Provokationen beantworten. Akribisch listen die Artikel regionaler Blätter jeden einzelnen Mandatsträger aus den Heimatwahlkreisen der Leserschaft auf, verkünden die Noten bis hinunter zur “sechs” und tun beinahe so, als habe Abgeordnetenwatch den Rang eines Verfassungsorgans (immer noch aktuell: “Abgeordnetenwatch ist kein Verfassungsorgan“, http://polkomm.net/blog/?p=195). Vier Beispiele mögen hier für Dutzende anderer stehen: Aachener Zeitung (http://polkomm.net/x/432807), Darmstädter Echo (http://polkomm.net/x/8b6yle), Mittelbayerische Zeitung (http://polkomm.net/x/rcbbwr) und Thüringer Allgemeine (http://polkomm.net/x/wm2yl0).

Dass im Zweifel ein gut vorbereiteter Journalist einen Politiker im Interview viel stärker in argumentative Bedrängnis zu bringen und damit kritische Öffentlichkeit herzustellen in der Lage ist als ein durchschnittlicher Internetnutzer, merken nicht einmal mehr die Journalisten selbst. Ebenso wie ihnen entgeht, dass nicht nur Abgeordnetenwatch allein über das Potenzial verfügt die Aussagen von Politikern dauerhaft für die Öffentlichkeit nachzuhalten (als gäbe es nicht auch Bundestagsprotokolle, Nachrichtenportale und Sozialen Netzwerke im Web).

Bereits 59 Kommunen lassen ihre Stadt- und Gemeinderäte per Ratsbeschluss auf Abgeordnetenwatch befragen (http://polkomm.net/x/d41ad6). Wer nicht mitziehen möchte, bekommt schlechte Presse, so wie der Oberbürgermeister der Stadt Göppingen, Guido Till, dessen Sprecher auf die städtische Homepage und die Facebookseite der Stadt verweist und sagt: “Wir denken, dass wir Bürgern genügend Möglichkeiten der Beteiligung bieten.” Dennoch titeln die Göppinger Kreisnachrichten: “OB Till will auf ‚abgeordnetenwatch.de’ nicht antworten” (http://polkomm.net/x/l58n7z).

Welche Blüten die Medialisierung 2.0 treibt, belegen die Ereignisse um einen “Leitfaden für Politiker und Amtsträger”, den das Soziale Netzwerk Facebook vor zwei Wochen herausgab (http://polkomm.net/x/u04wie). Die 22 Seiten sind ein Mix aus Werbung (“Ihr Publikum wartet“), PR von zweifelhaftestem Kaliber (“Datenschutz hat für Facebook oberste Priorität.“) und subtilem Lobbying (“Mythos: Für Facebook fehlt Politikern die Zeit.“) und dennoch liehen vier Politiker großer Parteien dem Internetkonzern für sein Pamphlet ihr Gesicht – und zwar ausgerechnet solche, die sich zu den “Netzpolitikern” zählen: die Bundestagsabgeordneten Manuel Höferlin (FDP), Lars Klingbeil (SPD) und Peter Tauber (CDU) sowie Özcan Mutlu (Grüne), Mitglied des Berliner Abgeordnetenhauses und als einziger der vier kein erklärter Spezialist für Neue Medien.

Schleswig-Holsteins oberster Datenschützer Thilo Weichert beklagte anlässlich des von so einflussreichen Mandatsträgern flankiertem Datenschutz-Greenwashings zum wiederholten Mal, dass Politiker lieber gegen geltendes Recht verstießen als auf Facebook zu verzichten (http://polkomm.net/x/juy0us): “Es ist dreist, wie Facebook in dem Leitfaden politisch Verantwortliche für dumm zu verkaufen versucht. Bisher haben die meisten Verantwortlichen geschwiegen und viele Facebook einfach genutzt. Politiker und Amtsleiter sind zur Beachtung des Datenschutzrechtes verpflichtet und können sich nicht darauf berufen, dass andere auch gegen den Datenschutz verstoßen.

Der Aufschrei der Massenmedien über die Kumpanei zwischen Facebook und der Netzpolitik-Prominenz unterblieb jedoch. Allein die FAZ problematisierte die Vorgänge in einem längeren Artikel unter einer hier nicht zitierfähigen Headline (http://polkomm.net/x/fdms7r).

CDU-Netzpolitiker Tauber ist nicht zum ersten Mal als Botschafter von Facebook unterwegs. Anfang des Monats erst hatte er seinen “Social Media Leitfaden 2013″ (http://polkomm.net/x/ppik8j) publiziert, der noch neben dem Inhaltsverzeichnis verkündet, 43,70 Prozent der Menschen im Wahlkreis Taubers hätten einen Facebook-Account. Andere Soziale Netzwerke spielen – anders als der Titel erwarten ließe – auf den 24 Seiten, von einem kurzen Absatz über Twitter und der bloßen Aufzählung einiger weiterer Social Media Portale abgesehen, keine Rolle. Facebook hingegen wird bis hinein in die statistischen Auswertungen und die entgeltlichen Werbefunktionen erläutert.

Wie unter der Annahme einer Medialisierung 2.0 zu erwarten, gab es nach der Veröffentlichung des Tauber-Leitfadens nicht etwa Kritik, sondern positive Presse vom PR-Report (http://polkomm.net/x/0t7smx) über die Frankfurter Rundschau (http://polkomm.net/x/72mpxf) bis zu CIO (http://polkomm.net/x/wrs6em).

Ins Detail schauen die Medien natürlich nicht, deshalb kann sich der Autor reichlich Naivität erlauben: Etwa wenn Tauber als Beispiel für ein – wegen 160 “Likes” – besonders gelungenes Post ein Bild vom Adressfeld eines Briefumschlages zeigt, dessen Absender den CDU-Parlamentarier irrtümlicherweise in der Fraktion der Linken verortet. Oder wenn Tauber dem Themenkomplex “Umgang mit Kritik” und “Moderation” nicht einmal eine Seite widmet, auf der sich zwar die nerdige Binsenweisheit “Don’t feed the Troll!” findet, aber – in einem Ratgeber zu politischer Kommunikation! – weder der Begriff “Meinungsfreiheit” auch nur erwähnt, noch wenigstens ansatzweise Hilfestellung zur Unterscheidung von Kritikern und Störern gegeben wird. Und schließlich erscheint die fortwährend in dem Dokument auftauchende Mahnung, dass Politiker in Sozialen Netzwerke “authentisch” sein sollten, recht blutarm – inbesondere, wenn Taubers wenige Tage später, nach dem Sieg der Kicker von Borussia Dortmund über Real Madrid, platte politische Farbenlehre twittert (http://polkomm.net/x/c6nsks): “SCHWARZ-GELB wirkt! Danke #BVB! So muss Fußball!

Da verwundert kaum, dass Tauber Fragen des Datenschutzes in Bezug auf Facebook wenig Aufmerksamkeit schenkt: Während sich etwa Schleswig-Holsteins Ministerpräsident Torsten Albig von seinem Datenschützer Weichert dazu bewegen ließ, jedem Internetuser, der auf der Website der Landesregierung den Hyperlink zu ihrer Facebookseite anklickt, erst einmal eine ganz Seite ausführliche Datenschutzhinweise zu zeigen (http://polkomm.net/x/kvo9jh), bevor er sich weiter zu Facebook durchklicken kann, muss der Besucher von Taubers Website bereits auf der Startseite hinnehmen, dass Social-Media-Plugins persönliche Daten an die Rechenzentren der Internetkonzerne Facebook und Twitter übertragen. In der Datenschutzvereinbarung der Website heißt es dazu lapidar (http://polkomm.net/x/72vipa): “Auf unseren Internetseiten sind Plugins von sozialen Netzwerken eingebunden. (…) Wenn Sie bei den Sozialen Netzwerken eingeloggt sind, können diese den Besuch Ihrem jeweiligen Nutzer-Konto zuordnen. (…) Informationen zu Zweck und Umfang der Datenerhebung durch die Sozialen Netzwerke, die weitere Verarbeitung und Nutzung der Daten durch die Sozialen Netzwerke sowie Ihre diesbezüglichen Rechte und Einstellungsmöglichkeiten zum Schutz Ihrer Privatsphäre entnehmen Sie bitte den Datenschutzhinweisen des jeweiligen Sozialen Netzwerks.

Aber das alles ist den Massenmedien nicht wichtig. Die Gesetzmäßigkeiten ihrer Berichterstattung messen “Web-Champions”, wie Tauber und Rösler, zunächst immer erstmal eine positive Rolle zu.

 

Betrachtet man die Debatte um das LSR, wird man den Eindruck nicht los, dass kaum jemand weiß, was ein Snippet ist und wie es entsteht. Würden die vielen lauten Stakeholder in dieser Angelegenheit ein wenig mehr von der Technologie der Suchmaschinen und News-Aggregatoren berücksichtigen, könnte man den ideologisch ausgetragenen Streit um das LSR umgehend beenden.

Die Kritiker des LSR werfen der Bundesregierung vor, sie habe im Gesetz nicht genau festgelegt, was ein – erlaubtes – Snippet sei. Hätte die Bundesregierung das denn können?

Der Google-Artikel über das “Snippet” ist kurz aber eindeutig: Ein Snippet ist “ein kurzer Textauszug aus einer Webseite, angezeigt in der Ergebnisliste einer Suchmaschine“, steht da völlig richtig (http://polkomm.net/x/6bmrly). Anders ausgedrückt: Die Suchmaschine “schneidet” ein kurzes Zitat aus einem Dokument heraus und zeigt es im Suchergebnis an.

Was schneidet sie aus?

Kommt darauf an!

Und zwar auf das, was der suchende Benutzer eingegeben hat. Google beispielsweise zeigt im Suchergebnis einen 160 Zeichen langen Textausschnitt an, in dem das eingegebene Suchwort fett formatiert ist. So erkennt der User ein wenig vom Kontext, in dem das Suchwort verwendet wird. Das funktioniert aber nur, wenn das Snippet außer dem Suchwort noch weitere Worte zeigt. Ein Snippet von maximal 160 Zeichen hat dabei seine Grenzen: Sucht man nach sehr langen Worten, kann es sein, dass für den Kontext nur noch wenig Zeichen übrig bleiben. Sucht man nach zwei sehr langen Worten, dann schafft es Google nicht einmal mehr, dem User zu zeigen, dass beide Worte in dem gefundenen Dokument überhaupt nebeneinander existieren. In dem hier zu findenden kleinen Beispiel sind in allen Treffern am Beginn des Suchergebnisses beide Suchworte enthalten, was der User aber nur selbst herausfinden kann: http://polkomm.net/x/jvof4i

Eine wissenschaftliche Suchmaschine wäre also wegen der Länge wissenschaftlicher Fachtermini möglicherweise gut beraten, etwas längere Snippets anzuzeigen, wenn sie dem User einen guten Service bieten möchte.

Solche Snippets will die Bundesregierung nicht verbieten – auch wenn sie möglicherweise länger sind als 160 Zeichen. Es macht keinen Sinn, die Länge von Snippets gesetzlich festzulegen. Das würde auch mit dem Urheberrechtsgesetz kollidieren, da ein Snippet ein Zitat im Sinne des Urheberrechts darstellt, das belegt, dass das Suchwort wirklich vorkommt. In der Funktion dieses Beleges erfüllt das Snippet den vom Urheberrechtsgesetz verlangten “besonderen Zweck” und kann deshalb nicht vom LSR aufgrund einer technischen Längenbegrenzung verboten werden. Denn Suchmaschinen und Aggregatoren sollen – anlog zum Zitatrecht des Urheberrechts, das Autoren Zitate erlaubt, sofern sie einem „besonderen Zweck“ dienen – eine „zweckmäßige” Beschreibung der Fundstellen anzeigen dürfen. Da die Zweckmäßigkeit von Details wie der Länge gesuchter Begriffe abhängt, macht es folglich keinen Sinn, die Länge von Snippets festzulegen. Suchmaschinen-Snippets sind daher konsequenterweise vom LSR ausgenommen worden.

Textausschnitte, die nicht das Vorhandensein eines Suchwortes belegen, sondern schlicht den Inhalt eines Dokuments zusammenfassen, sind etwas ganz anderes. Und nur in solchen Inhaltsangaben liegt ein Nutzen für News-Aggregatoren. Denn eine sinnvolle Zusammenfassung in einer bestimmten Zeichenzahl zu formulieren – das bekommen die Algorithmen der Aggregatoren natürlich in aller Regel nicht hin.

Aber Journalisten.

Überall in Verlagshäusern sitzen gut bezahlte Redakteure und texten “Teaser”. Kaum eine Website funktioniert, ohne dass der Inhalt eines Artikels auf der Homepage oder einer Rubriken-Übersichtsseite – in Kurzform zusammengefasst – dargestellt wird. Und diese redaktionellen Inhalte stellt die Bundesregierung nun unter das Leistungsschutzrecht.

Das Leistungsschutzrecht ist keine Zwangsabgabe! Es billigt dem Leistungserbringer nur das Recht auf eine Lizenzgebühr zu, zum Kassieren gezwungen wird er nicht!

Im allgemeinen Getöse über das vermeintliche Ungeheuer LSR, geht indes völlig unter, dass hier eigentlich nur Echtzeit-Syndication einen gesetzlichen Rahmen erhält: Diejenigen, die Nachrichten in den Redaktionsstuben auf kürzeste Form komprimieren, sollen die Möglichkeit haben, dafür Lizenzgebühren zu verlangen. Mehr nicht.

Einige Verlage haben sich nun auf die Seite der Kritiker des LSR geschlagen – und zeigen, wie wenig sie selbst über diese wenigen Zusammenhänge nachgedacht haben:

Gestern hat der Heise-Verlag publikumswirksam jedermann die Nutzung von kurzen Textausschnitten und Snippets gestattet (http://polkomm.net/x/0kdfo7):

Daher legen wir Wert darauf, unseren Nutzern noch einmal klar öffentlich zu erklären, dass Links auf und kurze Textausschnitte/Snippets aus unseren Publikationen weiter höchst willkommen sind und dass dies weiterhin keiner Erlaubnis des Verlages bedarf oder gar Geld kostet. Selbstverständlich werden wir auch niemanden deswegen abmahnen oder auf eine andere Weise dagegen juristisch vorgehen. Als Richtlinie hier gilt: Erlaubt ist zum Beispiel die Übernahme der Artikelüberschrift nebst Anrisstext oder eine vergleichbare Textlänge.

In der ideologischen Debatte mag diese Erklärung ihre Wirkung auf die Klientel haben. Aber diejenigen, die Syndication betreiben wollen, lässt der Heise-Verlag allein: “Was sind kurze Textausschnitte?“, fragt User patmcd (http://polkomm.net/x/w26t5c). Oder “Wie lang ist für Heise ein erlaubtes Snippet?“, fragt 64kByte (http://polkomm.net/x/1krrpz). “‘Erhebliche Textteile’ ist genauso ein Geschwurbel“, schimpft psion-ix (http://polkomm.net/x/dhqvc0).

Der Drang zum Schulterschluss mit der Szene der LSR-Kritiker ist groß unter Verlagen. Aktivisten sammeln entsprechende Information bereits in online geführten Listen (http://polkomm.net/x/rkl2ui). Und das Medienecho auf die Proklamationen derer, die sich als Cowboy mit weißem Hut darzustellen trachten, ist riesig und Beifall zollend, wie das Beispiel der Grafschafter Nachrichten zeigt (http://polkomm.net/x/tkbq2n), die sich bereits zwei Tage vor dem Heise-Verlag öffentlich erklärten.

Doch die einfachsten technischen Lösungen für eine eindeutige Regelung werden von den Propagandisten der Verlage nicht einmal angesprochen.

Hier fünf Vorschläge an die Verlage, vor allem jene, die das LSR nicht wollen:

(1) Snippets bei Google-Suche ja, News-Teaser bei Google-News nein: Verlage, die eine Nutzung von Teasern ausschließen möchten, ohne dadurch Nachteile in der Google-Suchmaschine zu haben, können dies in wenigen Sekunden technisch umsetzen, indem Sie in einer kleinen Datei namens robots.txt auf ihrem Webserver dem Robot “Googlebot-News” Indexierungsverbot erteilen, aber den “Googlebot” weiter zulassen. Google zeigt dann in Suchergebnissen nur das 160-Zeichen-Snippet mit markiertem Suchbegriff, aber weder hier einen Teaser, noch in den Google-News. Das sehr einfache Verfahren beschreibt Google auf seinen Hilfeseiten (http://polkomm.net/x/5zf6sv). Es funktioniert auch bei anderen Robots, die man damit aussperren kann.

(2) Technisch korrektes Bereitstellen von Textausschnitten: Alle Welt fragt, wie lang ein Textausschnitt künftig sein darf, dabei haben es doch die Verlage in der Hand, solche Ausschnitte bereitzustellen und damit die Länge exakt festzulegen. Sie haben die Teaser und sie haben RSS-Feeds. Warum setzen sie nicht Feeds auf, in denen Teaser stehen, die freigegeben sind (oder geben eben ganze, bereits existierende Feeds frei)? Gegebenenfalls kann ein solcher Feed ja automatisiert – neben der Überschrift – auch immer den ersten Satz oder Absatz transportieren.

(3) Registrierung statt individueller Lizenzierung: Sofern Verlage ihre RSS-Feeds nicht jedermann zum Syndizieren öffnen möchten, können sie eine Registrierung vorschalten. Nur registrierte Medien erhalten dann Zugang zu entsprechenden RSS-Feeds. Dies ermöglicht unter Umständen auch, im RSS den gesamten Text auszuliefern und registrierte Syndizierer auf ein frei wählbares Snippet von einer bestimmten Maximallänge zu verpflichten; bei Verstößen kann der Zugang verweigert werden.

(4) Eindeutige Erklärung der Nutzungserlaubnis in Impressum, Disclaimer oder Nutzungsbedingungen: Das Technologie-Magazin t3n.de, das als LSR-Gegner ebenfalls eine proklamatorische Erlaubnis zur Verwendung der Überschrift und des ersten Absatzes von Artikeln abgegeben hat (http://polkomm.net/x/4dgvua), hat dazu weder in den AGBn oder im Impressum noch in den Nutzungsbedingungen ein Wort verloren. Wenn der Artikel mit der Erklärung in der Timeline versickert ist, nützt die dort gegebene Erlaubnis niemandem mehr. Verlage, die eine Übernahme von bestimmten Inhalten gestatten und diese auch technisch bereitstellen, können in ihren Disclaimern exakt festlegen, welche RSS-Feeds oder welche Datenfelder in RSS-Feeds übernommen werden dürfen.

(5) Social-Media-Tags korrekt nutzen und freigeben: Verlage geben meist im HTML-Code ihrer Seiten genau vor, was beim Teilen in den Sozialen Netzwerken zu sehen ist. So ruft beispielsweise Facebook dann, während ein User die Empfehlung eines Artikels für seine “Freunde” postet, im Hintergrund diese Daten von der Website des Verlages ab und erstellt daraus den Teaser im Facebook-Profil (mehr zu diesem Thema: http://polkomm.net/x/0trcfv). Abgesehen davon, dass es eine fahrlässige Praxis bei Verlagen gibt, in diesen sogenannten Social-Media-Tags statt rechtlich unproblematischer Public-Domain-Visuals auch Bilder zulassen, für die ihre Fans nach dem Teilen abgemahnt werden können, sind Social-Media-Tags durch das LSR künftig auch für gewerbliche Nutzer problematisch – etwa für Fan-Pages von Unternehmen, die Inhalte von Verlagen “teilen” möchten. In die unter (4) beschriebenen Freigabe-Klauseln gehört deshalb auch eine Berücksichtigung aller Social-Media-Tags. Obwohl t3n.de die Verwendung von Textausschnitten erlaubt hat, bleiben – mangels entsprechender expliziter Festlegung – die User letztlich im Unklaren, ob sie die im Tag og:description der Website enthaltenen Teaser von rund 300 Zeichen maschinell auslesen und zur Weiterverbreitung nutzen dürfen.

Es bleibt zu fragen, ob es Unwissenheit oder Strategie jener Verlage ist, die sich kritisch zum LSR positioniert haben, dass sie proklamieren ohne zu programmieren. Aber die meisten der Probleme, die News-Aggregatoren wie rivva.de, filtr.de oder 10000flies.de haben (Blogbeitrag dazu: http://polkomm.net/x/asv3gs), ließen sich mit solchen einfachen technischen Schritten lösen – jedenfalls bei flächendeckender Umsetzung.

Sofern jene Verlage, die konsequent und nicht nur fadenscheinig gegen das Leistungsschutzrecht Stellung bezogen haben, solche Lösungen umsetzen würden, könnte das eine Lawine nach sich ziehen. Am Ende könnte die Mehrheit der deutschen Verlage sich doch daran interessiert zeigen, statt am Lizenzmodell des LSR am Besucherstrom zu partizipieren, den News-Aggregatoren erzeugen. Auch hier könnte der Markt etwas ins Lot bringen, das eine laute Debatte nicht bewältigt.

Kampagnen zum LSR: Viral geht anders

30. November 2012    |    Autor: Ralf-Thomas Hillebrand

Mir ist das Leistungsschutzrecht egal. Seit mir “Spiegel Online” einst auf meine Anfrage hin verboten hat, RSS-Teaser beziehungsweise Snippets (kurze Textausschnitte) von Spiegel-Online-Artikeln auf einer von mir betreuten Website anzuzeigen, formuliere ich Hinweise auf interessante Artikel von Online-Medien generell mit eigenen Worten – verlinke aber natürlich trotzdem, denn dieses Recht macht mir niemand streitig, nicht “Spiegel Online” und auch nicht das geplante Leistungsschutzrecht.

Warum “Spiegel Online” (wie auch all die anderen pro Leistungsschutzrecht positionierten Medienunternehmen) nicht das Angebot von Google wahrnimmt und mittels eines knappen und wirklich einfach zu erstellenden Codes, wie “User-agent: Googlebot Disallow: /“, (anstatt nur mir) auch Google die Nutzung seiner Teaser und Snippets verbietet, verstehe ich nicht so ganz. Aber auch das ist mir eigentlich nicht wirklich wichtig.

Und schließlich: Warum Google so tut (“Willst Du auch in Zukunft finden, was Du suchst?“), als würde ich beispielsweise “Spiegel Online” nicht mehr finden können, wenn das geplante Leistungsschutzrecht umgesetzt wird, leuchtet mir gar nicht ein. “Spiegel Online” bleibt ja auch ohne Google online, wie alle anderen Online-Medien auch.

Interessant finde ich hingegen die Kampagnen aller Beteiligten. Kampagnen, die mir und allen anderen gewöhnlichen Nutzern des Internets weismachen möchten, dass Gefahr für meine politische oder informationelle Freiheit bedroht ist: Das ist Lobbyismus pur.

Besonders interessant ist die gesamte Debatte mit ihren einzelnen Kampagnen vor allem deshalb, weil sie von Interessengruppen angetrieben wird, die unzweifelhaft allesamt zur Kategorie der führenden Internetversteher zählen: Google, der Konzern, der alles über uns Internetnutzer weiß und jede noch so kleine in einen Mausklick umgemünzte Emotion tracken kann; aber auch die in netzpolitischem Kontext allgegenwärtigen Repräsentanten von Netzpolitik.org, dem Online-Organ links-grüner Netz-Utopisten, dessen Vertreter als Experten für Politik und Freiheit im Web von Interview zu Interview hasten, oder vom Chaos Computer Club, der sein Image schleichend vom jenem eines chaotischen Hacker-Vereins zu dem einer Bastion für bürgerliche Freiheitsrechte zu entwickeln trachtet; ganz zu schweigen von der Piraten-Partei, die den Rest der Welt für “Internet-Ausdrucker” hält.

Sie alle wünschen sich das Thema Leistungsschutzrecht derzeit auf Platz 1 der politischen Agenda. Sie wünschen sich einen Aufschrei der Massen – wenn auch mit unterschiedlicher Stoßrichtung.

Aber ihre Kampagnen laufen allesamt ins Leere.

Das ist zunächst einmal beruhigend. Denn es zeigt: Die Netzöffentlichkeit und ihre Offline-Verwandtschaft sind nicht beliebig manipulierbar. Auch wer Soziale Netzwerke betreibt oder sich mit ihrer Funktionsweise jahrelang beschäftigt und politische Entwicklungen darin ausgiebig analysiert hat, ist deswegen noch lange nicht in der Lage die öffentliche politische Agenda zu bestimmen, auch nicht die der Online-Welt.

Gleichzeitig ist die geringe Wirkung der Aktivitäten dieser breiten Agenda-Setting-Koalition aber auch ein Lehrstück über die Wirkungsgrenzen politischer Online-Kommunikation – vorgetragen ausgerechnet von jenen, die nur allzu oft suggerieren, alles sei möglich in Sachen politischer Partizipation, wenn man nur die Klaviatur des Online-Campaigning beherrsche.

Vor sechs Wochen scheiterte zunächst eine von einem Vertreter der Piratenpartei formulierte ePetition beim Deutschen Bundestag kläglich. Nur 21.366 Unterstützer wandten sich darin gegen das geplante Leistungsschutzrecht, obwohl es 50.000 hätten sein müssen, um der Petition im Parlament Gehör zu verschaffen (http://polkomm.net/x/0q9c0e). Und das, obwohl die Petition auch von der “Initiative gegen ein Leistungsschutzrecht” (IGEL) unterstützt wurde (http://polkomm.net/x/z2zt3h), zu der wiederum eine ganze Reihe von Institutionen (vom Chaos Computer Club über Google bis zur deutschen Wikipedia) und Webaktivisten (von Stefan Niggemeier über Mario Sixtus bis Johnny Haeusler) gehören, die sich jede Menge Expertise in Sachen Netzpolitik und politischer Online-Kommunikation auf die Fahnen geschrieben haben (http://polkomm.net/x/fuimkh) und zusammen genommen Zugang zu einem Millionen-Publikum haben.

Erklärungen für das Scheitern hatte niemand, Spekulationen gab es viele.

Manche Kritik galt der Formulierung der Petition: Verzweifelt hatte der als einer der wichtigsten Influencer der Netzgemeinde geltende Sascha Lobo gebloggt, man solle die Petition mitzeichnen, “auch wenn sie getextet ist wie von marsianischen Katasteramtsleuten” (http://polkomm.net/x/w58wln). Doch die Mehrheit seiner Leser ignorierte das gebloggte Flehen – wie auch seine über 120.000 Follower den Tweet Lobos: “Zeichnet die Petition gegen das Leistungsschutzrecht mit, obwohl sie mau formuliert ist” (http://polkomm.net/x/ttxa0e).

Auch die didaktisch angelegten Youtube-Videos, die das geplante Leistungsschutzrecht und die Wichtigkeit entschiedener Gegnerschaft aus Sicht der Leistungsschutzrecht-Kritiker allgemeinverständlich erklärten, fanden nur wenige Zuschauer – obwohl sie von Web-Größen wie dem “Elektrischen Reporter” Mario Sixtus (rund 14.000 Views, http://polkomm.net/x/gm3klt) und der Hacker-Truppe “Anonymous” (rund 6.000 Views, http://polkomm.net/x/im74dw) hochgeladen und beworben worden waren.

Vielfach wurde problematisiert, dass der Petent relativ prominentes Mitglied der Piratenpartei sei und es daher Mitgliedern und Sympathisanten anderer Parteien schwer fallen könnte, die Petition zu unterstützen. Netzpolitische Aktivisten der Partei “Die Linke” (http://polkomm.net/x/yh9cnb) und der Grünen (http://polkomm.net/x/iaun3s), der Chaos Computer Club (http://polkomm.net/x/1e1d98), Netzpolitik.org (http://polkomm.net/x/2ouz51), die Zeitung “der Freitag” (http://polkomm.net/x/qhr3ch) und maßgebliche Blogs der politischen Blogosphäre (http://polkomm.net/x/gpcuzq) beeilten sich daher, gegenüber ihrem politischen Umfeld klarzustellen, dass man dennoch unbedingt mitzeichnen solle – doch auch diese Aufrufe verhallten vergebens.

Der Pirat Norbert Hense brachte das Problem der gescheiterten Mobilisierung selbst innerhalb seiner eigenen Partei später auf eine einfache Formel: “Piratenpartei: 34.080 Mitglieder, 79.501 Likes auf Facebook, 113.115 Follower auf Twitter. Und nur 21.000 Mitzeichner der #LSR-Petition (http://polkomm.net/x/we4dnx).

Aber es war natürlich kein Versagen der Piraten allein. Es war ein Versagen der gesamten Szene regierungskritischer Netzpolitiker und Influencer, von denen niemand seine Anhängerschaft in größerem Maße zu mobilisieren in der Lage war. Die einstigen Graswurzel-Revoluzzer fanden sich in der Rolle geschmähter Lobbyisten wieder.

Dass die Zahl der Petitions-Mitzeichner zwei Wochen vor Ende der Mitzeichnungsfrist noch bei 8.000 dahin dümpelte, stieß Google, bis dato in der Angelegenheit nur als Teil der “Initiative gegen ein Leistungsschutzrecht” öffentlich aktiv, offensichtlich übel auf, wie der hannoversche Pirat Manuel Nitschke via Twitter berichtete: “google fragte bei uns nach, wieso nur 8k die Petition gegen das #LSR unterschrieben und ob wir nicht genügend #Piraten mobilisieren könnten” (http://polkomm.net/x/8y4b6w).

Knappe drei Tage vor der ersten Lesung des Entwurfs des “Siebenten Gesetzes zur Änderung des Urheberrechtsgesetzes” (http://polkomm.net/x/e8ugz2) startete der Internetkonzern Google seine eigene Kampagne.

Der Aufwand für diese Kampagne verdient zweifelsohne das Attribut “brachial”. In “Kontakten” gerechnet dürfte Google nahezu jeden erwachsenen Deutschen erreichen – selbst Offliner bleiben nicht verschont: Mit ganzseitigen Zeitungsanzeigen (http://polkomm.net/x/whkfs9) in “Bild”, der “Süddeutschen Zeitung”, der “Frankfurter Allgemeinen Zeitung”, in “Welt”, “taz”, “Zeit”, “Berliner Zeitung” und “Tagesspiegel” deckte Google den Markt überregionaler Tageszeitungen flächendeckend ab. Medienjournalist Stefan Niggemeier rechnete aus, dass allein die Anzeigen in den drei erstgenannten Zeitungen mehr als eine halbe Million Euro verschlungen haben dürften (http://polkomm.net/x/rz25ca).

Aber auch in führenden Online-Medien schaltete Google Anzeigen für seine Kampagne, so etwa auf handelsblatt.com (http://polkomm.net/x/dsugk6), sueddeutsche.de (http://polkomm.net/x/6zslfh) und Spiegel Online (http://polkomm.net/x/1q8246). Und nicht einmal vor Anzeigen auf Flirtportalen wie Jappy (http://polkomm.net/x/iebrr9) und La Blue (http://polkomm.net/x/dd9d90) machten die Konzernlobbyisten Halt.

Wer die Suchmaschinenseite von Google nutzt (und das ist bei einem hiesigen Marktanteil Googles von weit über 90 Prozent fast jeder deutsche Onliner), sieht dort ebenfalls den Hinweis auf die Kampagne (http://polkomm.net/x/cqs8qj): “Willst Du auch in Zukunft finden, was Du suchst? Mach’ mit: Verteidige Dein Netz“, fordert Google – wie in all den erwähnten Anzeigen – auch Nutzer der Suche auf.

Sogar Suchmaschinen-Werbung auf der eigenen Website betreibt Google: Gibt man den Slogan “Verteidige Dein Netz” ein, schaltet Google ganz oben auf der Seite eine Anzeige (http://polkomm.net/x/ljj2d6).

Wer auf eine der Anzeigen klickt oder aus einer Printanzeige den URL google.de/deinnetz in seinen Browser tippt, gelangt auf die zentrale Kampagnen-Website des Internetkonzerns (http://polkomm.net/x/nn4ubi). Dort wird dem Besucher zunächst in einem Video das Anliegen Googles nahe gebracht. Mit munterer Musik untermalt suggerieren abgefilmte Suchvorgänge mit der Google-Suche, dass wir gewöhnlichen deutschen Internetnutzer ohne Google weder mit den Herausforderungen von Millenium-Bugs und Euro-Einführung zurecht gekommen wären, dass wir nicht herausgefunden hätten, wie wir für die Tsunami-Opfer in Thailand spenden oder an die Abwrackprämie gelangen können, und dass Google uns auch bei Rechtschreibschwächen sicher zum richtigen Suchergebnis führt – selbst, wenn es sich um einen ausgebrochenen isländischen Vulkan handelt, den wir googeln. Mahnende Worte werden dann abschließend – zu nachdenklich stimmender, verlangsamter Musik – eingeblendet: “Seit über 10 Jahren kannst Du jederzeit finden, was Dich bewegt. Ein geplantes Gesetz soll das jetzt ändern. Willst Du das? Misch’ Dich ein. Verteidige Dein Netz. Finde weiterhin, was Du suchst.

Das ist natürlich kampagnengerechter formuliert als das juristische Kauderwelsch der Piraten-Petition. Aber die Google-Kampagne ist ebenso wirkungslos. Trotz der ungemein breiten Ansprache sahen in den drei Tagen nach dem Start der Kampagne nur knapp 140.000 Menschen das Video (http://polkomm.net/x/xiwxzf). Nicht einmal 2.000 gaben dem Clip eine positive Bewertung. Und nur gut 2.400 Menschen verbreiteten innerhalb dieser Zeit die Adresse der Kampagnen-Site per Klick auf den Button “g+1″ innerhalb ihres Netzwerkes auf Google+ weiter.

Auch der auf der Homepage angebrachte Link zum Senden eines vorgegebenen Tweets erfreut sich kaum großer Beliebtheit. Nur in großen zeitlichen Abständen finden sich in der Twitter-Suche solche Tweets mit dem Hashtag “#DeinNetz” (http://polkomm.net/x/ingz4u). “Willst Du auch in Zukunft finden, was Du suchst? Verteidige Dein Netz gegen ein geplantes Gesetz! http://goo.gl/vUbzT #DeinNetz“, versucht Google möglichst vielen Twitterern in den Mund zu legen – doch die wollen nicht. Natürlich hat auch die Google-Pressestelle den Aufruf getwittert, aber gerade einmal 250 der 55.000 Follower ließen sich zu einem Re-Tweet hinreißen (http://polkomm.net/x/u8cpqg). Viral geht anders.

Außer die Weiterverbreitung der Kampagnenbotschaften voranzutreiben, sollen Unterstützer der Google-Kampagne zwei Dinge tun: sich als Unterstützer eintragen und Politiker anschreiben.

Trage Dich hier ein, wenn Du gegen das Leistungsschutzrecht bist und wenn wir Dich über diese Initiative auf dem Laufenden halten sollen“, wird der Besucher der Kampagnen-Site aufgefordert. “Wir erfassen die Zahl der Nutzer, die in diesem Formular Angaben gemacht haben und veröffentlichen die Anzahl gegebenenfalls…”, erläutert das Kleingedruckte vorsichtig. Bisher blieb die Veröffentlichung der Anzahl aus.

Unter Umständen” werde man jene Unterstützer, die sich mit vollem Namen eintragen, auch auf der Kampagnen-Website als Testimonials einsetzen, verrät der Text weiter und gibt als fiktives Beispiel an: “Peter K. aus 10117 Berlin sagt: ‚Ich bin gegen das Gesetz, weil ich dann weniger Artikel im Netz finde.’

Das alles ist so vage formuliert, als hätten die Google-Lobbyisten einen Misserfolg bereits vorausgeahnt.

Misch’ Dich ein und wende Dich an Deinen Abgeordneten!“, ist schließlich die finale Aufforderung in Googles Mobilisierungsstrategie: “Der Bundestag berät ein Gesetz, das den Zugang zu Informationen im deutschen Internet drastisch beschränken würde. Um das Gesetz zu verhindern, kannst Du Dich auch direkt an den Bundestagsabgeordneten aus Deinem Wahlkreis wenden.” Per Mausklick auf eine Landkarte kann man sodann Bundestagsabgeordnete seines Wahlkreises mitsamt ihrer Kontaktdaten recherchieren (http://polkomm.net/x/9i8yyn).

Doch die beabsichtigte Volkserhebung blieb aus. Einen Tag nach Beginn der Kampagne hatte nicht einmal der stellvertretende Vorsitzende der Unionsfraktion, Günter Krings, der als entschiedener Verfechter des Leistungsschutzrechts gilt, mit einen Ansturm zu kämpfen. “Hier hat niemand angerufen, und auch bei den Mails können wir noch nicht mal von ein paar Dutzend sprechen“, zitierte die “taz” einen Mitarbeiter seines Büros (http://polkomm.net/x/ugxxo6).

Aber auch der CDU-Netzpolitiker Peter Tauber, der dem Gesetzentwurf skeptisch gegenüber steht, erhielt in den ersten Stunden weniger als 10 Mails (http://polkomm.net/x/at9pau), wie er der Deutschen Presseagentur verriet.

Anderthalb Tage nach Beginn von Googles Aktivitäten twitterte sein Fraktionskollege Thomas Jarzombek: “Die Bilanz der Google-Aktion zum #lsr: 3 Mails bei mir, 5 bei @petertauber. Damit kann ich jetzt doch beruhigt zu Bett gehen” (http://polkomm.net/x/ph5s3d).

Dass der gewaltige Aufwand von Google letztlich kaum Druck der Wähler auf die Abgeordneten des Deutschen Bundestages erzeugte, zeigt sich auch daran, dass es am späten Abend des gestrigen Tages “im Plenum viele leere Bänke gab“, wie die FAZ heute berichtet (http://polkomm.net/x/umuztq).

Netzgemeinde beißt MdB Singhammer

12. Oktober 2012    |    Autor: Ralf-Thomas Hillebrand

Endlich mal hat wieder ein Mann einen Hund gebissen. Endlich haben die Medien wieder eine schöne Story, die sich lustig liest – wenn auch auf Kosten eines menschlichen Individuums, das da völlig zu Unrecht vorgeführt wird.

Der CSU-Bundestagsabgeordnete und Stellvertretende Fraktionsvorsitzende Johannes Singhammer habe doch tatsächlich, so berichten etwa der Tagesspiegel (http://polkomm.net/x/ong8os) und n-tv (http://polkomm.net/x/f23ld7) in ihren Online-Ausgaben, Journalisten per Briefpost angeschrieben, damit diese ihm auf Twitter folgen! Die Quadratur der Internetausdruckerei also! Quasi ein Twitter-Post via Snail-Mail! Eine Echtzeitnachricht in der Postkutsche! Dagegen ist „Mann beißt Hund“ eigentlich schon fast eine laue Nummer!

Die Netzgemeinde überschlägt sich vor Spott (http://polkomm.net/x/zyu86x). In Singhammers Schreiben fehle, twittert laut n-tv beispielsweise der User marCH1LL, „die Zeile: Auf Wunsch kann ich Ihnen einzelne Tweets (Nachrichten) per Post zusenden“.  Ein anderer Twitterer wird gleich noch persönlich: “Er war laut Lebenslauf mal ‘Schallplattenverkäufer’. Großartig.

Das bescheidene Niveau der Kommentierungen der Internetszene steht jedoch hinter jenem der medialen Berichterstattung nur wenig zurück: „Sie wollen politische Informationen, so schnell es geht? Warten Sie auf Post, besonders von Johannes Singhammer“, ätzt n-tv. Und der Tagesspiegel druckt seine Schadenfreude in fetten Lettern: „Nun lacht man sich im Internet kaputt über diese skurrile Verquickung von analog und digital.

Dabei ist nicht die Verquickung skurril, sondern die Berichterstattung darüber.

Was hat Singhammer genau getan?

Mit Schreiben vom 1. Oktober hat er auf seinem Abgeordnetenbriefpapier eine unbekannte Zahl Journalisten angeschrieben und ihnen nur drei Sätze zukommen lassen: „Seit kurzem bin auch ich bei Twitter. Ich möchte Sie einladen, mir zu folgen, wenn Sie immer wieder politische Informationen kurzfristig erfahren wollen. Sie finden mich bei Twitter unter Johannes Singhammer oder direkt unter JohannesSingham.“ Es folgt eine handschriftlich unterzeichnete Grußformel.

Kaum jemand, der professionell Kommunikation betreibt, hätte das anders gemacht oder hätte Singhammer etwa geraten, ein solches Schreiben nicht zu verschicken. Singhammer hat Journalisten angeschrieben, die ihm – als Teil des Berliner des Berliner Parlamentsbetriebes – überwiegend persönlich bekannt sein dürften und denen er selbstverständlich auch bekannt ist. Diesen Medienvertretern in möglichst persönlicher, höflicher und damit auch möglichst nachhaltiger Form mitzuteilen, dass ihnen ab sofort eine zusätzliche Quelle für Äußerungen eines Stellvertretenden Vorsitzenden der CDU/CSU-Fraktion zur Verfügung steht, ist nicht anderes als gutes politisches Handwerk.

Dass ein Berliner Parlamentskorrespondent der Süddeutschen Zeitung nichts Besseres zu tun hatte als das Schreiben zu scannen und seinerseits über Twitter zu verbreiten, tut dem keinen Abbruch. Sondern das belegt eher dessen zweifelhaften Umgang mit den Geschäftsunterlagen seines Arbeitgebers, der Süddeutschen Zeitung, die dem Brief keinen Nachrichtenwert beimaß, der eigene Berichterstattung gerechtfertigt hätte – was der twitternde Korrespondent aber offensichtlich so nicht hinnehmen mochte und was ihn stattdessen dazu bewegte das Schreiben kurzerhand zu “leaken” (http://polkomm.net/x/t6g0dk).

Die Fehler in der medialen Berichterstattung über den Parlamentarier reichen aber noch viel weiter:  “Mag sein, dass er sich mit dem neuen Medium noch etwas anfreunden muss, dass man bei Twitter aber Einladungen auch ganz ohne Briefpapier aussprechen kann, hätte ihm vielleicht einer seiner Berater sagen können”, höhnt die Tagespiegel-Autorin – und demonstriert damit reichlich Ahnungslosigkeit.

Twitter bietet zwar in der Tat eine Einladungsfunktion an. Aber die liest – wie es diverse (meist US-amerikanische) Social Networks zum Entsetzen europäischer Datenschützer tun – nach Eingabe von Mailadresse und Passwort sämtliche Kontakte eines Users aus dessen persönlichem Adressverzeichnis automatisch ein und speichert diese – um dann jenen vorgefundenen Kontakten, die ihrerseits selbst Twitter-User sind, in der Rubrik “Wem soll ich folgen” den Vorschlag zu unterbreiten, neben anderen Twitterern auch dem Nutzer der Einladungsfunktion zu folgen.

Dass mit der Einladungsfunktion eine Zielgruppe auch nur einigermaßen vollständig erreicht werden kann, ist jedoch aus mehreren Gründen zweifelhaft:

Solange man über die E-Mail-Adressen in seinem elektronischen Adressverzeichnis nicht verfügt, eignet sich die Funktion nicht. Und viele Journalisten (die Singhammers Zielgruppe waren) geben ihre persönlichen E-Mail-Adressen äußerst ungern weiter und verbreiten stattdessen öffentlich nur allgemeine Redaktions-Adressen.

Twitter macht einen Vorschlag zum Folgen außerdem nur denjenigen, die in ihren Profil-Einstellungen angegeben haben, dass sie über ihre bei der eigenen Registrierung angegebene E-Mail Adresse auch gesucht werden dürfen.

Natürlich ist zudem unsicher, ob jeder Twitterer die betont funktional wirkende Rubrik “Wem soll ich folgen” überhaupt beachtet – während ein persönlicher Brief mit Sicherheit Beachtung findet.

Aber mehr noch: Es ist sogar nicht einmal unwahrscheinlich, dass viele Individuen der Zielgruppe die von Twitter an sie gerichteten Vorschläge gar nicht auf dem Bildschirm zu sehen bekommen – beispielsweise wegen Nutzung von Twitter via Smartphone (siehe dazu beispielsweise http://polkomm.net/x/jjy1kt).

Die Einladungsfunktion ist also ein lückenhaft arbeitendes Tool. Aber schwerer wiegt noch: Sie ist auch juristisch fragwürdig. Erst im Feburar hatte Twitter den Zorn von Usern und Datenschützern auf sich gezogen, weil herauskam, dass solche hochgeladenen Adressdaten 18 Monate lang gespeichert bleiben und das natürlich ohne Wissen der Betroffenen (http://polkomm.net/x/4md3gt).

Gegen eine ähnliche Funktion Facebooks, den so genannten “Friend Finder”, laufen Verbraucherverbände und Datenschützer denn auch seit langem Sturm. Erst im März erst hat das Berliner Landgericht den “Friend Finder” Facebooks für rechtswidrig erklärt (http://polkomm.net/x/y46ai0). Facebook musste Änderungen vornehmen.

Aber selbst, wenn man davon ausgeht, dass Twitter vor Gericht mit seiner Funktion bessere Karten haben könnte als Facebook, weil keine E-Mails versendet werden und man hochgeladene Adressdaten eigenhändig bereits vor Ablauf von 18 Monaten selbst wieder löschen kann, so verbietet sich in der Politischen Online-Kommunikation die Verwendung eines solchen Tools bereits dann, wenn auch nur der Eindruck entstehen könnte, dass man persönliche Daten Dritter ohne deren Zustimmung in die Server-Landschaft von profitorientierten Internetkonzernen hochlädt ohne genau abschätzen zu können, wie diese Daten verwendet werden.

Natürlich bietet Twitter zu der Einladungsfunktion eine Alternative an: Man kann auch, wie das Unternehmen es nennt, “Freunde via E-Mail zu Twitter einladen”. Die Mail, die Personen dann von Twitter erhalten, auch wenn sie möglicherweise gar nicht selbst bei dort registriert sind, strotzt nur so vor werblichem Charakter zugunsten der Micro-Blogging-Plattform (“Finde heraus, warum ich Twitter liebe”).

Hier dürfte Twitter vor Gericht schlechte Karten haben, wenn man sich die entsprechende Passage des Urteils des Landgerichts Berlin zum Friend Finder von Facebook vor Augen führt (http://polkomm.net/x/cypc84):

Werbung ist jedes Verhalten einer Person zu Gunsten eines eigenen oder fremden Unternehmens, das auf die Förderung des Absatzes oder des Bezugs von Waren oder Dienstleistungen gerichtet ist [...]. Dies trifft auf die Einladungs- und Erinnerungs-Mails zu. Sie haben zwar aus Sicht der Nutzer einen sozialen Zweck, dienen gleichzeitig aber der Förderung des Absatzes von Dienstleistungen der Beklagte, da sie auf eine Vergrößerung ihrer Nutzerschaft gerichtet sind.

Die Versendung der Mails beruht auch nicht allein auf dem Entschluss eines Dritten, also der einladenden Nutzer (vgl. dazu OLG Nürnberg MMR 2006,111,112). Vielmehr handeln diese und die Beklagte nach Ansicht der Kammer als Mittäter (§ 830 Abs. 1 Satz 1 BGB), da sie bewusst und gewollt bei der Versendung der E-Mails zusammenwirken: Die Nutzer stellen die erforderlichen Adressdaten, während die Beklagte die Erstellung der Mails und deren Versand übernimmt.

Anders ausgedückt: Solche Mails sind Spam.

Jeder Berater Singhammers (sofern es die, wie vom Tagesspiegel unterstellt, wirklich gibt) hätte ihm also von der Nutzung beider Funktionen dringend abraten müssen.

Es gibt aber noch einen wichtigen Grund, aufgrund dessen versierte Berater durchaus zum Versand des in der Netzgemeinde so belächelten Schreibens geraten hätten: Singhammer möchte ja über Twitter insbesondere eine spezielle Zielgruppe erreichen, nämlich Journalisten. Denn Journalisten nutzen zunehmend Twitter und berücksichtigen oder zitieren in ihrer Berichterstattung die Tweets von Politikern.

Damit aber die Vorschlagsfunktionen von Twitter den Account eines Politikers möglichst oft Journalisten vorschlagen, muss dieser Politiker einen entsprechend hohen Anteil von Journalisten unter seinen Followern haben. Denn Twitter schlägt per Algorithmus immer analoge Beziehungen vor. Folgt man überwiegend Schlagerstars, werden einem schwerpunktmäßig weitere Schlagerstars zum Folgen vorgeschlagen. Folgt man hingegen eher Fußballprofis, erhält man weitere Kicker zum Folgen angeboten. Twitter weiß aber dabei nicht wirklich, was der Unterschied zwischen einem Schlagstar und einem Fußballprofi ist. Sondern Twitter weiß nur, dass viele User anderen nach einem ähnlichen Schema folgen: Viele Twitterer folgen also beispielsweise auf ähnliche Weise einer Schar von relativ wenigen Twitter-Usern, die aber ihrerseits viele, in der Zusammensetzung wiederum ähnliche Follower haben. Große Gruppen, beispielsweise Fans, fokussieren auf kleine Gruppen, beispielsweise Fußballprofis. Der Rest ist relativ simpel: Folgen Millionen Menschen den deutschen Fußballnationalspielern, identifiziert Twitter diesen Cluster und kann denen, die beispielsweise Mesut Özil noch nicht folgen (obwohl Millionen andere das tun) den Mittelfeldspieler vorschlagen.

Zurück zum Abgeordneten Johannes Singhammer: Hätte er nicht ganz gezielt bei Journalisten für seinen Account geworben (aus genannten Gründen natürlich auch offline) bestünde das Risiko, dass beispielsweise recht bald Follower aus Singhammers Wahlkreises München Nord die Twitter-Gefolgschaft dominieren oder auch die große Zahl bundespolitisch Interessierter Bürger, die vielen Bundestagsabgeordneten folgen, um Politik hautnah zu beobachten. Die Vorschlagfunktion von Twitter würde den Abgeordneten Singhammer dann aber überwiegend nur noch weiteren Wahlkreisbewohnern oder politisch interessierten Bundesbürgern zum Folgen vorschlagen. Journalisten würden den Vorschlag, Singhammer zu folgen, entsprechend seltener sehen.

Der Brief war also auch geeignet, die Zusammensetzung des Followernetzwerkes Singhammers, zumindest in der Anfangsphase, positiv zu beeinflussen.

Es ist nicht von der Hand zu weisen, dass Johannes Singhammer noch wirkungsvoller twittern könnte als bislang – etwa, indem er lernt Hashtags zu verwenden. Oder auf Kontexte verlinkt, die er kommentiert. Oder sich auch dadurch vernetzt, dass er anderen Twitterern folgt. Allein, der Brief, über den sich alle (Netz-)Welt lustig macht, war durchaus sinnvoll.

Wieso eigentlich finden sich wieder einmal so wenige ernsthafte Kritiker des Google-Konzerns? Bettina Wulff klagt gegen Googles Autovervollständigung bei Sucheingaben, weil ihr Name dort – aufgrund von haltlosen Gerüchten, denen Google-Nutzer nachgehen – automatisch mit Begriffen wie “Prostituierte” und “Escort” kombiniert wird. Was jedem Autor völlig zu Recht eine Beleidigungsklage einbringen würde, wird nun im Fall Google zur offenen rechtstheoretischen Fragestellung, die – ausgehend von Berichterstattung der Süddeutschen Zeitung (http://polkomm.net/x/ode2t3) – alle möglichen Rechts-, Kommunikations- und Politik-Experten zu einer ergebnisoffenen Debatte einlädt, die sich dann zugunsten von Google äußern.

Wenn auch Ex-BamS-Chef und Ex-Wahlkampfberater Michael Spreng – als so ziemlich einziger Google-Kritiker – schimpft (http://polkomm.net/x/apf8u3), es “wäre ein zivilisatorischer Rückschritt, wenn es im Internet weiter erlaubt würde, die Regeln unseres Zusammenlebens außer Kraft zu setzen“, so ist der Tenor der meisten Beiträge: Google kann ja nichts dafür, wonach die User suchen und ist deshalb von Schuld, Haftung und Verantwortung freizusprechen.

So folgt, wie viele andere Kommentatoren, auch der Rechtsanwalt Thomas Stadler in seinem Blog Internet-Law der These von Google, der Suchmaschinenkonzern könne doch nichts für die Eingaben seiner User (http://polkomm.net/x/qgo9j5): “Denn bei der Auto-Complete-Funktion werden laut Google nur solche Ergänzungen vorgeschlagen, die bereits zuvor besonders häufig von den Nutzern verwendet worden sind. Es handelt sich also lediglich um eine automatisierte technische Suchhilfe. Hätte die Klage von Bettina Wulff Erfolg, dann würde Google wohl täglich mit der Aufforderung konfrontiert werden, die Anzeige irgendwelcher Ergänzungsvorschläge zu unterlassen und müsste die Funktion der Autovervollständigung deshalb wohl insgesamt abschalten.

In der Tat wird Google nicht zum ersten Male mit einer solchen Aufforderung konfrontiert. Aber das macht die Sache nicht besser:

In einem diskreten Vergleich mit französischen Menschenrechtsgruppen hat sich Google beispielsweise verpflichtet dafür zu sorgen, dass die Autovervollständigung nicht Personennamen um den Begriff “juif” (französisch für “jüdisch”) ergänzt und damit antisemitischen Tendenzen Vorschub leistet (http://polkomm.net/x/5rkaog).

Die verzweifelte Anfrage einer Schulleitung, die erreichen wollte, dass der Name ihrer Schule nicht von Google um den Begriff “Selbstmord” ergänzt wird, wurde im Google-Produktforum nicht etwa von Google selbst, sondern ausschließlich von anderen Usern beantwortet – selbstverständlich nur mit Achselzucken (http://polkomm.net/x/y3gja2).

Ebenso endete im gleichen Forum die Anfrage eines Touristik-Unternehmens, das seinen Namen ungern um den Begriff “Betrug” ergänzt sehen wollte (http://polkomm.net/x/e1h6sb).

Und ein Japaner verlor seinen Job und fand keinen neuen, weil die Google-Autovervollständigung bei der Suche seinen Namen um eine Reihe von schweren Straftatbeständen ergänzte – vermutlich wegen Namensgleichheit mit einem tatsächlichen Straftäter (http://polkomm.net/x/k2hjiu).

Geradezu erschreckend ist auch eine Anfrage im Google-Produktforum, die nahelegt, dass sich die Autovervollständigung leicht missbrauchen lässt: Demnach könnte Software die Rolle von echten Usern übernehmen und so die Vorschläge böswillig manipulieren (http://polkomm.net/x/6g59a6). Der Fragesteller vermutet, dass eine nicht genannte Person auf diese Weise von einem Cyber-Denunzianten in die Nähe zu Scientology gerückt werden soll.

Die Frage stellt sich bereits hier, welche Interessen (oder im Falle eines Gerichtsverfahrens: Rechtsgüter) gegeneinander abzuwägen wären: Darf eine anonyme Masse, die in keinster Weise auf Gegendarstellung, Unterlassung, Widerruf oder Schadenersatz verklagt werden kann und somit frei von rechtlicher Verantwortlichkeit agiert, Inhalte einer Suchmaschine bestimmen, die mit einem 90-prozentigen Marktanteil quasi Monopolist für den Zugang zu einem maßgeblichen Teil der Inhalte des gesamten Internets ist? Darf diese Masse also ein aus ihren atomisierten verleumderischen Abfragen automatisch zusammengesetztes, rufmordendes und existenzvernichtendes Ungeheuer generieren? Und das nur, weil die Suche dadurch manchmal etwas exakter oder bequemer wird? (Ganz nebenbei: Über den bescheidenen Nutzen kann man sich auf der Website www.autocompletefail.com ein Bild machen.)

Müsste nicht hier etwas Ähnliches gelten wie die so genannte Forenhaftung (http://polkomm.net/x/xddx15), nach der Betreiber von Communities spätestens ab Kenntnis von Rechtverletzungen in den Postings ihrer Nutzer ebenfalls haftbar gemacht werden können?

Einstweilen jedoch folgen – wie die veröffentlichte Meinung im Web – auch die deutschen Gerichte dem Mantra des Suchmaschinengiganten von der reinen Unschuld seines Algorithmus: “Google schlägt diese Begriffe nicht selbst vor – sämtliche in Autovervollständigung angezeigten Begriffe wurden zuvor von Google-Nutzern eingegeben“, wird Kay Oberbeck, Sprecher von Google Nord-Europa in der Süddeutschen Zeitung zitert. Google habe, so Overbeck in Bezug auf die Klage von Bettina Wulff, “in Deutschland bereits fünf ähnliche Verfahren geführt – jedesmal sind die Gerichte unserer Darstellung gefolgt und haben die Klagen abgewiesen“.

Doch es lohnt sich, wenn man sich die – angeblich “ohne menschliches Zutun” arbeitende (http://polkomm.net/x/cm0dhf) – Funktionsweise der Autovervollständigung einmal genauer ansieht: Sie ist zunächst einmal nicht nur ein einziger, sondern eine ganze Reihe von Algorithmen, aber – was wichtiger ist – in ihrem Zentrum steht eine Datenbank, in der die Sucheingaben gesammelt und Vorschläge modelliert werden.

Diese Datenbank (auf die die Google-User keinen direkten Zugriff haben, sondern die dem Internetkonzern gehört) wirft selbstverständlich nicht einfach alles aus, was Suchmaschinennutzer eingegeben haben. Wie ein findiger User herausfand, hat Google – offensichtlich aus Rücksicht auf Prüderie im Heimatland USA – bestimmte Begriffe mit sexuellem Kontext von der Autovervollständigung ausgenommen (http://polkomm.net/x/9mri4d). Diese Ausnahmen sind allerdings willkürlich. So ist beispielsweise das Wort “sex”, aber nicht der im vorliegenden Fall problematische Begriff “prostituierte” blockiert.

Auch in zweien der oben genannten Fälle hat Google die Autovervollständigung redaktionell optimiert: Sowohl eine Vervollständigung von Sucheingaben nach Personen mit dem Wort “juif” als auch eine Ergänzung des japanischen Klägers mit Straftatbeständen sind blockiert.

Ebenfalls ergänzt Google – nach eigener Aussage, um der Software- und Medienpiraterie entgegenzuwirken – Begriffe nicht mehr, die im Zusammenhang mit Filesharing stehen (http://polkomm.net/x/q4cvmc).

Doch nicht nur das Blockieren bestimmter Begriffe stellt eine redaktionelle Bearbeitung der von Nutzern getätigten Sucheingaben dar. Denn Google modelliert die angezeigten Vorschläge kontinuierlich im Hinblick auf deren zeitliche Abfolge. So heißt es in den Hilfetexten der Google-Website (http://polkomm.net/x/1erqm6): “Die Daten der automatischen Vervollständigung werden regelmäßig aktualisiert, sodass auch neue Suchbegriffe und Begriffe mit zunehmender Beliebtheit angeboten werden.

Es leuchtet ein, dass die Autovervollständigung des Namens “Bettina Wulff” jeweils unterschiedlich ausfallen würde, sofern man einmal die Sucheingaben weniger Tage als Datenbasis nähme und einmal jene aus den vier Jahren seit der Eheschließung mit dem damaligen niedersächsischen Ministerpräsidenten Christian Wulff. Es dürfte naheliegen, dass die Brisanz der Autovervollständigung auch darin begründet liegt, dass sie versucht aktuell zu sein, anstatt beispielsweise das Leben einer Person in Gänze zu würdigen.

Der Einfluss des Google-Konzerns auf die Inhalte der Autovervollständigung ist also durchaus als groß anzusehen. Gerichte könnten Google daher beispielsweise dazu verurteilen,

[1] Namen generell nicht mehr in die Autovervollständigung nehmen (was bisher in Einzelfällen, wie etwa dem Fall in Japan, bereits geschieht),

[2] die Kombination von Namen mit Begriffen von verleumderischer Qualität generell zu unterbinden (ähnlich der bereits praktizierten Blockade von Begriffsgruppen mit sexuellem Kontext oder Bezug zu Filesharing),

[3] die Aktualität so herabzusetzen, dass Gerüchte es nicht leichter in die Autovervollständigung schaffen als etwa ihre öffentlichen Richtigstellungen und

[4] sie könnten analog zur Rechtsprechung bezüglich der Forenhaftung Google als Störer ansehen, der einzelne rechtswidrige Inhalte nach entsprechenden Hinweisen jeweils auch dann zu beseitigen hat, wenn er selbst nicht der Urheber ist.

Solche gerichtlichen Vorgaben wären mitnichten das Ende der Autovervollständigung, wie es der Medienjournalist Stefan Niggemeier unterstellt (http://polkomm.net/x/fq7i95). Denn Google hat ein weiteres probates Mittel zur Optimierung der Funktionalität selbst in der Hand – den PageRank, mit dem die Suchmaschine so erfolgreich geworden ist: Nicht nur Suchbegriffe gehen nämlich in die Algorithmen ein, sondern ebenso die Inhalte potenzieller Ergebnisseiten, wie Google auf seinen Hilfeseiten selbst darlegt (http://polkomm.net/x/1erqm6): “Während Ihrer Eingabe werden mithilfe des Google-Algorithmus basierend auf den Suchaktivitäten anderer Nutzer und auf Inhalten der von Google indexierten Webseiten Suchanfragen vervollständigt und angezeigt.

Es wäre also, wenn auch mit gewissem Mehraufwand, durchaus möglich, nur solche Suchwortkombinationen vorzuschlagen, für die es auch Suchergebisse gibt, deren Suchtreffer in der Gesamtheit Linkpopularität (hier: PageRank) erworben haben. Sprich: Entweder einige große Onlinemedien mit hohem PageRank haben Artikel mit der entsprechenden Suchwortkombination publiziert oder eine wirklich große Zahl kleinerer Sites, bei denen sich der PageRank entsprechend saldiert – anderenfalls wird eine von Usern häufig eingegebene Suchwortkombination nicht anderen Nutzern vorgeschlagen. Im vorliegenden Fall der Bettina Wulff wäre die Autovervollständigung dann unproblematisch ausgefallen, denn lange Zeit hatten nur zwei Blogger (mit geringem PageRank) entsprechende Gerüchte öffentlich kolportiert.




Powered by WordPress. Copyright © <pol:komm:net>.