Eine Dekade Internet IV

oder: Der Tod der Suchmaschinen, der „SEO“ und allem anderen.

(Weiter gehts mit dem Thema Umwälzungen. Die Vorgeschichte dazu findet sich hier, hier und hier.)

Erstens: Suchmaschinen sind eine aussterbende Spezies. Zweitens: Alles Gefasel von der „Relevanz“, ich kann es nicht mehr hören. Je mehr ich mich mit dem Prinzip des Hypertexts befasse, desto klarer wird wir, wie unübersehbar fehlerhaft das System als solches ist.

Tatsächlich sind die Suchergebnisse einer jeden Suchmaschinen alles andere als „relevant“.

a) Suchmaschinenergebnisse sind eine künstlich getroffenen Vorauswahl

Welche digitale Inhalte erfasst werden können, bestimmen technologische Voraussetzungen. Text auf Bildern, gesprochene Texte, Technologien wie Flash oder schlicht die Kapazitätsgrenze des Suchindex einer Suchmaschine filtern Inhalte vor und schließen weite Teile schlichtweg aus.

b) Suchmaschinenergebnisse sind Manipulation

„SEO“, die so genannte Suchmaschinenoptimierung, ist – jede philosophische/ethische Diskussion darüber ausklammernd – in vielen Fällen ein euphemistisches Schlagwort für die Manipulation der Ursprungsinformation. Fast alle Maßnahmen, die über eine semantisch korrekte Codedarstellung hinausgehen, verändern die Mutterinformation. Mal mehr, mal weniger:

Überschriften, Seitentitel werden Wortenau angepasst, „Keyworddichten“ gemessen und verändert und der „Backlinkhandel“ blühte, bis Google einen Riegel vorschob.

Das soeben verlorene Korsett der Zeilenlänge und Druckerschwärze, welchem der Text vor so kurzem erst entrann; in Zeiten der Suchmaschinenoptimierung, wie sie heute betrieben wird, bekommt er es wieder angelegt. Wer ob der harten Worte Zweifel an dieser Aussage hegt, der möge einmal versuchen, wahrhaftig informative und aussagekräftige Inhalte ohne unmittelbare (!) kommerzielle Hintergründe zu den Themen „Private Krankenkasse““ oder Kredite zu finden. Wikipedia zählt nicht.

c) Suchmaschnenergebnisse sind digitale Ergebnisse

Ohne Zweifel, digital ist die Zukunft. Beinahe jede (!) schriftliche- oder bildliche Information, die sekündlich in den Industriestaaten im Jahr 2008 erstellt wird, ist digital. Aber Informationen, die zehn Jahre alt sind? Zwanzig? fünfzig? Mündliches Wissen? Und vor allem: afrikanisches Wissen? Chinesisches? Der bereits vorliegende Datenbestand mag unvorstellbar gigantisch sein, ist aber verschwindet gering gegen das Wissen der Welt, was analog vorliegt.

Und damit sind wir beim ersten Kernproblem: Das Wissen der Welt liegt in Größenordnungen, die für einen Menschen nicht fassbar sind. Lediglich in einem erschreckend geringen Zahlenraum „begreifen“ wir Zahlen tatsächlich. 10 Millionen oder 100 Millionen jedoch, wer vermag schon zu sagen wie viel das tatsächlich ist. Viel. Haben uns die Medien gesagt.

Ergo: Technologische Probleme werden immer gelöst, früher oder später. Bücher werden bereits jetzt in großem Stil digitalisiert und Texterkennungsmechanismen sind auf dem besten Weg, ausgereift zu sein. Und das Internet erreicht früher oder später jeden Kontinent, schon jetzt sind mehr Chinesen online als Amerikaner und bis sie frei schreiben dürfen ist eine Frage der Zeit. Wir können also davon ausgehen, dass die Punkte a) und c) gelöst werden.

Bleibt das Problem Mensch: Je größer der Wissensbestand in den Suchmaschinen, desto gezielter und genauer müssen die Suchergebnisse werden. „Seite 1 von 3 Milliarden“ – nicht nur vorstellbar sondern eine reine Frage der Zeit unter den Voraussetzungen des Status Quo. Und wo immer eine große Anzahl an Bewerbern zusammenkommt, desto härter wird der Wettbewerb. Hochkonjunktur für Suchmaschinenoptimierer.

Und so sind wir wieder bei den Verifikationsmaschinen, das Zentrum jeder Überlegung, egal aus welcher Richtung sie kommt. Die Verifikationsmaschine, die auf rein technologischer Basis Inhalte prüft, und auf das Stichwort prüft, was derzeit verstümmelt und entstellt als „Relevanz“ daherkommt: Qualität.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.