Tag für Tag werden Abertausende von neuen Inhalten ins Netz gestellt. Eine immense Datenmenge, die sich da über die Server ergießt, ohne dass es eine offizielle, übergeordnete Instanz gibt, die auch nur annähernd in der Lage wäre, sie in einer gemeinsamen Gliederung sortiert abzulegen. Manches davon ist reiner Schrott, doch vieles hat wertvollen Informationsgehalt. Durch dieses Volumen blickt längst kein Mensch mehr durch. Das Wichtige vom Unwichtigen zu unterscheiden, ist eine wahre Sisyphusarbeit.

 

Angesichts der globalen Fülle, wüsste man nicht einmal, wo man mit dem Suchen nach spezifischen Daten und Fakten anfangen soll. Die meisten verlassen sich auf einen Helfer, der für sie vorsortiert. Und das ist bei den meisten Google. Etwas zu googlen, das hat sich längst im Sprachgebrauch als Begriff für einen Suchvorgang eingebürgert. Doch wie macht Google das eigentlich?

 

Jeden Beitrag durchzulesen, jedes Bild anschauen zu wollen, wäre völlig illusorisch. Das würde eine Personalstärke voraussetzen, die einfach nicht machbar ist. Deshalb wird die Bewertung aller Inhalte maschinell vorgenommen. IT-Techniker sprechen vom so genannten Algorithmus. Doch, was ist eigentlich ein Algorithmus?

 

Es handelt sich dabei um eine Prüfung von Einzelkriterien in mehreren aufeinander aufbauenden Schritten. Das kann man sich so vorstellen, als werde jeder neu aufgefundene Inhalt durch ein Raster mit vielen Einzeltests geschickt, die nacheinander Aufschluß darüber geben sollen, wo er einzuordnen ist und wie hoch seine Relevanz nach vorgegebenen Anforderungen einzustufen ist. Ähnlich wie bei einer Abiturprüfung, bei der der Kandidat in ganz unterschiedlichen Fächern bestehen muss, wird auch Content durch eine Fülle von Einzelchecks geschleust. Das beginnt damit, wo, das heißt, auf welcher Domain, der „Prüfling“ entdeckt wurde und endet damit, dass man ermittelt, ob auch andere wichtige Seiten auf diesen Inhalt Bezug nehmen, zum Beispiel durch so genannte Backlinks.

 

Das Problem bei der Sache: Jeder, der etwas ins Web stellt, möchte gut gefunden werden und bei den Suchergebnissen möglichst weit vorn stehen. Daraus hat sich mittlerweile eine regelrechte „Wissenschaft“ entwickelt und versierte Fachkräfte, die sich damit auskennen, so genannte Search Engine Optimizer, kurz SEO’s, sind gesuchte Leute. Es sollte also fair zugehen, damit Scharlatane keine Chance haben, wenn sie beispielsweise einen sinnlosen Brei aus zusammenhanglosen Wörtern online stellen, nur um ihr Suchergebnis hochzuschrauben. Da es immer wieder pfiffige Tüftler gibt, die kleinste Lücken im System ausnutzen, um ihrer Web-Präsenz einen Suchvorteil zu verschaffen, muss das Prüfraster von Zeit zu Zeit nachjustiert werden, um allen Herausforderungen weiterhin gewachsen zu sein.

 

Es ist wieder so weit: Google hat am 24.2.2011 in seinem offiziellen Blog mitgeteilt, dass die Algorithmen überarbeitet worden sind. Das Versprechen: In Zukunft sollen Suchergebnisse noch präziser werden. Unbrauchbares, Profis nennen das Search-Spam, soll von vornherein besser ausgefiltert werden. Man schätzt, dass rund zwölf Prozent aller Suchergebnisse sich dadurch verändern werden. Mancher wird eine Position gewinnen, andere müssen hingegen Einbußen hinnehmen.

 

Insbesondere Content-Kopierern geht es an den Kragen. Denn Inhalte einfach abzukupfern und woanders erneut ins Netz zu stellen, das ist nun wirklich keine Kunst und bedeutet keinerlei Erweiterung des Informationsgehaltes für die User. Ist die Datenflut auch noch so gewaltig, kopierte Passagen werden im Nu identifiziert. Das schafft die Google Software bereits locker. Und es läßt sich klar erkennen, wer von wem abgeschrieben hat. Das bedeutet für Imitatoren harte Zeiten – ähnlich wie für die Verfasser mancher Doktorarbeiten…

 

Nicht mehr nur Quantität, sondern vermehrt Qualität wird bevorzugt. Eigenständigkeit ist Trumpf.