Tag: SEO
Mitte der 1990er Jahre fingen die 1. Suchmaschinen im Netz an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten unmittelbar den Wert einer nahmen Positionierung in den Resultaten und recht bald entwickelten sich Organisation, die sich auf die Aufbesserung qualifizierten.
In den Anfängen geschah die Aufnahme oft zu der Übermittlung der URL der entsprechenden Seite in puncto verschiedenartigen Search Engines. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Webserver der Search Engine, wo ein zweites Softwaresystem, der so genannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu anderen Seiten).
Die zeitigen Versionen der Suchalgorithmen basierten auf Informationen, die mit den Webmaster sogar vorhanden wurden von empirica, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben einen Eindruck über den Inhalt einer Seite, allerdings registrierte sich bald herab, dass die Anwendung er Ratschläge nicht vertrauenswürdig war, da die Wahl der benutzten Schlüsselworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts reflektieren hat. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Internetseiten bei speziellen Ausschau halten listen.[2] Auch versuchten Seitenersteller mehrere Fähigkeiten innert des HTML-Codes einer Seite so zu steuern, dass die Seite größer in Suchergebnissen aufgeführt wird.[3]
Da die zeitigen Internet Suchmaschinen sehr auf Punkte dependent waren, die einzig in Taschen der Webmaster lagen, waren sie auch sehr vulnerabel für Schindluder und Manipulationen im Ranking. Um überlegenere und relevantere Testurteile in Ergebnissen zu bekommen, mussten wir sich die Anbieter der Suchmaschinen im Netz an diese Ereignisse adaptieren. Weil der Gewinn einer Suchseiten davon anhängig ist, wichtige Suchergebnisse zu den inszenierten Suchbegriffen anzuzeigen, konnten unpassende Urteile zur Folge haben, dass sich die Benutzer nach weiteren Varianten bei der Suche im Web umsehen. Die Antwort der Search Engines lagerbestand in komplexeren Algorithmen fürs Platz, die Punkte beinhalteten, die von Webmastern nicht oder nur schwierig kontrollierbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Urahn von Suchmaschinen – eine Search Engine, die auf einem mathematischen Matching-Verfahren basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in Rankingalgorithmus einfluss besitzen ließ. Auch übrige Suchmaschinen im Netz bedeckt bei Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.