Tag: SEO
Mitte der 1990er Jahre fingen die 1. Internet Suchmaschinen an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten unmittelbar den Wert einer lieblings Listung in den Resultaten und recht bald entstanden Behörde, die sich auf die Aufwertung ausgerichteten.
In Anfängen ereignete sich die Aufnahme oft über die Übermittlung der URL der jeweiligen Seite bei der diversen Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Server der Suchseite, wo ein 2. Anwendung, der sogenannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu weiteren Seiten).
Die zeitigen Versionen der Suchalgorithmen basierten auf Informationen, die mit den Webmaster selber bestehen wurden von empirica, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Eindruck via Essenz einer Seite, dennoch stellte sich bald raus, dass die Inanspruchnahme er Details nicht verlässlich war, da die Wahl der benutzten Schlüsselworte dank dem Webmaster eine ungenaue Präsentation des Seiteninhalts widerspiegeln hat. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Websites bei besonderen Stöbern listen.[2] Auch versuchten Seitenersteller verschiedenartige Attribute binnen des HTML-Codes einer Seite so zu steuern, dass die Seite stärker in den Suchergebnissen gelistet wird.[3]
Da die späten Search Engines sehr auf Merkmalen abhängig waren, die nur in Fingern der Webmaster lagen, waren sie auch sehr labil für Delikt und Manipulationen im Ranking. Um höhere und relevantere Urteile in den Resultaten zu erhalten, mussten sich die Anbieter der Suchmaschinen an diese Ereignisse anpassen. Weil der Erfolg einer Suchmaschine davon abhängig ist, wichtigste Suchresultate zu den gestellten Keywords anzuzeigen, konnten unpassende Testurteile dazu führen, dass sich die Mensch nach diversen Chancen bei der Suche im Web umsehen. Die Lösung der Suchmaschinen im WWW inventar in komplexeren Algorithmen für das Rangfolge, die Gesichtspunkte beinhalteten, die von Webmastern nicht oder nur schwierig lenkbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Stammvater von Suchmaschinen – eine Anlaufstelle, die auf einem mathematischen Suchalgorithmus basierte, der anhand der Verlinkungsstruktur Websites gewichtete und dies in den Rankingalgorithmus reingehen ließ. Auch alternative Internet Suchmaschinen relevant bei Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.