Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Suchmaschinen im WWW an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten schnell den Wert einer lieblings Listung in den Suchergebnissen und recht bald entstanden Firma, die sich auf die Verfeinerung qualifizierten.
In den Anfängen bis zu diesem Zeitpunkt die Aufnahme oft zu der Übertragung der URL der entsprechenden Seite an die verschiedenen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Webserver der Suchseiten, wo ein zweites Computerprogramm, der allgemein so benannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu diversen Seiten).
Die damaligen Versionen der Suchalgorithmen basierten auf Angaben, die aufgrund der Webmaster auch vorhanden wurden, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben eine Gesamtübersicht per Gegenstand einer Seite, dennoch setzte sich bald heraus, dass die Einsatz er Hinweise nicht solide war, da die Wahl der eingesetzten Schlagworte durch den Webmaster eine ungenaue Vorführung des Seiteninhalts reflektieren kann. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Internetseiten bei spezifischen Recherchieren listen.[2] Auch versuchten Seitenersteller mehrere Fähigkeiten innert des HTML-Codes einer Seite so zu beherrschen, dass die Seite passender in Ergebnissen aufgeführt wird.[3]
Da die zeitigen Suchmaschinen sehr auf Aspekte dependent waren, die einzig in Fingern der Webmaster lagen, waren sie auch sehr empfänglich für Missbrauch und Manipulationen im Ranking. Um vorteilhaftere und relevantere Testergebnisse in den Serps zu bekommen, mussten sich die Anbieter der Suchmaschinen an diese Umständen adjustieren. Weil der Ergebnis einer Anlaufstelle davon abhängig ist, wichtige Suchresultate zu den gestellten Suchbegriffen anzuzeigen, vermochten ungeeignete Resultate dazu führen, dass sich die Mensch nach sonstigen Chancen bei der Suche im Web umblicken. Die Antwort der Suchmaschinen vorrat in komplexeren Algorithmen beim Platz, die Merkmalen beinhalteten, die von Webmastern nicht oder nur nicht ohne Rest durch zwei teilbar leicht beherrschbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Urahn von Bing – eine Anlaufstelle, die auf einem mathematischen KI basierte, der mit Hilfe der Verlinkungsstruktur Unterseiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch sonstige Suchmaschinen im Internet relevant in der Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine