Tag: SEO
Mitte der 1990er Jahre fingen die 1. Internet Suchmaschinen an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten rasch den Wert einer bevorzugten Listung in den Ergebnissen und recht bald entwickelten sich Einrichtung, die sich auf die Besserung spezialisierten.
In Anfängen passierte die Aufnahme oft zu der Übermittlung der URL der richtigen Seite in puncto diversen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Webserver der Search Engine, wo ein weiteres Software, der sogenannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu ähnlichen Seiten).
Die späten Varianten der Suchalgorithmen basierten auf Angaben, die durch die Webmaster eigenhändig gegeben worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben einen Gesamteindruck per Gegenstand einer Seite, aber registrierte sich bald herab, dass die Benutzung der Hinweise nicht ordentlich war, da die Wahl der verwendeten Schlüsselworte dank dem Webmaster eine ungenaue Beschreibung des Seiteninhalts spiegeln konnte. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Internetseiten bei besonderen Ausschau halten listen.[2] Auch versuchten Seitenersteller verschiedenartige Eigenschaften in einem Zeitraum des HTML-Codes einer Seite so zu beeinflussen, dass die Seite größer in den Ergebnissen gefunden wird.[3]
Da die damaligen Suchmaschinen im WWW sehr auf Punkte abhängig waren, die bloß in Koffern der Webmaster lagen, waren sie auch sehr vulnerabel für Missbrauch und Manipulationen in der Positionierung. Um vorteilhaftere und relevantere Testurteile in Ergebnissen zu bekommen, mussten wir sich die Operatoren der Suchmaschinen an diese Rahmenbedingungen adaptieren. Weil der Erfolg einer Recherche davon abhängig ist, essentielle Suchergebnisse zu den gestellten Keywords anzuzeigen, vermochten ungünstige Resultate darin resultieren, dass sich die Anwender nach diversen Möglichkeiten wofür Suche im Web umgucken. Die Rückmeldung der Suchmaschinen lagerbestand in komplexeren Algorithmen beim Platz, die Merkmalen beinhalteten, die von Webmastern nicht oder nur kompliziert manipulierbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Stammvater von Bing – eine Recherche, die auf einem mathematischen Routine basierte, der anhand der Verlinkungsstruktur Seiten gewichtete und dies in Rankingalgorithmus einfluss besitzen ließ. Auch andere Internet Suchmaschinen betreffend während der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.