Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Suchmaschinen im Internet an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten unmittelbar den Wert einer bevorzugten Positionierung in Resultaten und recht bald fand man Einrichtung, die sich auf die Optimierung ausgebildeten.
In Anfängen bis zu diesem Zeitpunkt der Antritt oft bezüglich der Transfer der URL der richtigen Seite an die verschiedenartigen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Kritische Auseinandersetzung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Webserver der Suchseiten, wo ein zweites Programm, der so genannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die frühen Typen der Suchalgorithmen basierten auf Informationen, die mit den Webmaster selber vorliegen werden konnten, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Internet wie ALIWEB. Meta-Elemente geben eine Gesamtübersicht via Essenz einer Seite, dennoch stellte sich bald heraus, dass die Inanspruchnahme er Hinweise nicht solide war, da die Wahl der angewendeten Schlagworte durch den Webmaster eine ungenaue Präsentation des Seiteninhalts wiedergeben vermochten. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Unterseiten bei spezifischen Suchen listen.[2] Auch versuchten Seitenersteller mehrere Punkte innerhalb des HTML-Codes einer Seite so zu beeinflussen, dass die Seite besser in Suchergebnissen aufgeführt wird.[3]
Da die damaligen Suchmaschinen im Netz sehr auf Merkmalen angewiesen waren, die ausschließlich in Koffern der Webmaster lagen, waren sie auch sehr empfänglich für Abusus und Manipulationen in der Positionierung. Um bessere und relevantere Testurteile in den Serps zu erhalten, mussten sich die Anbieter der Suchmaschinen an diese Faktoren anpassen. Weil der Triumph einer Suchseiten davon abhängig ist, wichtige Suchresultate zu den gestellten Suchbegriffen anzuzeigen, vermochten ungeeignete Testurteile darin resultieren, dass sich die Nutzer nach sonstigen Entwicklungsmöglichkeiten für den Bereich Suche im Web umblicken. Die Lösung der Suchmaschinen inventar in komplexeren Algorithmen fürs Rangordnung, die Aspekte beinhalteten, die von Webmastern nicht oder nur nicht leicht beherrschbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Urahn von Die Suchmaschine – eine Anlaufstelle, die auf einem mathematischen Matching-Verfahren basierte, der mit Hilfe der Verlinkungsstruktur Seiten gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch zusätzliche Internet Suchmaschinen orientiert in der Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.