Schnelle Indexierung großer Websites - Profit Hunter

Schnelle Indexierung großer Websites - Profit Hunter

Eine weitere Übersetzung eines Artikels von BlueHatSeo. Ich dachte, dass dieser Beitrag der vierte Teil des SEO-Imperiums sein würde, das Eli im Februar angekündigt hatte, aber es ist noch nicht auf dem Blog. Sprechen wir also über die Indexierung von Websites. Ich denke, es wird Ihnen gefallen.

(Übersetzung von der ersten Person.)

Nachdem Sie eine Chamäleon-Site oder Bleach-Links erstellt haben, müssen Sie wahrscheinlich das Problem der Indexierung in Suchmaschinen lösen. Möglicherweise mussten Sie nicht mit großen Websites mit mehr als 20.000 Seiten arbeiten, aber ich glaube, es ist nicht so schwierig, sie zu indexieren. Das einzige, was ich beachten sollte, ist, dass einige der folgenden Methoden am besten für Websites mit einer Seitenzahl von 20 bis 200.000 Seiten geeignet sind. Für Websites mit mehr oder weniger Seiten müssen Sie etwas andere Methoden verwenden.

Besuch der Site über Such-Bots

Hier sind zwei wichtige Aspekte zu beachten. Die erste ist Site-Struktur .
Sie sollten die Site so organisieren, dass Bots die Indexierung so einfach wie möglich machen. Dazu müssen Sie sogenannte "Knotenseiten" erstellen. Knotenseiten sind Seiten mit Links zu internen Seiten. Bei einer Katalog-Site kann die Knotenseite beispielsweise als Seite mit einem Linkblock am unteren Rand betrachtet werden: " Seiten 1, 2, 3, 4, ... ". Der einzige Zweck und Wert einer Hub-Seite besteht darin, dass sie dabei hilft, andere Seiten der Site zu indizieren. Wenn Sie eine große Site indizieren möchten, indizieren Sie zuerst die Hub-Seiten und der Rest der Seiten folgt

Der zweite wichtige Faktor ist die Anzahl der Besuche. Such-Bots der Website .
Je mehr Bots-Traffic vorhanden ist, desto schneller werden die Websitenseiten indiziert, auch wenn das Volume selbst keine Rolle spielt: Was ist die Verwendung von Bots, die die Hauptseite der Site bombardieren und nicht gehen Sie müssen Bots dorthin schicken, wo Sie sie benötigen, und die Struktur, die ich oben beschrieben habe, ist hier sehr wichtig.

Schnelle Indexierung großer Websites - Profit Hunter

Dies ist ein Screenshot der Statistiken einer meiner Chamäleon-Websites. Das ist nur 10 Tage alt. Es gibt sehr wenige Backlinks, aber dies hinderte Bots nicht daran, 10.000 Seiten in 6 Tagen zu indexieren.

Wie ich schon sagte, ist das überhaupt nicht schwierig. Zunächst werden wir uns mit grundlegenden Dingen beschäftigen, dann mit fortschrittlicheren Techniken fortfahren und am Ende das, was ich als "Indexierung von Websites" bezeichne, festlegen. Es liegt an Ihnen, all dies zu entscheiden, wenn Sie nicht bereit sind, diese oder jene Technik anzuwenden oder nicht Dies ist genug Wissen, hören Sie bei den einfacheren Optionen auf.

Interne Links auf Landing-Pages

Dies ist das Einfachste, was Sie sich vorstellen können. Gehen wir zurück zu unserer Chamäleon-Site mit Partner-Links zu einer Dating-Site. Jede Landing Page repräsentiert einige Berge e) Und auf jeder Seite gibt es Links zu nahe gelegenen Städten (oder Sie können diese setzen) (Sie können dazu ein Beispiel von Postleitzahlen verwenden oder Datensätze aus der Datenbank vor und nach der Serie abrufen, der die angegebene Stadt entspricht.) Dadurch werden Such-Bots ermöglicht Bewegen Sie sich von einer Landing-Seite zu einer anderen, bis alle Seiten der Site indexiert wurden.

Eine umgekehrte und / oder rotierende Site-Map

Sie haben sicherlich eine einfache Site-Map mit Ihrer Site verschraubt es bezieht sich auf alle Seiten der Ressource. Sie sagen, Suchbots verweisen in Bezug auf die Anzahl der Links, auf die sie zugreifen können, anders auf andere Seiten als auf andere Seiten. Wenn Sie jedoch über 20.000 Seiten verfügen und alle indiziert werden müssen, ist eine Standardkarte möglicherweise unwirksam.

Wenn wir durch die Tatsache abgestoßen werden, dass ein Bot nur eine bestimmte Anzahl von Links aus der Sitemap führt, müssen wir sicherstellen, dass er alle Links auf irgendeine Weise abdeckt. Wenn Sie auf 5k Seiten eine kleine Ressource haben, müssen Sie sich kaum darum kümmern, aber wenn Sie eine Chamäleon-Site für 30k + Adressen haben, kann eine Standard-Sitemap Zeitverschwendung bedeuten. Tatsache ist, dass Links von der Hauptseite zu internen Seiten mit einer niedrigen Nummer in der Datenbank führen. In ähnlicher Weise ist die Sitemap angeordnet - zuerst werden die ersten Zeilen in der Datenbank ausgegeben, dann die letzten. In einer solchen Situation laufen Bots auf den gleichen Seiten.

Um das Problem zu lösen, erweitern Sie die Sitemap um 180 Grad . Ersetzen Sie dazu ORDER BY 'id' durch ORDER BY 'id' DESC in der Datenbank (das DESC-Attribut bedeutet, dass die letzten Seiten zuerst angezeigt werden und die ersten Seiten die letzten sind). So werden die Seiten, die in der Regel den Schwanz der Karte einweben, sofort die Aufmerksamkeit von Bots auf sich ziehen, und diese werden sie schnell indizieren. Wenn es keine Probleme mit der internen Neuverknüpfung gibt, indizieren Bots Seiten auf beiden Seiten der Datenbank und konvergieren schließlich in der Mitte.In diesem Fall erfolgt die vollständige Indexierung der Site viel schneller, als wenn die Bots schrittweise von der ersten bis zur letzten Seite gehen würden.

Noch besser ist es, eine rotierende Standortkarte zu erstellen. Angenommen, Sie haben 30.000 Seiten. Während der ersten Woche sollte das Layout der Seiten auf der Karte folgendermaßen aussehen: 30.000-1. Dann nehmen Sie die ersten 5k-Seiten und übertragen sie an das Ende der Karte. Jetzt sieht die Karte so aus: 25.000-1: 30.000-25.001. Zu Beginn der dritten Woche scrollen Sie die Karte erneut und jetzt sieht es so aus: 20.000-1: 30,30.000-20.001. Und so weiter bis zum Ende. Diese Methode ist sehr effektiv.

Links zu internen Seiten anderer Websites

Mit dieser Methode können Sie auch den Boto-Verkehr auf den internen Seiten der Website erheblich erhöhen. Dank ihm werden Sie in der Lage sein, mit der Nase Bots in den Bereichen zu stoßen, die sie hartnäckig ablehnen. Damit die Operation erfolgreich verläuft, werden mit den Links zu den Knotenseiten gesetzt. Links können sowohl von Ihren eigenen als auch von Drittanbieter-Ressourcen stammen.

Indizierung von Websites

Dies ist die effektivste Taktungstaktik, die ich in diesem Beitrag beschrieben habe. Indizierungssite ist eine spezielle Website, die Inhalte von anderen Websites abruft, die internen Seiten indiziert und sich selbst aktualisiert - schließt die indizierten Seiten und nimmt andere, nicht indizierte Seiten auf. Das Erstellen einer solchen Site erfordert nicht viel Zeit, aber dafür müssen Sie den Code verstehen.

Zuerst müssen Sie eine Homepage erstellen, die eine Verknüpfung zu 50-100 internen Seiten herstellt. Jede interne Seite wird mit dem Inhalt dieser Seiten von der Basis einer großen Site (z. B. einer Chamäleon-Site) gefüllt, die Sie indizieren müssen. Um die Hauptseite der Indexierungs-Site von Such-Bots fernzuhalten, senden Sie einen Link mit Link-Gewichtungen von Link-Bleaching-Sites an diese.

Stellen Sie anschließend den Befehl cron so ein, dass täglich Daten von Google, Yahoo und MSN für die Abfrage SITE: Ihre Domain abgerufen werden. com . Erstellen Sie ein Skript, das die Ergebnisse analysiert und mit der Liste der Seiten auf der Indexierungssite vergleicht. Sobald die Seite in allen drei Suchmaschinen indiziert ist, sollte das Skript die 301. Weiterleitung einfügen, die zu ihrem Zwilling (der Zielseite von einer großen Site) führt, und sie in der Datenbank als indiziert markieren.
Nun wird der Site-Indexer nicht darauf achten, und um neue interne Seiten zu erstellen, werden nur die Seiten aufgenommen, die noch nicht von einigen (oder allen) Suchmaschinen indiziert wurden. Diese Seite funktioniert auf der Maschine und dies ist der tatsächliche Wert.

Der Site-Indexer funktioniert solange, bis alle Seiten einer großen Site in den Hauptsuchmaschinen indiziert sind. Diese Methode funktioniert so effizient, dass Sie trotz des vollständigen Fehlens eingehender Links zu einer großen Site die internen Seiten indizieren können. Dafür benötigen Sie nur wenige Indexierungsseiten.

Verwandte Beiträge:

  • Untersuchen der Backlinks von Mitbewerbern
  • Erstellen einer grauen Site
  • Erfassen Sie eine Nische und ein Top-Suchergebnis
  • Ein SEO-Imperium erstellen - Fortsetzung

Sie mögen Artikel? Abonnieren Sie den Newsletter!

Suche

In Verbindung stehende Artikel