Ursachen für schlechte Indexierung von Websites - Profit Hunter

Warum werden die Seiten auf der Site nicht indiziert oder möchten lange Zeit nicht in die Ausgabe einsteigen? Dies ist ein ewiges Problem, das analysiert werden sollte. Weiter - zu den Hauptpunkten, die eine normale Indizierung verhindern.

Ursachen für Probleme bei der Indexierung

# 1. Der Roboter beachtet Ihre Website / Seite nicht. Dies kann verschiedene Ursachen haben.

Insbesondere wenn die Ressource jung ist, kann es einige Zeit dauern, bis der Roboter sie erkennt. Dazu braucht er Hilfe: Fügen Sie eine Website / Seite zu den Suchmaschinen adurilki hinzu, fügen Sie ein paar Links von anderen Seiten, Websites und sozialen Netzwerken hinzu. Der Roboter, der über die Links läuft, wird auf Ihre Ressource stoßen.

№2 Die Website wurde der Schwarzen Liste hinzugefügt.

Ihre Domain hat möglicherweise einen schlechten Ruf. Sie oder jemand anderes könnten die Methoden der "schwarzen" SEO verwenden, für die die Website genehmigt wurde. Wenn es ausschließlich für Roboter erstellt wird und keine Vorteile für Personen bietet oder ein Partner einer anderen Ressource ist, wird die Indizierung möglicherweise eingestellt. Beim Kauf von Domains mit unbekannter Historie sind Sie stark gefährdet. Daher ist es am besten, einen jungen, "sauberen" Domainnamen zu erwerben.

Zusätzlich zu schlechtem Karma kann das Vorhandensein von schädlichem Code die Indexierung beeinflussen. Es erscheint nach dem Hacken der Site oder beim Installieren einer kostenlosen Vorlage. Überwachen Sie Ihre Ressource über die Webmaster von Yandex und Google.

№3 Fehler im Code.

    • Die Serverantwort unterscheidet sich von "200". Um zu überprüfen, wie Ihr Server auf Roboter reagiert, verwenden Sie dieses Yandex-Tool: https: // webmaster. Yandex. ru / Server-Antwort. xml.

Ursachen für schlechte Indexierung von Websites - Profit Hunter

  • Falscher DOKTYP. Stellen Sie sicher, dass der Site-Code den HTML-Standards entspricht und keine Fehler aufweist.
  • Weiterleitung 302. Dies ist eine temporäre Weiterleitung, mit deren Hilfe die alten Seiten im Index nicht durch neue ersetzt werden. Stattdessen müssen Sie die 301. permanente Weiterleitung verwenden.
  • Falsche Kodierung. Stellen Sie sicher, dass Suchmaschinen die Kodierung korrekt lesen können. Andernfalls erhält der Roboter anstelle des russischen Textes eine bedeutungslose Menge von Zeichen und betrachtet dies als minderwertigen Inhalt, der keine Indizierung verdient.

Nr. 4. Der Roboter kann die Site nicht indizieren.

Prüfen Sie, ob alle erforderlichen Seiten indiziert werden dürfen, ob auf sie zugegriffen werden kann. Es kann auf viele Arten geschlossen werden. Hier sind die häufigsten Gründe.

    • Meta-Tags für Meta-Robots können den Zugriff einschränken. Auf der Seite nach dem Tag kann dieses Meta-Tag den verbotenen Konstruktionsinhalt = "nofollow, noindex" enthalten, aufgrund dessen der Roboter die Indexierung des Dokuments / der Site ablehnt.
    • Domäne nicht delegiert. Stellen Sie sicher, dass die Website für Besucher wirklich zugänglich ist. Überprüfen Sie außerdem, ob die Domäne aufgrund der Platzierung von gefälschten Inhalten (z. B. von Filmen oder Audiospuren) aus der Delegierung entfernt wurde.
    • Die Site ist in Robotern geschlossen. txt. Versehentlich oder nicht, einige Abschnitte / Seiten, die Sie indizieren möchten, können geschlossen werden. Beispielsweise kann der Eintrag "Disallow: /" bedeuten, dass die Site für Robots vollständig geschlossen ist.
      Probleme mit IP oder User-Agent In diesem Fall liegt das Problem in Ihrem Hoster. Sie können überprüfen, ob die Site den Such-Bot besucht hat. Verwenden der Serverprotokollanalyse (Dateizugriff. Protokoll). Normalerweise befindet sich der Protokollordner (Protokoll) im Stammverzeichnis der Site.
    • X-ROBOTS-TAG. Überprüfen Sie, ob sich dieses Meta-Tag auf Ihren Seiten befindet Kontrolle, aber passen Sie darauf auf X-ROBOTS-TAG arbeitet auf Server-Header-Ebene und beeinflusst den Inhalt verschiedener Typen Auf diese Weise können Sie beispielsweise ein Bild vor der Indizierung ausblenden:

Ursachen für schlechte Indexierung von Websites - Profit Hunter

  • Schließen mit dem Tag noindex, möglicherweise aufgrund des Rückschlusses auf eindeutigen Inhalt In diesem Tag hat der Roboter nicht genügend Seiteninhalt, um ihn der Ausgabe hinzuzufügen.

Nr. 5 Andere Probleme bei der Indizierung.

  • Vorlagentexte, Snippets Schlagzeilen, in denen sich nur wenige Wörter ändern;
  • Duplikate der internen Inhalte;
  • Die Seitenverschachtelungsstufe ist zu tief (wichtig für die Indizierung der Seite sollte auf Ebene 2-3 genommen werden);
  • Nicht eindeutige Texte;
  • Langsame Website-Leistung aufgrund von für CMS oder Hosting;
  • Die Anzahl der eindeutigen Artikel überschreitet nicht 500 Zeichen;
  • Eine große Anzahl von Fehlern 404.

Indexierungsprobleme können aus anderen Gründen auftreten, die nicht beschrieben werden hier Wenn Sie sie nicht selbst finden können, wenden Sie sich an die Experten.

Damit die Seiten schneller in den Index gelangen, ist es erforderlich, dem Roboter beizubringen, gleichzeitig die Site zu betreten. Um dies zu tun, müssen Sie Inhalte mit konstanter Regelmäßigkeit und Genauigkeit veröffentlichen und dies häufiger als 1-2 Mal pro Monat tun. Vergessen Sie nicht, hochwertige Links zu neuen Materialien sowohl innerhalb als auch außerhalb des Projekts zu belassen.

Wie Artikel? Abonnieren Sie den Newsletter!

Suche

In Verbindung stehende Artikel