Cloaking ist böse? - Profit Hunter

Cloaking ist böse? - Profit Hunter Bevor ich den Artikel von Rand Fishkin über SEOmoz las, dachte ich, dass Cloaking in jeder Form eine außergewöhnlich schwarze Werbemethode ist, die Sie vom allsehenden und allwissenden Google erhalten können. Aber ich habe mich geirrt (was im Allgemeinen überhaupt nicht überraschend ist). Ich hatte einfach nicht den Sinn, die Hauptcharakteristik von Cloaking - das Ausgeben von Inhalten für Such-Bots und normale Benutzer - an weiße Sites anzuhängen, die ich täglich verwende.

* Dieser Beitrag wird ausschließlich verschiedenen Arten von Cloaking gewidmet sein und welche davon von Google toleriert wird und die es nicht toleriert. Es wird hier keine "Themen" geben, nur interessante Informationen zur Erweiterung des Seo-Ausblicks.

Hier ist eine nicht schwache Liste schwacher Websites, die Cloaking erfolgreich für ihre eigenen Zwecke verwenden:

10>
  • Google (Ja, es ist das Beste). Suchen Sie nach den Google-Diensten von Google wie Google Translate , Adwords , Adsense usw. und sehen Sie, welche URLs angegeben werden Suchmaschine Gehen Sie nun zu dem Link und sehen Sie, woraus die Seitenadresse beim Laden wird. Außerdem unterscheidet sich der Inhalt der Zielseite manchmal von dem, was im Cache gespeichert ist, unabhängig davon, ob Sie angemeldet sind Google oder nicht.
  • NYTimes. Com Eingebaute Werbeseiten, eine Aufforderung, sich nach 5 Klicks auf der Website anzumelden / zu registrieren, Daten zu archivieren - eine Person sieht dies anders als Such-Bots.
  • Forbes. Com : Auf dieser Site ist es unmöglich, die Hauptseite anzuzeigen, ohne sich zuvor den Werbespot auf einem Halbbildschirm anzusehen. Auch zwischengespeicherte Seiten unterscheiden sich häufig von denen, die auf der Site angezeigt werden.
  • Wein. com . Selbst wenn Sie die Weiterleitungen nicht berücksichtigen, muss jeder Benutzer, bevor Sie sich die Preise ansehen (wie übrigens die Seite), den Status auswählen. Es wird kaum von Such-Bots benötigt.
  • WebmasterWorld. com . Diese Website war eine der ersten, die die (heute allgemein anerkannte) Praxis ein paar kostenloser Klicks auf die Website einführte. Danach gibt es einen Vorschlag, der Website beizutreten. Dies gilt jedoch nicht für Google-Bots.
  • Yelp. com . Aktive Nutzung von Cookie-basiertem Geo-Targeting.
  • Amazon. com . Dank Cookies und Daten aus früheren Besuchen kann Amazon zum Beispiel die Ausgabe von empfohlenen Produkten variieren.
  • iPerceptions. com . Tatsächlich verwendet die Site keine Tarnung, aber das Popup auf der Site ist nur auf Computern sichtbar, auf denen Browser Cookies unterstützen (und nicht nur auf dieser Site, sondern auch auf etwa hundert anderen). Ganz zu schweigen davon, dass die Website einem Google-Mitarbeiter gehört.
  • ComputerWorld. com . Wenn Sie ein Bot wären, würden Sie niemals Anzeigen auf dem gesamten Bildschirm sehen, Popups und sogar einige Javascripts, die nur funktionieren, wenn eine echte Person die Website besucht.
  • Scribd. com . Das Gerät sieht auf der Site nur HTML-Text. Der Mensch sieht, was er sieht.
  • Nike. com . Google zeigt, dass die Website mehr als eineinhalb Millionen Seiten umfasst. Aus irgendeinem Grund beginnen alle diese Seiten mit demselben Flash-Film.
  • Wall Street Journal . Der Google-Bot sieht den Link für den Zugriff auf nach dem ersten Absatz in einigen Artikeln der Website überhaupt nicht.
  • Diese Liste geht weiter und weiter, aber die Essenz ist ohne sie klar: Täuschung ist nicht immer böse , besonders wenn Sie:

    • und weltweit sind berühmte marke; oder
    • Maskenseiten, so dass nicht nur Such-Bots, sondern auch Live-Besucher der Site davon profitieren.

    Hier ist eine Klassifikation der Tarnarten von Rand Fishkin:

    1. Kristallweiß :

    • Erlaubte Methoden: Cookie-Erkennung, Javascripts.
    • Ziel: Zielseiten optimieren, registrierten Benutzern Inhalte zur Verfügung stellen.

    Auf demselben SEOmoz gibt es ein kostenpflichtiges Abonnement, dessen Inhalt nur seine Mitglieder sehen können. Technisch gesehen sehen Such-Bots und einige Besucher verschiedene Dinge, aber sie basieren alle auf Cookies und werden in strikter Übereinstimmung mit den Anforderungen von Suchmaschinen ausgeführt.

    2. Fast weiß :

    • Erlaubte Tricks: Alle oben + User Agent.
    • Zweck: Geotargeting, Bestimmung des Browsertyps, Minimierung des Datenverkehrs zu Bots.

    Geo-Targeting in Craigslist. org. Vertreter von Google erklärten offen, dass, solange Craigslist Bots dieselben Seiten wie Besucher anzeigt, dieses Verhalten der Website nicht gegen die Regeln verstößt. Nur hier sehen die Bots die falschen Seiten, dass Besucher sie logischerweise nicht sehen sollten, da der Bot den gesamten Inhalt der Website füttern muss und nicht nur Anzeigen unter New York oder San Francisco. Ein solcher Regelverstoß führt jedoch nicht zu schwerwiegenden Konsequenzen, da sowohl Nutzer als auch Suchmaschinen das bekommen, was sie brauchen.

    3. Leicht grau :

    • Erlaubte Tricks: Was auch immer oben ist, + User Agent / IP-Adressinformationen anzeigen.
    • Ziel: Link-Gewicht auf ähnliche Seiten umleiten, ausgeblendeten Inhalt anzeigen.

    Auf Websites, auf denen große Artikel platziert werden, gibt es in der Regel Links wie "Artikel lesen" oder "Artikel drucken" usw. im gleichen Sinne. Wenn mehrere Links aus verschiedenen Quellen (Blogs, soziale Websites) in diesen Versionen desselben Artikels angezeigt werden, beginnen Suchmaschinen, sie zu indizieren und bestrafen doppelten Inhalt. Um dies zu vermeiden, werden sekundäre 301-Weiterleitungen auf sekundäre Links gelegt und das gesamte Referenzgewicht an den Artikel selbst gesendet. Trotz der Regelverstöße profitiert diese Methode jedoch sowohl von Besuchern (sie wechseln zum ursprünglichen Artikel) als auch von Suchmaschinen (Yahoo und MSN haben immer noch Probleme mit der Definition von doppelten Inhalten). Das heißt, autoritative Sites, denn es bedroht sicherlich nichts.

    4. Dunkelgrau :

    • Erlaubte Tricks: alle.
    • Zweck: Zeigt weniger optimierten Inhalt an, wobei das Referenzgewicht auf die linken Seiten umgeleitet wird.

    Einige Partner leiten anstelle der Referenzgewichte von den Partnerlinks zu den Seiten, auf die sie führen sollen, auf Seiten weiter, die mit Links gefüllt und in der Ausgabe vorangebracht werden müssen. Solche Gesten sind den schwarzen Methoden sehr nahe, daher werden Suchmaschinen dafür bestraft.

    5. Schwarz :

    • Erlaubte Tricks: alle.
    • Zweck: Zeigt Inhalte an, die überhaupt nicht der Suchanfrage entsprechen.

    Hier gibt Rand ein Beispiel, wie er die Suchanfrage inurl: sitemap in die Suche eingegeben hat. xml und an 9. Stelle der Ausgabe wurde der Link www gefunden. Acta-Endo. ro / new / viagra / sitemap. xml. html, das führte ihn ... aber Sie selbst wissen, wohin solche Links führen. Suchmaschinen verbieten dazu Websites, sobald sie gefunden werden.

    Fazit: Alles, was weiß oder leicht grau ist, wird von Suchmaschinen trotz der öffentlichen Äußerungen einiger sprechender Köpfe mit einem Knall akzeptiert, da es nicht gegen die Interessen der Parteien verstößt. Für alles andere Banyat.

    Verwandte Einträge:

    • Wenn Sie ein Schiff anrufen, wird es schweben.
    • Nützliche Tools zum Untersuchen der Zielgruppe der Website
    • Iron-Methode zur Steigerung des Suchverkehrs
    • 10 Möglichkeiten, den Blog-Traffic schnell zu erhöhen

    Lieben Sie Artikel? Abonnieren Sie den Newsletter!

    Suche

    In Verbindung stehende Artikel