Content MarketingE-Commerce und EinzelhandelMarketing- und VertriebsvideosVertriebs- und MarketingtrainingSearch MarketingSocial Media & Influencer-Marketing

Wie finden, crawlen und indizieren Suchmaschinen Ihre Inhalte?

Ich empfehle Kunden nicht oft, ihre eigenen E-Commerce- oder Content-Management-Systeme zu erstellen, da heutzutage unerreichte Erweiterbarkeitsoptionen erforderlich sind, die sich hauptsächlich auf die Suche und die Optimierung sozialer Netzwerke konzentrieren. Ich habe einen Artikel darüber geschrieben Auswahl eines CMS, und ich zeige es immer noch den Unternehmen, mit denen ich zusammenarbeite und die versucht sind, ihr eigenes Content-Management-System aufzubauen.

Wie funktionieren Suchmaschinen?

Beginnen wir mit der Funktionsweise von Suchmaschinen. Hier ist eine tolle Übersicht von Google.

Es gibt jedoch durchaus Situationen, in denen eine benutzerdefinierte Plattform erforderlich ist. Wenn das die optimale Lösung ist, dränge ich meine Kunden immer noch dazu, die notwendigen Funktionen zu entwickeln, um ihre Websites für Suche und soziale Medien zu optimieren. Drei Hauptmerkmale sind eine Notwendigkeit.

Was ist eine Robots.txt-Datei?

Robots.txt Datei - die robots.txt Die Datei ist eine reine Textdatei im Stammverzeichnis der Website und teilt den Suchmaschinen mit, was sie in die Suchergebnisse einschließen und ausschließen sollen. In den letzten Jahren forderten Suchmaschinen auch, den Pfad zu einer XML-Sitemap in die Datei aufzunehmen. Hier ist ein Beispiel von mir, das es allen Bots ermöglicht, meine Website zu crawlen, und sie außerdem zu meiner XML-Sitemap weiterleitet:

User-agent: *
Sitemap: https://martech.zone/sitemap_index.xml

Was ist eine XML-Sitemap?

XML-Sitemap - Mögen HTML dient der Anzeige in einem Browser. XML ist so geschrieben, dass es programmgesteuert verarbeitet werden kann. Ein XML Bei der Sitemap handelt es sich um eine Tabelle aller Seiten Ihrer Website und des Zeitpunkts ihrer letzten Aktualisierung. XML-Sitemaps können auch verkettet werden, d. h. eine XML-Sitemap kann auf eine andere verweisen. Das ist großartig, wenn Sie die Elemente Ihrer Website logisch organisieren und aufschlüsseln möchten (FAQs, Seiten, Produkte usw.) in ihre eigenen Sitemaps.

Sitemaps sind unerlässlich, um den Suchmaschinen effektiv mitzuteilen, welche Inhalte Sie erstellt haben und wann diese zuletzt bearbeitet wurden. Der Prozess einer Suchmaschine beim Aufrufen Ihrer Website ist ohne die Implementierung einer Sitemap und Snippets nicht effektiv.

Ohne XML-Sitemap, riskieren Sie, dass Ihre Seiten nie entdeckt werden. Was ist, wenn Sie eine Zielseite für ein neues Produkt haben, die weder intern noch extern verlinkt ist? Wie findet Google es? Nun, solange kein Link dazu gefunden wird, werden Sie nicht entdeckt. Glücklicherweise ermöglichen es Suchmaschinen Content-Management-Systemen und E-Commerce-Plattformen, ihnen einen roten Teppich auszurollen!

  1. Google entdeckt einen externen oder internen Link zu Ihrer Website.
  2. Google indiziert die Seite und ordnet sie entsprechend ihrem Inhalt sowie dem Inhalt und der Qualität der Website des verweisenden Links.

Mit einer XML-SitemapÜberlassen Sie die Entdeckung oder Aktualisierung Ihrer Inhalte nicht dem Zufall! Zu viele Entwickler versuchen, Abkürzungen zu nehmen, die auch ihnen schaden. Sie veröffentlichen das gleiche Rich Snippet auf der gesamten Website und stellen Informationen bereit, die für die Seiteninformationen nicht relevant sind. Sie veröffentlichen eine Sitemap mit den gleichen Daten auf jeder Seite (oder sie werden alle aktualisiert, wenn eine Seite aktualisiert wird), was den Suchmaschinen Warteschlangen bereitet, weil sie das System manipulieren oder unzuverlässig sind. Oder sie pingen die Suchmaschinen überhaupt nicht an, sodass die Suchmaschine nicht erkennt, dass neue Informationen veröffentlicht wurden.

Was sind Metadaten? Mikrodaten? Reiche Schnipsel?

Rich Snippets sind sorgfältig gekennzeichnete Mikrodaten Für den Betrachter verborgen, aber auf der Seite sichtbar, damit Suchmaschinen oder Social-Media-Sites sie nutzen können. Dies wird als Metadaten bezeichnet. Google entspricht Schema.org als Standard für die Einbeziehung von Dingen wie Bildern, Titeln, Beschreibungen und einer Vielzahl anderer informativer Schnipsel wie Preis, Menge, Standortinformationen, Bewertungen usw. Schema wird Ihre Sichtbarkeit in Suchmaschinen und die Wahrscheinlichkeit, dass ein Benutzer durchklickt, erheblich verbessern.

Facebook nutzt die OpenGraph Protokoll (natürlich können sie nicht gleich sein), X verfügt sogar über einen Ausschnitt zur Angabe Ihres X-Profils. Immer mehr Plattformen nutzen diese Metadaten, um bei der Veröffentlichung eine Vorschau eingebetteter Links und anderer Informationen anzuzeigen.

Ihren Webseiten liegt eine Bedeutung zugrunde, die die Benutzer beim Lesen der Webseiten verstehen. Suchmaschinen haben jedoch ein begrenztes Verständnis dafür, was auf diesen Seiten diskutiert wird. Durch Hinzufügen zusätzlicher Tags zum HTML-Code Ihrer Webseiten - Tags mit der Aufschrift „Hey Suchmaschine, diese Informationen beschreiben diesen bestimmten Film, Ort, diese Person oder dieses Video“ - können Sie Suchmaschinen und anderen Anwendungen helfen, Ihren Inhalt besser zu verstehen und zeigen Sie es auf nützliche und relevante Weise an. Mikrodaten sind eine Reihe von Tags, die mit HTML5 eingeführt wurden und die Ihnen dies ermöglichen.

Schema.org, Was ist MicroData?

Natürlich ist keines davon erforderlich… aber ich kann es nur empfehlen. Wenn Sie beispielsweise einen Link auf Facebook teilen und kein Bild, Titel oder keine Beschreibung angezeigt wird, sind nur wenige Personen interessiert und klicken sich tatsächlich durch. Und wenn sich Ihre Schema-Snippets nicht auf jeder Seite befinden, können Sie natürlich weiterhin in den Suchergebnissen angezeigt werden. Konkurrenten können Sie jedoch schlagen, wenn zusätzliche Informationen angezeigt werden.

Registrieren Sie Ihre XML-Sitemaps bei der Suchkonsole

Wenn Sie Ihre eigene Content- oder E-Commerce-Plattform aufgebaut haben, ist es zwingend erforderlich, dass Sie über ein Subsystem verfügen, das die Suchmaschinen anpingt, Mikrodaten veröffentlicht und dann eine gültige XML-Sitemap für die zu findenden Content- oder Produktinformationen bereitstellt!

Sobald Ihre robots.txt-Datei, XML-Sitemaps und Rich Snippets auf Ihrer gesamten Website angepasst und optimiert sind, vergessen Sie nicht, sich für jede Suchmaschine zu registrieren Suche Console (Auch bekannt als Webmaster Tool), mit dem Sie den Zustand und die Sichtbarkeit Ihrer Website in Suchmaschinen überwachen können. Sie können sogar Ihren Sitemap-Pfad angeben, wenn keiner aufgeführt ist, und sehen, wie die Suchmaschine ihn nutzt, ob es Probleme damit gibt und sogar, wie Sie diese beheben können.

Rollen Sie den roten Teppich für Suchmaschinen und soziale Medien aus und Sie werden feststellen, dass Ihre Website besser rankt, Ihre Einträge auf den Ergebnisseiten von Suchmaschinen häufiger angeklickt werden und Ihre Seiten häufiger in sozialen Medien geteilt werden. Das alles summiert sich!

Wie Robots.txt, Sitemaps und MetaData zusammenarbeiten

Die Kombination all dieser Elemente ist wie das Ausrollen des roten Teppichs für Ihre Website. Hier ist der Crawling-Prozess, den ein Bot durchführt, und die Art und Weise, wie die Suchmaschine Ihre Inhalte indiziert.

  1. Ihre Site verfügt über eine robots.txt-Datei, die auch auf Ihren XML-Sitemap-Speicherort verweist.
  2. Ihr CMS oder E-Commerce-System aktualisiert die XML-Sitemap mit allen Seiten- und Veröffentlichungs- oder Bearbeitungsdatumsinformationen.
  3. Ihr CMS oder E-Commerce-System pingt die Suchmaschinen an, um sie darüber zu informieren, dass Ihre Website aktualisiert wurde. Sie können sie direkt anpingen oder RPC und einen Dienst wie Ping-o-matic verwenden, um sie an alle wichtigen Suchmaschinen zu senden.
  4. Die Suchmaschine kehrt sofort zurück, respektiert die Datei Robots.txt, findet neue oder aktualisierte Seiten über die Sitemap und indiziert die Seite dann.
  5. Bei der Indizierung Ihrer Seite werden Titel, Meta-Beschreibung, HTML5-Elemente, Überschriften, Bilder, Alt-Tags und andere Informationen verwendet, um die Seite für die entsprechenden Suchvorgänge ordnungsgemäß zu indizieren.
  6. Bei der Indizierung Ihrer Seite werden Titel, Meta-Beschreibung und Rich-Snippet-Mikrodaten verwendet, um die Ergebnisseite der Suchmaschine zu verbessern.
  7. Wenn andere relevante Websites auf Ihre Inhalte verweisen, rangieren Ihre Inhalte besser.
  8. Wenn Ihre Inhalte in sozialen Medien geteilt werden, können die angegebenen Rich-Snippet-Informationen dabei helfen, eine ordnungsgemäße Vorschau Ihrer Inhalte anzuzeigen und sie an Ihr soziales Profil weiterzuleiten.

Douglas Karr

Douglas Karr ist CMO von Öffnen Sie EINBLICKE und Gründer der Martech Zone. Douglas hat Dutzenden erfolgreicher MarTech-Startups geholfen, war bei der Due Diligence von MarTech-Akquisitionen und -Investitionen im Wert von über 5 Milliarden US-Dollar behilflich und unterstützt weiterhin Unternehmen bei der Umsetzung und Automatisierung ihrer Vertriebs- und Marketingstrategien. Douglas ist ein international anerkannter Experte und Redner für digitale Transformation und MarTech. Douglas ist außerdem Autor eines Dummie-Ratgebers und eines Buchs über Unternehmensführung.

Ähnliche Artikel

Nach oben-Taste
Menu

Adblock erkannt

Martech Zone ist in der Lage, Ihnen diese Inhalte kostenlos zur Verfügung zu stellen, da wir unsere Website durch Werbeeinnahmen, Affiliate-Links und Sponsoring monetarisieren. Wir würden uns freuen, wenn Sie Ihren Werbeblocker entfernen würden, während Sie unsere Website besuchen.