//www.googletagmanager.com/gtag/js?id=UA-87747297-2

SEO FÜR ANFÄNGER

OMM Christopher Seidel Online Marketing Manager

DIE SEO-SCHRAUBEN

Schaut man sich im Internet nach Informationen zu SEO für Anfänger um, kann man schnell den Überblick verlieren – bei all den Begriffen, Techniken und SEO-Fehlern. Dabei ist die Suchmaschinenoptimierung keine Raketenwissenschaft. Den wichtigsten Gedanken, den du immer (aber wirklich immer!) im Hinterkopf behalten solltest: „Google möchte dem Suchenden die beste Antwort auf seine Frage geben!“ Diesen Satz solltest du dir schon mal einprägen, falls du in Zukunft ein Problem hast und SEO selbst machst. Um dir SEO als Einsteiger verständlich zu machen, veranschauliche ich die Thematik immer gerne mit den drei SEO-Stellschrauben. Wenn alle drei Schrauben richtig eingestellt sind, wird deine Seite automatisch ganz oben ranken – Google hat gar keine andere Wahl. Und nein, dass ist kein unseriöses SEO-Versprechen, denn mit den drei Stellschrauben bist DU die beste Antwort auf die Fragen der Suchenden. Das sind die drei SEO-Stellschrauben:

 

Produziere relevanten Content für die Seite

Optimiere diese Seite („Onpage-Optimierung“)

Promote deinen Content („Offpage-Optimierung“)

Das war’s!

Wenn du also in den Suchergebnissen nicht oben mitspielst, liegt es an mindestens einer dieser Stellschrauben.

Alle SEO-Maßnahmen, die du noch kennenlernen wirst, kannst du einem dieser Punkte zuordnen.

Okay – nun schauen wir uns einmal jede Stellschraube genau an, damit du weißt, was du nach diesem SEO-Guide erledigen musst.

Seo steht für:

Seo ist der Familienname folgender Personen:

  1. robots.txt

Die robots.txt ist eine einfache Textdatei, die dem Googlebot zeigt, welche Verzeichnisse der Seite er crawlen darf und welche nicht. Bevor der Googlebot auf eine Seite kommt, ruft er die robots.txt-Datei ab. Die einfachste Form der robots.txt sieht so aus:

 

User-agent: *

Der Platzhalter * besagt, dass alle Anweisungen innerhalb der Datei für alle Bots gelten. Steht danach nichts mehr, dürfen alle Bots alle Bereiche der Webseite crawlen. Hinweis: Mit Hilfe der robots.txt können auch bestimmte Bots gesperrt werden.

 

So erstellt und hinterlegt Ihr eine robots.txt-Datei:

 

Startet einen Texteditor und hinterlegt im Textdokument entsprechenden Anweisungen für die Bots.

Speichert die Datei mit dem Namen robots.txt ab.

Ladet die Datei auf dem Server ins Hauptverzeichnis (root) der Domain. Die robots.txt sollte dann zum Beispiel so abrufbar sein: //www.eureseite.de/robots.txt

SEO FÜR ANFÄNGER

//www.googletagmanager.com/gtag/js?id=UA-87747297-2