Mittwoch, 19. Februar 2014

Tag 12 Online Marketing Kurs - Webmaster Tools / SEO Onpage - Root-Dateien: robots.txt, .htaccess, sitemap.xml

Mitschrift 20.02.2014

Exkurs: Funktionsweise von Servern
 
SQL - Sprache von Datenbanken - damit werden Container zusammengebaut, die aus PHP (Sprache, die die Website zusammenbaut) bestehen.
Bei CMS wird die Website bei jedem Anruf aus SQL & PHP zusammengebaut - daraus wird dann eine HTML-Seite aufgebaut.

-> hat den Vorteil, dass man bei Änderungen nicht immer den Quelltext selber ändern muss = technische Vorteile!!!
Hier gibt es Kopfdatei (Header-PHP -es gibt noch Domain-PHP & Footer-PHP)

Empfehlung: Pro Projekt (Website&Shop) nur eine Datenbank! Sonst sind bei Fehlern alle Projekte Schrott!

Definition:
SQL (Structured Query Language) ist eine Datenbanksprache zur Definition von Datenstrukturen in relationalen Datenbanken sowie zum Bearbeiten (Einfügen, Verändern, Löschen) und Abfragen von darauf basierenden Datenbeständen.

Suchmaschinenoptimierung On-Page

SEO Quake
 Hinweis: Wenn wir unsere test.html -Seite im Browser öffnen, können wir auch hier SEO quake nutzen - 

-> Keyword Density:
Achtung: Dichte 13,92% ist zu hoch, sonst super optimiert!
Frage: wieviel Text müssen wir einbringen, damit wir eine gesunde Keyworddichte von 3% haben?


Density vor Texteinfügung
Density nachdem ich weiteren Text eingefügt habe

Tipp, wie man Website nach vorne schieben kann:
(Lotto-gewinnabfrage.de - Projekt von Ralf - da sollen Leute spielen: runterscrollen - ganz viel Text/Beschreibung - da liest niemand, aber es beeinflusst die Density!)

Tipp: Wenn ich schnell Text brauche - loremipsum - Blindtextgenerator

Es ist eine Kunst SEO optimierten Text zu schreiben, der sich auch gut liest! Dazu gibt es SEO-Texter!

-> SPIDER-Text:
Achtung - Spider: Bei vielen Websites steht als erstes das Menü - das spielt keine Rolle für die Website - besser hier keyword!

Tipp:
Spider Simulator - wie SEO Quake, aber es liest die Website aus, wie es die Suchmaschinen machen würden

Tipp für eigene Website:
Div-Container einbauen:
<!--<div> Keyword, Keyword, Keyword, Keyword,Keyword </div> //-->
(-> Keyword stuffing, wenn man keyword aneinanderreiht - nicht zu empfehlen - das registriert die Suchmaschine!)

am besten 3 div-Container auf Website:
  • Description,
  • Body
  • Footer
Grey-Hat-Methode:
mit CSS Keywords oben links mit weißer Schrift in H1 auf weißem Hintergrund programmieren:
  • in HTML vermeiden, schriftfarbe Weiß - um Text zu verbergen - nur in CSS - da das die Suchmaschinen noch nicht auslesen können.
  • nur sichtbar, wenn man mit der Mouse darüber geht

Lustig: Untitled Document Googlen ;)



Google Webmaster Tools

Unsere Page ist seit gestern bereits angedockt - öffnen

Dashboard-Ansicht:

=>Sitemap.xml
angeben, um schneller vom Suchmaschinenroboter gefunden zu werden!!! - Wie?!? - Hier die Antwort:

  • Sitemap.xml
    • immer zuerst anlegen
    • welche Seiten sind schon im Index? 
      • Eingereicht
      • Indexiert
Erklärung anhand Türtsteherbeispiel (es ginge auch das Speisekartenbeispiel):
  • Indexierung (robots.txt)= Schranke/Pförtner
  • htaccess (.htaccess)= ist der Türsteher - kontrolliert Passierschein - wo will ich hin? www.lotto-Gewinnabfrage.de und verweist auf Plan
  • Plan/Karte (sitemap.xml)= Infos für Suchmaschinenroboter, um zu wissen, wo meine Website ist - Hiermit kann der Google Roboter in Sekundenbruchteilen die Inhalte meiner Website erfassen.

Vom Suchmaschinenroboter erfasst werden:
Der Suchmaschinenroboter ist nur Bruchteile von Sekunden auf meiner Seite:
Ergo - ich muss ihm die relevanten Infos auf dem Silbertablett gut aufbereitet vor die Nase halten!
Lösung: xml Sitemap!

Jetzt kommt es drauf an, ob ich nen eigenen Server habe oderein CMS benutzen (wie WP oder blogger):

bei WP: Plugin!  - SEO Joost - xml-Sitemaps

  • bei CMS gibt es immer Plugins/Widgets/Gadgets, die dies für mich übernehmen!
  • !!! Achtung: bei WP als erstes: Einstellungen - Permalinks einstellen - Beitragsname!!!
    so werden sie eingestellt, dass sie Suchmaschinentauglich sind!
    => (neuer Beitrag - automatische aktualisierung der Index.xml!)
für Server: sitemap xml Creator
  • change frequency -automatisch auf wöchentliche gestellt - bei falschen Angaben, wie always, stündlich, obwohl man nicht regelmäßig neuen Content liefert, wird die Suchmaschine ärgerlich - der Roboter kommt dann nur noch alle paar Tage wieder vorbei - heißt aber auch, dass ich dann die ganze Zeit nicht in der Suchmaschine zu sehen bin. Besser keine Angaben machen, dann stellt sich der Roboter auf mich automatisch ein.
  • Diese Dateien liegen auf dem Server im Root-Ordner zusammen mit:
    • HTAccess
    • Robot.txt
    • sitemap xml 
      • CMS: Bei Blogspot können wir nicht auf den Server -> :( - Es gibt aber einem Trick - mit RSS-Feed zu veräppeln, weil dieser mit xml ausgelesen wird. :)
      • Mit eigenem Server braucht man ftp-Clients zum hochladen!!!
Infos nebenbei:
-> FTP-Tool -Tipp: Filezilla oder fireftp
-> FTP & XML werden häufig für Datenaustausch verwendet.
Für das Datenübertragungsverfahren wird ein FTP-Client benötigt. In vielen aktuellen Browsern ist ein FTP-Client meist bereits integriert. Ein Beispiel für die Syntax einer FTP-Adressierung im Browser ist:

  ftp://[ftp_username[:ftp_PWD]@]Servername[:Port]
Der Client baut die TCP-Verbindung zum Control Port eines Servers auf. Über diese Verbindung wird über FTP-Kommandos der Datenaustausch zwischen Client und Server gesteuert.
-> sitemap_index.xml - enthält alle anderen sitemap.xml-Dateien

Sitemap XML-Datei auf meinen Server laden
Ab hier können wir nur zuschauen, da wir keinen Server haben:
  • XML Datei (sitemap.xml & sitemap.xml.gz = gzip macht mobile surfing schneller! - Wichtig - das zeigt schlechte Programmierer ;) ) speichern und auf Server hochladen.
  • Jetzt FTP-Tool runterladen - z.B. Filezilla
  • Mit eigenem Server verbinden - vom Hoster (im Hostingpaket) erhält man ftp-Benutzer  - dafür Kennwort anlegen!
    • serveradresse (domain oder IP-Adresse)
    • Benutzername (vom Hoster erhalten)
    • Passwort eingeben
  • Root-Ordner - pro Website-Projekt einen Ordner erstellen - hierhin werden alle Leute geleitet = Rootverzeichnis von meiner Website (wp admin, content und includes bei Wordpress) - diese drei Dateien müssen im Rootordner vorhanden sein:
    • index.php - wird immer als erstes genommen, um die Seite zusammenzubauen, damit der Besucher sie ansehen kann
    • sitemap.xml
    • robots.txt
  • Ordner content - themes - hier liegt mein Layout: divi (oder wie mein Layout heißt)
Hinweis: Besser bei strato oder anderen Serverhostern selber Server einrichten mit einem Ordner je Website - die 1-Klick-Installation macht es nachher schwieriger Änderungen vorzunehmen 
-> entweder ich bin technik-affin oder
-> ich hol mir einen Webentwickler
Jetzt dem Webmaster - Tools sagen, dass wir eine Sitemap haben
- Menü - Crawling - Sitemaps - Sitemap hinzufügen - 

    • bei CMS: Jetzt austricksen, da wir blogger-Seite haben:
      in das Feld meine RSS-Feed-Adresse eingeben & benutzen (feeds/posts/default) - das was hinter der Adresse steht.
      geht, weil RSS auch mit xml programmiert hat
    • bei eigenem Server - sitemap.xml einreichen - Fertig
-> Das ist für den Suchroboter das Zeichen auf unserer Seite vorbeizukommen! :) Unsere Seite ist indexiert!!! :)


Eigentlich wird alles, was man einreicht, auch indexiert. Manchmal kann es aber sein, dass mehr eingereicht, als indexiert wurde. 

=>htAccess (wird unser technischer Höchstpunkt ;) )
.htacces-Datei - Diese Seite ist für alle weiteren Servereinstellungen gedacht! gibt beispielsweise die WWW-Klärung mitdurch 301 Weiterleitung
  • hiermit können wir einzelne Verzeichnisse / Dateien schützen - damit nicht jeder darauf geht: schützen: Password - aber für SEo irrelevant - eher Entwicklungsbereich
     ($ htpasswd -nb derName dasPasswort derName:$apr1$m0OaZVp0$9OHApAf65z24vNUZts8Zz1)
  • Fehlermeldungen verwalten (http - Statuscode)
    • 403 - Kleinfehler - keine Berechtigung auf den Ordner zuzugreifen.
      die htaccess kann jetzt darauf reagieren - was ist, wenn diese Fehlermeldung kommt?
    • einstellen, dass Permalinks möglichst kurz gehalten werden - ist für Suchmaschine schlecht, weil zu verschachtelte Ordnerstruktur - Bsp. angeben, dass die Archivordner in der Adresszeile nicht angegeben werden, um es kürzer zu halten
  • 301 Weiterleitung - Move Permanently - wichtig bei www-Klärung! - machen wir jetzt!
WWW-Klärung:
Soll unsere Website mit oder ohne www angezeigt werden? Ohne Fallunterscheidung denkt die Suchmaschine, dass sich die Seiten voneinander kopieren - Dublicate content!
  • ReWriteConsition/Rule - für Marketer und SEO interessant!
    • Wenn eine Anfrage auf den Server kommt (der User gibt meine Adresse in die Suche ein und wird auf meinen Server geleitet)
    • soll Adresse umgeschrieben werden ( RewriteCond %{HTTP_HOST} !^www.example.com$ [NC] RewriteRule ^(.*)$ http://www.example.com/$1 [L,R=301])
Schritt-für Schritt - Einrichtung der WWW-Klärung mithilfe der 301 Weiterleitung
  1. Leeren Editor öffnen:
  2. .htaccess 301 in google eingeben & erste Quelle öffnen
    ( Text rauskopieren & in Texteditor eingeben)
    RewriteEngine On
    Options +SymLinksIfOwnerMatch
    RewriteCond %{HTTP_HOST} ^domain.de
    RewriteRule (.*) http://www.domain.de/$1 [R=301,L]
  3. Jetzt - ganz wichtig - die Domain zu ändern!

    grün: das geben die Leute ein
    orange: hierhin werden die Leute weitergeleitet
    RewriteEngine On
    Options +SymLinksIfOwnerMatch
    RewriteCond %{HTTP_HOST} ^fraukalke.blogspot.de
    RewriteRule (.*) http://fraukalke.blogspot.de/$1 [R=301,L]

    kopieren und nochmal einfügen mit www:
    RewriteCond %{HTTP_HOST} ^www.fraukalke.blogspot.de
    RewriteRule (.*) http://fraukalke.blogspot.de/$1 [R=301,L]
    -> ist jetzt im Texteditor, aber noch keine Textdatei - also
  4. als .htaccess abspreichern: Datei Speichern unter - Dateityp: Alle Dateien!!! - .htaccess! (genau diese Schreibweise)
  5. Ins Routverzeichnis unseres Servers speichern! - mit ftp mit dem Server verbinden und hochladen.
    Zusatzwissen (irrelevant für SEO): Genau eine htaccess! Allerdings kann es sein, dass ich Unterordner einzelnd schützen möchte - dann eben da nochmal die htaccess einfügen und ergänzen
  6. Tipp: schnellere Ladezeit bei Mobilen Endgeräten: muss ich selber machen!!!
    # BEGIN Gzip Compression
    AddEncoding gzip .gz
    <filesmatch "\.js\.gz$">
    AddType "text/javascript" .gz
    </filesmatch>
    <filesmatch "\.css\.gz$">
    AddType "text/css" .gz
    </filesmatch>
    <ifmodule mod_rewrite.c>
    RewriteEngine On
    RewriteBase /
    RewriteCond %{HTTP:Accept-encoding} gzip
    RewriteCond %{REQUEST_FILENAME} \.(js|css)$
    RewriteCond %{REQUEST_FILENAME}.gz -f
    RewriteRule ^(.*)$ $1.gz [QSA,L]
    </ifmodule>
    # END Gzip Compression

    # Dieser Code ist für die .htaccess gedacht
  7. Tipp: Permalinks umschreiben - wird bei Wordpress automatisch eingertragen, wenn ich nur Beitragssicht haben möchte - 
 
=>robots.txt (jetzt wird es wieder leichter;) )
Textdatei! ("Vaterdatei", welche verbietet ;) )
Alle Webcrawler dieser Welt - ALLE Roboter (Bilder-, Video-, Suchmaschinen-...) die auf meine Website kommen (daher *=alle) dürfen (/= mein Rout-/ Hauptverzeichnis) meine Webseite indexieren!

Beispiel für Disallow
  • Es gibt auch Disallow - wird verwendet,für alle die gerade ihre Website aufbauen - Projekt noch nicht fertig (Baustellenthematik)
  • Ich kann Roboter ansprechen
  • Wird verwendet für Cloaking - dem Roboter Falsches vorgaukeln
  • z.B. um Verzeichnisse oder bestimmte Bilder von der Indexierung auszuschließen 
  1. Leeren Editor öffnen
  2. Datei umbenennen in robots.txt (Achtung! Darauf ac hten, ob mein PC Endung erfragt
  3. folgendes Eintragen:
    User-Agent: *
    Allow: /
    Mehr Infos bei Wikipedia
  4. in den Rout-Ordner kopieren
zurück zum Dashboard von Webmaster Tools:
Am Besten keine Crawling-Fehler!
ohne Crawlingfehler
mit Crawlingfehlern

WWW-Klärung  in Webmaster Tools
im Webmastertool - eigene Seite 2 mal angeben - mit und ohne www - beide Websites hinzufügen
Und dann sagen, welche Variante wir wählen wollen - wie in htaccess, damit auch die Webmaster Tools alles auslesen können - auf die Seite gehen, die ich pflegen möchte - Einstellungen - bevorzugte Domain auswählen!



Klausurrelevant heute:
  • Bezeichnungen - htaccess, robots.txt & sitemap.xml - Bitte erläutern Sie was die drei Serverdateien fabrizieren
  • WWW-Klärung - mit und ohne www
  • Keyword-Density - 2-max. 6% - ideal: 3-4%
  • was sollten sie bei onpage optimierung möglist nicht tun - möglichst nicht grey hat - weiße schrift auf weißem Hintergrund - nur zu Testzwecken oder in harter Konkurrenzlage!
  • was sollten sie bei onpage optimierung tun - backlinks über Facebook zu Ihrer Inetseite - Falsch! das offpage HINWEIS - bei ner Subdomain, wie blogspot, können wir nicht entscheiden, ob mit oder ohne www.!
  • Robots - überall no index, no follow - falsch, das schlecht für SEO!

Vorschau:
In Suchmaschine anderes Suchsnipit bekommen :)
Offpage
Authority
Social Media
Erfolgsmessung (auch Google Analytics)
Adsence
Videoadvertising als Exkurs
Buch lesen (SEO Onpage - 80 Seiten & 132-Seiten ebook Webmaster Tools)


Neues Wissen für freie Hirnkapazitäten:
Kamelschrift: PhpSqlSoGehtDieKamelschrift 

Kopie der Dozentenseite:

Einstieg in die Google Webmaster Tools

Zum Start in den Tag gab es eine Landingpage bzw. Squeezepage von Laura Geisbüsch (Tochter von Ralf Schmitz) zu begutachten um einfach mal wieder typische marketingtechnische Aspekte für die Zielgruppe “Geld verdienen im Internet” zu haben. :) Am Ende dieser Page findet sich der Anmeldebutton für den Affiliate Club von Herrn Schmitz. Die Idee einer Projektbegleitung ist zwar nicht neu, aber ein Einstiegspreis von 1 Euro passt ebenfalls zur Zielgruppe. Schaut einfach drauf und macht euch eure eigenen Gedanken wie ihr ein solches Konzept evtl. umsetzen würdet.
Danach haben wir uns weiter um die Onpageoptimierung mit den Google Webmaster Tools gekümmert. Die Webmaster Tools erlauben uns unsere Website aus den Augen des Suchmaschinengiganten Google zu sehen. So können wir in den Webmaster Tools Einstellungen tätigen, die etwa Google mitteilen ob unsere Website mit oder ohne www. geschrieben werden soll (ja genau, das sind zwei verschiedene Paar Schuhe).
Natürlich bieten die Webmaster Tools noch jede Menge weitere Funktionen. Dafür habe ich euch ein Buch zum Thema Google Webmaster Tools hochgeladen. Wichtige Aspekte der Webmaster Tools sind u.a. die Anzeige der Crawlingfehler, die Auflistung der indexierten Seiten des Webprojekts und die Suchanfragen bzw. Impressions der Website zu einem bestimmten Suchbegriff.
Die Webmaster Tools lesen ebenfalls die Dateien robots.txt und sitemap.xml aus und deuten auf etwaige Fehlerquellen hin. Auch der HTML Code unserer Website wird analysiert. Und das alles kostenlos. Meine Meinung ist, wer die Webmaster Tools nicht nutzt ist selber Schuld. Einfacher kann es Google einem nicht machen hinter die Kulissen der Suchberechnung zu schauen. Zudem können auch noch die Suchergebnisse selbst, durch den Einsatz vom Data Highlighter, verändert bzw. verbessert werden.
Bevor die Webmaster Tools allerdings eingesetzt werden können, muss die zu untersuchende Website verifiziert werden. Ich kann ja nicht einfach eine x-beliebige Domain erforschen, die gar nicht mir gehört und diese auch noch von Google manipulieren lassen :) Also lädt man entweder eine entsprechende kleine HTML Datei von den Webmaster Tools in das eigene Root-Verzeichnis des Servers oder schreibt einen angegebenen Code als alternative Methode in den Head-Bereich der Website (irgendwo zwischen <head> und </head>).
Dann sollten die Webmaster Tools noch ein paar Stunden bzw. manchmal auch Tage benötigen, um erste Zahlen, Daten, Fakten anzeigen zu können. Am kommenden Montag wenden wir uns dann der .htaccess und den 301 Weiterleitungen zu und schlagen die Brücke zwischen Onpage- und Offpageoptimierung.

Weitere Links zum heutigen Thema Webmaster Tools


Und nun allen viel Spaß bei den Webmaster Tools und Halloween :)

Keine Kommentare:

Kommentar veröffentlichen