Donnerstag, 20. Februar 2014

Tag 13 Online Marketing Kurs - Webmaster Tools / SEO Offpage

Mitschrift 21.02.2014

Linktipp: Google - neue Shopping-Kampagnen - Vor- & Nachteile
Matt Cutts - kommt bei Google immer mit den neuesten Infos raus. 

nochmal zu Webmaster Tools (Onpage)

Tipp: cuterank - als Alternative zu den Webmaster Tools von GoogleCuterank – kostenloses Tool für eine Domain, checkt die Keywords, wo in welcher Suchmaschine ich gelistet bin. Um für ein spezielles Wort auf den ersten Rang zu kommen. ZB für Yahoo, Bing, Ask, AOL, Google D, CH Aus.
Darauf besonders achten:
  • Keine Crawlingfehler
  • Übersicht URL übermittelt und indexiert
  • sitemap.xml sollte laufen 
Web 3.0 - Der Computer weiß genau, wer davor sitzt. -> Man bekommt das optimale Suchergebnis für sich!

Wenn man das Tool benutzt, bekommt man auch Google-News! :) 

Wir können unser Suchergebnis mit Google anpassen:
Bsp.: Events Dortmund
Suchsnippet sieht anders aus, als die anderen Ergebnisse, die ihr Snippet nicht angepasst/ strukturiert haben! = strukturierte Daten!

-> wir brauchen nicht programmieren, sondern nur ins Tool eingeben!

Data-Highlighter - Video-Tipp im Webmastertool  - unter Rich Snippet (nicht nur Text, sondern Anzeige angereichert  durch Bilder, Bewertungen, Videos, Telefonnummer...)
Rich Snippets am Bsp.Events Dortmund


Zu den Menüpunkten in Google Webmaster Tools

=>Website-Dashboard (bereits behandelt)

=>Website-Benachrichtigungen (bereits behandelt)

=>Darstellung der Suche 

  • Strukturierte Daten (-> Snippets optimieren: Bewertungssternchen, Eventdaten, Telefonnummer) Muss man selbst programmieren - für uns also uninteressant - für uns besser:
  • Data-Highlighter - Die letztendliche Entscheidung des Snippets liegt bei Google!
    • Adresse/URL eingeben - Art der Informationen, die hervorgerufen werden sollen. Dann werden die Worte automatisch hervorgehoben - man hat leider keinen Einfluss auf die Worte, die Highlights sein sollen, nur Art der Info) - taggen für diese Seite oder auch andere Seiten - später mehr zum Taggen!
      • Taggen = Kurzbegriffe zuweisen, also großen Inhalt mit treffendem Wort zuweisen und so schneller finden
    • mit linker Maustaste markieren & Snippet zuweisen - Preise oder ähnliches auch markieren - alle weiteren wichtigen Infos auf der Seite taggen und speichern - Fertig!
    • Tipp bei Snippet-Optimierung: Breit sein in Suchmaschine -
      viel Platz einnehmen:
       
      • viele Infos eingeben: 
        • Bilder, Infos, Videos 
        • Tipp: wenn wir ein lokales Unternehmen haben - Telefonnummer, Adresse, Name, Logo = typischen Kriterien, um als lokales Unternehmen dargestellt zu werden - also Diese Infos müssen auf die Startseite, damit man sie Taggen kann!!! - Dann wird unser Suchsnippet hervorgehoben.
 
Data Highlighter
  • HTML- Verbesserungen
    • hier gibt es eine Auswertung zu Verbesserungsvorschlägen für meine Seite - Einschub:
      W3C-Validator
      Fehlerfreien CSS-Code auf eigener Webseite - Optimierung! 
      -kann Parameter für gute Listung in Suchmaschine sein!-
      Eigene Website checken lassen, ob wir konform sind?

      -> zeigt leider, dass Blogspot fehlerhaft  programmiert ist - Metaangaben der Webmaster tools werden als Fehler ausgelesen - das können wir nicht ändern, weil wir nicht auf den Server kommen.
      • viele HTML-Fehler angegeben - 
      • ERGO: Leserunfreundliche Darstellung 
      • = schlechte Chance auf gute Postions in der Suchmaschine! 
      Achtung: Wenn wir ein Design-Template verwenden und viele Plugins von verschiedenen Entwicklern - dann kommt es auch zu Fehlern, weil einige Entwickler sich auch nicht an die Regeln halten - nicht Leserfreundlich.

      Heißt: man muss mit Fehlern klarkommen, wenn man andere Codes einspeist - nur wenn man rein eigenen HTML Code verwendet, kann man evtl ohne Fehler bleiben - aber unrealistisch!
  • Sitelinks: 
    • Sitelinks abwerten: !!!wenn jmd unsere Seite sucht!!!
      (direkt unsere Seite eingibt)= Suchergebnis unsere Website
    • Abwerten= ich kann angeben, welche Seiten ich nicht als Sitelink haben möchte
    • Tipp: Am Besten Sitelinks sofort abwerten.
    • Authority-Wert: Wenn Vertrauen mit Google aufgebaut ist, vergibt Google immer mehr Platz - weniger Sitelinks, wenn Seite neu ist - später mehr Sitelinks  - Je mehr Vertrauen, desto mehr Platz auf der SERP!
Hier eine Übersicht dieses Menüpunktes:

 

=>Suchanfragen : 

  • Suchanfragen
    • Suchanfragen gibt eine Statistik an, 
      • welche Keywords die Leute eingegeben haben (Suchanfrage) haben, 
      • wie oft ihnen die entsprechende Seite in der SERP angezeigt wurde (Impressions), 
      • wie viele tatsächlich auf die Seite geklickt haben (Klicks), 
      • wie hoch die CTR ist, 
      • welche Position ich im Duchschnitt auf der SERP erreicht habe.
    • Auflistung der Worte, die zu Klicks führten - evtl wichtige SChlüsselworte / Artikel, die es zu optimieren gilt.
    • Super!: man kann sich auch die Änderungen anzeigen lassen . wie haben sich die Suchanfragen geändert.
      • Falls wir mal viele Plätze nach hinten gefallen sind, dann ist es wahrscheinlich, dass man Google Penalty (Strafe) bekommen hat (bspw. durschn. Pos  Änderung: Wert von -30)
        • kann daran liegen, dass Density zu hoch auf der Seite
        • möglichst wenige Seiten mit -30
        • wenn man so schlecht arbeitet, listet Google einen weit hinten oder wirft uns aus der Indexierung raus
    • passen die Wörter zu meiner Content-Strategie? - Kann ich mit meinen Keywords Traffic generieren?

  • Links zu Ihrer Website -
    hier geht es in Richtung Offpage-Optimierung!
      • Immer zusehen, dass man auf jeder Seite einen Backlink zu seiner Hauptseite einbauet:
        • z.B.mit der Blogroll (oder jedem anderen Link zu meiner Seite irgendwo auf der Seite) produziere ich Links auf meine Seite durch Backlinks
      • Wir wollen am Liebsten Backlinks von starken Seiten haben - Vertrauensflüssen, die unsere Seite in der Suchmaschine höher stellen!
        • Bsp.: Ralf suchte SEO Texter und wollte Contest starten zu keywords "SEO Texte schreiben" - Ziel: wollte besten SEO Texter finden, der an ihm vorbeikam - aber sie haben neuen Blog erstellt - Pagealter zu gering, Vertrauen zu niedrig - kamen nicht an Ralf vorbei :(
        • Ergo: Wenn wir unsere Website otpimieren, ist jeder Beitrag, den wir schreiben schonmal weiter vorne, als bei einer neuen Site
    • Interne Links 
      • Tipp: wir sollen einen Mashup (Erstellung neuer Medieninhalte durch die nahtlose (Re-)Kombination bereits bestehender Inhalt) hinbekommen - Interne Links - Related Link - Plugin von Wordpress - welche Beiträge könnten die Leute interessieren - Links auf die Seite:
        • Besucher bleiben länger auf unserer Site = Super Kriterium für Optimierung 
        • Strukturierung typischer Firmenwebsite:
          • Blogteil, der Vermashed ist!!!
    • Manuelle Maßnahmen :
      • nützlich z.B. wenn man gehackt wurde z.B. eine andere Website hat einen Codeschnipsel von der eigenen Website genommen und nutzt diese Seite, um andere Nutzer zuzuspamen.  
     
    Suchanfragenseite

    Suchwort von Ralf für Brandingzwecke:
    "Jahresangaben Google Kalender"
    • Problem: Kann man nicht einfach ausfiltern 
    • Lösung von Ralf: Plugin im Outlook

    =>Google-Index: 

    • Indexierungsstatus
      • hier sieht man das Seitenwachstum & wie viele Seiten zu finden sind
        • bei Ralf kam es bspw. durch Integration von ralf-wenda.de auf seine Hauptseite zu einem unnatürlichen Anstieg - kann zu Penalties führen.
    • Content-Keywords
      •  hier wenden die Keywords genannt, über die mich Google findet
    • URLs entfernen
      • Beispiele, bei denen es sinnvoll ist
        • Eventseite, nachdem das Event gelaufen ist
        • Memberbereich zu finden 
        • Bei schlimmen Fehlercodes:
          • Entfernen von URLs aus den Google-Suchergebnissen 404-Fehler: Seiten die nicht mehr gefunden werden – tote Links, die können entfernt werden.
          • 200 – alles in Ordnung, Servercode
          • 500 – schlimmster Fehler,  Server weiß nicht wo der Fehler liegt
      • Lösung:
        • Entweder über robots.txt Seiten ausschließen oder
        • Entfernen bei Google beantragen
          (keine Garantie für Entfernung)

    =>Crawling: 

    • Crawling-Fehler
      • hier werden Fehler angezeigt -
        jetzt Prozess: URLs entfernen - Antrag auf Entfernung - aus dem Verzeichnis entfernen (Hinweis: muss von robots.txt blockiert werden.)
    Ralfs Seite hatte einen extremen Anstieg durch die Zusammenführung seiner Webpräsenzen
    -> hatte Websiten nicht mit übernommen - 404 Fehler - not found
    Hier müsste er 130 mal URL Entfernung beantragen!

    • Crawling-Statistiken
      • wird unser Site aktiv/regelmäßig gecrawled
        • bspw. reagiert der Crawler, wenn man mal keine neuen Inhalte einfügt, bei Urlaub bspw.
        • Tipp: Am besten sollte es wie eine Herzschlaglinie aussehen 
        • bei Grafik Herunterladen - sind die Spitzen interessant - hat lange gebraucht um Seite zu laden.
          • Achtet auf wenige Spitzen!
          • in der Regel sollte die Seite in > 3 sec geladen sein!

    • Abruf wie durch Google
      • TEST! hier kann man testen, ob der Crawler durch meine Seite durchgehen kann!
      • An Index senden, wenn Fehler behoben wurden oder wenn man was neues programmiert hat
        -> dann ist die Seite meistens schneller im Netz
        -> Trick für News-Agenturen - geben News ein und senden es an Index!
    Ralf hatte Problem mit Leistungsseite - neuer test und an Index senden
    • Blockierte URLs
      • hier sehe ich robots.txt-Datei und kann sie zum Testen hier mal ändern!
      • Tipp: Wenn man robots.txt ändern will, dann sollte man das hier vorher testen, damit man eventuelle Fehler sieht.
    • Sitemaps 
      • werden hier angezeigt,
    • URL-Parameter
      • wenn unsere Site mit Parametern arbeitet. 
      • Bitte Web-Entwicklern überlassen!

    =>Sicherheitsprobleme

    Meist werden keine Sicherheitsprobleme erkannt.
    Hier bekommt man aber auch Hilfe, wenn man gehacked wurde.

    =>andere Ressourcen

    Tool, wie das Test-Tool für strukturierte Daten.
    =>Google Labs (Laboratory - Versuchsfunktionen, die hier getestet werden)
    • lassen wir weg!
      • Autorenstatistiken
      • Vorschau

    !!! rel Author - Bild für Rich-Snippet einfügen
    - man muss wissen, wie es geht:

    • Bild in Profil bei Google Plus (man muss bei google+ einen Account haben!) einfügen, damit es bei Rich Snippets verwendet werden kann!
    • Blogspot ist 
    • re author in Suchmaschine eingeben - 2. Link - support google...
    • man braucht
      • ein google+ profil
      • ein Foto hochladen
      • Profil - über mich - Links - eigene Website eintragen durch bearbeite
        • Blogs/Websites - unser Blog hinzufügen - benutzerdefinierter Link - Domain, die verknüpft werden soll - aktuell Beitragender - speichern
        • auf meine Website gehen & möglichst auf jeder Unterseite den Code eingeben - als Gadget einfügen - bspw. im Footer
    Diesen Code  - am Besten im Footer (über Gadget) der eigenen Website eingeben
    -> Ergebnis: Google+ im Footer meiner eigenen Website - Würde auch im Test -Tool als Vorschau mein Snippet anzeigen mit Bild!

    -> dann wird das Bild in der Suchmaschine angezeigt - man nimmt mehr Platz weg & es sieht professionell aus.

    Rel author ist ein super SEO- Instrument - die Klickraten steigen!
    Tipp: ein Foto von sich machen, wo der Finger auf den Link zeigt!


    Vorschau: Offpage-Optimierung ab Montag
    • Links / Backlinks erhalten
    Buch: Kapitel 12 - ab S. 520/521

    S. 510

    Exkurs: 

    Markup - Maskierung / aufbereitung unserer Daten (Schablone über Daten drüberlegen) - anders darstellen, als es bisher ist - bsp. Bild des Autors hinzufügen, Angaben zu Preisen (aus Data Highlighter)

    favicon (kleines Icon im Reiter):
    • Bild auf Server hinterlegen
    • favicon generator - erzeugt link
    • Link bei uns einbinden
    ->genaueres zu favicons bei Google ;)

    Inbound-Marketing (Sog): Den Leuten das geben, was sie brauchen (ZG-relevante Problemlösungen auf meine Seite packen) - Die Leute kommen zu mir (Leopardenbeispiel von Marketsamurai)
    • dauert lange
    • man muss viel in Vorleistung gehen (Wissen abgeben)
    Outbound-Marketing (Druck): Ich geh auf die Leute zu - große Streuverluste  

    Klausur!
    Meta Keywords - Keywords mit Komma trennen => für Google uninteressant, aber andere Suchmaschinen Meta Description => die ist für Google wichtig 

    Klausur: Aufgabe: Ralf's Seite Arbeiten von zu Hause optimieren:
    • Metaangaben:
      • Titel
      • Description
    • Keyword-Density prüfen und daraufhin optimieren. 1-2 Sätze / Bild (arbeiten von zu Hause.jpg) einfügen 
    Klausur!Google interessiert sich nicht für meta keyword, nur andere Suchmaschinen!



    Kopie der Dozentenseite:

    Onlinemarketing Kurs Tag 12 – Von On- zu Offpage SEO



    Übergang von On- zu Offpage SEO

    Zum Beginn des Tages habe ich sehr interessante Links zum Thema Onlinemarketing und auch Offpage SEO gefunden. Zudem wurde heute das Themengebiet um Onpage SEO zunächst abgeschlossen und wir befinden uns die nächsten Tage im Offpage SEO Bereich. Doch nun erstmal die besagten Quellen:
    Zusammenfassung zu Onlinemarketing Kurs Tag 11 von Monika
    Die neuen Kriterien zur Suchmaschine Google was Onpage- und Offpage SEO angeht
    Der Onlinemarketing Trend in 2014 von Onlinemarketing.de
    Die Do’s und Dont’s im Contentmarketing
    Desweiteren habe ich euch auf zusätzliche Quellen hingewiesen, die die Themen .htaccess Datei und 301 Weiterleitung, Landingpage mit HybridConnect und teilenswerte Inhalte mit WPSharely, sowie die Checkliste zu Offpage SEO von Peer Wandiger angehen.

    Brainstorming zum Thema Offpage SEO


    • Gelbe Seiten
    • Meine Stadt
    • Branchenbucheinträge
    • Display Netzwerk
    • Geschäftspartner
    • Blogs
    • Foren
    • Verzeichnisse (z.B. DMOZ)
    • Social Bookmarking
    • YouTube
    • Wikipedia
    • Universal Search (z.B. Google Places)
    • Bewertungsplattformen (z.B. Yelp)
    • Vereine
    • RSS Dienste (Really simple syndication)
    • Social Networks (z.B. Facebook)
    • Und viele viele weitere Web2.0 Tools
    • Webkataloge
    • Presseportale
    • Und viele viele weitere Linkansammlungen

    Überlegungen zur Vorgehensweise eines Offpage SEO Projekts

    Was sind eigentliche meine Zielsetzungen für das Offpage SEO Projekt? (SMART)
    Was sind meine wichtigsten Seiten bzw. Unterseiten, Landingpages, Microsites etc. pp.? (Fokussiert arbeiten)
    Was ist für mein Offpage SEO Projekt “natürliches Linkwachstum”? (Wie viele Links in welcher Zeit? Start-Tipp für Miniprojekte: 10-30 Backlinks pro Woche )
    Wie soll möglichst der Permalink mit entsprechendem Ankertext aussehen? (z.B. <a href=”http://wenda-it-web.de/kontakt” title=”Keywords für Wenda IT & Web”>Auch hier im Ankertext Keywords und möglichst Aufforderung</a>)
    Kombiniert mehrere Backlink-Varianten für euer Offpage SEO Projekt (z.B. Ankertext ändern oder title-Attribut oder entsprechende den Permalink)
    Konzipiere einen konkreten Plan zum Aufbau der Backlinks (D.h. z.B. in welchen Verzeichnissen, welcher Backlink und wie häufig)
    Achtet auf den PageRank als EIN Kriterium für die Qualität des Backlinks. (Linkjuice muss fließen können)
    Wenn technisch möglich, einen Automatismus einsetzen (aber bitte nicht übertreiben)
    Letzter Tipp am Rande: Achtet auf Follow oder NoFollow!

    Für die Nachbereitung am Nachmittag

    Lest euch die Quelle zur neuen Berechnung der Suchergebnisse bei Google durch. Und verwendet diesen Link für alle möglichen Verzeichnisse um ihn zu verteilen ;) <a href=”http://www.ralf-wenda.de/10-gruende-fuer-wenda-it-web-videonews/” title=”Ralf Wenda 10 Gru&uml;nde f&uuml;r die VideoNews” target=”_blank”>Ralf Wenda – 10 Gründe für die VideoNews</a>
    LG
    Ralf

    Keine Kommentare:

    Kommentar veröffentlichen