Goggle soll nicht alle Seiten der HP aufführen

Fridoya schrieb am 08.07.2012 um 14:02 Uhr

Liebe Forumshelfer!

Ich möchte euch wieder einmal um Hilfe bitten, weil ich selber nicht weiterkomme. Ich habe mit Web Designer 7 für einen Bekannten ein HP gestaltet (http://www.daniel-hell.com). Da ich die Untermenüs (bei "Berufliche Stationen", "Weitere Publikationen" und "Leseproben") nicht so darstellen wollte, wie es mit der Software möglich gewesen wäre (Untermenu klappt sich seitlich auf), habe ich auf einen Tipp eines Forumsnutzers hin das Menu aufgeteilt. Dadurch muste ich 3, manchmal 4 Seiten mit dem gleichen Inhalt aber anderem Menu gestalten und diese entsprechend miteinander verlinken. So gibt es z.B. von der Seite "Biographie" die Seiten biographie1 (mit Hauptmenu), 2 (mit Untermenu von "Berufliche Stationen"), 3 (mit Untermenu von "Weitere Publikationen") bzw. 4 (mit Untermenu von "Leseproben"). Google hat nun teilweise alle diese Seiten aufgeführt, was natürlich keinen Sinn macht, weil die Inhalte der Seiten (m.A. des Menus) ja immer die gleichen sind. Ich habe im Internet gesucht und Folgendes gefunden:

<meta name="robots" content="index follow"/>

Damit soll die Seite von Google nicht aufgenommen, die Links der Seite aber verfolgt werden. Leider kenne ich mich in der HTML-Sprache überhaupt nicht aus und möchte euch deshalb folgende Fragen stellen:

1. ist die oben aufgeführte Zeite in HTML korrekt?

2. würde sie mein Problem lösen (nicht alle Seiten aufnehmen, Links verfolgen)?

3. wenn ja, muss ich bei "meta name" den Namen der betreffenden Seite aufführen (z.B. "biographie2")?

4. wo - beim Web Designer 7 - müsste ich diese HTML-Zeile eingeben?

Ich würde mich über jede Antwort sehr freuen und danke euch im Voraus ganz herzlich. Ich wünsche euch einen schönen Sonntagnachmittag - und wer sie noch vor sich hat: Schöne Sommerferien! LG Fridoya

 

Kommentare

lupus_III schrieb am 08.07.2012 um 17:24 Uhr

Leider kann ich dir bezüglich der Frage, "4. wo - beim Web Designer 7 - müsste ich diese HTML-Zeile eingeben?" keine Antwort geben, weil ich schon lange nicht mehr mit WD von Magix arbeite, sondern mit der kostenlosen Software Webocton Sriptly und meine Webdateien mit einem FTP-Programm auf dem Sderver verwalte. WD von Magix produziert m.E. Programmcode, der teilweise völlig überflüssig ist. Warum verwendest du für dein Menü keine Dropdownfunktion? Siehe: http://www.ohne-css.gehts-gar.net/0066.php.

 Weiterhin viel Spass.

Ich sende dir hier mal ein paar Anweisungen für Suchroboter, die ich Wikipedia entnommen habe.

<meta name="robots" content="index,follow" />

Alternativ kann auch:

<meta name="robots" content="all" />

verwendet bzw. auf den Code ganz verzichtet werden.

    Der Suchroboter soll die Webseite ausdrücklich in den Suchmaschinen-Index aufnehmen, damit sie auffindbar ist, und den Hyperlinks auf der Seite folgen. Diese Angabe ist im Allgemeinen unnötig, da sie dem normalen Verhalten der meisten Webcrawler entspricht.

<meta name="robots" content="noindex" />

    Der Suchroboter soll die Webseite nicht in den Index aufnehmen. Die Webseite soll also nicht über Suchmaschinen auffindbar sein. Siehe auch: Robots Exclusion Standard.

<meta name="robots" content="nofollow" />

    Der Suchroboter darf die Webseite zwar aufnehmen, aber soll den Hyperlinks auf der Seite nicht folgen. Die Wirkung ist so, als wären die Links auf der betreffenden Seite gar nicht vorhanden. Derselbe Effekt lässt sich auch für einzelne Links erreichen, indem diese um das Attribut rel="nofollow" ergänzt werden. (siehe nofollow)

<meta name="robots" content="noodp" />

    Die Suchmaschine soll auf der Ergebnisseite nicht die Beschreibungstexte des Open Directory Projects verwenden – sofern die Seite dort eingetragen ist  –, sondern wie bei nicht eingetragenen URLs einen Ausschnitt der Seite selbst (sog. „Snippet“) anzeigen. Diese Anweisung wird von Google und MSN Search unterstützt.

<meta name="robots" content="noydir" />

    Die Suchmaschine soll auf der Ergebnisseite nicht die Beschreibungstexte aus dem Yahoo-Verzeichnis verwenden – sofern die Seite dort eingetragen ist  –, sondern wie bei nicht eingetragenen URLs einen Ausschnitt der Seite selbst . Diese Anweisung wird nur von Yahoo (Robot: Slurp) unterstützt.

Zuletzt geändert von lupus_III am 08.07.2012, 17:24, insgesamt 1-mal geändert.

Wenn Du Dein Problem mit dem/den erhaltenen Tipp(s) lösen konntest, wäre es nett, wenn Du auf den Button "Danke" klickst.
Ein Posting mit Deiner Erfahrung zu dem/den erhaltenen Tipp(s) wäre optimal. Das hilft allen Forumbesuchern , die, mit vergleichbaren Problemen ihrer Anwendung zu kämpfen haben  und die ebenfalls auf der Suche nach einer Lösung sind.
Klar, dass auch die/der Tippgeber sich freut, wenn ihre/seine Hilfestellung mit einem Feedback belohnt wird und nicht ins Leere geht.

LG Lupus_III

Fridoya schrieb am 08.07.2012 um 19:47 Uhr

Hallo lupus III!

Ich danke dir, dass du dir an diesem Sonntagnachmittag die Zeit genommen hast, mir zu antworten.

Ich habe bewusst den Web Designer gewählt, weil ich vorher keine Ahnung hatte von Webdesign, vor allem die HTML-Sprache ist mir völlig fremd. Mit einer Software, die gerade das benötigt, wäre ich nicht weitergekommen, denn es hätte zu lange gedauert, bis ich mich eingearbeitet hätte, wenn ich es denn überhaupt verstanden hätte. Mit dem WD benötigte ich zur Erstellung der HP keine HTML-Kenntnisse. Ich habe den von dir angegebenen Link angeklickt und gesehen, dass er eben auf HTML-Kenntnissen basiert, gerade das, was ich eben nicht habe. Zudem funktioniert das Menu ja, das ich mit dem WD erstellt habe.

Die von dir angegebenen Anweisungen habe ich studiert, sie scheinen aber nicht genau das wiederzugeben, was ich möchte. Ich möchte, dass die von mir erwähnten Seiten "gecrawlt" werden, die Links davon aufgenommen werden, die Seite dann aber von Google nicht in der Liste der Suchergebnisse gezeigt wird. In meinem Fall: In der Suchangabe "daniel hell biographie" wird ja eine Liste von Ergebnissen zu diesem Namen aufgeführt, es macht aber keinen Sinn, viermal die Seite "Biographie" aufzuführen, weil sich diese Seiten ja nur im Menu, nicht im Inhalt unterscheiden. Ich bin nicht sicher, ob ich mich klar ausdrücken kann.

Was ich aus deiner Antwort verstanden habe, ist, dass die von mir angegebene HTML-Zeile mein Problem nicht löst, weil es einfach nur angibt, die Seite soll "gecrawlt" werden, was ja das übliche Vorgehen von Robotern, Crawlern, Spidern, oder wie sie alle heissen, ist. Ich benötige also weiterhin HIlfe.

1. wie lautet denn der HTML-Code, den ich eingeben muss, damit Google die Seite nicht bei den Suchergebnissen auflistet, deren Links aber dennoch von Google verfolgt werden, die ganze Seite also nicht einfach übergangen wird?

2. was müsste ich bei "meta name" eingeben? den Namen der entsprechenden Seite?

3. vielleicht könnte mir ein anderer Nutzer dieses Forums, der oder die mit dem Web Designer arbeitet, schreiben, wo ich den Code eingeben müsste?

 

Ich möchte dich/euch deshalb nochmals um Unterstützung bitten! Herzlichen Dank und schönen Abend, Fridoya 

 

mysteria66 schrieb am 08.07.2012 um 20:26 Uhr

Hallo,

 

zu 1.) Die Zeile lautet korrekt: <meta name="robots" content="noindex follow"/>

Durch noindex taucht die Seite nicht in den Suchergebnissen auf, durch follow wird den Links auf der Seite gefolgt. nofollow würde das im Übrigen verhindern.

zu 2.) Ja, da die Seiten, soweit ich Dich richtig verstanden habe, bereits in den Suchergebnissen erscheint, werden diese allerdings nicht von heute auf morgen aus den Suchergebnissen verschwinden. Da braucht es etwas Zeit.

zu 3.) Nein, Du musst die Zeile aus Punkt 1 immer in denjenigen Seiten integrieren, welche  nicht durch Suchmaschinen erfasst werden sollen. Hierfür musst Du keinen Seitennamen angeben.

zu 4.) Wie gesagt - auf jeder einzelnen Seite. Klicke hierzu in der oberen Menüleiste auf "Extras/ Eigenschaften der entspechenden Unterseite. Dort klickst Du auf den Reiter Seite (Nicht Webseite!). Dort gehst Du auf HTML Code (head) und trägst die Zeite wie oben beschrieben ein.

Ich würde Dir zusätzlich empfehlen noch eine modifizierte Robots.txt zum Einsatz zu bringen. Hierfür benötigst Du allerdings einen sogenannten FTP-Client, mit dem Du die Datei auf den Webspace hochladen kannst (beispielsweise mit Filezilla).

In diese Textdatei die den Namen robots.txt tragen muss, trägst Du dann jede Seite die ausgeschlossen werden soll, wie folgt ein:

User-Agent: *
Disallow: /seitenname1.htm

Die Zeile mit Disallow wiederholst Du dann für jeden einzelnen Seitennamen.

Das soll es gewesen sein.

Gutes Gelingen :-)

Fridoya schrieb am 08.07.2012 um 20:42 Uhr

Lieber mysteria66,

deine Antwort ist genau das, was ich benötige - ganz herzlichen Dank! Jetzt komme ich bestimmt weiter. Darf ich dich noch fragen, ob ich zwischen "noindex" und "follow" ein Komma setzen muss, oder ob das nicht nötig ist?

Ja, mit Google dauert es so seine Zeit, diese Erfahrung habe ich schon gemacht - machen müssen -, umso mehr freue ich mich dann übers Resultat.

Ich wünsche dir einen schönen Abend und eine gute Woche, liebe Grüsse, Fridoya

mysteria66 schrieb am 08.07.2012 um 20:46 Uhr

Ja, das Komma hatte ich durch das Kopieren Deiner Zeile leider unterschlagen ;-).

Demnach heißt die Zeile korrekt:

<meta name="robots" content="noindex, follow"/>

Ich habe meinen ersten Beitrag übrigens am Ende noch bezüglich der robots.txt Datei überarbeitet. Lese Dich am besten auch in dieses Thema etwas ein.

Beste Grüße

Fridoya schrieb am 09.07.2012 um 00:42 Uhr

Danke, mysteria66, du hast mir sehr geholfen! LG Fridoya