Announcement

Collapse
No announcement yet.

Google Search Console interpretiert robots.txt falsch

Collapse
X
  • Filter
  • Time
  • Show
Clear All
new posts

  • Google Search Console interpretiert robots.txt falsch

    Guten Tag zusammen

    Ich habe bei Google SearchConsole (GSC) eine robots.txt hinterlegt. Die Datei wurde akzeptiert ,aber wird nun falsch interpretiert.
    Im GSC wird nun unter Abdeckung mitgeteilt: "Gesendete URL durch robots.txt blockiert" , Menge 9. Kann ich mir nicht ganz vorstellen, den meine robots.txt lässt alles zu ausser den 5 Dateien nicht. Die gemeldeten Dateien liegen alle im Root oder im Ordner wp. Es sind zb. die Dateien "index.php?waehrung" , "index.php?webinar" , usw
    Im GSC wird nun unter Abdeckung mitgeteilt "Gesendete URL als "noindex" gekennzeichnet", Menge 5. Ich hab keinen MetaTag mit "Noindex"


    Insgesamt hats in der robots.txt 34 Zeilen.

    Inhalt der robots https://celeritas.li/robots.txt
    Inhalt der sitemap https://www.celeritas.li/sitemap.xml


    Was läuft hier falsch?

  • #2
    Sicherlich steht bei dir
    <meta name="robots" content="noindex,nofollow">
    zwar nicht im head, aber im body
    Christian

    Comment


    • #3
      Ich habe meines Wissens weder im Head noch im Body
      Diese Zeile "<meta name="robots" content="noindex,nofollow">"
      Ich habe nur diese Zeile "<meta name="robots" content="index, follow, noarchive, noimageindex, noimageclick, no-cache"/>"
      Zuletzt editiert von phpxml; 08.01.2021, 15:09.

      Comment


      • #4
        Nun, ich habe mir das ja nicht ausgedacht




        Zuletzt editiert von Christian Marquardt; 08.01.2021, 21:13.
        Christian

        Comment


        • #5
          Der Code war im Footer darin.

          Comment


          • #6
            Hat "Gesendete URL durch robots.txt blockiert" diese Meldung auch zu tun gehabt, dass diese Zeile "<meta name="robots" content="noindex,nofollow"" vorhanden war?

            Comment


            • #7
              Warum werden gewisse Seiten immer noch mit der Meldung "Gesendete URL durch robots.txt blockiert" im GSC angegeben. Habe alles nun im robots.txt erlaubt

              Comment


              • #8
                Es ist komplett sinnlos, wenn du hier Fragen ohne weitere Informationen stellst.
                Wer soll darauf antworten?
                Wie gestern

                Habe es gemacht, aber es führt nichts aus.
                Was hast du gemacht? Wo ist der Code? Wie wurde was ausgeführt? Fehlermeldungen usw.

                Warum werden gewisse Seiten immer noch mit der Meldung "Gesendete URL durch robots.txt blockiert" im GSC angegeben. Habe alles nun im robots.txt erlaubt
                Welche Seite? Wie sieht die robots jetzt aus?

                Ich mache mir nicht mehr die Mühe, dir jede Information mühsam aus der Nase zu ziehen
                Zuletzt editiert von Christian Marquardt; 11.01.2021, 06:50.
                Christian

                Comment


                • #9
                  Wie meine Robots.txt und SiteMap.xml aussieht, steht im 1sten Beitrag.
                  Es geht um die Seite: www.celeritas.li
                  Inhalt der robots https://celeritas.li/robots.txt
                  Inhalt der sitemap https://www.celeritas.li/sitemap.xml

                  Comment


                  • #10
                    Wieder die 0 bzw. Halbinformationen
                    Es heißt:
                    Habe alles nun im robots.txt erlaubt
                    Dies deutet auf einen anderen Zustand der robots hin, als im ersten Posting

                    Es wird wohl doch nicht um
                    www.celeritas.li
                    gehen, ich denke ..Zitat
                    Warum werden gewisse Seiten
                    Gewisse Seiten ist die komplette Domain?

                    Du kannst im GSC alles sehen... wir nicht und müssen raten?
                    Zuletzt editiert von Christian Marquardt; 11.01.2021, 15:42.
                    Christian

                    Comment


                    • #11
                      Im GSC heisst es, dass es wegen "Gesendete URL durch robots.txt blockiert" nicht gescault werden kann. Die Datei, welcher er angibt heisst zb https://www.celeritas.li/index.php?page=webinar oder https://www.celeritas.li/index.php?page=waehrung
                      Aber die Datei index.php ist freigegeben (Allow).

                      Comment

                      Working...
                      X