Ich möchte das folgende URLs nicht gespidert werden:
/index.php?c=101
/index.php?c=102
/index.php?c=103 usw.
Weil sonst doppelter Content entsteht.
Deshalb habe ich in die robots.txt das hier reingeschreiben:
Funzt das? oder wird nun die komplete index.php geblockt?
/index.php?c=101
/index.php?c=102
/index.php?c=103 usw.
Weil sonst doppelter Content entsteht.
Deshalb habe ich in die robots.txt das hier reingeschreiben:
User-agent: *
Disallow: /index.php?c=
Disallow: /index.php?c=
Kommentar