Hallo, ich habe jetzt schon länger das Forum durchsucht, zu diesem speziellen Problem habe ich haber nichts finden können.
Es geht um folgendes:
Ich betreibe 2 Seiten (mit je einer Domain) mit fast identischem Inhalt auf zwei gehosteten Webspace-Paketen.
Wegen dem erhöhten Pflegeaufwand und der redundanten Datenhaltung ist meine Idee nun, einen Server zu verwenden mit einem vHost pro Domain. Beide VHosts haben dasselbe DocumentRoot.
Je nachdem, von welcher Domain der Besucher kommt, soll dann mittels PHP ($_SERVER['HTTP_HOST']) die Zusätzlichen Informationen eingeblendet werden (Domain1) oder eben nicht (Domain2).
So weit klappt das auch super (lokaler Test). Allerdings bin ich jetzt auf das Problem gestoßen, das sich damit beide Domains eine robots.txt teilen. Domain2 soll im Gegensatz zu 1 aber nicht über SuMas gefunden werden um doppelten Content zu vermeiden und damit der Besucher der über SuMas kommt, alle Informationen angezeigt bekommt.
Hat jemand eine Idee, wie ich für jeden VHost trotz gleichem Root eine eigene robots.txt einrichten kann, oder gerne auch einen komplett anderen Ansatz um das geschilderte Szenario umzusetzen?