2x VHost, 1x DocumentRoot, 2x robots.txt

Alles, was den Apache betrifft, kann hier besprochen werden.

2x VHost, 1x DocumentRoot, 2x robots.txt

Postby lime » 07. February 2008 18:57

Hallo, ich habe jetzt schon länger das Forum durchsucht, zu diesem speziellen Problem habe ich haber nichts finden können.

Es geht um folgendes:

Ich betreibe 2 Seiten (mit je einer Domain) mit fast identischem Inhalt auf zwei gehosteten Webspace-Paketen.

Wegen dem erhöhten Pflegeaufwand und der redundanten Datenhaltung ist meine Idee nun, einen Server zu verwenden mit einem vHost pro Domain. Beide VHosts haben dasselbe DocumentRoot.
Je nachdem, von welcher Domain der Besucher kommt, soll dann mittels PHP ($_SERVER['HTTP_HOST']) die Zusätzlichen Informationen eingeblendet werden (Domain1) oder eben nicht (Domain2).

So weit klappt das auch super (lokaler Test). Allerdings bin ich jetzt auf das Problem gestoßen, das sich damit beide Domains eine robots.txt teilen. Domain2 soll im Gegensatz zu 1 aber nicht über SuMas gefunden werden um doppelten Content zu vermeiden und damit der Besucher der über SuMas kommt, alle Informationen angezeigt bekommt.

Hat jemand eine Idee, wie ich für jeden VHost trotz gleichem Root eine eigene robots.txt einrichten kann, oder gerne auch einen komplett anderen Ansatz um das geschilderte Szenario umzusetzen?
lime
 
Posts: 2
Joined: 05. February 2008 18:37

Postby Wiedmann » 07. February 2008 19:05

a) in deinem Scenario kannst du genauso gut einen VHost nehmen (wenn beide Website eh aus dem selben DocumentRoot bedient werden).

b) lass mit mod_rewrite jeweils eine passende "robots.txt" ausliefern.
Wiedmann
AF Moderator
 
Posts: 17106
Joined: 01. February 2004 12:38
Location: Stuttgart / Germany

Postby lime » 08. February 2008 00:28

Hallo Wiedmann,

vielen Dank für die schnelle Antwort :o

Zu a.) Ich hatte vergessen zu erwähnen, dass bei der Gelegenheit gleich ein SSL Zertifikat für beide Domains angeschafft werden soll. Deswegen die Lösung mit den 2 VHosts. (Dann mit jeweils eigener IP)

b.) Danke, das war genau der Denkanstoss den ich benötigte.
Für alle: Ich habe es jetzt so gelöst in der htaccess:
Code: Select all
RewriteEngine on
RewriteCond %{HTTP_HOST} ^.*domain1\..*$
RewriteRule robots.txt$ robots/robots_domain1.txt
RewriteCond %{HTTP_HOST} ^.*domain2\..*$
RewriteRule robots.txt$ robots/robots_domain2.txt

So funktioniert es lokal auf jeden Fall schonmal wie gewünscht.
Ob man die Robot-Dateien nochmal in den Unterordner /robots/ packt ist dabei natürlich Geschmacksache.

Ich bin erstmal glücklich :D
lime
 
Posts: 2
Joined: 05. February 2008 18:37


Return to Apache

Who is online

Users browsing this forum: No registered users and 4 guests