#1
|
|||
|
|||
百度跟搜狗實在很跨張
一天之內就被這兩支拜訪了一萬多次..@@
小弟覺得用robots.txt也沒用... 索性在.htaccess直接擋.. SetEnvIf User-Agent ^Baiduspider badrobot SetEnvIf User-Agent ^sogou badrobot <Files *> Order allow,deny Allow from all Deny from env=badrobot </Files> 小弟另外請問一下,如果同時.htaccess裡也有下面這一段.. <Files php.ini> Order allow,deny Deny from all </Files> 這樣一來會不會互相衝突呢? |