robots.txt

1. Иван (03.03.2010 / 10:02)
Тему создал не для того, чтобы рассказать и сием чуде, а для того чтобы задать вопрос.
У мну на хостинге при запросе любого txt файла выдаёт ошибку 403. Так вот получаеться всего скорее и боты не видят моего robots.txt. Как это можно исправить, может с помощью htaccess можно как-то разрешить скачивание txt файлов?

2. ктулху (03.03.2010 / 10:22)
А есть доступ к логам ошибок? неплохо бы там посмотреть что ему не нравится

3. Анатолий (03.03.2010 / 10:34)
1, посмотри в .htaccess нет ли там запрета на просмотр тхт файлов

4. Иван (03.03.2010 / 12:37)
<Files *.txt>
order allow,deny
deny from all
</Files> это *** мешает наверное? И что она в скрипте может закрывать?

5. ramzes (03.03.2010 / 18:11)
Это запрет на доступ ко всем файлам с расширением .тхт

6. Иван (03.03.2010 / 19:37)
Дак в скрипте не используються txt файлы, знач строчку снести можно

7. ктулху (23.03.2010 / 01:18)
Лучше добавь вот эту строчку прямо после той:
<Files robots.txt>
order deny,allow
allow from all
</Files>


8. Иван (30.06.2010 / 17:39)
7. ShiftBHT_есть чо7, что эти строки дадут? Закроют файл для юзеров?

9. Ant333 (05.07.2010 / 17:22)
Я написал головну страницу сайта з текстового редактора а она помистилась в X-plore она имеет розшерения .txt. што надо зделать штоби можна била зайти и одкрить то што я написал в инете ? ? ?

10. Shur1k (05.07.2010 / 20:01)
Переименуй. nazvanie_fajla.html или php или wml разширение. Учитывая то, какая разметка страници

11. Вова (28.07.2010 / 07:09)
а что это за робот? пожалуйста если не в лом напишите в ЛС или асю 352559304

12. delete (06.08.2010 / 13:12)
дак запрети stue или go, в роботс нет вроди масок, так что рандомные значения не укажиш.

13. RiaD (13.08.2010 / 23:31)
disallow: /stue/
не вариант?

14. RiaD (13.08.2010 / 23:37)
disallow: /stue/*/go/$
поддерживают не все роботы(яндекс держит)

URL: https://visavi.net/topics/6602