robots.txt
1.
Иван (03.03.2010 / 10:02)
Тему создал не для того, чтобы рассказать и сием чуде, а для того чтобы задать вопрос.
У мну на хостинге при запросе любого txt файла выдаёт ошибку 403. Так вот получаеться всего скорее и боты не видят моего robots.txt. Как это можно исправить, может с помощью htaccess можно как-то разрешить скачивание txt файлов?
2.
ктулху (03.03.2010 / 10:22)
А есть доступ к логам ошибок? неплохо бы там посмотреть что ему не нравится
3.
Анатолий (03.03.2010 / 10:34)
1, посмотри в .htaccess нет ли там запрета на просмотр тхт файлов
4.
Иван (03.03.2010 / 12:37)
<Files *.txt>
order allow,deny
deny from all
</Files> это *** мешает наверное? И что она в скрипте может закрывать?
5.
ramzes (03.03.2010 / 18:11)
Это запрет на доступ ко всем файлам с расширением .тхт
6.
Иван (03.03.2010 / 19:37)
Дак в скрипте не используються txt файлы, знач строчку снести можно
7.
ктулху (23.03.2010 / 01:18)
Лучше добавь вот эту строчку прямо после той:
<Files robots.txt>
order deny,allow
allow from all
</Files>
8.
Иван (30.06.2010 / 17:39)
7.
ShiftBHT_есть чо7, что эти строки дадут? Закроют файл для юзеров?
9.
Ant333 (05.07.2010 / 17:22)
Я написал головну страницу сайта з текстового редактора а она помистилась в X-plore она имеет розшерения .txt. што надо зделать штоби можна била зайти и одкрить то што я написал в инете ? ? ?
10.
Shur1k (05.07.2010 / 20:01)
Переименуй. nazvanie_fajla.html или php или wml разширение. Учитывая то, какая разметка страници
11.
Вова (28.07.2010 / 07:09)
а что это за робот? пожалуйста если не в лом напишите в ЛС или асю 352559304
12.
delete (06.08.2010 / 13:12)
дак запрети stue или go, в роботс нет вроди масок, так что рандомные значения не укажиш.
13.
RiaD (13.08.2010 / 23:31)
disallow: /stue/
не вариант?
14.
RiaD (13.08.2010 / 23:37)
disallow: /stue/*/go/$
поддерживают не все роботы(яндекс держит)
URL:
https://visavi.net/topics/6602