- Простите, шта ? первый раз об этом слышу.
Всё верно. Гугл зачастую индексирует страницы, которые закрыты в robots.txt, но на них есть ссылки на сайте. Но эти страницы не показывает в результатах поиска, а пишет что-то в духе «содержимое страницы закрыто robots.txt» (это можно встретить при поиске через «site:domain.tld»)
Спасибо за замечания)
- но есть два момента, из-за которых вы делаете два запроса вместо одного
и
- Нет смысла дополнительно вначале проверять общее число записей в таблице, это можно определить из второго запроса.
Тут тоже на самом деле не всё так просто. Возможно, что у человека, кто потом заберет этот код себе — не будут созданы индексы по фильтрации, которая у меня заложена в методе PHP…
С зеркалами сейчас ситуация такая (сужу по гуглу) — они учитываются, если ссылка стоит с сайта, на который и ссылаются. То есть если на сайте есть ссылки на главную и на первую страницу одновременно (а так и есть в настоящий момент), то это считается зеркалом.
PS: лучше код гляньте, скажите — правильная ли реализация или я что-то не учел или мог бы сделать лучше?
Да, я в курсе, что он на Laravel, поэтому и добавил этот комментарий.
Поисковики учитывают это по-разному, поэтому некоторые плохие люди могут натолкать кучу ссылок со сторонних ресурсов на такие «зеркала» или «пустышки», этим самым пошатнув позиции сайта в серпе.
К слову, эти же огрехи применимы и к текущей версии Habravel:
https://laravel.ru/?page=999999
https://laravel.ru/?page=0
https://laravel.ru/?page=-1000
Google замечательно показывает «закрытые» страницы даже в обычном поиске без site: — а вот вместо вырезки со страницы (под заголовком и URL) он действительно пишет «содержимое страницы закрыто robots.txt».
Очень часто натыкаюсь на подобные результаты, по-моему со Stack Overflow.