
•
Wyszukiwarki nie mają nieograniczonych zasobów. Googlebot – robot indeksujący strony internetowe – odwiedza miliardy adresów URL na całym świecie i musi rozdzielać swój czas i moc obliczeniową między wszystkie serwisy, które chce zaindeksować. Każda witryna otrzymuje w związku z tym pewien limit zasobów przeznaczonych na crawlowanie: określoną liczbę podstron, które robot odwiedzi w danym…