@RA
RA
09 Aug 2018

Depending on the size of your documents, the number of shards, and the hardware you are using, paging 10,000 to 50,000 results (1,000 to 5,000 pages) deep should be perfectly doable. But with big-enough from values, the sorting process can become very heavy indeed, using vast amounts of CPU, memory, and bandwidth. For this reason, we strongly advise against deep paging.
In practice, “deep pagers” are seldom human anyway. A human will stop paging after two or three pages and will change the search criteria. The culprits are usually bots or web spiders that tirelessly keep fetching page after page until your servers crumble at the knees.

Задумался.

09 Aug 2018

Ну а кто в здравом уме будет листать дальше 10 страницы?

09 Aug 2018

solr же как-то с этим справляется

#mbsng/2 в ответ на /1
10 Aug 2018

Во время поиска картинок я могу и до сотой долистать, а потом сохранить позицию и продолжить позднее :) Хотя это вряд ли случай, о котором идёт речь.

#mbsng/3 в ответ на /1
10 Aug 2018

Может не всё грузит и считает?

#mbsng/4 в ответ на /2

Добавить пост

Вы можете выбрать до 10 файлов общим размером не более 10 МБ.
Для форматирования текста используется Markdown.