[uanog] riak

Vasiliy P. Melnik basil at vpm.net.ua
Thu Mar 30 15:44:29 EEST 2017


30 марта 2017 г., 15:09 пользователь Mykola Ulianytskyi <lystor at gmail.com>
написал:

> > ну мы остановились на том, что нам надо 6 нод.
>
> Серверы даже на половину по CPU / RAM / IO не были загружены.
> 3 ноды нужны были только для HA с возможностью потери одной из них.
>
> Ну и лучше иметь 5 или 7 вместо 6:
> http://docs.basho.com/riak/kv/2.2.2/learn/glossary/#quorum


Странно, но на 6 нод ровнее всего разошлись партишины, при 5 и 7 было пару
партишинов в двух экземплярах. Но 6 - это не решение еще даже, в
действительности все будет зависеть и  от финансовых факторов тоже, и не
исключаю вероятности разворачивания кластера на трех нодах.

GlusterFS имеет генетические проблемы с быстродействием fstat.
> Если его и используют для хранения картинок - то только через проксю с
> диким кэшом,
> чтобы по максимуму снизить количество fstat-запросов к гластеру.
>

Предлагаю забыть за него :)  мы его очень легко угробили.

Как тестировали:
было 7 нод с разными дисками под данные 3*400, 2*300, 2*200, нонды померли,
когда забился раздел, выделенный под данные.  Кластер продолжал работать и
оставшиеся ноды продолжали принимать коннекты, в итоге в живых осталось 3 -
до конца их не заполняли. На 4 упавших добавили дисковое пространство,
после этого ноды подняли. Примерно пол дня был движняк - по-другому я
назвать это не могу, данные между нодами перемещались просто таки постоянно
и со стороны - хаотично. В этот момент производилось чтение данных, даже
если в ответ приходило 404 через 2-3 секунды этот же запрос обрабатывался и
данные выдавались, aee справляется достаточно шустро. Сейчас все ок.

Я так понимаю основной момент был в том, что у нас был только врайт - но у
нас именно такая нагрузка.
-------------- next part --------------
An HTML attachment was scrubbed...
URL: <http://mailman.uanog.kiev.ua/pipermail/uanog/attachments/20170330/edbdd922/attachment.html>


More information about the uanog mailing list