Projet

Général

Profil

Ceph » Historique » Version 4

Version 3 (Laurent GUERBY, 03/10/2014 10:19) → Version 4/14 (Laurent GUERBY, 06/10/2014 21:55)

{{>toc}}

h1. Ceph

h2. Misc

* http://en.wikipedia.org/wiki/Ceph_(storage)
* http://ceph.com/
* http://www.inktank.com/
* https://linuxfr.org/news/red-hat-rachete-la-societe-inktank-a-l-origine-de-ceph
* [[Ceph-Sharing-Disk]]

h2. Calamari

Calamari is a management and monitoring system for Ceph storage cluster. It provides a beautiful Dashboard User Interface that makes Ceph cluster monitoring amazingly simple and handy. Calamari was initially a part of Inktank’s Ceph Enterprise product offering and it has been open sourced few months back by Red Hat. Hence Calamari is a matured enterprise level software which is now Open Source. - See more at: http://ceph.com/category/calamari/#sthash.XpksGKGg.dpuf

* http://ceph.com/community/ceph-calamari-goes-open-source/
* http://ceph.com/category/calamari/
* https://github.com/ceph/calamari

h2.
Debian

<pre>
<mherrb> est-ce que l'un de vous connait CEPH ? (http://ceph.com et https://github.com/ceph) ?
<djanos> mherrb: Je l’ai testé à INP-net/net7
<djanos> On est finalement reparti sur du DRBD avec heartbeat. La haute disponibilité intégré dedans c’est assez pratique, mais les perf n’étaient pas au rendez-vous. Mais j’ai peut-être pas assez passé de temps pour trouver les bon réglages. Ceci dit, c’est Laurent qui nous en avait parlé, d’autre à ttn l’utilise je crois.
<sileht> ca marche bien et cote setup c'est facile d'avoir des mauvaises perfs, pour attendre le débit des disques des machines du cluster, il faut mettre un SSD pour n disk
<sileht> n = IOPS_SSD/(nombre de disk * IOPS disk)
<sileht> et décrire dans la conf de ceph comment sont connecté physique tes machines machines/disques/switches
<sileht> c'est pas trivial mais une fois installé ca marche bien
</pre>