Projet

Général

Profil

Ceph » Historique » Version 9

Laurent GUERBY, 27/01/2015 23:30

1 1 Laurent GUERBY
{{>toc}}
2 1 Laurent GUERBY
3 1 Laurent GUERBY
h1. Ceph
4 1 Laurent GUERBY
5 1 Laurent GUERBY
h2. Misc
6 1 Laurent GUERBY
7 1 Laurent GUERBY
* http://en.wikipedia.org/wiki/Ceph_(storage)
8 1 Laurent GUERBY
* http://ceph.com/
9 1 Laurent GUERBY
* http://www.inktank.com/
10 2 Thierry Boudet
* https://linuxfr.org/news/red-hat-rachete-la-societe-inktank-a-l-origine-de-ceph
11 3 Laurent GUERBY
* [[Ceph-Sharing-Disk]]
12 8 Laurent GUERBY
* http://ceph.com/resources/mailing-list-irc/
13 9 Laurent GUERBY
* http://irq0.org/articles/ceph/objectstore
14 1 Laurent GUERBY
15 6 Laurent GUERBY
h2. Scrub
16 6 Laurent GUERBY
17 6 Laurent GUERBY
http://lists.ceph.com/pipermail/ceph-users-ceph.com/2013-October/024794.html
18 6 Laurent GUERBY
http://tracker.ceph.com/issues/6278
19 6 Laurent GUERBY
20 6 Laurent GUERBY
ceph osd set noscrub
21 6 Laurent GUERBY
ceph osd set nodeep-scrub
22 6 Laurent GUERBY
23 7 Laurent GUERBY
h2. Recovery
24 7 Laurent GUERBY
25 7 Laurent GUERBY
http://tracker.ceph.com/issues/9566
26 7 Laurent GUERBY
long tail revovery
27 7 Laurent GUERBY
28 4 Laurent GUERBY
h2. Calamari
29 4 Laurent GUERBY
30 4 Laurent GUERBY
Calamari is a management and monitoring system for Ceph storage cluster. It provides a beautiful Dashboard User Interface that makes Ceph cluster monitoring amazingly simple and handy. Calamari was initially a part of Inktank’s Ceph Enterprise product offering and it has been open sourced few months back by Red Hat. Hence Calamari is a matured enterprise level software which is now Open Source.  - See more at: http://ceph.com/category/calamari/#sthash.XpksGKGg.dpuf
31 4 Laurent GUERBY
32 4 Laurent GUERBY
* http://ceph.com/community/ceph-calamari-goes-open-source/
33 4 Laurent GUERBY
* http://ceph.com/category/calamari/
34 4 Laurent GUERBY
* https://github.com/ceph/calamari
35 4 Laurent GUERBY
36 1 Laurent GUERBY
h2. Debian
37 1 Laurent GUERBY
38 1 Laurent GUERBY
<pre>
39 1 Laurent GUERBY
<mherrb> est-ce que l'un de vous connait CEPH ? (http://ceph.com et https://github.com/ceph) ?
40 2 Thierry Boudet
<djanos> mherrb: Je l’ai testé à INP-net/net7
41 5 Laurent GUERBY
<djanos> On est finalement reparti sur du DRBD avec heartbeat. La haute disponibilité intégré dedans c’est assez pratique, 
42 5 Laurent GUERBY
mais les perf n’étaient pas au rendez-vous. Mais j’ai peut-être pas assez passé de temps pour trouver les bon réglages. 
43 5 Laurent GUERBY
Ceci dit, c’est Laurent qui nous en avait parlé, d’autre à ttn l’utilise je crois.
44 5 Laurent GUERBY
<sileht> ca marche bien et cote setup c'est facile d'avoir des mauvaises perfs, pour attendre le débit des disques 
45 5 Laurent GUERBY
des machines du cluster, il faut mettre un SSD pour n disk
46 1 Laurent GUERBY
<sileht> n = IOPS_SSD/(nombre de disk * IOPS disk)
47 2 Thierry Boudet
<sileht> et décrire dans la conf de ceph comment sont connecté physique tes machines machines/disques/switches
48 2 Thierry Boudet
<sileht> c'est pas trivial mais une fois installé ca marche bien
49 1 Laurent GUERBY
</pre>