Resultaten 46 tot 52 van de 52
Pagina 4 van de 4 Eerste ... 2 3 4

Onderwerp: Ceph als SAN

  1. #46
    Ceph als SAN
    geregistreerd gebruiker
    505 Berichten
    Ingeschreven
    26/01/10

    Locatie
    Zierikzee

    Post Thanks / Like
    Mentioned
    11 Post(s)
    Tagged
    0 Thread(s)
    12 Berichten zijn liked


    Naam: Peter
    Bedrijf: WebhostNow
    URL: www.webhostnow.nl
    Registrar SIDN: NEE
    ISPConnect: Lid
    KvK nummer: 20169256

    Citaat Oorspronkelijk geplaatst door tomadmiraal Bekijk Berichten
    Een node die uitvalt is niet erg. Maar als de helft van je cluster uitvalt is dat een ander verhaal. Dus tenzij je 30 verschillende feeds hebt, is het nadig om 2 voedingen te hebben....
    Duidelijk, bedankt!

  2. #47
    Ceph als SAN
    geregistreerd gebruiker
    1.879 Berichten
    Ingeschreven
    17/08/05

    Locatie
    Amsterdam

    Post Thanks / Like
    Mentioned
    34 Post(s)
    Tagged
    0 Thread(s)
    35 Berichten zijn liked


    Naam: Wieger Bontekoe
    Bedrijf: Skynet ICT B.V.
    Functie: CEO
    URL: skynet-ict.nl
    Registrar SIDN: Nee
    View wbontekoe's profile on LinkedIn

    Citaat Oorspronkelijk geplaatst door tomadmiraal Bekijk Berichten
    Een node die uitvalt is niet erg. Maar als de helft van je cluster uitvalt is dat een ander verhaal. Dus tenzij je 30 verschillende feeds hebt, is het nadig om 2 voedingen te hebben....
    Het hele idee achter Ceph is dat je je nodes niet in één kast of op één locatie hangt. Je kunt met de Crushmap instellen dat je 3 sites hebt, per site rooms hebt, per room racks hebt en per rack nodes. Ceph zal op basis van deze zones data gaan plaatsen en dus is uitval van een node of zelfs een rack niet direct meer een issue.
    Skynet ICT B.V. - The cause of the problem is: the printer thinks its a router.

  3. #48
    Ceph als SAN
    Internet Services
    3.198 Berichten
    Ingeschreven
    27/03/06

    Locatie
    Utrecht

    Post Thanks / Like
    Mentioned
    14 Post(s)
    Tagged
    0 Thread(s)
    43 Berichten zijn liked


    Naam: Jeroen
    View nl.linkedin.com/in/jeroenvheugten's profile on LinkedIn

    Citaat Oorspronkelijk geplaatst door CharlieRoot Bekijk Berichten
    Het hele idee achter Ceph is dat je je nodes niet in één kast of op één locatie hangt. Je kunt met de Crushmap instellen dat je 3 sites hebt, per site rooms hebt, per room racks hebt en per rack nodes. Ceph zal op basis van deze zones data gaan plaatsen en dus is uitval van een node of zelfs een rack niet direct meer een issue.
    Een node of een rack niet nee, maar als de hele A of B feed in het DC wegvalt heb je dus 50% uitval. Dit jaar nog gebeurd bij ons in het DC (generator startte 1 seconde te langzaam op, en viel daardoor terug op de niet werkende "normale" stroom == 1 feed 40 minuten plat). Ben blij dat ik bijna overal 2 voedingen in had zitten. Meerdere DC's is met Ceph (nog) niet echt mogelijk, omdat er nog geen async replicatie is. Dan moet je (helaas) voor GlusterFS gaan.

  4. #49
    Ceph als SAN
    geregistreerd gebruiker
    1.879 Berichten
    Ingeschreven
    17/08/05

    Locatie
    Amsterdam

    Post Thanks / Like
    Mentioned
    34 Post(s)
    Tagged
    0 Thread(s)
    35 Berichten zijn liked


    Naam: Wieger Bontekoe
    Bedrijf: Skynet ICT B.V.
    Functie: CEO
    URL: skynet-ict.nl
    Registrar SIDN: Nee
    View wbontekoe's profile on LinkedIn

    Citaat Oorspronkelijk geplaatst door SF-Jeroen Bekijk Berichten
    Een node of een rack niet nee, maar als de hele A of B feed in het DC wegvalt heb je dus 50% uitval. Dit jaar nog gebeurd bij ons in het DC (generator startte 1 seconde te langzaam op, en viel daardoor terug op de niet werkende "normale" stroom == 1 feed 40 minuten plat). Ben blij dat ik bijna overal 2 voedingen in had zitten. Meerdere DC's is met Ceph (nog) niet echt mogelijk, omdat er nog geen async replicatie is. Dan moet je (helaas) voor GlusterFS gaan.
    Ik zie niet helemaal waarom het niet zou werken met 2 DC's? Daarvoor kun je toch met Zones (Crushmap) werken? Je zult alleen moeten zorgen dat de data altijd over de twee locaties opgeslagen is. Maar misschien lees ik jouw reactie verkeerd.
    Skynet ICT B.V. - The cause of the problem is: the printer thinks its a router.

  5. #50
    Ceph als SAN
    moderator
    5.908 Berichten
    Ingeschreven
    21/05/03

    Locatie
    NPT - BELGIUM

    Post Thanks / Like
    Mentioned
    38 Post(s)
    Tagged
    0 Thread(s)
    481 Berichten zijn liked


    Naam: Dennis de Houx
    Bedrijf: All In One
    Functie: Zaakvoerder
    URL: www.all-in-one.be
    Ondernemingsnummer: 0867670047

    Citaat Oorspronkelijk geplaatst door SF-Jeroen Bekijk Berichten
    Een node of een rack niet nee, maar als de hele A of B feed in het DC wegvalt heb je dus 50% uitval.
    Of je zet 1/3 van je nodes op A feed, 1/3 van je nodes op B feed en 1/3 van je nodes op A+B feed, bespaar je toch al 2/3 uit aan dual voedingen .

    Nu wat die multiple datacenters betreft zal het veelal ook te maken hebben met de afstand tussen de datacenters neem ik aan, als dit maar 500 meter is zal het uiteraard wel beter werken dan dat er 500 km tussen zit (kwa latency dan).
    Dennis de Houx - All In One ~ Official ISPsystem partner

    Lees hier de webhostingtalk.nl forum regels en voorwaarden!

  6. #51
    Ceph als SAN
    geregistreerd gebruiker
    1.879 Berichten
    Ingeschreven
    17/08/05

    Locatie
    Amsterdam

    Post Thanks / Like
    Mentioned
    34 Post(s)
    Tagged
    0 Thread(s)
    35 Berichten zijn liked


    Naam: Wieger Bontekoe
    Bedrijf: Skynet ICT B.V.
    Functie: CEO
    URL: skynet-ict.nl
    Registrar SIDN: Nee
    View wbontekoe's profile on LinkedIn

    Citaat Oorspronkelijk geplaatst door The-BosS Bekijk Berichten
    Of je zet 1/3 van je nodes op A feed, 1/3 van je nodes op B feed en 1/3 van je nodes op A+B feed, bespaar je toch al 2/3 uit aan dual voedingen .

    Nu wat die multiple datacenters betreft zal het veelal ook te maken hebben met de afstand tussen de datacenters neem ik aan, als dit maar 500 meter is zal het uiteraard wel beter werken dan dat er 500 km tussen zit (kwa latency dan).
    Onze dark-fiber connecties zijn +/- 80 km lang en hebben een latency van 2ms. Het is een beetje afhankelijk van hoe je ceph ontsluit naar je servers toe of je hier de effecten van merkt. Je kunt werken met "controllers", waarop je de volumes mount en doorschiet via iScsi naar de servers. Dan houd je altijd je traffic tussen servers/SAN lokaal (in één DC).
    Skynet ICT B.V. - The cause of the problem is: the printer thinks its a router.

  7. #52
    Ceph als SAN
    Internet Services
    3.198 Berichten
    Ingeschreven
    27/03/06

    Locatie
    Utrecht

    Post Thanks / Like
    Mentioned
    14 Post(s)
    Tagged
    0 Thread(s)
    43 Berichten zijn liked


    Naam: Jeroen
    View nl.linkedin.com/in/jeroenvheugten's profile on LinkedIn

    Ik snap niet hoe je writes dan binnen 1 DC houdt. Misschien kun je dat nog toelichten? Aangezien Ceph geen async replicatie doet lijkt het me dat deze 2 ms latency hebben, wat het onwerkbaar voor hosting maakt (althans voor onze klanten). Als je bijvoorbeeld videostreaming doet is het natuurlijk een ander verhaal. Of je moet writes op die SAN async wegschrijven naar Ceph, maar dan verlies je door die SAN eigenlijk een hoop voordelen van Ceph.
    Laatst gewijzigd door SF-Jeroen; 15/12/15 om 11:56.

Pagina 4 van de 4 Eerste ... 2 3 4

Labels voor dit Bericht

Webhostingtalk.nl

Contact

  • Rokin 113-115
  • 1012 KP, Amsterdam
  • Nederland
  • Contact
© Copyright 2001-2018 Webhostingtalk.nl.
Web Statistics