Likes Likes:  0
Resultaten 31 tot 45 van de 50
Pagina 3 van de 4 Eerste 1 2 3 4 LaatsteLaatste
  1. #31
    Jullie mening over mijn potentiele XEN HA Storage Setup.
    moderator
    7.022 Berichten
    Ingeschreven
    29/07/03

    Locatie
    Nijmegen

    Post Thanks / Like
    Mentioned
    12 Post(s)
    Tagged
    0 Thread(s)
    175 Berichten zijn liked


    Naam: Mike
    Bedrijf: admin.nu
    URL: www.admin.nu
    Registrar SIDN: Ja
    KvK nummer: 09139651

    Voordat je uiteindelijk besluit hoe je raidsetup op gaat stellen wil ik je wijzen op een post van expert-exchange, iemand die wel goede uitleg met onderbouwing heeft:

    Calculating IOPS

    Code:
    Single Disk IOPS = 1 / Average Latency, where
    Average Latency = Rotational Latency + Average Seek Latency
    Rotational Latency =
            14.3 ms @ 4200 RPM
            11.1 ms @ 5400 RPM
            8.3 ms @ 7200 RPM
            6.0 ms @ 10K RPM and
            4.0 ms @ 15K RPM
    Average Seek Latency = Varies with Manufacturer, typically
            Notebook drives ~ 12+ ms
            7.2K SATA drives ~ 8 to 10 ms
            10K SATA drives ~ 4.5 to 5.0 ms
            10/15K SAS drives ~ 3 to 4 ms
    
    RAID Read IOPS = Sum of all Single Disk IOPS
    RAID Write IOPS
            RAID0 = Sum of all Single Disk IOPS
            RAID1/10 = Half of the sum of all Single Disk IOPS
            RAID5* = One-quarter the sum of all Single Disk IOPS
            RAID6* = One-sixth the sum of all Single Disk IOPS
    
    * Note while there is an XOR calculation involved with RAID5/6, it's usually inconsequential in modern hardware.
    Real IOPS will be somewhere between your read and write IOPS, depending upon your read-write ratio. Transactional databases are generally considered to be 50:50, whereas operational databases are considered to eb about 90:10.

    This represents PEAK IOPS that can be sustained with no regard to cache. It also requires that you have as many outstanding IO operations as there are spindles to reach this. For example, with eight spindles, you would need eight outstanding operations (i.e., queued) to reach full potential.

    Cache is harder to determine. For an estimate, you need to know your data sample size versus your cache size. For example, you have a 200GB database, of which about 10% is routinely accessed in a day. That's about a 20GB data sample size, so a 2GB cache would have approximately a 10% cache-hit ratio.

    The IOPS of Cache is HUGE, so the easiest way would be to take the remaning percentage, e.g., the cache-miss ratio, and divide your IOPS by that. For example, if you array sustains 1000 IOPS and you estimate a 90% cache-miss ratio, you could bump up your IOPS estimate to 1,111 IOPS. Obviously the more cache the better - but it can become very expensive to have huge amounts of cache. However, as you'll see below, even 4GB of cache can mean very little on large transactional databases.

    Sun released a white paper a while back on the design of SANs and recommended 256MB for each 15K spindle, 512MB for each 10K spindle and 1GB for each 7.2K spindle. So an array of 32 SATA drives should have no less than 32GB of cache available to it.

    Let's take a practical example, in reverse. You need 3000 IOPS. We'll assume RAID1 to begin with. This is a heavily transactional database type, so we'll assume a 50:50 read-write ratio.

    A single 2.5" 15K SAS drive should be able to achieve about 250 IOPS. To achieve this without cache, you would then need sixteen spindles. That is, 16*250 = 4000 read IOPS and 2000 write IOPS; at 50:50 that's 3000 IOPS. So a single MD1120 enclosure would fit the bill nicely. This will, however, only give you about 584GB of space, which may or may not be enough (unless Dell has 15K 146GB drives now).

    With RAID6 (I cannot recomment RAID5 for reliability reasons), you'd need a few more drives to hit 3000 IOPS - about 21. That is, 21*250 = 5250 read IOPS and 875 write IOPS; at 50:50 that's about 3060 IOPS.

    Cache makes this more complex, however. Each drive has 8MB of cache, the controller usually has 256MB or more of cache, and if it's on a SAN, you'll have your controller cache, usually in the gigabyte range. Using Sun's figures, for sixteen spindles we should have 4GB of cache (at 256MB each spindle). Your dataset size is a little tougher to estimate without empiracal data, but assuming each user sends and receives about 30MB of emails a day with 2000 users, you'd have a data sample size of about 60GB. With only 4GB of cache, you're cache miss ratio is about 93.3%. This only improves your IOPS to about 3,200 IOPS.

    Alternatively, with SATA drives, you can get a 1000GB spindle running at about 116 IOPS. To have enough performance with RAID10, we'd need about 34 spindles. That is 34*116 = 3944 read IOPS, 1972 write IOPS. With caching, we could probably get that down. Again, using Sun's recommendation, we'd need 34GB of cache in this example. Assuming 32GB, we'd have a cache-miss ratio of about 46.7% (much better), raising our IOPS to nearly 6400 IOPS.

    Anyway, the sweet-spot here (I cheated and used MS Excel Goal-Seek function) is at 22x 1TB SATA spindles with 24GB of cache, giving 3,190 IOPS peak (RAID1) and 11TB of space. Probably talking two 3U trays and a heafty 2U controller. This gives you 11TB of space. If you're not going SAN, then add the cache requirement to your Exchange/Windows requirement. For example, if your'e doing this on a single box, get a system with 32GB of RAM - this gives 24GB for cache and 8GB for Windows and Exchange (more than enough - the Microsoft recommendation is 4GB).

    Since you also need boot drives, etc. I would suggest 2x73GB 15K SAS drives (on the server) for the system volume, swap file, etc; 2x36GB 15K SAS drives (also on the server) for the Exchange binaries, temp files, etc; and 2x300GB 10/15K SAS drives for your logs (all RAID1).

    Then, in two SAS enclosures, simply have 26x1TB using RAID60 for the data partition (stripe across the enclosures and/or controllers). This will give you 3,182 peak IOPS on the data array with about 24TB of available space. Alternatively, you could go with RAID10 by only installing 22 spindles for 11TB of space and 3,080 IOPS. This also gives you room to grow.

    If space is not a concern, go with 15K SAS drives. You'd need about 15 SAS drives to reach 3000 IOPS at RAID10, or about 20 SAS drives to reach 3000 IOPS with RAID6. In either case, get as big a drive as you need - if you're only giving your 2000 users 2GB of space, then 4TB would be enough and could be done with 300GB drives using RAID6, or 400GB drives using RAID10. The big benefit here is that the system only needs about 6GB of cache to run optimally, saving in the RAM cost. While the drives might be more expensive, the cost savings on the number (15 versus 26, 1 eclosure vs 2, 6GB cache vs 24GB) may actually make this the less expensive option. Price them out, then decide - do you need more than 4TB of space for an Exchange server.

    Hope that helps.
    Verder kijk ook even naar een whitepaper van seageate over het mixxen van verschillende schijven tesamen: http://www.seagate.com/content/pdf/w...43_SAS-15K.pdf

    je kunt beter je goed inlezen dan dat je achteraf baalt van je gekozen setup
    Laatst gewijzigd door wonko; 19/01/10 om 05:56.
    "Zo zijn ook wij één leverancier. Dé leverancier in gedegen Linux kennis, wanneer jij dat nodig hebt."
    Boek je admin vandaag nog via : www.admin.nu
    Gevestigd in Nederland en Moldavië

    Lees hier de webhostingtalk.nl forum regels en voorwaarden!

  2. #32
    Jullie mening over mijn potentiele XEN HA Storage Setup.
    Deactro
    1.772 Berichten
    Ingeschreven
    04/11/04

    Locatie
    Tiel

    Post Thanks / Like
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)
    0 Berichten zijn liked


    Registrar SIDN: Ja
    KvK nummer: 11051476
    Ondernemingsnummer: nvt

    Citaat Oorspronkelijk geplaatst door Armand Bekijk Berichten
    @Sander: Deze setup is ook het slimste mits goed uitgevoerd.
    Je wilt tenslotte niet al je spindels (disks) dubbel hebben draaien als je continu moet synchen tussen twee nodes. Dan liever de disk array als los (device)

    Echter hardware technisch krijg je dan een hele nieuwe slag om HA te krijgen.
    ( Dubbele controllers in en naar de JBOD. )

    Wat mij betreft geeft dit ook veel beren op de weg, en is de ZFS SNDR weg makkelijker.
    ( Vergelijkbaar met DRBD )
    Een aantal JBOD's van SUN ondersteunt ook meerdere poorten die active-active gebruikt kunnen worden voor dit soort doeleinden. Ook andere vendors hebben die in hun assortiment, dus op zich hoeft dat het probleem niet te zijn. Het is alleen even de vraag of dit voor kleine setups al rendabel is. Ga je groter dan een paar TB, dan kan het in mijn ogen geen kwaad om het een keer serieus uit te zoeken en door te rekeken.

  3. #33
    Jullie mening over mijn potentiele XEN HA Storage Setup.
    moderator
    6.028 Berichten
    Ingeschreven
    21/05/03

    Locatie
    NPT - BELGIUM

    Post Thanks / Like
    Mentioned
    39 Post(s)
    Tagged
    0 Thread(s)
    481 Berichten zijn liked


    Naam: Dennis de Houx
    Bedrijf: All In One
    Functie: Zaakvoerder
    URL: www.all-in-one.be
    Ondernemingsnummer: 0867670047

    Toch even meedelen voor Armand, maar sinds deze week heeft nexentaStor 2.2.1 gereleased. En hier zit nu de auto-sync functie in die ondermeer voor DR gebruikt kan worden, meer informatie is terug te vinden op http://www.nexenta.com/corp/nexentas...nc-replication. Waarschijnlijk is dit wat je zoekt, zfs met replicatie, de vraag is alleen wil je betalen als je boven de 4TB gebruikt. Of misschien kan je deze functie ook gebruiken in opensolaris zeker de moeite waard om het uit te zoeken.
    Citaat Oorspronkelijk geplaatst door NexentaStor
    Zvol replicatioin: auto-sync can now replicate zvols directly. Previously, auto-sync was required to have a folder (filesystem) as its source; today this restriction is removed.
    Dennis de Houx - All In One ~ Official ISPsystem partner

    Lees hier de webhostingtalk.nl forum regels en voorwaarden!

  4. #34
    Jullie mening over mijn potentiele XEN HA Storage Setup.
    3.810 Berichten
    Ingeschreven
    16/05/04

    Locatie
    Middelburg

    Post Thanks / Like
    Mentioned
    4 Post(s)
    Tagged
    0 Thread(s)
    130 Berichten zijn liked


    Registrar SIDN: Ja

    De RAID-1 optie met ZFS zou ik niet doen Dit vanwege de bovenstaande punten.

    Met DRBD kan je zeker wel meerdere resources draaien waardoor je beide machines kan activeren.

    In de praktijk kan je performance hierdoor echter lager zijn doordat je disks met writes en reads aan het mixen bent, dat is mijn ervaring. Ook wordt het technisch met heartbeat lastiger, daarom gebruiken wij het live niet, KISS is ook belangrijk, de beheerder moet het ook begrijpen

    Wat SUN doet met hun JBOD is niet mijn idee, ik wil juist de disks gemirrored hebben, niet de toegangsdozen tot die NAS....

    Heb nu wel ZFS op een enkele NFS server draaien, wat een verademing!

  5. #35
    Jullie mening over mijn potentiele XEN HA Storage Setup.
    geregistreerd gebruiker
    122 Berichten
    Ingeschreven
    08/11/05

    Locatie
    Waddinxveen

    Post Thanks / Like
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)
    0 Berichten zijn liked


    Registrar SIDN: nee
    KvK nummer: 24322780
    Ondernemingsnummer: nvt

    Thread Starter
    @Mickey: Bedankt, mooi stukje :-)

    @The-Boss: zeker interessant, bedankt!

    @Wido: Het grijze gebied tussen een NAS en een SAN is in mijn optiek dat een SAN (het netwerk is) waarmee je je NAS omgeving HA probeert aan te bieden.

    ZFS heeft geweldige features om een (goedkope) NAS te zijn.
    Nu komt wat mij betreft de slag om het toe te passen in een "goedkope, doch duurzame" SAN omgeving.

    In mijn optiek is dat de disks, maar ook de toegang tot die disk, mirroren.
    ( of iedergeval recovery stand-by hebben. )

  6. #36
    Jullie mening over mijn potentiele XEN HA Storage Setup.
    geregistreerd gebruiker
    25 Berichten
    Ingeschreven
    03/12/09

    Locatie
    beveren

    Post Thanks / Like
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)
    0 Berichten zijn liked


    Registrar SIDN: n
    KvK nummer: nvt
    Ondernemingsnummer: 0887675011

    Performance impact als 1 van de 2 ZFS servers down gaat moet kunnen.
    Dat is normaal in een HA omgeving. Zelfs raid5 rebuilds hebben een grote performance impact!

  7. #37
    Jullie mening over mijn potentiele XEN HA Storage Setup.
    geregistreerd gebruiker
    114 Berichten
    Ingeschreven
    07/01/06

    Locatie
    Den Haag

    Post Thanks / Like
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)
    0 Berichten zijn liked


    Registrar SIDN: Ja
    KvK nummer: 27336002
    Ondernemingsnummer: nvt

    Dus als ik het goed begrijp uit deze en andere threads (en een aantal artikelen), zijn we beter af om ZFS de RAID te laten regelen per node. Dus geen ZFS op hardware raid? We gebruiken adaptec of areca kaarten.

  8. #38
    Jullie mening over mijn potentiele XEN HA Storage Setup.
    geregistreerd gebruiker
    122 Berichten
    Ingeschreven
    08/11/05

    Locatie
    Waddinxveen

    Post Thanks / Like
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)
    0 Berichten zijn liked


    Registrar SIDN: nee
    KvK nummer: 24322780
    Ondernemingsnummer: nvt

    Thread Starter
    @Stiller: Ik ben geen expert, dus mijn mening kan ik niet onderbouwen met eigen kennis, maar van wat ik lees: inderdaad ja.

    Neemt niet weg dat wanneer je gebruik maakt van (duurdere) Raid Controllers in JBOD mode, je er wel profijt mee kan hebben met de controller cache (met BBU) via ZFS.

  9. #39
    Jullie mening over mijn potentiele XEN HA Storage Setup.
    geregistreerd gebruiker
    1.913 Berichten
    Ingeschreven
    23/10/03

    Locatie
    Enschede (+ London)

    Post Thanks / Like
    Mentioned
    3 Post(s)
    Tagged
    0 Thread(s)
    33 Berichten zijn liked


    Naam: Max
    Registrar SIDN: ja
    KvK nummer: 08119406
    Ondernemingsnummer: -

    Citaat Oorspronkelijk geplaatst door Armand Bekijk Berichten
    Neemt niet weg dat wanneer je gebruik maakt van (duurdere) Raid Controllers in JBOD mode, je er wel profijt mee kan hebben met de controller cache (met BBU) via ZFS.
    Maar i.p.v. een controller met meer cache zou je ook meer geheugen op het moederbord zelf kunnen plaatsen, mits de server aan een UPS hangt.
    De meeste besturingssystemen gebruiken geheugen dat over is immers als cache.


    Kwa performance doet de on-board Intel 3420 controller van mijn testbak, niet onder aan een Adaptec 5405:

    Adaptec 5405, HW RAID 5, ZFS:

    Code:
    Version 1.03d       ------Sequential Output------ --Sequential Input- --Random-
                        -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
    Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
    nex             32G 92357  94 92214   9 82031  15 84985  98 573223  30 10030  30
                        ------Sequential Create------ --------Random Create--------
                        -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
                  files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                     16 +++++ +++ +++++ +++ +++++ +++ 26956 100 +++++ +++ +++++ +++
    nex,32G,92357,94,92214,9,82031,15,84985,98,573223,30,10029.8,30,16,+++++,+++,+++++,+++,+++++,+++,26956,100,+++++,+++,+++++,+++
    
    real    26m38.304s
    Adaptec 5405, simple volume, software RAID-Z:

    Code:
    Version 1.03d       ------Sequential Output------ --Sequential Input- --Random-
                        -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
    Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
    nex             32G 92504  94 118628  12 100554  15 84695  98 806229  40 13560  24
                        ------Sequential Create------ --------Random Create--------
                        -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
                  files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                     16 +++++ +++ +++++ +++ +++++ +++ 26687 100 +++++ +++ +++++ +++
    nex,32G,92504,94,118628,12,100554,15,84695,98,806229,40,13560.3,24,16,+++++,+++,+++++,+++,+++++,+++,26687,100,+++++,+++,+++++,+++
    
    real    23m53.971s

    On board controller, software RAID-Z:

    Code:
    Version 1.03d       ------Sequential Output------ --Sequential Input- --Random-
                        -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
    Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
    nex             32G 97098  98 190909  19 123846  18 83566  97 592345  29 13386  45
                        ------Sequential Create------ --------Random Create--------
                        -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
                  files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                     16 +++++ +++ +++++ +++ +++++ +++ 25081 100 +++++ +++ +++++ +++
    nex,32G,97098,98,190909,19,123846,18,83566,97,592345,29,13386.4,45,16,+++++,+++,+++++,+++,+++++,+++,25081,100,+++++,+++,+++++,+++
    
    real    20m58.499s
    (systeem: HP DL120 G6, X3450, 16 GB RAM, 4x X25-M SSD)

    Alleen bij lezen is de Adaptec sneller, maar daar heb je alleen wat aan als je SAN 10 gigabit netwerk heeft.

  10. #40
    Jullie mening over mijn potentiele XEN HA Storage Setup.
    geregistreerd gebruiker
    114 Berichten
    Ingeschreven
    07/01/06

    Locatie
    Den Haag

    Post Thanks / Like
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)
    0 Berichten zijn liked


    Registrar SIDN: Ja
    KvK nummer: 27336002
    Ondernemingsnummer: nvt

    Citaat Oorspronkelijk geplaatst door maxnet Bekijk Berichten
    Maar i.p.v. een controller met meer cache zou je ook meer geheugen op het moederbord zelf kunnen plaatsen, mits de server aan een UPS hangt.
    De meeste besturingssystemen gebruiken geheugen dat over is immers als cache.
    Voor reads, niet voor writes, lijkt me. Anders zou een stroomstoring het FS in een wel erg slechte staat brengen. Nu hoor ik dat ZFS hier inderdaad gevoeliger voor is, net als voor hardware van mindere kwaliteit. Heeft iemand hier stabiliteitsproblemen ondervonden met ZFS door slechte hardware?

  11. #41
    Jullie mening over mijn potentiele XEN HA Storage Setup.
    geregistreerd gebruiker
    1.913 Berichten
    Ingeschreven
    23/10/03

    Locatie
    Enschede (+ London)

    Post Thanks / Like
    Mentioned
    3 Post(s)
    Tagged
    0 Thread(s)
    33 Berichten zijn liked


    Naam: Max
    Registrar SIDN: ja
    KvK nummer: 08119406
    Ondernemingsnummer: -

    Citaat Oorspronkelijk geplaatst door stiller Bekijk Berichten
    Voor reads, niet voor writes, lijkt me. Anders zou een stroomstoring het FS in een wel erg slechte staat brengen.
    Zolang je server aan een UPS hangt, zie ik het probleem niet helemaal.

    Weet niet hoeveel geheugen Opensolaris als write cache gebruikt.
    Linux begint standaard pas met het wegschrijven van gegevens na 30 seconden, of nadat de write cache groter is geworden dan 10% van je geheugen.

  12. #42
    Jullie mening over mijn potentiele XEN HA Storage Setup.
    geregistreerd gebruiker
    25 Berichten
    Ingeschreven
    03/12/09

    Locatie
    beveren

    Post Thanks / Like
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)
    0 Berichten zijn liked


    Registrar SIDN: n
    KvK nummer: nvt
    Ondernemingsnummer: 0887675011

    Vermits ZFS checksums wegschrijft (en verifieert tijdens het lezen) is het minder gevoelig voor slechtere hardware.

  13. #43
    Jullie mening over mijn potentiele XEN HA Storage Setup.
    geregistreerd gebruiker
    114 Berichten
    Ingeschreven
    07/01/06

    Locatie
    Den Haag

    Post Thanks / Like
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)
    0 Berichten zijn liked


    Registrar SIDN: Ja
    KvK nummer: 27336002
    Ondernemingsnummer: nvt

    Citaat Oorspronkelijk geplaatst door The-BosS Bekijk Berichten
    Toch even meedelen voor Armand, maar sinds deze week heeft nexentaStor 2.2.1 gereleased. En hier zit nu de auto-sync functie in die ondermeer voor DR gebruikt kan worden, meer informatie is terug te vinden op http://www.nexenta.com/corp/nexentas...nc-replication. Waarschijnlijk is dit wat je zoekt, zfs met replicatie, de vraag is alleen wil je betalen als je boven de 4TB gebruikt. Of misschien kan je deze functie ook gebruiken in opensolaris zeker de moeite waard om het uit te zoeken.
    Ondersteunt de developer license ook active-active replicatie? Dit klinkt als een goed voorbeeld om van te leren, voordat ik het met opensolaris probeer.

  14. #44
    Jullie mening over mijn potentiele XEN HA Storage Setup.
    geregistreerd gebruiker
    114 Berichten
    Ingeschreven
    07/01/06

    Locatie
    Den Haag

    Post Thanks / Like
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)
    0 Berichten zijn liked


    Registrar SIDN: Ja
    KvK nummer: 27336002
    Ondernemingsnummer: nvt

    Om mijn eigen vraag te beantwoorden, het lijkt erop dat de nexenta dev installatie inderdaad alle features biedt. Dat maakt het een prima oplossing voor mij tot de het moment waarop opensolaris AVS beter ondersteunt.
    Ik heb nog geen werkend voorbeeld gezien van de opensolaris guru's, dus ik waag me er nog even niet aan. AVS configuratie ziet er niet prettig uit, zeker niet op opensolaris.

    @maxnet: UPS of niet, als je door een fysieke storing enkele gigabytes data kwijtraakt, is het niet geschikt voor HA. Dan ben je waarschijnlijk aangewezen op active/active replicatie.

  15. #45
    Jullie mening over mijn potentiele XEN HA Storage Setup.
    geregistreerd gebruiker
    1.913 Berichten
    Ingeschreven
    23/10/03

    Locatie
    Enschede (+ London)

    Post Thanks / Like
    Mentioned
    3 Post(s)
    Tagged
    0 Thread(s)
    33 Berichten zijn liked


    Naam: Max
    Registrar SIDN: ja
    KvK nummer: 08119406
    Ondernemingsnummer: -

    Citaat Oorspronkelijk geplaatst door stiller Bekijk Berichten
    Om mijn eigen vraag te beantwoorden, het lijkt erop dat de nexenta dev installatie inderdaad alle features biedt.
    Meen dat de HA optie het alleen doet als je hem met een evaluatie key installeert.


    @maxnet: UPS of niet, als je door een fysieke storing enkele gigabytes data kwijtraakt, is het niet geschikt voor HA. Dan ben je waarschijnlijk aangewezen op active/active replicatie.
    Maar dat verschilt in dat opzicht niet van een intelligente RAID kaart met cache.
    Die dingen kunnen ook stuk, zoals bijgevoegd plaatje laat zien.
    Bijgevoegde Thumbnails Bijgevoegde Thumbnails Jullie mening over mijn potentiele XEN HA Storage Setup.-p1020485-png  

Pagina 3 van de 4 Eerste 1 2 3 4 LaatsteLaatste

Labels voor dit Bericht

Webhostingtalk.nl

Contact

  • Rokin 113-115
  • 1012 KP, Amsterdam
  • Nederland
  • Contact
© Copyright 2001-2021 Webhostingtalk.nl.
Web Statistics