PDA

Bekijk Volledige Versie : Meerdere servers in half rack, hoe werkt het netwerk?



bas-services
24/01/15, 15:08
Beste leden,

Wellicht een beginnersvraag.

Stel ik heb een kwart rack met:
-2x Proxmox node
-2x NFS voor storage VM's
-1x HP switch (of/+ router voor private range, zie hieronder)
-1x IPv4 adres

Ik wil dat de KVM nodes kunnen communiceren met de NFS server. Dus heb ik een een eigen private range nodig(?).
Hoe kan ik ervoor zorgen dat ik of klanten via SSH kunnen inloggen op hun VM via het public IPv4 adres wat ik van het DC heb gekregen? Werk ik dan met NAT of is het handiger dat elke server een public IP krijgt?

Is dit dezelfde opzet als ik dit bijv. in een thuisnetwerk aanleg. Private range en dan NAT-en bereikbaar op WAN IP van DC?

Ik hoor het graag want ik kom er niet helemaal uit.
Bij voorbaat dank.

Groet,

Bas Services.

visser
24/01/15, 15:26
Beste leden,

Wellicht een beginnersvraag.

Stel ik heb een kwart rack met:
-2x Proxmox node
-2x NFS voor storage VM's
-1x HP switch (of/+ router voor private range, zie hieronder)
-1x IPv4 adres

Ik wil dat de KVM nodes kunnen communiceren met de NFS server. Dus heb ik een een eigen private range nodig(?).
Hoe kan ik ervoor zorgen dat ik of klanten via SSH kunnen inloggen op hun VM via het public IPv4 adres wat ik van het DC heb gekregen? Werk ik dan met NAT of is het handiger dat elke server een public IP krijgt?

Is dit dezelfde opzet als ik dit bijv. in een thuisnetwerk aanleg. Private range en dan NAT-en bereikbaar op WAN IP van DC?

Ik hoor het graag want ik kom er niet helemaal uit.
Bij voorbaat dank.

Groet,

Bas Services.

Als je klanten een 'dedicated server' (al dan niet virtueel) levert dan moet je daar ook wel een publiek IP bij leveren, want anders kan de klant er weinig mee hosten.
Als je slechts één publiek IP hebt, zul je feitelijk alleen shared hosting kunnen aanbieden. Natuurlijk kun je een reverse proxy op dat ene IP zetten en dus op meer dan één server draaien, maar vanuit de klant gezien zou ik zo'n dienst geen 'dedicated server' noemen.

Bedenk dat je, net als bij een thuisnetwerk, met NAT van 1 publiek IP slechts 1 server op dezelfde poort bereikbaar maakt.
(andersom, je pool servers kan wel _naar_ het internet dat IP delen, maar voor hosting wil je inkomend verkeer bedienen).

Ik denk dat je het beste een eigen switch kunt nemen voor de onderlinge connectiviteit (op een private ip reeks) van je apparatuur.
Ook als je een aantal publieke IPs hebt voor je bereikbare servers zul je , nu of later, ook wel 'back end' machines hebben die helemaal niet rechtstreeks bereikbaar hoeven (of moeten ) te zijn.
Het hangt ook af wat je DC eigenlijk levert, is dat één uplink poort voor "je rack", of zit elke machine nog in een switch en hetzelfde vlan van het DC ?

systemdeveloper
24/01/15, 15:26
Ik zou eerst eens een zooi extra ipadressen pakken en een extra switch voor je storage.

Dan maak je een private lan waarop je storages zitten en die hang je aan je storage switch, daarna hang je de storage nics van je nodes ook aan het private lan via de storage switch. De public nics van de nodes hang je aan je public switch en die switch hang je aan de uplink van je rack.
Vervolgens vraag je aan je hoster een leuk subnetje ips die je kunt gebruiken voor je nodes, switchen en vm's.

Als je dat draaiende hebt, kun je o.a. eens kijken naar vlans e.d. om je boeltje (ipmi, management nics van de nodes en storages, switchen e.d.) een beetje af te schermen van het publiek.

bas-services
24/01/15, 15:33
Ik zou eerst eens een zooi extra ipadressen pakken en een extra switch voor je storage.

Dan maak je een private lan waarop je storages zitten en die hang je aan je storage switch, daarna hang je de storage nics van je nodes ook aan het private lan via de storage switch. De public nics van de nodes hang je aan je public switch en die switch hang je aan de uplink van je rack.
Vervolgens vraag je aan je hoster een leuk subnetje ips die je kunt gebruiken voor je nodes, switchen en vm's.

Als je dat draaiende hebt, kun je o.a. eens kijken naar vlans e.d. om je boeltje (ipmi, management nics van de nodes en storages, switchen e.d.) een beetje af te schermen van het publiek.


Bedankt voor je reactie!
Dus een dedicated nic die aangesloten is op de storage? Zal wel aan mij liggen maar ik snap er niks van. Ik zou dat moeten zien. Zijn er ergens tekeningen van of kan jij mij een voorbeeld geven?

systemdeveloper
24/01/15, 16:03
Dit is een voorbeeld met replicatie dus een beetje ingewikkelder, maar het is 1 van de voorbeelden: http://image.slidesharecdn.com/open-e-dss-v7-active-passive-iscsi-failover-on-intel-server-systems-140217071314-phpapp01/95/opene-dss-v7-activeactive-iscsi-failover-on-intel-server-systems-4-638.jpg?cb=1392642918
Gewoon even niet op de replicatie letten.

CharlieRoot
24/01/15, 17:34
Bedankt voor je reactie!
Dus een dedicated nic die aangesloten is op de storage? Zal wel aan mij liggen maar ik snap er niks van. Ik zou dat moeten zien. Zijn er ergens tekeningen van of kan jij mij een voorbeeld geven?

Het kan ook over de zelfde NIC middels een VLAN maar of dat aan te raden is - ander verhaal. Maar zonder een IPv4 reeks kun je niet beginnen, iedere VM heeft een publiek IP nodig om te kunnen communiceren via bijv. SSH of HTTP. Hiernaast kun je dan een nieuw vlan aanmaken (prive reeks) voor storage.

bas-services
24/01/15, 19:28
Bedankt voor de reacties. Ik wil dat mijn NFS server niet aan de publieke kant zitten en dat ze enkel communiceren met de KVM nodes. Het voorbeeld wat systemdeveloper zegt snap ik niet helemaal

Sent from my HTC One X using webhostingtalk mobile app

t.bloo
24/01/15, 19:42
Simpelste oplossing: twee switches ophangen. Eentje hangt aan "het internet" met een publieke subrange IPv4 adressen. Alle eth0 poortjes van de servers hang je aan deze switch. Hiermee zijn de diensten zoals websites en email voor de gebruikers bereikbaar.

De andere switch hangt niet rechtstreeks aan het internet. Alle eth1 poortjes van de servers verbind je met deze switch. Hier draai je een 10.0.0.0 lokaal netwerkje op. Dit is bruikbaar voor de storage en IPMI en ILO en andere beheer dingen. Je kunt eventueel een VPN routertje of een VPN virtual machine gebruiken om van buiten op dit lokale netwerk te komen.

Met 1 switch kan het ook, maar dan moet je VLANs aanmaken of andere moeilijke dingen maar gewoon niet extra scheiden kan eigenlijk ook best. Een extra switch is daarnaast altijd een goed idee, want dan heb je voor het geval er iets stuk gaat meteen een reserve oplossing. Je hebt al managed gigabit switches met een poort of 16 voor circa 150 euro.

mgielissen
24/01/15, 21:07
Of een managed (layer 2) switch gebruiken waar je 2 vlans aanmaakt. Eentje voor publieke lan en de ander local.

systemdeveloper
24/01/15, 21:51
En als je slim bent stop je direct 4-6 nics in de servers. 2 voor een bond of mpio naar je storage, 2 in een bond voor je public access en eventueel 2 in een bond voor je management (al zou je die laatste 2 ook wel over public kunnen laten gaan voor een eenvoudigere setup). Met slechts 2 nics blijft het allemaal een beetje risicovol.

cyrano
25/01/15, 14:16
Ik denk dat de simpelste oplossing is een vakman een paar eurootjes te betalen om dat even voor je op te zetten...