Een technische vraag omtrent de relatie tussen stroom in Ampere en vermogen in Watt:
Bij mijn colo provider kan ik live het stroomverbruik bekijken. We rekenen af per 0.1 A. Ik had adhv specs van de onderdelen berekend dat mijn server ca 185 W zou verstoken, en middels de alom bekende en geverifieerde formule P = I * V kwam ik uit op een stroom van 0.8 A.
[terzijde: ik las iemand in 2007 in dit forum beweren dat er nog een cos(phi) in het spel zou zijn - dat is volgens mij alleen bij sterk inductieve belastingen zoals trafo's, electromotoren e.d. en dus niet bij schakelende voedingen die je in moderne electronica tegenkomt. Volgens mij hebben die een zelfinductie van praktisch 0 en dus stroom en spanning geheel in fase]
Nu doet zich het vreemde fenomeen voor, dat ik volgens de powerbar in totaal 0.97 Amp verbruik of 187 Watt. Dat betekent dat ik effectief 192 Volt geleverd krijg. Of dat ik een stukje fysica over het hoofd heb gezien (ben niet heel erg into schakelende voedingen, dus ik heb het maar geaccepteerd)
Maar nog vreemder werd het, toen ik de server zojuist uit heb gezet. De voeding trekt nog wat om standby te staan en voor de ipmi kaart, en volgens de powerbar verbruik ik op een aansluiting 0.13 Amp of 3.6 Watt. Dat zou betekenen effectief 28 Volt?! Dat kan niet kloppen zou ik zeggen.
Anders gezegd, als ik 0.13 Amp uit het stopcontact trek, verwacht ik gewoon 30 Watt. Ter vergelijking: Een spaarlampje (afaik ook een schakelende voeding) van 7W heeft hier een max amp rating van 55mA, dus kennelijk een piekbelasting van 13W. Klinkt redelijk.
Ik krijg sterk het gevoel dat die Amp's in mijn nadeel worden afgerond, en dat er zelfs een offset bij opgeteld wordt. Heeft iemand hier weleens naar gekeken?
[ps server heeft 2 voedingen, bijgaand het grafiekje van een ervan.]