I/O-virtualisering
Inom virtualisering är input/output-virtualisering ( I/O-virtualisering ) en metod för att förenkla hanteringen, sänka kostnaderna och förbättra prestanda för servrar i företagsmiljöer. I/O-virtualiseringsmiljöer skapas genom att abstrahera protokollen för det övre lagret från de fysiska anslutningarna .
Tekniken gör det möjligt för ett fysiskt adapterkort att visas som flera virtuella nätverkskort (vNIC) och virtuella värdbussadaptrar (vHBA). Virtuella NIC och HBA fungerar som konventionella NIC och HBA och är designade för att vara kompatibla med befintliga operativsystem , hypervisorer och applikationer. För nätverksresurser ( LAN och SAN ) visas de som vanliga kort.
I den fysiska vyn ersätter virtuell I/O en servers flera I/O-kablar med en enda kabel som ger en delad transport för alla nätverks- och lagringsanslutningar. Den kabeln (eller vanligtvis två kablar för redundans) ansluts till en extern enhet, som sedan ger anslutningar till datacenternätverken .
Bakgrund
Server I/O är en kritisk komponent för framgångsrika och effektiva serverdistributioner, särskilt med virtualiserade servrar. För att rymma flera applikationer kräver virtualiserade servrar mer nätverksbandbredd och anslutningar till fler nätverk och lagring. Enligt en undersökning kräver 75 % av virtualiserade servrar 7 eller fler I/O-anslutningar per enhet och kommer sannolikt att kräva mer frekventa I/O-omkonfigurationer.
I virtualiserade datacenter orsakas I/O-prestandaproblem av att flera virtuella maskiner (VM) körs på en server. I tidiga implementeringar av servervirtualisering var antalet virtuella maskiner per server vanligtvis begränsat till sex eller färre. Men det visade sig att den säkert kunde köra sju eller fler applikationer per server, ofta med 80 procent av den totala serverkapaciteten, en förbättring jämfört med den genomsnittliga 5 till 15 procent som användes med icke-virtualiserade servrar.
Det ökade utnyttjandet som skapats av virtualisering satte dock en betydande belastning på serverns I/O-kapacitet. Nätverkstrafik, lagringstrafik och kommunikation mellan servrar skapar tillsammans ökade belastningar som kan överväldiga serverns kanaler, vilket leder till eftersläpningar och lediga processorer när de väntar på data.
Virtuell I/O tar itu med prestandaflaskhalsar genom att konsolidera I/O till en enda anslutning vars bandbredd idealiskt överstiger I/O-kapaciteten för själva servern, vilket säkerställer att själva I/O-länken inte är en flaskhals. Den bandbredden allokeras sedan dynamiskt i realtid över flera virtuella anslutningar till både lagrings- och nätverksresurser. I I/O-intensiva applikationer kan detta tillvägagångssätt bidra till att öka både virtuella datorers prestanda och det potentiella antalet virtuella datorer per server.
Virtuella I/O-system som inkluderar kvalitetskontroller (QoS) kan också reglera I/O-bandbredd till specifika virtuella maskiner, vilket säkerställer förutsägbar prestanda för kritiska applikationer. QoS ökar alltså användbarheten av servervirtualisering för både produktionsserver och slutanvändarapplikationer.
Fördelar
- Hanteringsflexibilitet : Genom att abstrahera övre lagerprotokoll från fysiska anslutningar ger I/O-virtualisering större flexibilitet, större utnyttjande och snabbare provisionering jämfört med traditionella NIC- och HBA-kortarkitekturer. Virtuella I/O-tekniker kan utökas och dras ihop dynamiskt (mot traditionella fysiska I/O-kanaler som är fasta och statiska), och ersätter vanligtvis flera nätverks- och lagringsanslutningar till varje server med en enda kabel som bär flera trafiktyper. Eftersom konfigurationsändringar implementeras i mjukvara snarare än hårdvara, kan tidsperioderna för att utföra vanliga datacenteruppgifter – som att lägga till servrar, lagring eller nätverksanslutning – minskas från dagar till minuter.
- Minskad kostnad: Virtuell I/O sänker kostnaderna och möjliggör förenklad serverhantering genom att använda färre kort, kablar och switchportar, samtidigt som full nätverks-I/O-prestanda uppnås. Det förenklar också datacenternätverksdesign genom att konsolidera och bättre utnyttja LAN- och SAN-nätverksswitchar.
- Minskad kablage: I en virtualiserad I/O-miljö behövs bara en kabel för att ansluta servrar till både lagring och nätverkstrafik. Detta kan minska datacenter-server-till-nätverk och server-till-lagring-kablar inom ett enda serverrack med mer än 70 procent, vilket motsvarar minskade kostnader, komplexitet och strömkrav. Eftersom höghastighetssammankopplingen delas dynamiskt mellan olika krav, resulterar det ofta i ökad prestanda också.
- Ökad densitet: I/O-virtualisering ökar den praktiska densiteten för I/O genom att tillåta fler anslutningar att existera inom ett givet utrymme. Detta i sin tur möjliggör ett större utnyttjande av täta 1U högservrar och bladservrar som annars skulle vara I/O-begränsade.
Bladserverschassi förbättrar tätheten genom att paketera många servrar (och därmed många I/O-anslutningar) i ett litet fysiskt utrymme. Virtuell I/O konsoliderar alla lagrings- och nätverksanslutningar till en enda fysisk sammankoppling, vilket eliminerar alla fysiska begränsningar av portantal. Virtual I/O möjliggör även mjukvarubaserad konfigurationshantering, vilket förenklar kontrollen av I/O-enheterna. Kombinationen gör att fler I/O-portar kan distribueras i ett givet utrymme och underlättar den praktiska hanteringen av den resulterande miljön.