GPFS

GPFS
Utvecklare IBM
Fullständiga namn IBM Spectrum Scale
Introducerad 1998 ; 25 år sedan ( 1998 ) med AIX
Gränser
Max. volymstorlek 8 YB
Max. filstorlek 8 EB
Max. antal filer 2 64 per filsystem
Funktioner
Filsystembehörigheter POSIX
Transparent kryptering ja
Övrig
Operativsystem som stöds AIX , Linux , Windows Server

GPFS ( General Parallel File System , varumärke IBM Spectrum Scale ) är högpresterande klustrade filsystemprogramvara utvecklad av IBM . Det kan distribueras i delad disk eller shared-nothing distribuerade parallella lägen, eller en kombination av dessa. Den används av många av världens största kommersiella företag, såväl som några av superdatorerna Topp 500-listan . Det är till exempel filsystemet för Summit at Oak Ridge National Laboratory som var den snabbaste superdatorn #1 i världen i november 2019 TOP500-listan över superdatorer. Summit är ett 200 Petaflops- system som består av mer än 9 000 POWER9- processorer och 27 000 NVIDIA Volta GPU :er . Lagringsfilsystemet som heter Alpine har 250 PB lagringsutrymme med Spectrum Scale på IBM ESS-lagringshårdvara, som klarar ungefär 2,5 TB/s sekventiell I/O och 2,2 TB/s slumpmässig I/O.

Liksom typiska klusterfilsystem ger GPFS samtidig höghastighetsfilåtkomst till applikationer som körs på flera noder av kluster. Det kan användas med AIX- kluster, Linux -kluster, på Microsoft Windows Server eller ett heterogent kluster av AIX-, Linux- och Windows-noder som körs på x86 , Power eller IBM Z- processorarkitekturer. Förutom att tillhandahålla filsystemlagringsmöjligheter, tillhandahåller den verktyg för hantering och administration av GPFS-klustret och möjliggör delad åtkomst till filsystem från fjärrkluster.

Historia

GPFS började som filsystemet Tiger Shark , ett forskningsprojekt vid IBM:s Almaden Research Center så tidigt som 1993. Tiger Shark designades ursprungligen för att stödja multimediaapplikationer med hög genomströmning. Denna design visade sig vara väl lämpad för vetenskaplig beräkning.

En annan förfader är IBMs Vesta -filsystem, utvecklat som ett forskningsprojekt vid IBMs Thomas J. Watson Research Center mellan 1992 och 1995. Vesta introducerade konceptet med filpartitionering för att tillgodose behoven hos parallella applikationer som körs på högpresterande multidatorer med parallell I/ O delsystem. Med partitionering är en fil inte en sekvens av byte, utan snarare flera disjunkta sekvenser som kan nås parallellt. Partitioneringen är sådan att den abstraherar bort antalet och typen av I/O-noder som är värd för filsystemet, och den tillåter en mängd logiskt partitionerade vyer av filer, oavsett den fysiska distributionen av data inom I/O-noderna. De disjunkta sekvenserna är arrangerade för att motsvara individuella processer i en parallell applikation, vilket möjliggör förbättrad skalbarhet.

Vesta kommersialiserades som PIOFS-filsystemet runt 1994, och efterträddes av GPFS runt 1998. Den största skillnaden mellan de äldre och nyare filsystemen var att GPFS ersatte det specialiserade gränssnittet som Vesta/PIOFS erbjuder med standard Unix API: alla funktioner som stöds högpresterande parallella I/O gömdes för användare och implementerades under huven.

GPFS har varit tillgängligt på IBM:s AIX sedan 1998, på Linux sedan 2001 och på Windows Server sedan 2008.

Idag används den av många av de 500 bästa superdatorerna listade på listan över topp 500 superdatorer. Sedan starten har det framgångsrikt distribuerats för många kommersiella applikationer inklusive digitala medier, rutnätsanalyser och skalbara filtjänster.

2010 förhandsgranskade IBM en version av GPFS som inkluderade en funktion som kallas GPFS-SNC, där SNC står för Shared Nothing Cluster. Detta släpptes officiellt med GPFS 3.5 i december 2012 och är nu känt som FPO (File Placement Optimizer). Detta gör att den kan använda lokalt anslutna diskar på ett kluster av nätverksanslutna servrar istället för att kräva dedikerade servrar med delade diskar (t.ex. med hjälp av ett SAN). FPO är lämplig för arbetsbelastningar med hög datalokalitet som delade ingenting-databaskluster som SAP HANA och DB2 DPF, och kan användas som ett HDFS -kompatibelt filsystem.

Arkitektur

Det är ett klustrat filsystem . Den delar upp en fil i block med en konfigurerad storlek, mindre än 1 megabyte vardera, som är fördelade över flera klusternoder.

Systemet lagrar data på vanliga blocklagringsvolymer, men inkluderar ett internt RAID-lager som kan virtualisera dessa volymer för redundans och parallell åtkomst ungefär som ett RAID-blocklagringssystem. Den har också förmågan att replikera över volymer på högre filnivå.

Funktioner i arkitekturen inkluderar

  • Distribuerad metadata, inklusive katalogträdet. Det finns ingen enskild "katalogkontroller" eller "indexserver" som ansvarar för filsystemet.
  • Effektiv indexering av katalogposter för mycket stora kataloger.
  • Distribuerad låsning. Detta möjliggör fullständig POSIX- filsystemsemantik, inklusive låsning för exklusiv filåtkomst.
  • Partitionsmedveten. Ett fel i nätverket kan dela upp filsystemet i två eller flera grupper av noder som bara kan se noderna i sin grupp. Detta kan upptäckas genom ett hjärtslagsprotokoll, och när en partition inträffar förblir filsystemet live för den största partitionen som bildas. Detta erbjuder en graciös försämring av filsystemet - vissa maskiner kommer att fortsätta att fungera.
  • Filsystemunderhåll kan utföras online. De flesta av filsystemets underhållssysslor (lägga till nya diskar, ombalansera data över diskar) kan utföras medan filsystemet är live. Detta säkerställer att filsystemet är tillgängligt oftare, så att superdatorklustret är tillgängligt längre.

Andra funktioner inkluderar hög tillgänglighet, möjlighet att användas i ett heterogent kluster, katastrofåterställning, säkerhet, DMAPI , HSM och ILM .

Jämfört med Hadoop Distributed File System (HDFS)

Hadoops HDFS-filsystem är designat för att lagra liknande eller större mängder data på råvaruhårdvara - det vill säga datacenter utan RAID- diskar och ett lagringsområdesnätverk (SAN).

  • HDFS delar också upp filer i block och lagrar dem på olika filsystemnoder.
  • GPFS har full Posix filsystem semantik.
  • GPFS distribuerar sina katalogindex och annan metadata över filsystemet. Hadoop, däremot, håller detta på de primära och sekundära namnnoderna, stora servrar som måste lagra all indexinformation i RAM.
  • GPFS delar upp filer i små block. Hadoop HDFS gillar block på 64 MB eller mer, eftersom detta minskar lagringskraven för Namenode. Små block eller många små filer fyller upp ett filsystems index snabbt, så begränsa filsystemets storlek.

Informations livscykelhantering

Lagringspooler tillåter gruppering av diskar i ett filsystem. En administratör kan skapa lagringsnivåer genom att gruppera diskar baserat på prestanda, lokalitet eller tillförlitlighetsegenskaper. Till exempel kan en pool vara högpresterande Fibre Channel- diskar och en annan mer ekonomisk SATA-lagring.

En filuppsättning är ett underträd till filsystemets namnutrymme och ger ett sätt att partitionera namnområdet i mindre, mer hanterbara enheter. Filuppsättningar tillhandahåller en administrativ gräns som kan användas för att ställa in kvoter och specificeras i en policy för att kontrollera initial dataplacering eller datamigrering. Data i en enskild filuppsättning kan finnas i en eller flera lagringspooler. Var fildata finns och hur den migreras baseras på en uppsättning regler i en användardefinierad policy.

Det finns två typer av användardefinierade policyer: filplacering och filhantering. Filplaceringspolicyer leder fildata när filer skapas till lämplig lagringspool. Regler för filplacering väljs av attribut som filnamn, användarnamn eller filuppsättning. Filhanteringspolicyer tillåter att filens data flyttas eller replikeras eller att filer raderas. Filhanteringspolicyer kan användas för att flytta data från en pool till en annan utan att ändra filens plats i katalogstrukturen. Filhanteringspolicyer bestäms av filattribut som senaste åtkomsttid, sökvägsnamn eller storlek på filen.

Policybearbetningsmotorn är skalbar och kan köras på många noder samtidigt. Detta gör att hanteringspolicyer kan tillämpas på ett enda filsystem med miljarder filer och slutföras på några timmar. [ citat behövs ]

Se även

externa länkar