gLite


gLite
Utvecklare EGEE
Stabil frisättning
3.2 / 23 mars 2009
Operativ system Scientific Linux 3, 4 ,5
Typ Grid computing
Licens EGEE Collaboration 2004
Hemsida glite .cern .ch

gLite (uttalas "gee-lite") är ett mellanprogramsprojekt för datorprogramvara för gridberäkning som används av CERN LHC- experimenten och andra vetenskapliga domäner. Det genomfördes genom samarbete mellan mer än 80 personer i 12 olika akademiska och industriella forskningscentra i Europa. gLite tillhandahåller ett ramverk för att bygga applikationer som utnyttjar distribuerade dator- och lagringsresurser över Internet . gLite-tjänsterna antogs av mer än 250 datorcenter och används av mer än 15 000 forskare i Europa och runt om i världen.

Historia

Efter prototypfaserna 2004 och 2005 nåddes konvergens med LHC Computing Grid (LCG-2)-distributionen i maj 2006, när gLite 3.0 släpptes, och blev den officiella mellanvaran för Enabling Grids for E-science (EGEE) projekt som avslutades 2010.

Utvecklingen av gLite-mellanvaran togs sedan över av European Middleware Initiative och underhålls nu som en del av EMI-mjukvarustacken.

Den distribuerade datorinfrastrukturen byggd av EGEE stöds nu av European Grid Infrastructure . Den kör Grid-mellanvaran producerad av "European Middleware Initiative", vars många komponenter kom från gLite-mellanvaran.

Mellanvarubeskrivning

säkerhet

Användargemenskapen för gLite är grupperad i virtuella organisationer (VO). En användare måste gå med i en VO som stöds av infrastrukturen som kör gLite för att autentiseras och auktoriseras att använda nätresurser.

Grid Security Infrastructure (GSI) i WLCG /EGEE möjliggör säker autentisering och kommunikation över ett öppet nätverk. GSI är baserat på kryptering med publik nyckel, X.509 -certifikat och kommunikationsprotokollet Secure Sockets Layer (SSL), med tillägg för enkel inloggning och delegering.

För att autentisera sig måste en användare ha ett digitalt X.509-certifikat utfärdat av en Certification Authority (CA) som betros av infrastrukturen som kör mellanprogramvaran.

Auktorisering av en användare på en specifik nätresurs kan göras på två olika sätt. Den första är enklare och förlitar sig på grid-mapfile-mekanismen. Det andra sättet förlitar sig på Virtual Organization Membership Service (VOMS) och LCAS/LCMAPS-mekanismen, som möjliggör en mer detaljerad definition av användarbehörigheter.

Användargränssnitt

Åtkomstpunkten till gLite Grid är användargränssnittet (UI). Detta kan vara vilken maskin som helst där användare har ett personligt konto och där deras användarcertifikat är installerat. Från ett användargränssnitt kan en användare autentiseras och auktoriseras att använda WLCG/EGEE-resurserna, och kan komma åt de funktioner som erbjuds av informations-, arbetsbelastnings- och datahanteringssystemen. Det tillhandahåller CLI-verktyg för att utföra några grundläggande Grid-operationer:

  • lista alla resurser som är lämpliga för att utföra ett visst jobb ;
  • lämna in jobb för utförande;
  • avbryta jobb;
  • hämta utdata från färdiga jobb;
  • visa status för inlämnade jobb;
  • hämta loggnings- och bokföringsinformation för jobb;
  • kopiera, replikera och ta bort filer från rutnätet;
  • hämta status för olika resurser från informationssystemet.

Beräkningselement

Ett beräkningselement (CE), i Grid-terminologi, är en uppsättning datorresurser lokaliserade på en plats (dvs. ett kluster, en datorfarm). En CE inkluderar en Grid Gate (GG), som fungerar som ett generiskt gränssnitt till klustret; ett lokalt resurshanteringssystem (LRMS) (ibland kallat batchsystem), och själva klustret, en samling Worker Nodes (WNs), noderna där jobben körs.

Det finns två CE-implementationer i gLite 3.1: LCG CE, utvecklad av EDG och används i LCG-22, och gLite CE, utvecklad av EGEE. Webbplatser kan välja vad som ska installeras, och vissa av dem tillhandahåller båda typerna. GG är ansvarig för att ta emot jobb och skicka dem för utförande på WN via LRMS.

I gLite 3.1-stödda LRMS-typer var OpenPBS /PBSPro, Platform LSF , Maui/Torque, BQS och Condor , och Sun Grid Engine .

Förvaringselement

Ett lagringselement (SE) ger enhetlig åtkomst till datalagringsresurser. Lagringselementet kan styra enkla diskservrar, stora diskarrayer eller bandbaserade masslagringssystem (MSS). De flesta WLCG/EGEE-webbplatser tillhandahåller minst en SE.

Storage Elements kan stödja olika dataåtkomstprotokoll och gränssnitt. Enkelt uttryckt är GSIFTP (en GSI-säker FTP) protokollet för överföringar av hela filer, medan lokal och fjärråtkomst av filer utförs med RFIO eller gsidcap.

De flesta lagringsresurser hanteras av en Storage Resource Manager (SRM), en mellanprogramtjänst som tillhandahåller funktioner som transparent filmigrering från disk till band, filpinning, utrymmesreservation, etc. Olika SE:er kan dock stödja olika versioner av SRM-protokollet och kapaciteten kan variera.

Det finns ett antal SRM-implementationer i bruk, med varierande möjligheter. Disk Pool Manager (DPM) används för ganska små SE:er med endast diskbaserad lagring, medan CASTOR är designad för att hantera storskalig MSS, med front-end-diskar och back-end-bandlagring. dCache är inriktat på både MSS och storskaliga diskarraylagringssystem. Andra SRM-implementationer är under utveckling, och själva SRM-protokollspecifikationen utvecklas också.

Klassiska SE, som inte har ett SRM-gränssnitt, tillhandahåller en enkel diskbaserad lagringsmodell. De håller på att fasas ut. [ när? ]

Informationstjänst

Informationstjänsten (IS) tillhandahåller information om WLCG/EGEE Grid-resurserna och deras status. Denna information är väsentlig för driften av hela Grid, eftersom det är via IS som resurser upptäcks. Den publicerade informationen används även för övervaknings- och redovisningsändamål.

Mycket av de data som publiceras till IS överensstämmer med GLUE Schema, som definierar en gemensam konceptuell datamodell som ska användas för Grid-resursövervakning och upptäckt.

Informationssystemet som används i gLite 3.1 ärver sina huvudkoncept från Globus Monitoring and Discovery Service (MDS). GRIS och GIIS i MDS har dock ersatts av Berkeley Database Information Index (BDII) som i huvudsak är en OpenLDAP- server som uppdateras av en extern process.

Arbetsbelastningshantering

Syftet med Workload Management System (WMS) är att acceptera användarjobb, att tilldela dem till det lämpligaste beräkningselementet, för att registrera deras status och hämta deras utdata. Resursmäklaren (RB) är maskinen där WMS-tjänsterna körs.

Jobb som ska skickas beskrivs med hjälp av Job Description Language (JDL), som t.ex. anger vilken exekverbar fil som ska köras och dess parametrar, filer som ska flyttas till och från Worker Node där jobbet körs, inmatningsgridfiler som behövs , och eventuella krav på CE och Worker Node.

Valet av CE som jobbet skickas till görs i en process som kallas match-making, som först väljer ut, bland alla tillgängliga CE:er, de som uppfyller de krav som användaren uttryckt och som ligger nära specificerade indata Grid-filer. Den väljer sedan CE med den högsta rangen, en kvantitet som härrör från CE-statusinformationen som uttrycker godheten hos en CE (vanligtvis en funktion av antalet pågående och köade jobb).

RB:n lokaliserar Grid-indatafilerna som anges i jobbbeskrivningen med hjälp av en tjänst som kallas Data Location Interface (DLI), som tillhandahåller ett generiskt gränssnitt till en filkatalog. På detta sätt kan resursmäklaren prata med andra filkataloger än LFC (förutsatt att de har ett DLI-gränssnitt).

Den senaste implementeringen av WMS från EGEE tillåter inte bara inlämning av enstaka jobb, utan även samlingar av jobb (möjligen med beroenden mellan dem) på ett mycket mer effektivt sätt än det gamla LCG-2 WMS, och har många andra nya alternativ .

Slutligen spårar loggnings- och bokföringstjänsten (LB) jobb som hanteras av WMS. Den samlar in händelser från många WMS-komponenter och registrerar jobbets status och historik.

externa länkar

Programvarukomponenter

Några gLite-komponenter och tjänster med de bidragande partnerna: