Internetnätverk
Datanätverkstyper efter skala |
---|
Ett internetnätverk ( IAN ) är ett koncept för ett kommunikationsnätverk som kopplar samman röst- och dataändpunkter inom en molnmiljö över IP, och ersätter ett befintligt lokalt nätverk (LAN), wide area network (WAN) eller det publika telefonnätet ( PSTN).
Översikt
Ses av förespråkarna som framtidens nätverksmodell, ett IAN ansluter säkert slutpunkter via det offentliga Internet , så att de kan kommunicera och utbyta information och data utan att vara bundna till en fysisk plats.
IAN eliminerar en geografisk profil för nätverket helt på grund av att applikationerna och kommunikationstjänsterna har blivit virtualiserade. Endpoints behöver endast anslutas över en bredbandsanslutning över Internet. Till skillnad från IAN kopplar LAN ihop datorer i ett begränsat område som ett hem, en skola, ett datorlaboratorium eller en kontorsbyggnad. WAN skiljer sig också från IAN, eftersom det är ett nätverk som täcker ett brett område, till exempel alla telekommunikationsnätverk som länkar över storstads-, regionala eller nationella gränser, med privata eller offentliga nätverkstransporter.
En IAN-plattform är värd i molnet av en leverantör av hanterade tjänster och erbjuder användare säker åtkomst till information var som helst, när som helst, via en internetanslutning. Användare har också tillgång till telefoni, röstbrevlåda, e-post och faxtjänster från vilken ansluten slutpunkt som helst. För företag minskar den värdbaserade modellen IT- och kommunikationskostnader, skyddar mot förlust av data och katastrofavbrott, samtidigt som den realiserar en större avkastning på sina investerade resurser genom ökad personalproduktivitet och minskade telekomkostnader.
Historia
IAN har sina rötter i uppkomsten av cloud computing , vars underliggande koncept går tillbaka till 1950-talet; när storskaliga stordatorer blev tillgängliga i akademi och företag, tillgängliga via tunna klienter och terminaldatorer . Eftersom det var dyrt att köpa en stordator blev det viktigt att hitta sätt att få största möjliga avkastning på investeringen i dem, så att flera användare kunde dela både den fysiska åtkomsten till datorn från flera terminaler samt att dela CPU- tiden , eliminera perioder av inaktivitet, vilket blev känt i branschen som tidsdelning .
Den ökande efterfrågan och användningen av datorer vid universitet och forskningslabb i slutet av 1960-talet skapade behovet av att tillhandahålla höghastighetssammankopplingar mellan datorsystem. En rapport från 1970 från Lawrence Radiation Laboratory som beskriver tillväxten av deras "Bläckfisk"-nätverk gav en bra indikation på situationen.
När datorer blev allt vanligare undersökte forskare och teknologer sätt att göra storskalig datorkraft tillgänglig för fler användare genom tidsdelning, experimenterande med algoritmer för att ge optimal användning av infrastrukturen, plattformen och applikationerna med prioriterad tillgång till CPU:n och effektivitet för slutanvändarna.
John McCarthy menade på 1960-talet att "beräkningar en dag kan organiseras som en allmännytta ." Nästan alla moderna egenskaper hos cloud computing (elastisk tillhandahållande, tillhandahållen som ett verktyg, online, illusion av oändligt utbud), jämförelsen med elindustrin och användningen av offentliga, privata, statliga och samhällsformer, undersöktes grundligt i Douglas Parkhills bok från 1966, The Challenge of the Computer Utility. Andra forskare har visat att molnets rötter går ända tillbaka till 1950-talet när vetenskapsmannen Herb Grosch (författaren till Groschs lag ) postulerade att hela världen skulle fungera på dumma terminaler som drivs av cirka 15 stora datacenter. På grund av kostnaden för dessa kraftfulla datorer kunde många företag och andra enheter utnyttja datorkapacitet genom tidsdelning och flera organisationer, såsom GE:s GEISCO, IBMs dotterbolag The Service Bureau Corporation (SBC, grundat 1957), Tymshare (grundat i 1966), National CSS (grundat 1967 och köpt av Dun & Bradstreet 1979), Dial Data (köpt av Tymshare 1968) och Bolt, Beranek och Newman (BBN) marknadsförde tidsdelning som ett kommersiellt företag.
Internets utveckling från att vara dokumentcentrerad via semantisk data till fler och fler tjänster beskrevs som "Dynamisk webb". Detta bidrag fokuserade särskilt på behovet av bättre metadata som kan beskriva inte bara implementeringsdetaljer utan också konceptuella detaljer för modellbaserade applikationer.
På 1990-talet började telekommunikationsföretag som tidigare främst erbjöd dedikerade punkt-till-punkt datakretsar erbjuda virtuella privata nätverkstjänster (VPN) med jämförbar servicekvalitet men till en mycket lägre kostnad. Genom att byta trafik för att balansera utnyttjandet som de ansåg lämpligt kunde de optimera sin totala nätverksanvändning. Molnsymbolen användes för att beteckna gränsdragningen mellan det som var leverantörens ansvar och det som var användarnas ansvar. Cloud computing utökar denna gräns till att täcka såväl servrar som nätverksinfrastrukturen.
Efter dot-com-bubblan spelade Amazon en nyckelroll i utvecklingen av cloud computing genom att modernisera sina datacenter , som, precis som de flesta datornätverk , använde så lite som 10 % av sin kapacitet vid ett tillfälle, bara för att lämna utrymme för enstaka toppar. Efter att ha upptäckt att den nya molnarkitekturen resulterade i betydande interna effektivitetsförbättringar där små, snabbrörliga "två-pizzateam" (lag som är tillräckligt små för att matas med två pizzor) kunde lägga till nya funktioner snabbare och enklare, initierade Amazon en ny produkt utvecklingsansträngning för att tillhandahålla molnbaserad datoranvändning till externa kunder, och lanserade Amazon Web Services (AWS) på en utility computing-basis 2006.
I början av 2008 blev Eucalyptus den första AWS API-kompatibla plattformen med öppen källkod för att distribuera privata moln. I början av 2008 OpenNebula , förbättrat i RESERVOIR-projektet finansierat av EU-kommissionen, den första programvaran med öppen källkod för att distribuera privata och hybridmoln och för federationen av moln. Samma år fokuserades ansträngningarna på att tillhandahålla kvalitetsgarantier för tjänster (som krävs av interaktiva realtidsapplikationer) till molnbaserade infrastrukturer, inom ramen för det IRMOS EU-kommissionsfinansierade projektet, vilket resulterade i en molnmiljö i realtid . I mitten av 2008 såg Gartner en möjlighet för cloud computing "för att forma relationen mellan konsumenter av IT-tjänster, de som använder IT-tjänster och de som säljer dem" och observerade att "organisationer byter från företagsägda hård- och mjukvarutillgångar till per-användning tjänstebaserade modeller" så att den "prognostiserade övergången till datoranvändning... kommer att resultera i dramatisk tillväxt av IT-produkter inom vissa områden och betydande minskningar inom andra områden."
2011 etablerades RESERVOIR i Europa för att skapa teknologier med öppen källkod, för att tillåta molnleverantörer att bygga ett avancerat moln med balansering av arbetsbelastningar, sänkta kostnader och flytta arbetsbelastningar över geografiska platser genom en federation av moln. Även 2011 tillkännagav IBM Smarter Computing -ramverket för att stödja en Smarter Planet . Bland de olika komponenterna i Smarter Computing-stiftelsen är cloud computing en viktig del.
Nu har den allestädes närvarande tillgången till nätverk med hög kapacitet, lågkostnadsdatorer och lagringsenheter samt den utbredda användningen av hårdvaruvirtualisering, tjänsteorienterad arkitektur , autonoma och verktygsberäkningar lett till en enorm tillväxt inom molnberäkning. Virtuella världar och peer-to-peer-arkitekturer har banat väg för konceptet med ett IAN.
iAreaNet grundades 1999 av VD James DeCrescenzo som ett företag som heter Internet Area Network, ägnat åt att tillhandahålla datalagring på annan plats och förebygga katastrofer innan molnet fanns i kommersiell form. Det var banbrytande för idén om ett IAN. [ citat behövs ] Sedan dess har det stärkt verksamheten och gjort betydande investeringar i att utveckla en kraftfull infrastruktur för att förse företag med en rad tekniska lösningar, inklusive det patentsökta iAreaOffice, som kommersialiserar konceptet med ett IAN genom att eliminera behovet av traditionellt LAN, WAN eller telefonsystem för affärskommunikation. [ citat behövs ]
Se även
Anteckningar
- Winkleman, Roy. "Handbok för nätverk." Florida Center for Instructional Technology College of Education. 2009-2013. http://fcit.usf.edu/network/chap1/chap1.htm
- iAreaNetwork Vision Statement. https://web.archive.org/web/20130408032637/http://iareanet.com/about-the-cloud-company.html
- Martínez-Mateo, J., Munoz-Hernandez, S. och Pérez-Rey, D. "A Discussion of Thin Client Technology for Computer Labs." Universitetet i Madrid. maj 2010. https://www.researchgate.net/publication/45917654_A_Discussion_of_Thin_Client_Technology_for_Computer_Labs
- McCarthy, John. "Reminiscenser om tidsdelningens historia." Stanford University. 1983 Vinter eller vår. https://web.archive.org/web/20071020032705/http://www-formal.stanford.edu/jmc/history/timesharing/timesharing.html
- Mendicino, Samuel. Dator nätverk. 1972. s 95–100. http://rogerdmoore.ca/PS/OCTOA/OCTO.html
- Garfinkle, Simson. "The Cloud Imperative." MIT Technology Review. 3 oktober 2011. http://www.technologyreview.com/news/425623/the-cloud-imperative/
- https://www.amazon.com/Challenge-Computer-Utility-Douglas-Parkhill/dp/0201057204
- Deboosere, L., De Wachter, J., Simoens, P., De Turck, F., Dhoedt, B. och Demeester, P. "Thin Client Computing Solutions in Low- and High-Motion Scenarios." Tredje internationella konferensen om nätverk och tjänster (ICNS), 2007.
- Gardner, W. David. "Author of Grosch's Law Going Strong at 87." Informationsvecka. 12 april 2005. http://www.informationweek.com/author-of-groschs-law-going-strong-at-87/160701576 Arkiverad 2012-10-23 på Wayback Machine
- McCarthy, John. "Reminiscenser om tidsdelningens historia." Stanford University. 1983 Vinter eller vår. https://web.archive.org/web/20071020032705/http://www-formal.stanford.edu/jmc/history/timesharing/timesharing.html
- "En historia om den dynamiska webben." Pingdom. 7 dec 2007. http://royal.pingdom.com/2007/12/07/a-history-of-the-dynamic-web/ Arkiverad 2018-01-20 på Wayback Machine
- "Virtuella privata nätverk: Hantera Telecoms Golden Horde." Billing World. 1 maj 1999. http://www.billingworld.com/articles/1999/05/virtual-private-networks-managing-telecom-s-golde.aspx
- Anders, George. "Inuti Amazons idémaskin: Hur Bezos avkodar kunden." Forbes. april 2012
- Arrington, Michael. "Intervju med Jeff Bezos på Amazon Web Services." TechCrunch, 14 november 2006. https://techcrunch.com/2006/11/14/interview-with-jeff-bezos-on-amazon-web-services/
- OpenNebulas webbplats http://www.opennebula.org/start
- IRMOS webbplats http://www.irmosproject.eu/ Arkiverad 2018-10-10 på Wayback Machine
- Plummer, Daryl. "Cloud Computing Förvirring leder till möjligheter." Gartner Inc. juni 2008
- RESERVOIR webbplats http://www.reservoir-fp7.eu/
- IBM Smarter Planet hemsida. http://www.ibm.com/smarter-computing/us/en/analytics-infrastructure/
- Nej, Erica. "Peer to Peer virtuella världar." MIT Technology Review. 16 april 2008. http://www.technologyreview.com/news/409912/peer-to-peer-virtual-worlds/