Zettabyte-eran
Zettabyte Era eller Zettabyte Zone är en period av mänsklig och datavetenskaplig historia som startade i mitten av 2010-talet. Det exakta startdatumet beror på om det definieras som när den globala IP-trafiken först översteg en zettabyte , vilket hände 2016, eller när mängden digital data i världen först översteg en zettabyte, vilket hände 2012. En zettabyte är en multipel av enhetsbyten som mäter digital lagring, och den motsvarar 1 000 000 000 000 000 000 000 (10 21 ) byte.
Enligt Cisco Systems , ett amerikanskt multinationellt teknikkonglomerat, uppnådde den globala IP-trafiken uppskattningsvis 1,2 zettabyte (ett genomsnitt på 96 exabyte (EB) per månad) 2016. Global IP-trafik avser all digital data som passerar ett IP-nätverk som inkluderar, men är inte begränsat till, det offentliga Internet. Den största bidragande faktorn till tillväxten av IP-trafik kommer från videotrafik (inklusive streamingtjänster online som Netflix och YouTube ).
Zettabyte-eran kan också förstås som en ålder av tillväxt av alla former av digital data som finns i världen, vilket inkluderar det offentliga Internet, men också alla andra former av digital data som lagrad data från säkerhetskameror eller röstdata från cell- telefonsamtal. Med hänsyn till denna andra definition av Zettabyte-eran, uppskattades det att 2012 fanns uppåt 1 zettabyte data i världen och att det år 2020 skulle finnas mer än 40 zettabyte data i världen i stort.
Zettabyte-eran innebär svårigheter för datacenter att hålla jämna steg med explosionen av dataförbrukning, skapande och replikering. Under 2015 togs 2 % av den totala globala energin upp av Internet och alla dess komponenter, så energieffektivitet med avseende på datacenter har blivit ett centralt problem i Zettabyte-eran.
IDC förutspår att mängden data som genereras varje år kommer att växa till 103 zettabyte år 2023 och 175 zettabyte år 2025. Man uppskattar vidare att totalt 22 zettabyte digital lagring kommer att skickas över alla typer av lagringsmedier mellan 2018 och 2025, med nästan 59 procent av denna kapacitet tillhandahålls av hårddiskindustrin.
Zettabyten
En zettabyte är en digital måttenhet. En zettabyte är lika med en sextillion byte eller 10 21 (1 000 000 000 000 000 000 000) byte, eller en zettabyte är lika med en biljon gigabyte . För att sätta detta i perspektiv, tänk på att "om varje terabyte i en zettabyte var en kilometer skulle det motsvara 1 300 tur- och returresor till månen och tillbaka (768 800 kilometer)". Som tidigare Google-chef Eric Schmidt uttrycker det skapades från mänsklighetens allra första början till år 2003 uppskattningsvis 5 exabyte information, vilket motsvarar 0,5 % av en zettabyte. Under 2013 tog den mängden information (5 exabyte) bara två dagar att skapa, och den takten växer kontinuerligt.
Definitioner
Konceptet med Zettabyte-eran kan delas upp i två distinkta kategorier:
- När det gäller IP-trafik : Denna första definition hänvisar till den totala mängden data som ska passera globala IP-nätverk som det offentliga Internet. I Kanada har det till exempel skett en genomsnittlig tillväxt på 50,4 % av data som laddats ner av Internet-abonnenter i bostäder från 2011 till 2016. Enligt denna definition började Zettabyte-eran 2016 när den globala IP-trafiken översteg en zettabyte, som uppskattas ha nått ungefär 1,2 zettabyte.
- När det gäller alla former av digital data : I denna andra definition avser Zettabyte-eran den totala mängden av all digital data som finns i någon form, från digitala filmer till transpondrar som registrerar motorvägsanvändning till SMS-textmeddelanden. Enligt denna definition började Zettabyte-eran 2012, när mängden digital data i världen översteg en zettabyte.
Cisco-rapport – The Zettabyte Era: Trends and Analysis
2016 uppgav Cisco Systems att Zettabyte-eran nu var verklighet när global IP-trafik nådde uppskattningsvis 1,2 zettabyte. Cisco gav också framtida förutsägelser om global IP-trafik i sin rapport The Zettabyte Era: Trends and Analysis . Den här rapporten använder aktuell och tidigare global IP-trafikstatistik för att förutsäga framtida trender. Rapporten förutspår trender mellan 2016 och 2021. Här är några av prognoserna för 2021 som finns i rapporten:
- Global IP-trafik kommer att tredubblas och beräknas nå 3,3 ZB per år.
- Under 2016 stod videotrafiken (t.ex. Netflix och YouTube) för 73 % av den totala trafiken. År 2021 kommer detta att öka till 82 %.
- Antalet enheter anslutna till IP-nätverk kommer att vara mer än tre gånger den globala befolkningen.
- Den tid det skulle ta för en person att se hela videon som kommer att passera globala IP-nätverk på en månad är 5 miljoner år.
- PC-trafik kommer att överskridas av smartphonetrafik. PC-trafiken kommer att stå för 25 % av den totala IP-trafiken medan smartphonetrafiken kommer att vara 33 %.
- Bredbandshastigheterna blir dubbelt så höga .
Faktorer som ledde till Zettabyte-eran
Det finns många faktorer som orsakade uppkomsten av Zettabyte-eran. Ökning av videoströmning, mobiltelefonanvändning, bredbandshastigheter och datacenterlagring är alla bidragande faktorer som ledde till ökningen (och fortsättningen) av datakonsumtion, skapande och replikering.
Ökad videoströmning
Det finns en stor och ständigt växande konsumtion av multimedia , inklusive videostreaming, på Internet som har bidragit till framväxten av Zettabyte-eran. Under 2011 uppskattades det att ungefär 25–40 % av IP-trafiken togs upp av videostreamingtjänster. Sedan dess har video-IP-trafik nästan fördubblats till uppskattningsvis 73 % av den totala IP-trafiken. Dessutom har Cisco förutspått att denna trend kommer att fortsätta in i framtiden, och uppskattar att år 2021 kommer 82% av den totala IP-trafiken att komma från videotrafik.
Mängden data som används av videoströmningstjänster beror på kvaliteten på videon. Således bryter Android Central ner hur mycket data som används (på en smartphone) med avseende på olika videoupplösningar. Enligt deras upptäckter använder video i en timme mellan 240p och 320p upplösning ungefär 0,3 GB. Standardvideo, som klockas in med en upplösning på 480p, använder cirka 0,7 GB per timme. Högupplöst video som varierar mellan 720p och 2k upplösning använder cirka 0,9 GB (720p), 1,5 GB (1080p) och 3 GB (2k) per timme. Slutligen använder 4K-video, känd som ultrahögupplöst video, cirka 7,2 GB per timme. [ tveksamt ]
Netflix och YouTube ligger överst på listan när det gäller de mest globalt streamade videotjänsterna online. Under 2016 stod Netflix för 32,72 % av all videoströmmande IP-trafik, medan YouTube stod för 17,31 %. Den tredje platsen tas upp av Amazon Prime Video där den globala dataanvändningen kommer in på 4,14 %.
Netflix
För närvarande är Netflix den största videoströmningstjänsten i världen, tillgänglig i över 200 länder och med mer än 80 miljoner prenumeranter. Streaming av högupplöst videoinnehåll via Netflix använder ungefär 3 GB data per timme, medan standardupplösning tar upp cirka 1 GB data per timme. I Nordamerika använder Netflix cirka 40 % av den totala nätverksbandbredden under de mest använda bandbreddstimmar (cirka kl. 20.00). Den stora mängden data markerar en tidsperiod utan motstycke och är en av de viktigaste bidragande faktorerna som har lett världen in i Zettabyte-eran.
Youtube
YouTube är en annan stor tjänst för videoströmning (och videouppladdning), vars dataförbrukningshastighet över både fasta och mobila nätverk fortfarande är ganska stor. 2016 svarade tjänsten för att använda upp cirka 20 % av den totala internettrafiken och 40 % av mobiltrafiken. Under 2016 laddades 100 timmar med videoinnehåll på YouTube upp var 60:e sekund. YouTube erbjuder inte bara innehåll för nedladdning (genom streaming) utan också en del av deras totala internetanvändning tillskrivs även uppladdning av videoinnehåll. [ tvivelaktigt ] Från och med 2018 laddas 300 timmar YouTube-videoinnehåll upp varje minut.
Ökad trådlös och mobil trafik
Användningen av mobil teknik för att komma åt IP-nätverk har resulterat i en ökning av den totala IP-trafiken under Zettabyte-eran. Under 2016 var majoriteten av enheterna som flyttade IP-trafik och andra dataströmmar fasta enheter. Sedan dess har den trådlösa och mobila trafiken ökat och spås fortsätta öka snabbt. Cisco förutspår att till år 2021 kommer trådbundna enheter att stå för 37 % av den totala trafiken medan de återstående 63 % kommer att stå för trådlösa och mobila enheter. Dessutom förväntas smartphonetrafiken överträffa PC-trafiken 2021; Datorer förutspås stå för 25 % av den totala trafiken, en minskning från 46 % 2016, medan smartphonetrafiken förväntas öka från 13 % till 33 %.
Enligt Organisationen för ekonomiskt samarbete och utveckling (OECD) växer penetrationsgraden för mobilt bredband ständigt. Mellan juni 2016 och december 2016 skedde en genomsnittlig penetrationshastighet för mobilt bredband på 4,43 % av alla OECD-länder. Polen hade den största ökningen med 21,55 % medan Lettland hade den lägsta penetrationsgraden efter att ha minskat med 5,71 %. OECD beräknade att det fanns 1,27 miljarder totalt mobilt bredbandsabonnemang 2016, 1,14 miljarder av dessa abonnemang hade både röst och data inkluderat i planen.
Ökade bredbandshastigheter
Bredband är det som kopplar Internetanvändare till Internet, därför är hastigheten på bredbandsanslutningen direkt korrelerad till IP-trafiken – ju högre bredbandshastighet, desto större är möjligheten för mer trafik som kan passera IP-nätverk. Cisco uppskattar att bredbandshastigheterna förväntas fördubblas till 2021. Under 2016 nådde det globala genomsnittliga fasta bredbandshastigheterna så höga som 27,5 Mbit/s men förväntas nå 53 Mbit/s 2021. Mellan fjärde kvartalet 2016 och första kvartalet 2017, genomsnittliga fasta bredbandshastigheter globalt sett motsvarade 7,2 Mbit/s. [ förtydligande behövs ] Sydkorea var överst på listan när det gäller bredbandshastigheter. Under den perioden ökade bredbandshastigheterna med 9,3 %.
med hög bandbredd behöver betydligt högre bredbandshastigheter. Vissa bredbandstekniker inklusive Fiber-to-the-home (FTTH), höghastighets digital abonnentlinje (DSL) och kabelbredband banar väg för ökade bredbandshastigheter. FTTH kan erbjuda bredbandshastigheter som är tio gånger (eller till och med hundra gånger) snabbare än DSL eller kabel.
Internetleverantörer i Zettabyte-eran
Zettabyte-eran har påverkat Internetleverantörer (ISP) med tillväxten av data som flödar från alla håll. Överbelastning uppstår när det strömmar in för mycket data och kvaliteten på tjänsten (QoS) försvagas. I både Kina och USA lagrar och hanterar vissa internetleverantörer exabyte data. Svaret från vissa internetleverantörer är att implementera så kallade nätverkshanteringsmetoder i ett försök att tillgodose den oändliga dataökningen av Internet-abonnenter i deras nätverk. Dessutom utvecklas tekniken som implementeras av internetleverantörer över deras nätverk för att hantera det ökade dataflödet.
Nätverkshanteringspraxis har skapat debatter om nätneutralitet när det gäller rättvis tillgång till allt innehåll på Internet. Enligt The European Consumer Organisation kan nätverksneutralitet förstås som ett mål att "allt internet ska behandlas lika, utan diskriminering eller inblandning. När så är fallet har användare friheten att få tillgång till innehållet, tjänsterna och applikationerna i deras val, med vilken enhet de väljer".
Enligt Canadian Radio-television and Telecommunications Commission (CRTC) Telecom Regulatory Policy 2009-657 finns det två former av hantering av Internetnätverk i Kanada. Den första är ekonomisk praxis som datatak , den andra är teknisk praxis som bandbreddsbegränsning och blockering . Enligt CRTC införs den tekniska praxisen av ISP:er för att ta itu med och lösa problem med överbelastning i deras nätverk, men CRTC säger att ISP:er inte får anställa ITMPs av förmånliga eller orättfärdiga diskriminerande skäl. [ förtydligande behövs ]
I USA, men under Obama-erans administration, enligt Federal Communications Commissions (FCC) 15–24 policy, fanns det tre klara regler för att skydda nätneutralitet: ingen blockering, ingen strypning, ingen betald prioritering. Den 14 december 2017 röstade FCC 3–2 för att ta bort dessa regler, vilket gör det möjligt för internetleverantörer att blockera, strypa och ge snabb-lane-åtkomst till innehåll på deras nätverk.
I ett försök att hjälpa Internetleverantörer att hantera stora dataflöden under Zettabyte-eran, presenterade Cisco 2008 en ny router, Aggregation Services Router (ASR) 9000, som vid den tiden var tänkt att kunna erbjuda sex gånger så hög hastighet av jämförbara routrar. På en sekund skulle ASR 9000-routern i teorin kunna bearbeta och distribuera 1,2 miljoner timmar DVD-trafik. Under 2011, med Zettabyte-eran, hade Cisco fortsatt arbetet med ASR 9000 genom att den nu skulle kunna hantera 96 terabyte per sekund, en markant ökning från 6,4 terabyte per sekund som ASR 9000 kunde hantera 2008. [ relevant ? ]
Datacenter
Energiförbrukning
Datacenter försöker anpassa sig till den ständigt växande hastigheten med vilken data produceras, distribueras och lagras. Datacenter är stora anläggningar som används av företag för att lagra enorma datamängder på servrar . Under 2014 uppskattades det att det bara i USA fanns ungefär 3 miljoner datacenter, allt från små center i kontorsbyggnader till egna stora komplex. I allt högre grad lagrar datacenter mer data än slutanvändarenheter. År 2020 förutspås det att 61 % av den totala datan kommer att lagras via molnapplikationer (datacenter) i motsats till 2010 då 62 % av datalagringen var på slutanvändarenheter. En ökning av datacenter för datalagring sammanfaller med en ökning av energiförbrukningen i datacenter.
Under 2014 stod datacenter i USA för ungefär 1,8 % av den totala elförbrukningen, vilket motsvarar 70 miljarder kWh . Mellan 2010–2014 hänfördes en ökning med 4 % till elförbrukningen i datacenter, denna uppåtgående trend på 4 % förutspås fortsätta under 2014–2020. Under 2011 uppgick energiförbrukningen från alla datacenter till ungefär 1,1 % till 1,5 % av den totala globala energiförbrukningen. Informations- och kommunikationsteknik, inklusive datacenter, är ansvariga för att skapa stora mängder CO 2 -utsläpp.
Googles gröna initiativ
Energin som används av datacenter är inte bara för att driva sina servrar. Faktum är att de flesta datacenter använder ungefär hälften av sina energikostnader på icke-datorenergi som kyla och energiomvandling. Googles datacenter har kunnat sänka icke-datorkostnader till 12 %. Från och med 2016 använder Google dessutom sin enhet för artificiell intelligens, DeepMind, för att hantera mängden elektricitet som används för att kyla deras datacenter, vilket resulterar i en kostnadsminskning på ungefär 40 % efter implementeringen av DeepMind. Google hävdar att dess datacenter använder 50 % mindre energi än vanliga datacenter. [ bättre källa behövs ]
Enligt Googles Senior Vice President of Technical Infrastructure, Urs Hölzle, kommer Googles datacenter (liksom deras kontor) att ha nått 100 % förnybar energi för sin globala verksamhet i slutet av 2017. Google planerar att uppnå denna milstolpe genom att köpa tillräckligt med vindkraft och solel för att stå för all el som deras verksamheter förbrukar globalt. Anledningen till dessa gröna initiativ är att ta itu med klimatförändringar och Googles koldioxidavtryck. Dessutom har dessa gröna initiativ blivit billigare, med kostnaderna för vindenergi som sänks med 60 % och solenergi har sjunkit med 80 %.
För att förbättra ett datacenters energieffektivitet, minska kostnaderna och minska påverkan på miljön tillhandahåller Google fem av de bästa metoderna för datacenter att implementera:
- Mät Power Usage Effectiveness (PUE), [ förtydligande behövs ] ett förhållande som används av industrin för att mäta energin som används för icke-beräkningsfunktioner, för att spåra ett datacenters energianvändning.
- Använd väldesignade inneslutningsmetoder, försök att förhindra att kall och varm luft blandas. Använd även stödplåtar för tomma ställen på ställningen och eliminera hot spots.
- Håll gångtemperaturerna kalla för energibesparingar.
- Använd gratiskylningsmetoder för att kyla datacenter, inklusive en stor termisk reservoar eller förångande vatten.
- Eliminera så många effektomvandlingssteg som möjligt för att minska kraftdistributionsförlusterna.
Open Compute Project
2010 lanserade Facebook ett nytt datacenter designat på ett sådant sätt att det kunde vara 38 % effektivare och 24 % billigare att bygga och driva än ett genomsnittligt datacenter. Denna utveckling ledde till bildandet av Open Compute Project (OCP) 2011. OCP-medlemmarna samarbetar för att bygga ny teknisk hårdvara som är mer effektiv, ekonomisk och hållbar i en tid där data ständigt växer. OCP arbetar för närvarande med flera projekt, inklusive ett specifikt inriktat på datacenter. Detta projekt syftar till att vägleda sättet på vilket nya datacenter byggs, men också att hjälpa redan befintliga datacenter att förbättra termisk och elektrisk energi samt att maximera mekanisk prestanda. OCP:s datacenterprojekt fokuserar på fem områden: anläggningskraft, anläggningsdrift, layout och design, anläggningskylning och övervakning och kontroll av anläggningar.
Vidare läsning
- Floridi, Luciano (2010). Information: En mycket kort introduktion . USA: Oxford University Press. s. 6–8. ISBN 9780191609541 . Hämtad 4 december 2017 .