Virtual-IT.pl - wirtualizacja cloud computing storage SDx data center
This SysAdmin Day, WIN with Hornetsecurity!

Czy polskie MŚP są gotowe na chmurę?
Czy polskie MŚP są gotowe na chmurę?

Tylko 11% polskich firm korzystało z usług w chmurze publicznej w 2018 roku. Średnia dla Unii Europejskiej była ponad dwa razy wyższa (26%), a Finlandia zanotowała rekordowy wynik 65%. Dynamiczny wzrost ilości danych, zmiany wymagań klientów czy regulacje takie jak RODO przyspieszają proces cyfryzacji w przedsię...

Czytaj więcej...

The SysAdmin DOJO Podcast - ekspercka wiedza ze świata IT
The SysAdmin DOJO Podcast - ekspercka wiedza ze świata IT

Coraz większą popularność zyskują podkasty. Nie są tak angażujące jak różnorodne filmiki tematyczne, tym samym możemy je odsłuchać w trakcie domowych czynności, joggingu, spaceru czy nawet prowadząc samochód. Dla mnie największą wartość stanowią audycje związane z pracą zawodową i zainteresowaniami, inspi...

Czytaj więcej...

Cloud Computing motorem innowacji
Cloud Computing motorem innowacji

W ciągu najbliższych trzech lat wydatki na chmury publiczne wzrosną niemal dwukrotnie i wyniosą nawet 370 mld dolarów, donosi najnowszy raport opracowany przez IDC. Szacuje się, że już w 2019 r. osiągną zawrotna kwotę 210 mld. Boom na rozwiązania chmurowe napędza przede wszystkim biznesowa gonitwa za nowymi prod...

Czytaj więcej...

15 najlepiej płatnych certyfikacji w 2021 roku
15 najlepiej płatnych certyfikacji w 2021 roku

Certyfikacja jest doskonałym narzędziem rozwoju zawodowego. Większość decydentów IT twierdzi, że posiadanie pracownika z dodatkowymi umiejętnościami i wkładem wniesionym dzięki certyfikacji stanowi znaczną wartość ekonomiczną dla firmy. Koniec roku może stanowić doskonały impuls do zmian (również w obrębi...

Czytaj więcej...

Trzy czwarte firm wraca z chmury publicznej do prywatnej
Trzy czwarte firm wraca z chmury publicznej do prywatnej

To, jak rozwijała się infrastruktura chmur obliczeniowych w ciągu ostatnich 15 lat, jest jednym z fenomenów i najważniejszych w historii przykładów konwergencji rozwiązań obliczeniowych i komunikacyjnych. Dzięki tego typu platformom przedsiębiorstwom zapewniona została niespotykana wcześniej możliwość szy...

Czytaj więcej...

Generacja C na brzegu sieci - jak na branżę IT wpłynie edge computing?
Generacja C na brzegu sieci - jak na branżę IT wpłynie edge computing?

Szacuje się, że do 2021 r. internetowy ruch generowany przez urządzenia mobilne wzrośnie czterokrotnie, a transfer związany ze strumieniowym wideo i grami online - pięciokrotnie. Coraz więcej danych nie tylko pobieramy z internetu, ale także przesyłamy. Do tego dochodzi rosnąca popularność urządzeń, które generu...

Czytaj więcej...

Aktualności

Jak centra danych radzą sobie ze zwiększonym ruchem w sieci?

Data CenterOd lat w branży centrów przetwarzania danych istnieje zjawisko tworzenia nadmiaru mocy produkcyjnej i jej niedostatecznego wykorzystania. Do niedawna na świecie nierzadko można było zobaczyć placówkę przygotowaną na pobór energii elektrycznej przez rozwiązania IT na poziomie 10 megawoltoamperów (MVA), podczas gdy jej rzeczywiste obciążenie wynosiło tylko 2 MVA.

Jeszcze bardziej powszechne było wykorzystanie mocy obliczeniowej serwerów na poziomie poniżej 10 procent i dotyczyło to nie tylko pojedynczych urządzeń czy szaf teleinformatycznych, ale całych systemów IT.

Społeczność zajmująca się efektywnością energetyczną i jej optymalizacją spędziła wiele lat na próbach wdrażania infrastruktury IT u klientów „na wymiar”. Pewną nadzieją była strategia modułowego rozwoju rozwiązań teleinformatycznych, dla których w nadmiarze (zgodnie z planami dalszej rozbudowy mocy obliczeniowej placówki) trzeba było zapewnić jedynie krytyczną infrastrukturę fizyczną, taką jak zasilanie i chłodzenie. Jednak w takiej sytuacji zapotrzebowanie na sprzęt IT często było znacznie zawyżone, co pozostawiało lukę pomiędzy oczekiwaniami projektowymi, a rzeczywistością.

Moc na zapas
Przyjęło się, że w tradycyjnych, korporacyjnych centrach danych jeden serwer (lub jeden procesor w serwerze) odpowiada za obsługę jednej konkretnej aplikacji. Dopiero wprowadzenie dodatkowej warstwy programowej pomiędzy sprzęt i aplikacje, czyli wirtualizacji, zapewniło bardziej optymalne wykorzystanie serwerów. - "Nadal jednak sytuacja jest daleka od idealnej. Duże środowiska IT wciąż budowane są z zapasem, aby zaspokoić potrzeby użytkowników w trakcie największego obciążenia, np. w takie dni, jakimi dla sklepów internetowych są Czarny Piątek, Cyberponiedziałek, Boże Narodzenie czy okres wyprzedaży poświątecznych" - zauważa Bartłomiej Raab, country manager w Vertiv Polska. "Aby zabezpieczyć się przed skutkami ewentualnej katastrofy, buduje się nadmiarowe systemy, gdzie w zapasowym centrum danych duża ich ilość jest replikowana - na wszelki wypadek".

Organiczne centra danych
Rozwiązanie tego problemu pojawiło się dopiero w przypadku bardzo dużych centrów danych, które można przyrównać do ciężarówek o wydajności superszybkich samochodów. "Są one w stu procentach zarządzane przez oprogramowanie, a dzięki unifikacji użytkowanego sprzętu do przetwarzania i przechowywania danych operator takiej placówki ma do dyspozycji dziesiątki tysięcy podłączonych do sieci procesorów i urządzeń pamięci masowej, które skutecznie działają jak jeden „organizm”. Co więcej, kilka tego typu centrów danych może być połączonych ze sobą, dzięki czemu wstrzymanie pracy jednego z nich (np. wskutek katastrofy naturalnej lub planowanych prac serwisowych) powoduje jedynie niewielki spadek wydajności, a nie utratę usług" - wyjaśnia Bartłomiej Raab.

Eksperci Vertiv wskazują, że za przykład mogą posłużyć zapytania wysyłane przez wyszukiwarkę Google. Każde z nich trafia w tym samym czasie do trzech różnych centrów danych znajdujących się w różnych miejscach na świecie. Ta placówka, która będzie najszybsza, dostarcza wyniki wyszukiwania. A jeśli któraś z nich będzie nieczynna, pozostały jeszcze dwie.

Podobne reguły dotyczą sieci, przez które wysyłane są zapytania. Jednak instalacja światłowodowych przewodów musi być zaplanowana z nadmiarem. Procedura umieszczenia kabli w ziemi oraz na dnie morza jest bardzo kosztowna. Planując nowe trasy, dostawca sieci musi zatem myśleć w perspektywie minimum dziesięcioletniej. Gdy część z jego infrastruktury jest już w pełni wykorzystana, po prostu wówczas uruchamia kolejne, niewykorzystane dotychczas połączenia światłowodowe.

Nieoczekiwane obciążenia
Dziś mamy do czynienia z bezprecedensową sytuacją, w ramach której ogrom ludzi - specjalistów i uczniów - wykonuje swoje obowiązki z domu, uczestniczy w wideokonferencjach oraz dzieli się wynikami pracy przez internet. Zauważają to także operatorzy telekomunikacyjni - w niedawnym komunikacie prasowym dyrektor ds. technologii w firmie BT stwierdził, że dotychczas w tej największej brytyjskiej sieci telekomunikacyjnej szczytowe natężenie ruchu obserwowano zwykle przez kilka godzin w niedzielny wieczór. Teraz ilość przesyłanych danych jest większa niż kiedykolwiek wcześniej i praktycznie nie spada.

I nawet jeśli łączność z niektórymi osobami stanowi wąskie gardło, cały ekosystem wciąż działa bardzo wydajnie. Także operatorzy nieustannie śledzą jakość łączy i rozbudowują je w razie potrzeby - obecna sytuacja to dla nich idealna okazja do weryfikacji elastyczności pracy własnej sieci. Tam, gdzie wymagana jest większa przepustowość, jest ona zapewniana w ciągu kilku dni. Na szczęście nie stanowi to dla firm dużego problemu dzięki temu, że wcześniej zainwestowały w swoje centra danych z dużym zapasem.

Źródło: Vertiv

Logowanie i rejestracja