Virtual-IT.pl - data center cloud computing SDx AI storage network cybersecurity
Najlepsze kursy internetowe w kategorii IT i oprogramowanie

Artykuły

Pamięć masowa definiowana przez oprogramowanie

SDSArchitektura współczesnego centrum danych pozwala wykorzystać sprzęt do zwiększenia możliwości oprogramowania. Ta zmiana, określana mianem centrum danych definiowanego przez oprogramowanie (software-defined datacenter, SDDC), umożliwia stworzenie płynniejszej, bardziej dynamicznej i szybciej reagującej infrastruktury, którą można elastycznie dopasowywać do zwiększających się wymogów systemów, transmisji danych i potrzeb obliczeniowych.


Rozwiązania dostarczające wirtualne środowiska robocze za pośrednictwem infrastruktury wirtualnych desktopów (Virtual Desktop Infrastructure, VDI) i aplikacji, zapewniające użytkownikom dostęp do oprogramowania działającego w chmurze obliczeniowej lub w centrum przetwarzania danych mocno korzystają na takiej elastyczności.
 
Poprzez dostarczanie wirtualnych środowisk roboczych można pomóc organizacjom zwiększyć ich efektywność i produktywność, umożliwiając personelowi dostęp do aplikacji oraz danych w każdym miejscu i z poziomu dowolnego urządzenia. By to osiągnąć, należy zapewnić użytkownikowi odpowiedni komfort pracy na szerokiej gamie urządzeń, od stacji roboczych i laptopów poprzez smartfony na tabletach kończąc.

Mobilność w pracy

Wyzwania związane z pamięcią masową w VDI

Często wspólnym mianownikiem w większości wdrożeń IT staje się pamięć masowa. Od kiedy pojawiła się technologia VDI, wydajność pamięci masowej zawsze stanowiła kluczowy czynnik w zapewnianiu użytkownikom komfortowej pracy. Jednak przez długi czas pamięć masową traktowano jak magiczną czarną skrzynkę. Była bardzo kosztowna i często stanowiła jeden z najbardziej skomplikowanych, a jednocześnie najbardziej kłopotliwych elementów infrastruktury centrum przetwarzania danych.

Jednak to pamięć masowa przechowuje jeden z najcenniejszych zasobów organizacji - dane użytkowników i aplikacji, które stanowią klucz do efektywności biznesowej organizacji, osiągnięcia  pożądanych wyników oraz funkcjonowania wirtualnych środowisk roboczych.

Koszty, złożoność i wydajność pamięci masowej zawsze były poważnymi przeszkodami we wdrożeniach wirtualizacji desktopów. Aby dostarczanie wirtualnych środowisk roboczych przyniosło wymagane przez organizacje korzyści, branża musi nie tylko rozwiązać problemy z wydajnością, ale również ograniczyć koszty sesji użytkowników oraz zapewnić im wyższy komfort pracy.

Architektura pamięci masowej, ograniczająca koszty i złożoność

Przez dłuższy czas pamięć masowa była monolitycznym i kosztownym elementem infrastruktury, który pozostawał w tyle za bardziej modularnymi architekturami serwerów, sieci i aplikacji. Ponadto wirtualizacja serwerów i dostarczanie aplikacji wprowadziły dodatkowe warstwy dynamicznej ekspansji i migracji w centrach przetwarzania danych. Efektem tego, konwencjonalna infrastruktura pamięci masowej coraz częściej nie była w stanie podołać tym zadaniom.

Z perspektywy klientów sprawę dodatkowo utrudniał fakt, że okres działania macierzy dyskowych w centrum danych to średnio 10 lat. W rezultacie nowe rozwiązania pamięci masowych muszą odpowiadać wspomnianym problemom, a jednocześnie wspierać i usprawniać bieżącą infrastrukturę, zamiast bazować na całkowitej wymianie sprzętu.

Nowa architektura pamięci masowej musi być modularna i w pełni rozproszona. Powinna również wykorzystywać klasyczne komponenty infrastruktury IT, łącząc je za pomocą oprogramowania w elastyczne systemy pamięciowe i obliczeniowe. Systemów tych można użyć do dostarczania zarówno środowisk VDI oraz kompletnych wirtualnych obszarów roboczych, jednocześnie kładąc nacisk na definiowanie i gwarantowanie odpowiedniego standardu pracy użytkowników i eliminowanie tak zwanych „wysp” infrastruktury i pamięci masowej.

Szeroko pojęte „wyspy” obliczeniowe i pamięciowe dla obciążeń roboczych i danych warto wyeliminować poprzez konsolidację za pomocą spójnej architektury centrum przetwarzania danych, która jest definiowana przez oprogramowanie (SDDC). To w nim zarówno szefowie ds. informatyki jak i  działy IT będą w stanie zapewniać poszczególne usługi, ich odpowiednią jakość (QoS) oraz wyspecjalizowane funkcje za pomocą oprogramowania, które działa na zwykłym, standardowym sprzęcie. Z czasem dzięki zastosowaniu SSDC możliwości i zakres wykorzystania tych nowych środowisk będą rosły.

1. Definiowanie architektury

Architektura pamięci masowej definiowanej przez oprogramowanie pozwala oddzielić dane i zasoby obliczeniowe od sprzętu, z którego są dostarczane. Umożliwia to tworzenie kolejnych warstw usług, zgodnie z bieżącymi potrzebami IT, wykorzystując możliwości oprogramowania zainstalowanego na standardowym (heterogenicznym) sprzęcie, co jest odpowiedzią na wysokie wymagania związane z ograniczeniami i wysokimi kosztami sprzętu wyspecjalizowanego (homogenicznego).

Znacznie przyspiesza wprowadzanie innowacji, wdrażanie i aktualizowanie rozwiązań, a zarazem rozwiązuje kluczowy problem IT - jak i gdzie umieszczać systemy, aby uzyskać ich optymalną wydajność i obniżyć koszty utrzymania. Poprzez przeniesienie tego procesu do stosu rozproszonego oprogramowania, klienci mogą korzystać ze swojej infrastruktury jak z usługi, która rozciąga się na wiele centrów danych i rozwiązuje dylemat wyboru pomiędzy wdrożeniem chmurowym a lokalnym.

 

Logowanie i rejestracja