Virtual-IT.pl - wirtualizacja cloud computing storage data center

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

15 najlepiej płatnych certyfikacji w 2015 roku
15 najlepiej płatnych certyfikacji w 2015 roku

Certyfikacja IT stanowi niezbędny element w wielu obszarach. Chcąc aktywnie uczestniczyć w rynku pracy, należy stale podnosić swoje kwalifikacje, a certyfikacja jest jedną z metod pozwalających na usystematyzowanie i poszerzenie wiedzy. Posiadanie odpowiednich certyfikatów niejednokrotnie jest elementem wymaganym po...

Czytaj więcej...

Wchodzisz w chmurę? Sprawdź umowę by uniknąć kosztownych perturbacji
Wchodzisz w chmurę? Sprawdź umowę by uniknąć kosztownych perturbacji

Współpraca z niewłaściwym dostawcą usług chmurowych może mieć swoje nieprzyjemne konsekwencje. Ważne jest by potencjalni klienci wiedzieli dokładnie na co się decydują wybierając chmurę obliczeniową. Migracja do chmury, to kluczowa decyzja biznesowa, niosąca ze sobą długoterminowe skutki. Jeżeli chcesz skorzystać z ...

Czytaj więcej...

Altaro VM Backup dla dostawców usług IT!
Altaro VM Backup dla dostawców usług IT!

Altaro Software, dostawca rozwiązań do tworzenia kopii zapasowych, znany głównie ze swojego flagowego produktu VM Backup, pozwalającego na tworzenie kopii zapasowych maszyn wirtualnych działających w środowisku Microsoft Hyper-V i VMware vSphere, udostępnił portal online, zbudowany specjalnie z myślą o dostawcach us...

Czytaj więcej...

Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)
Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)

Wraz z rozwojem technologii wirtualizacji i wynikającymi z tego zmianami krajobrazu środowisk IT, zmienia się podejście do ochrony danych. Z wirtualizacją przegrało wiele rozwiązań zaprojektowanych z myślą o środowiskach fizycznych. Na rynku pojawiły się nowe rozwiązania, opracowane z myślą o środowiskach wirtualnyc...

Czytaj więcej...

XenServer ma 10 lat!
XenServer ma 10 lat!

Dokładnie 10 lat temu, końcem sierpnia 2006 roku firma XenSource, sponsorująca prace nad otwartoźródłowym hypervisorem Xen, wydała pierwszą komercyjną wersję produktu do wirtualizacji, skierowaną do firm każdej wielkości - XenEnterprise (nazwa kodowa 'Burbank') - bazującą na Xen 3.0.0.

Czytaj więcej...

Microsoft PowerShell z otwartym kodem dla Linuksa i OS X
Microsoft PowerShell z otwartym kodem dla Linuksa i OS X

Po otwarciu źródeł .Net, wydaniu otwartego Visual Studio Code, udostępnieniu silnika Chakra Javascript, zapowiedzi wydania SQL Server dla systemów Linux i szerokiemu wsparciu maszyn wirtualnych z linuksami przez hypervisor Hyper-V i chmurę Azure, gigant z Redmond zrobił kolejny krok w stronę świata open source. Micr...

Czytaj więcej...

Aktualności

Hu Yoshida z HDS prezentuje najważniejsze trendy rynku IT w 2014 roku

Hu YoshidaHu Yoshida, Chief Technical Officer w Hitachi Data Systems przygotował listę trendów na 2014 rok, które w istotny sposób wpłyną na działy IT w firmach i organizacjach publicznych. Według Hu Yoshidy w 2014 roku będziemy świadkami m.in.: większego wsparcia procesów biznesowych przez działy IT, wdrażania konwergentnych rozwiązań dla wybranych aplikacji, szerszego zastosowania chmury prywatnej, większej świadomości firm w kwestii tzw. "ciemnych danych", eksplozji korporacyjnej pamięci flash...


1. Działy IT skupią się bardziej na wynikach biznesowych, niż na infrastrukturze
Menedżerowie IT przeniosą uwagę z budowania i utrzymywania tradycyjnej infrastruktury na realizację procesów biznesowych swojego przedsiębiorstwa. Z perspektywy działu IT może to oznaczać skupienie się na zmodernizowaniu systemów (takich jak VMware) i aplikacji (np. Exchange). Aby zachować kontrolę nad kosztami i zoptymalizować istniejące zasoby, trzeba będzie wykorzystać najnowsze technologie, takie jak przenoszenie danych pomiędzy warstwami pamięci masowych (dynamic tiering), bez hurtowej wymiany dotychczasowej infrastruktury. Wdrożenie nowych technologii może wymagać usług świadczonych przez producentów, aby dział IT mógł skoncentrować się na procesie biznesowym. Zamiast tradycyjnego podejścia „zrób to sam” do budowania systemów, działy IT będą szukać prekonfigurowanych rozwiązań, aby szybciej zaprząc je do pracy.

Dla producentów oznacza to sprzedawanie rozwiązań, a nie technologii. Producenci IT będą musieli zaoferować więcej usług, które uwolnią działy IT od zadań związanych z budowaniem, konserwowaniem i migrowaniem systemów, a ponadto przygotować bardziej elastyczną ofertę finansową w zakresie płacenia za użycie, licencjonowania oprogramowania oraz utrzymania.

2. Konwergentne rozwiązania dla wybranych aplikacji
Wdrażanie nowych, dużych aplikacji wymaga integracji infrastruktury, serwerów, pamięci masowej, sieci LAN i SAN. Dotychczas były to projekty typu „zrób to sam”, co wymagało współpracy między wieloma administratorami aplikacji i infrastruktury. Technologia stała się tak złożona i wyspecjalizowana, że działy IT zatrudniają specjalistów od pamięci masowej, serwerów, sieci, wirtualizacji, platformy Exchange i baz danych. Wszyscy ci administratorzy konfigurują swoją aplikację lub część infrastruktury i koordynują pracę za pomocą powiadomień o zmianach, przechodząc przez wiele cykli testów i weryfikacji. IDC ocenia, że w 2012 r. proces ten pochłaniał 23,3 proc. czasu i zasobów działu IT.

Jeszcze przed dostarczeniem elementów infrastruktury odbywa się długotrwały proces przetargowy, podczas którego dział IT rozsyła zapytania ofertowe i decyduje, które produkty będą ze sobą najlepiej współpracować. Jeśli administratorzy IT nie mają czasu lub doświadczenia wymaganego do zaktualizowania albo wdrożenia nowych aplikacji, konieczne bywa skorzystanie z profesjonalnych usług. Zdarza się, że po wybraniu i dostarczeniu infrastruktury testy ujawniają, że aplikacja i infrastruktura są niedopasowane, co prowadzi do niedotrzymania terminów, marnotrawstwa budżetu, dodatkowych kosztów, a nawet kupowania oprogramowania, które nigdy nie zostanie wykorzystane.

Konwergentne rozwiązania dla wybranych aplikacji pomagają uporać się z tymi problemami. Rozwiązania konwergentne są wstępnie przetestowane przez doświadczonych specjalistów i zatwierdzone do pracy z wybranymi aplikacjami. Oznacza to, że elementy infrastruktury są zintegrowane i przetestowane pod kątem konkretnej aplikacji. Kiedy rozwiązanie zostanie dostarczone do centrum danych, wystarczy podłączyć je do prądu i zintegrować z siecią.

3. Szersze zastosowanie chmury prywatnej
Używanie chmury publicznej do uruchamiania podstawowych aplikacji biznesowych nadal uważa się za ryzykowne ze względu na kwestie bezpieczeństwa, prywatności, jakości usług, awarii oraz wysokich kosztów przetwarzania aplikacji i uzyskiwania dostępu do danych w modelu cloud computing. Choć koszty infrastruktury początkowo są niskie, mogą szybko wzrosnąć ze względu na częste uzyskiwanie dostępu do danych poza siedzibą firmy.

Z wielu przyczyn podobnych do opisanych powyżej klienci wolą uruchamiać podstawowe aplikacje w chmurze prywatnej we własnej siedzibie, za swoimi zaporami i pod własną kontrolą. Nowe technologie, takie jak wirtualizacja, rozwiązania konwergentne, centrum danych definiowane przez oprogramowanie (Software Defined Data Center), oraz nowe modele biznesowe, na przykład usługi zarządzane, sprawiają, że wdrożenie chmury obliczeniowej staje się znacznie prostsze, efektywniejsze i tańsze.

Choć chmura prywatna nie oferuje elastyczności charakterystycznej dla dostawców dużych chmur publicznych, którzy mogą włączać i wyłączać zasoby zgodnie z bieżącym zapotrzebowaniem bez opóźnień, to jej użytkownicy wiedzą, że chmura jest chroniona zaporami sieciowymi i pozostaje pod ich bezpośrednią kontrolą. Dysponują narzędziami automatyzacyjnymi i mogą elastycznie przydzielać zasoby według potrzeb biznesowych. Bezpośrednie połączenie z chmurą prywatną może też ograniczyć koszty łączności z chmurą publiczną, a integracja aplikacji staje się znacznie łatwiejsza. Nadal można używać chmury publicznej do obsługi aplikacji typu „back office”. Można na przykład kopiować lub archiwizować część chmury prywatnej w chmurze publicznej. Różnica polega na tym, że teraz użytkownicy zyskują narzędzia, które pozwalają im dopasować chmurę do potrzeb biznesowych.

4. Eksplozja Big Data wymuszająca pojemności rzędu peta bajtów
Eksplozja danych nieustrukturyzowanych przesyłanych przez sieć leży u podstaw tego trendu. Konieczne będzie zastosowanie sieciowych systemów plików, które skalują się do petabajtów, osiągają znacznie większą liczbę operacji wejścia-wyjścia na sekundę (IOPS) i zwiększają wydajność poprzez deduplikację i dynamiczny podział na warstwy.

Pamięć NAS zyskuje również na popularności za sprawą wirtualizacji serwerów, ponieważ uważa się ją za łatwiejszą we wdrażaniu i zarządzaniu od pamięci SAN. NAS upraszcza organizowanie, tworzenie kopii zapasowych oraz przywracanie maszyn wirtualnych i może operować na pojedynczych maszynach wirtualnych, a nie na jednostkach LUN, które zawierają ich wiele. Pamięć SAN dotychczas była wydajniejsza niż NAS, ale nowe ulepszenia, takie jak Ethernet 10 Gb/s i korporacyjna pamięć flash zmniejszyły tę lukę. Jednakże tradycyjne serwery plików i systemy plików dostają zadyszki, kiedy obsługują operacje wejścia-wyjścia serwerów wirtualnych, które mnożą się w miarę wzrostu liczby maszyn wirtualnych w wielordzeniowych serwerach.

Aby spełnić te rosnące wymagania, systemy NAS muszą skalować się do petabajtów przy rozmiarach plików sięgających setek terabajtów, a dodatkowo zapewniać tysiące IOPS przy czasie reakcji krótszym niż 1 milisekunda.

5. Rozwiązanie do synchronizacji i udostępniania zastępujące „samowolkę IT”
Zjawisko BYOD przynosi wiele korzyści: zwiększa satysfakcję i produktywność użytkowników, obniża koszty IT i zapewnia elastyczność biznesową. Jeśli jednak nie jest kontrolowane i zarządzane przez dział IT, naraża dane korporacyjne na różne zagrożenia.

Za pomocą rozwiązań jak np. HCP Anywhere można zapisywać pliki z pełną ochroną danych i udostępniać je przy użyciu łączy z kontrolą dostępu, które opcjonalnie mogą wygasać po pewnym okresie. Dział IT zyskuje kontrolę i uproszczoną administrację dzięki wbudowanemu zarządzaniu urządzeniami mobilnymi, audytowi i pełnej integracji z Microsoft Active Directory. Wszystkie pliki są przechowywane, deduplikowane, kompresowane i poddawane backupowi w prywatnej chmurze HDS.

6. Pamięć obiektowa rzuca światło na „ciemne dane”
W 2014 roku zwiększy się świadomość istnienia „ciemnych danych” oraz ich potencjału biznesowego. Gartner definiuje „ciemne dane” jako aktywa informacyjne, które organizacje gromadzą, przetwarzają i przechowują podczas zwykłej działalności biznesowej, a których zwykle nie potrafią użyć do innych celów (na przykład do analiz, rozwijania relacji biznesowych i generowania przychodów).

Jedną z głównych przyczyn, dla których organizacje nie wykorzystują tych danych, jest to, że są one odizolowane w „silosie” danej aplikacji lub producenta. Aby rzucić światło na ten typ „ciemnych danych”, musimy oddzielić przetwarzanie danych aplikacji we frontowej części systemu od ich przechowywania na zapleczu w celu wyeliminowania „silosów”. Z pomocą przychodzi tu pamięć obiektowa.

Dane oddzielone od aplikacji stają się po prostu zbiorem bitów, chyba że umieścimy je w kontenerze z metadanymi, które opisują dane oraz rządzące nimi zasady. Dzięki oddzieleniu od aplikacji dane w dalszym ciągu są użyteczne, kiedy aplikacja staje się przestarzała. W 2014 r. magazyny obiektów nabiorą znaczenia, a główną tego przyczyną będzie chęć rzucenia światła na „ciemne dane” w celu czerpania korzyści biznesowych z istniejących informacji.

7. Ograniczenie backupu poprzez archiwizację, klonowanie i migawki
Jednym z trendów, które zidentyfikowałem w zeszłym roku, była eksplozja replikacji danych. Stwierdziłem, że za kopiowanie danych odpowiada przede wszystkim backup wraz z migawkami, kopiami zdalnymi i różnymi wersjami plików, które są wymagane do utrzymania ciągłości biznesowej. Wielu analityków zaczęło mówić o „niekontrolowanym rozroście kopii zapasowych”. Analitycy ci podają wiele użytecznych rad, jak ograniczyć ten problem. Jednym z najczęściej sugerowanych rozwiązań jest deduplikacja.

Choć deduplikacja pomaga zmniejszyć ilość danych wchodzących w skład kopii zapasowych, to nie ogranicza samych operacji backupu. Większość danych się nie zmienia, a mimo to nieustannie je kopiujemy, a jeśli korzystamy z deduplikacji, to poddajemy tej operacji ciągle te same dane. Możemy ograniczyć operacje backupu, jeśli zarchiwizujemy nieaktywną część danych w Hitachi Content Platform, gdzie zostaną one sprowadzone do pojedynczych egzemplarzy, skompresowane, zaszyfrowane i skopiowane raz w celu ochrony.

W 2014 r. można spodziewać się większego nacisku na archiwa, migawki i klony oraz na narzędzia do zarządzania cyklem życia danych, które pomogą uporać się z szybko rosnącą ilością danych przechowywanych jako kopie zapasowe.

8. Eksplozja korporacyjnej pamięci flash
W 2013 r. dyski SSD były jednym z najważniejszych trendów w dziedzinie pamięci masowej. Obecne prognozy mówią o 14-procentowej stopie wzrostu dysków SSD na rynku korporacyjnym. Jednak największy wzrost (53 proc.) jest nadal przewidywany dla rynku konsumenckiego, na którym skupia się większość producentów. Ponieważ większość przychodów pochodzi z rynku konsumenckiego, producenci nie mają motywacji, aby przeprojektować dyski SSD pod kątem użytku korporacyjnego.

Istnieje wiele startupów, które budują systemy pamięciowe ze stacji SSD dostępnych na masowym rynku i reklamują je jako pamięć masowa klasy korporacyjnej. Jednak bez względu na to, czego dokonają w kontrolerze systemu, kontrolery w samych dyskach SSD nadal mają wady typowe dla urządzeń powszechnego użytku. Ograniczenia takie jak „klif zapisu” bywają niewidoczne podczas testów odbiorczych, ale pojawiają się po zużyciu wszystkich zapasowych bloków.

Inni producenci korporacyjnej pamięci masowej zaczynają iść w nasze ślady, oferując moduły pamięci flash o większej pojemności i eliminując zjawisko „klifu zapisu”. Technologia flash osiągnęła szczyt rozdmuchanych oczekiwań w formie dysków SSD. Obecnie, w miarę jak użytkownicy korporacyjni nabywają doświadczenia w korzystaniu z pamięci flash, będziemy mieli do czynienia z większym naciskiem na moduły przeznaczone do użytku w przedsiębiorstwach, a w 2014 r. dojdzie do prawdziwej eksplozji korporacyjnej pamięci flash.

9. Szyfrowanie danych nieaktywnych stanie się obowiązkowe
W przeszłości szyfrowanie pamięci masowej było ograniczone do danych wybranych aplikacji. Wynikało to z wpływu, jaki miało szyfrowanie programowe na wydajność i koszty. Innym problemem był brak standardu zarządzania kluczami. Obecnie dysponujemy układami sprzętowymi, które eliminują obawy o wydajność i koszty szyfrowania, a także standardem Key Management Interoperability Protocol (KMIP) do zarządzania kluczami. Nie ma już powodu, aby unikać szyfrowania danych.

Szyfrowanie danych nieaktywnych (ang. „data at rest”) powinno być obowiązkową funkcją pamięci masowej, gwarantuje to, że dane pozostaną bezpieczne nawet po wycofaniu z użytku nośnika, na którym je zapisano. Koszty są minimalne i nie ma już wymówki, żeby nie chronić danych poprzez silne szyfrowanie. Ci, którzy używają usług zarządzanych albo przechowują dane w chmurze, powinni dowiedzieć się, czy są one szyfrowane i niszczone kryptograficznie podczas przenoszenia lub usuwania. Do celów audytu powinien być dostępny dziennik, który pokazuje zdarzenia związane z szyfrowaniem i zarządzaniem kluczami.

10. Transformacja umiejętności, ról i obowiązków personelu IT
Role i obowiązki personelu IT będą musiały się zmienić. Nie oznacza to, że część personelu okaże się niepotrzebna, ale że specjaliści IT będą musieli skupić się mniej na infrastrukturze, a bardziej na aplikacjach i korzyściach biznesowych.

Technologie związane z chmurą, urządzeniami mobilnymi, pamięcią obiektową i dużymi zbiorami danych zwiększą zapotrzebowanie na wiedzę obejmującą IT, aplikacje i biznes. Poszukiwani są architekci chmurowi - specjaliści IT, którzy potrafią wykorzystać chmurę. Wiedzą oni, jakie aplikacje pasują do modelu chmurowego, znają ekonomiczne kompromisy, umieją zabezpieczać i chronić dane w chmurze oraz negocjować umowy o poziom usług z dostawcą chmury i z użytkownikami wewnętrznymi. Wymaga to szerszego doświadczenia oraz umiejętności interdyscyplinarnych, co oznacza wyższe zarobki.

Specjalista IT powinien korzystać z każdej okazji, aby opanować nową wiedzę poprzez uczestniczenie w konferencjach, podczas których różni producenci organizują seminaria i pokazują praktyczne demonstracje najnowszych rozwiązań. Warto wyznaczać cele i planować rozwój umiejętności, które sprawią, że specjaliści stają się cenniejsi dla swojej firmy. IT się zmienia, a zmiany stwarzają nowe możliwości.

Autor: Hu Yoshida, Chief Technical Officer w Hitachi Data Systems