Virtual-IT.pl - wirtualizacja cloud computing storage SDx data center
Altaro VM Backup

Inwestycje w chmurę będą rosły o blisko 19 proc. rocznie
Inwestycje w chmurę będą rosły o blisko 19 proc. rocznie

Polskie firmy coraz powszechniej wdrażają rozwiązania oparte na chmurze obliczeniowej, doceniając korzyści oraz oszczędności w wydatkach na IT. Eksperci prognozują, że rynek ten będzie w najbliższych latach rósł skokowo, a technologia cloud computing wkrótce będzie w stanie zaspokoić wszystkie potrzeby biznesowe fir...

Czytaj więcej...

Bezpieczeństwo IT - w chmurze czy lokalnie?
Bezpieczeństwo IT - w chmurze czy lokalnie?

Jak wskazuje Gartner jednym z głównych trendów w gospodarce światowej jest dziś Cloud Shift, czyli coraz silniejszy nacisk na wykorzystanie chmury obliczeniowej. Analitycy tej firmy twierdzą, że do 2020 roku niewykorzystywanie chmury będzie w przedsiębiorstwach zjawiskiem tak rzadkim, jak obecnie brak dos...

Czytaj więcej...

15 najlepiej płatnych certyfikacji w 2016 roku
15 najlepiej płatnych certyfikacji w 2016 roku

Certyfikacja wśród specjalistów z branży IT jest elementem często pożądanym przez pracodawców. By aktywnie uczestniczyć w rynku pracy, należy stale podnosić swoje kwalifikacje. Odpowiednie certyfikaty idąc w parze z posiadanymi i rozwijanymi umiejętnościami oraz determinacja związana ze zdobywaniem wiedzy, niejednok...

Czytaj więcej...

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

Altaro VM Backup 7.5 z backupem do chmury Azure
Altaro VM Backup 7.5 z backupem do chmury Azure

Firma Altaro zaktualizowała swoje flagowe rozwiązanie - Altaro VM Backup - przeznaczone do tworzenia kopii zapasowych maszyn wirtualnych działających pod kontrolą hypervisorów Microsoft Hyper-V oraz VMware vSphere/ESXi. W nowej wersji Altaro VM Backup v7.5 wprowadzono wsparcie dla składowania kopii zapasowych w ...

Czytaj więcej...

Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm
Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm

Badanie firmy Veeam Software, innowacyjnego dostawcy rozwiązań, które zapewniają stałą dostępność na potrzeby przedsiębiorstw działających non stop (Availability for the Always-On Enterprise), pokazuje, że ponad połowa organizacji w Polsce zmaga się z przystosowaniem firmowej infrastruktury do wymogów now...

Czytaj więcej...

Aktualności

Hu Yoshida z HDS prezentuje najważniejsze trendy rynku IT w 2014 roku

Hu YoshidaHu Yoshida, Chief Technical Officer w Hitachi Data Systems przygotował listę trendów na 2014 rok, które w istotny sposób wpłyną na działy IT w firmach i organizacjach publicznych. Według Hu Yoshidy w 2014 roku będziemy świadkami m.in.: większego wsparcia procesów biznesowych przez działy IT, wdrażania konwergentnych rozwiązań dla wybranych aplikacji, szerszego zastosowania chmury prywatnej, większej świadomości firm w kwestii tzw. "ciemnych danych", eksplozji korporacyjnej pamięci flash...


1. Działy IT skupią się bardziej na wynikach biznesowych, niż na infrastrukturze
Menedżerowie IT przeniosą uwagę z budowania i utrzymywania tradycyjnej infrastruktury na realizację procesów biznesowych swojego przedsiębiorstwa. Z perspektywy działu IT może to oznaczać skupienie się na zmodernizowaniu systemów (takich jak VMware) i aplikacji (np. Exchange). Aby zachować kontrolę nad kosztami i zoptymalizować istniejące zasoby, trzeba będzie wykorzystać najnowsze technologie, takie jak przenoszenie danych pomiędzy warstwami pamięci masowych (dynamic tiering), bez hurtowej wymiany dotychczasowej infrastruktury. Wdrożenie nowych technologii może wymagać usług świadczonych przez producentów, aby dział IT mógł skoncentrować się na procesie biznesowym. Zamiast tradycyjnego podejścia „zrób to sam” do budowania systemów, działy IT będą szukać prekonfigurowanych rozwiązań, aby szybciej zaprząc je do pracy.

Dla producentów oznacza to sprzedawanie rozwiązań, a nie technologii. Producenci IT będą musieli zaoferować więcej usług, które uwolnią działy IT od zadań związanych z budowaniem, konserwowaniem i migrowaniem systemów, a ponadto przygotować bardziej elastyczną ofertę finansową w zakresie płacenia za użycie, licencjonowania oprogramowania oraz utrzymania.

2. Konwergentne rozwiązania dla wybranych aplikacji
Wdrażanie nowych, dużych aplikacji wymaga integracji infrastruktury, serwerów, pamięci masowej, sieci LAN i SAN. Dotychczas były to projekty typu „zrób to sam”, co wymagało współpracy między wieloma administratorami aplikacji i infrastruktury. Technologia stała się tak złożona i wyspecjalizowana, że działy IT zatrudniają specjalistów od pamięci masowej, serwerów, sieci, wirtualizacji, platformy Exchange i baz danych. Wszyscy ci administratorzy konfigurują swoją aplikację lub część infrastruktury i koordynują pracę za pomocą powiadomień o zmianach, przechodząc przez wiele cykli testów i weryfikacji. IDC ocenia, że w 2012 r. proces ten pochłaniał 23,3 proc. czasu i zasobów działu IT.

Jeszcze przed dostarczeniem elementów infrastruktury odbywa się długotrwały proces przetargowy, podczas którego dział IT rozsyła zapytania ofertowe i decyduje, które produkty będą ze sobą najlepiej współpracować. Jeśli administratorzy IT nie mają czasu lub doświadczenia wymaganego do zaktualizowania albo wdrożenia nowych aplikacji, konieczne bywa skorzystanie z profesjonalnych usług. Zdarza się, że po wybraniu i dostarczeniu infrastruktury testy ujawniają, że aplikacja i infrastruktura są niedopasowane, co prowadzi do niedotrzymania terminów, marnotrawstwa budżetu, dodatkowych kosztów, a nawet kupowania oprogramowania, które nigdy nie zostanie wykorzystane.

Konwergentne rozwiązania dla wybranych aplikacji pomagają uporać się z tymi problemami. Rozwiązania konwergentne są wstępnie przetestowane przez doświadczonych specjalistów i zatwierdzone do pracy z wybranymi aplikacjami. Oznacza to, że elementy infrastruktury są zintegrowane i przetestowane pod kątem konkretnej aplikacji. Kiedy rozwiązanie zostanie dostarczone do centrum danych, wystarczy podłączyć je do prądu i zintegrować z siecią.

3. Szersze zastosowanie chmury prywatnej
Używanie chmury publicznej do uruchamiania podstawowych aplikacji biznesowych nadal uważa się za ryzykowne ze względu na kwestie bezpieczeństwa, prywatności, jakości usług, awarii oraz wysokich kosztów przetwarzania aplikacji i uzyskiwania dostępu do danych w modelu cloud computing. Choć koszty infrastruktury początkowo są niskie, mogą szybko wzrosnąć ze względu na częste uzyskiwanie dostępu do danych poza siedzibą firmy.

Z wielu przyczyn podobnych do opisanych powyżej klienci wolą uruchamiać podstawowe aplikacje w chmurze prywatnej we własnej siedzibie, za swoimi zaporami i pod własną kontrolą. Nowe technologie, takie jak wirtualizacja, rozwiązania konwergentne, centrum danych definiowane przez oprogramowanie (Software Defined Data Center), oraz nowe modele biznesowe, na przykład usługi zarządzane, sprawiają, że wdrożenie chmury obliczeniowej staje się znacznie prostsze, efektywniejsze i tańsze.

Choć chmura prywatna nie oferuje elastyczności charakterystycznej dla dostawców dużych chmur publicznych, którzy mogą włączać i wyłączać zasoby zgodnie z bieżącym zapotrzebowaniem bez opóźnień, to jej użytkownicy wiedzą, że chmura jest chroniona zaporami sieciowymi i pozostaje pod ich bezpośrednią kontrolą. Dysponują narzędziami automatyzacyjnymi i mogą elastycznie przydzielać zasoby według potrzeb biznesowych. Bezpośrednie połączenie z chmurą prywatną może też ograniczyć koszty łączności z chmurą publiczną, a integracja aplikacji staje się znacznie łatwiejsza. Nadal można używać chmury publicznej do obsługi aplikacji typu „back office”. Można na przykład kopiować lub archiwizować część chmury prywatnej w chmurze publicznej. Różnica polega na tym, że teraz użytkownicy zyskują narzędzia, które pozwalają im dopasować chmurę do potrzeb biznesowych.

4. Eksplozja Big Data wymuszająca pojemności rzędu peta bajtów
Eksplozja danych nieustrukturyzowanych przesyłanych przez sieć leży u podstaw tego trendu. Konieczne będzie zastosowanie sieciowych systemów plików, które skalują się do petabajtów, osiągają znacznie większą liczbę operacji wejścia-wyjścia na sekundę (IOPS) i zwiększają wydajność poprzez deduplikację i dynamiczny podział na warstwy.

Pamięć NAS zyskuje również na popularności za sprawą wirtualizacji serwerów, ponieważ uważa się ją za łatwiejszą we wdrażaniu i zarządzaniu od pamięci SAN. NAS upraszcza organizowanie, tworzenie kopii zapasowych oraz przywracanie maszyn wirtualnych i może operować na pojedynczych maszynach wirtualnych, a nie na jednostkach LUN, które zawierają ich wiele. Pamięć SAN dotychczas była wydajniejsza niż NAS, ale nowe ulepszenia, takie jak Ethernet 10 Gb/s i korporacyjna pamięć flash zmniejszyły tę lukę. Jednakże tradycyjne serwery plików i systemy plików dostają zadyszki, kiedy obsługują operacje wejścia-wyjścia serwerów wirtualnych, które mnożą się w miarę wzrostu liczby maszyn wirtualnych w wielordzeniowych serwerach.

Aby spełnić te rosnące wymagania, systemy NAS muszą skalować się do petabajtów przy rozmiarach plików sięgających setek terabajtów, a dodatkowo zapewniać tysiące IOPS przy czasie reakcji krótszym niż 1 milisekunda.

5. Rozwiązanie do synchronizacji i udostępniania zastępujące „samowolkę IT”
Zjawisko BYOD przynosi wiele korzyści: zwiększa satysfakcję i produktywność użytkowników, obniża koszty IT i zapewnia elastyczność biznesową. Jeśli jednak nie jest kontrolowane i zarządzane przez dział IT, naraża dane korporacyjne na różne zagrożenia.

Za pomocą rozwiązań jak np. HCP Anywhere można zapisywać pliki z pełną ochroną danych i udostępniać je przy użyciu łączy z kontrolą dostępu, które opcjonalnie mogą wygasać po pewnym okresie. Dział IT zyskuje kontrolę i uproszczoną administrację dzięki wbudowanemu zarządzaniu urządzeniami mobilnymi, audytowi i pełnej integracji z Microsoft Active Directory. Wszystkie pliki są przechowywane, deduplikowane, kompresowane i poddawane backupowi w prywatnej chmurze HDS.

6. Pamięć obiektowa rzuca światło na „ciemne dane”
W 2014 roku zwiększy się świadomość istnienia „ciemnych danych” oraz ich potencjału biznesowego. Gartner definiuje „ciemne dane” jako aktywa informacyjne, które organizacje gromadzą, przetwarzają i przechowują podczas zwykłej działalności biznesowej, a których zwykle nie potrafią użyć do innych celów (na przykład do analiz, rozwijania relacji biznesowych i generowania przychodów).

Jedną z głównych przyczyn, dla których organizacje nie wykorzystują tych danych, jest to, że są one odizolowane w „silosie” danej aplikacji lub producenta. Aby rzucić światło na ten typ „ciemnych danych”, musimy oddzielić przetwarzanie danych aplikacji we frontowej części systemu od ich przechowywania na zapleczu w celu wyeliminowania „silosów”. Z pomocą przychodzi tu pamięć obiektowa.

Dane oddzielone od aplikacji stają się po prostu zbiorem bitów, chyba że umieścimy je w kontenerze z metadanymi, które opisują dane oraz rządzące nimi zasady. Dzięki oddzieleniu od aplikacji dane w dalszym ciągu są użyteczne, kiedy aplikacja staje się przestarzała. W 2014 r. magazyny obiektów nabiorą znaczenia, a główną tego przyczyną będzie chęć rzucenia światła na „ciemne dane” w celu czerpania korzyści biznesowych z istniejących informacji.

7. Ograniczenie backupu poprzez archiwizację, klonowanie i migawki
Jednym z trendów, które zidentyfikowałem w zeszłym roku, była eksplozja replikacji danych. Stwierdziłem, że za kopiowanie danych odpowiada przede wszystkim backup wraz z migawkami, kopiami zdalnymi i różnymi wersjami plików, które są wymagane do utrzymania ciągłości biznesowej. Wielu analityków zaczęło mówić o „niekontrolowanym rozroście kopii zapasowych”. Analitycy ci podają wiele użytecznych rad, jak ograniczyć ten problem. Jednym z najczęściej sugerowanych rozwiązań jest deduplikacja.

Choć deduplikacja pomaga zmniejszyć ilość danych wchodzących w skład kopii zapasowych, to nie ogranicza samych operacji backupu. Większość danych się nie zmienia, a mimo to nieustannie je kopiujemy, a jeśli korzystamy z deduplikacji, to poddajemy tej operacji ciągle te same dane. Możemy ograniczyć operacje backupu, jeśli zarchiwizujemy nieaktywną część danych w Hitachi Content Platform, gdzie zostaną one sprowadzone do pojedynczych egzemplarzy, skompresowane, zaszyfrowane i skopiowane raz w celu ochrony.

W 2014 r. można spodziewać się większego nacisku na archiwa, migawki i klony oraz na narzędzia do zarządzania cyklem życia danych, które pomogą uporać się z szybko rosnącą ilością danych przechowywanych jako kopie zapasowe.

8. Eksplozja korporacyjnej pamięci flash
W 2013 r. dyski SSD były jednym z najważniejszych trendów w dziedzinie pamięci masowej. Obecne prognozy mówią o 14-procentowej stopie wzrostu dysków SSD na rynku korporacyjnym. Jednak największy wzrost (53 proc.) jest nadal przewidywany dla rynku konsumenckiego, na którym skupia się większość producentów. Ponieważ większość przychodów pochodzi z rynku konsumenckiego, producenci nie mają motywacji, aby przeprojektować dyski SSD pod kątem użytku korporacyjnego.

Istnieje wiele startupów, które budują systemy pamięciowe ze stacji SSD dostępnych na masowym rynku i reklamują je jako pamięć masowa klasy korporacyjnej. Jednak bez względu na to, czego dokonają w kontrolerze systemu, kontrolery w samych dyskach SSD nadal mają wady typowe dla urządzeń powszechnego użytku. Ograniczenia takie jak „klif zapisu” bywają niewidoczne podczas testów odbiorczych, ale pojawiają się po zużyciu wszystkich zapasowych bloków.

Inni producenci korporacyjnej pamięci masowej zaczynają iść w nasze ślady, oferując moduły pamięci flash o większej pojemności i eliminując zjawisko „klifu zapisu”. Technologia flash osiągnęła szczyt rozdmuchanych oczekiwań w formie dysków SSD. Obecnie, w miarę jak użytkownicy korporacyjni nabywają doświadczenia w korzystaniu z pamięci flash, będziemy mieli do czynienia z większym naciskiem na moduły przeznaczone do użytku w przedsiębiorstwach, a w 2014 r. dojdzie do prawdziwej eksplozji korporacyjnej pamięci flash.

9. Szyfrowanie danych nieaktywnych stanie się obowiązkowe
W przeszłości szyfrowanie pamięci masowej było ograniczone do danych wybranych aplikacji. Wynikało to z wpływu, jaki miało szyfrowanie programowe na wydajność i koszty. Innym problemem był brak standardu zarządzania kluczami. Obecnie dysponujemy układami sprzętowymi, które eliminują obawy o wydajność i koszty szyfrowania, a także standardem Key Management Interoperability Protocol (KMIP) do zarządzania kluczami. Nie ma już powodu, aby unikać szyfrowania danych.

Szyfrowanie danych nieaktywnych (ang. „data at rest”) powinno być obowiązkową funkcją pamięci masowej, gwarantuje to, że dane pozostaną bezpieczne nawet po wycofaniu z użytku nośnika, na którym je zapisano. Koszty są minimalne i nie ma już wymówki, żeby nie chronić danych poprzez silne szyfrowanie. Ci, którzy używają usług zarządzanych albo przechowują dane w chmurze, powinni dowiedzieć się, czy są one szyfrowane i niszczone kryptograficznie podczas przenoszenia lub usuwania. Do celów audytu powinien być dostępny dziennik, który pokazuje zdarzenia związane z szyfrowaniem i zarządzaniem kluczami.

10. Transformacja umiejętności, ról i obowiązków personelu IT
Role i obowiązki personelu IT będą musiały się zmienić. Nie oznacza to, że część personelu okaże się niepotrzebna, ale że specjaliści IT będą musieli skupić się mniej na infrastrukturze, a bardziej na aplikacjach i korzyściach biznesowych.

Technologie związane z chmurą, urządzeniami mobilnymi, pamięcią obiektową i dużymi zbiorami danych zwiększą zapotrzebowanie na wiedzę obejmującą IT, aplikacje i biznes. Poszukiwani są architekci chmurowi - specjaliści IT, którzy potrafią wykorzystać chmurę. Wiedzą oni, jakie aplikacje pasują do modelu chmurowego, znają ekonomiczne kompromisy, umieją zabezpieczać i chronić dane w chmurze oraz negocjować umowy o poziom usług z dostawcą chmury i z użytkownikami wewnętrznymi. Wymaga to szerszego doświadczenia oraz umiejętności interdyscyplinarnych, co oznacza wyższe zarobki.

Specjalista IT powinien korzystać z każdej okazji, aby opanować nową wiedzę poprzez uczestniczenie w konferencjach, podczas których różni producenci organizują seminaria i pokazują praktyczne demonstracje najnowszych rozwiązań. Warto wyznaczać cele i planować rozwój umiejętności, które sprawią, że specjaliści stają się cenniejsi dla swojej firmy. IT się zmienia, a zmiany stwarzają nowe możliwości.

Autor: Hu Yoshida, Chief Technical Officer w Hitachi Data Systems

Logowanie i rejestracja