Virtual-IT.pl - wirtualizacja cloud computing storage data center

Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)
Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)

Wraz z rozwojem technologii wirtualizacji i wynikającymi z tego zmianami krajobrazu środowisk IT, zmienia się podejście do ochrony danych. Z wirtualizacją przegrało wiele rozwiązań zaprojektowanych z myślą o środowiskach fizycznych. Na rynku pojawiły się nowe rozwiązania, opracowane z myślą o środowiskach wirtualnyc...

Czytaj więcej...

Microsoft PowerShell z otwartym kodem dla Linuksa i OS X
Microsoft PowerShell z otwartym kodem dla Linuksa i OS X

Po otwarciu źródeł .Net, wydaniu otwartego Visual Studio Code, udostępnieniu silnika Chakra Javascript, zapowiedzi wydania SQL Server dla systemów Linux i szerokiemu wsparciu maszyn wirtualnych z linuksami przez hypervisor Hyper-V i chmurę Azure, gigant z Redmond zrobił kolejny krok w stronę świata open source. Micr...

Czytaj więcej...

Altaro VM Backup dla dostawców usług IT!
Altaro VM Backup dla dostawców usług IT!

Altaro Software, dostawca rozwiązań do tworzenia kopii zapasowych, znany głównie ze swojego flagowego produktu VM Backup, pozwalającego na tworzenie kopii zapasowych maszyn wirtualnych działających w środowisku Microsoft Hyper-V i VMware vSphere, udostępnił portal online, zbudowany specjalnie z myślą o dostawcach us...

Czytaj więcej...

XenServer ma 10 lat!
XenServer ma 10 lat!

Dokładnie 10 lat temu, końcem sierpnia 2006 roku firma XenSource, sponsorująca prace nad otwartoźródłowym hypervisorem Xen, wydała pierwszą komercyjną wersję produktu do wirtualizacji, skierowaną do firm każdej wielkości - XenEnterprise (nazwa kodowa 'Burbank') - bazującą na Xen 3.0.0.

Czytaj więcej...

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

Wchodzisz w chmurę? Sprawdź umowę by uniknąć kosztownych perturbacji
Wchodzisz w chmurę? Sprawdź umowę by uniknąć kosztownych perturbacji

Współpraca z niewłaściwym dostawcą usług chmurowych może mieć swoje nieprzyjemne konsekwencje. Ważne jest by potencjalni klienci wiedzieli dokładnie na co się decydują wybierając chmurę obliczeniową. Migracja do chmury, to kluczowa decyzja biznesowa, niosąca ze sobą długoterminowe skutki. Jeżeli chcesz skorzystać z ...

Czytaj więcej...

15 najlepiej płatnych certyfikacji w 2015 roku
15 najlepiej płatnych certyfikacji w 2015 roku

Certyfikacja IT stanowi niezbędny element w wielu obszarach. Chcąc aktywnie uczestniczyć w rynku pracy, należy stale podnosić swoje kwalifikacje, a certyfikacja jest jedną z metod pozwalających na usystematyzowanie i poszerzenie wiedzy. Posiadanie odpowiednich certyfikatów niejednokrotnie jest elementem wymaganym po...

Czytaj więcej...

Aktualności

Nowości z zakresu infrastruktury definiowanej programowo od HDS

HitachiHitachi Data Systems Corporation umacnia swoją pozycję w obszarze infrastruktury definiowanej przez oprogramowanie. Infrastruktura tego typu upraszcza systemy IT i uwalnia dane od tradycyjnych ograniczeń sprzętowo-lokalizacyjnych, dzięki czemu stają są one bardziej dostępne. Nowe i ulepszone rozwiązania HDS pomogą klientom uzyskać większy dostęp do informacji za pośrednictwem zwirtualizowanych, hiperkonwergentnych i skalowalnych platform zbudowanych w celu szybszego przejścia do modelu systemów IT jako usługi (IT as a service - ITaaS).


W celu efektywnego wykorzystania zalet infrastruktury definiowanej przez oprogramowanie technologia musi upraszczać operacje poprzez automatyzację, wzbogacać wiedzę poprzez lepszy dostęp do informacji oraz zwiększać wszechstronność wykorzystania zasobów poprzez abstrakcję, która przekształca posiadane aktywa w elastyczne zasoby.

Hitachi Data Systems realizuje te cele:
• przystosowując swój system operacyjny do wirtualizacji pamięci masowych, Hitachi Storage Virtualization Operating System (SVOS) do potrzeb poszerzonej rodziny platform pamięci masowej Hitachi Virtual Storage Platform (VSP),
• wzbogacając rodzinę Hitachi Unified Compute Platform (UCP) o modele infrastruktury konwergentnej i hiperkonwergentnej różnej wielkości (małe i duże),
• wprowadzając platformę Hitachi Hyper Scale-Out Platform (HSP) do coraz częściej stosowanych zadań  analitycznych,
• wypuszczając na rynek nowe oprogramowanie automatyzujące udostępnianie i ochronę środowisk aplikacyjnych.

Wirtualizacja pamięci dla mas
Dzięki nowej rodzinie pamięci masowych Hitachi VSP - G200, G400, G600 i, już wkrótce, G800 - Hitachi Data Systems jest jedynym dostawcą IT, który oferuje takie same możliwości przechowywania danych zarówno w najmniejszych, jak i największych systemach klasy mainframe za pomocą jednego stosu oprogramowania. Dzięki dalszej rozbudowie systemu operacyjnego Hitachi SVOS, cała rodzina VSP może oferować natywną i heterogeniczną wirtualizację pamięci masowych oraz pamięć rozproszoną pracującą w trybie active-active - jak również w pełni kompatybilną migrację danych, replikację i zarządzanie. Klienci mogą teraz wybrać systemy o pożądanej pojemności, wydajności i cenie, kierując się własnymi celami biznesowymi, a nie różnicami funkcjonalnymi.

Klienci poszukujący mniejszych systemów będą mieć teraz dostęp do tej samej technologii wirtualizacji, która jest stosowana we wcześniejszych, zaawansowanych systemach HDS, osiągających najwyższe oceny, zarówno ogólnie, jak i w szczególnych zastosowaniach, w rankingu Critical Capabilities for General-Purpose, High-End Storage Arrays1 firmy Gartner. Te sprawdzone możliwości przyspieszają postęp w konsolidacji i uproszczeniu środowisk użytkownika bez względu na ich wielkość. Ponadto upraszczają proces migracji, umożliwiają łatwiejsze zarządzanie i pełną odporność na awarie.

Najlepsze w swej klasie konwergentne platformy do wszelkich zastosowań
Oferta platform obliczeniowych Hitachi Unified Compute Platform (UCP) została wzbogacona o nowe hiperkonwergentne i konwergentne modele, które obecnie zaspokajają potrzeby klientów w zakresie szybszej i łatwiejszej obsługi realizowanych całościowych obciążeń roboczych. Najnowsze nabytki rodziny UCP obejmują hiperkonwergentne rozwiązania Hitachi UCP 1000 for VMware EVO:RAIL i konwergentne rozwiązania Hitachi UCP 2000 - oba wykorzystują nowe serwery w obudowie typu rack oraz są przeznaczone dla środowisk małych i średnich albo dla rozproszonych oddziałów firm. Konwergentny model Hitachi UCP 6000 integruje wprowadzone niedawno serwery kasetowe Hitachi CB 2500 oraz zapewnia korzystną relację ceny do osiągów w realizacji krytycznych zadań. Rodzina UCP wraz z oprogramowaniem do automatyzacji infrastruktury, Hitachi Unified Compute Platform Director, umożliwia klientom zwiększanie efektywności operacyjnej dzięki szybkiemu wdrażaniu i udostępnianiu infrastruktury do zarządzania elastycznym centrum danych, pozwalającej dostosowywać realizowane zadania do potrzeb działalności biznesowej.

Budowa aktywnego repozytorium „data lake” do analiz dużych zbiorów danych (big data)
Hiperkonwergentna architektura nowej platformy Hitachi Hyper Scale-Out Platform (HSP) zapewnia efektywne kosztowo przetwarzanie danych i umożliwia dostosowanie na żądanie pojemności do bieżących potrzeb. Dzięki możliwości obsługi dużych zbiorów danych różnego rodzaju w rozproszonej architekturze klastrowej, proste i zautomatyzowane zarządzanie HSP umożliwia elastyczny wzrost danych dzięki zastosowaniu technologii systemu plików Hitachi z wykorzystaniem oprogramowania open source do zarządzania i wirtualizacji. HSP to skalowalna platforma dla środowisk Hadoop, umożliwiająca użytkownikom analizowanie danych na miejscu i eliminująca potrzebę przemieszczania dużych zbiorów danych w celu skorzystania z narzędzi analitycznych dla big data.

Zautomatyzowane udostępnianie pamięci dostosowane do wykorzystywanych aplikacji oraz ochrona danych
Hitachi Data Systems dodatkowo wprowadza i rozszerza bogatą ofertę narzędzi programistycznych, które pomogą użytkownikom zbudować pożądaną infrastrukturę ITaaS, oferując jednocześnie większe możliwości samodzielnej obsługi użytkownikom wewnętrznym. Te nowe, dostosowane do aplikacji rozwiązania umożliwiają większą automatyzację i skuteczniejszą ochronę krytycznych zadań realizowanych przez klienta. Zmniejszają one koszty, ograniczają złożoność, a jednocześnie zwiększają efektywność środowisk definiowanych przez oprogramowanie.

Hitachi Automation Director, nowa aplikacja współpracująca z pakietem do zarządzania infrastrukturą Hitachi Command Suite, udostępnia konfigurowalne szablony obsługowe, opracowane na podstawie najlepszych praktyk. Szablony umożliwiają proste i dostosowane do używanych aplikacji udostępnianie zasobów pamięci masowych bazom danych, aplikacjom i środowiskom VDI. Zintegrowane wsparcie kontroli dostępu w oparciu o realizowane zadania oznacza, że po zdefiniowaniu szablony te mogą być stosowane przez użytkowników biznesowych w trybie samoobsługowym.

Hitachi Infrastructure Director stanowi dodatek do Hitachi Command Suite. To nowa aplikacja do konfigurowania i zarządzania pamięcią masową. Wykorzystuje API nowych systemów VSP w celu umożliwienia prostego i intuicyjnego zarządzania - sterowanego przez wbudowany silnik rekomendacji - dla środowisk, w których prostota jest ważniejsza niż potrzeba manualnego kontrolowania każdego szczegółu. Hitachi Infrastructure Director zapewnia użytkownikom narzędzie potrzebne do kierowania uproszczonymi operacjami zarządzania w celu szybkiego wdrażania nowych systemów pamięci masowych i związanych z nimi usług dla nowych modeli z rodziny VSP.

Hitachi Data Instance Director upraszcza ochronę danych poprzez automatyzację i zastosowanie technologii Hitachi z zakresu kopii migawkowych (snapshot), klonowania i replikacji, uzupełnione o kopie zapasowe w czasie rzeczywistym, ciągłą ochronę danych oraz archiwizację na jednej platformie. Data Instance Director udostępnia prosty interfejs typu whiteboard, który dopasowuje poziom ochrony danych do priorytetów biznesowych.

Źródło: Hitachi Data Systems