Virtual-IT.pl - wirtualizacja cloud computing storage SDx data center
Altaro VM Backup

15 najlepiej płatnych certyfikacji w 2016 roku
15 najlepiej płatnych certyfikacji w 2016 roku

Certyfikacja wśród specjalistów z branży IT jest elementem często pożądanym przez pracodawców. By aktywnie uczestniczyć w rynku pracy, należy stale podnosić swoje kwalifikacje. Odpowiednie certyfikaty idąc w parze z posiadanymi i rozwijanymi umiejętnościami oraz determinacja związana ze zdobywaniem wiedzy, niejednok...

Czytaj więcej...

Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm
Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm

Badanie firmy Veeam Software, innowacyjnego dostawcy rozwiązań, które zapewniają stałą dostępność na potrzeby przedsiębiorstw działających non stop (Availability for the Always-On Enterprise), pokazuje, że ponad połowa organizacji w Polsce zmaga się z przystosowaniem firmowej infrastruktury do wymogów now...

Czytaj więcej...

Altaro VM Backup 7.5 z backupem do chmury Azure
Altaro VM Backup 7.5 z backupem do chmury Azure

Firma Altaro zaktualizowała swoje flagowe rozwiązanie - Altaro VM Backup - przeznaczone do tworzenia kopii zapasowych maszyn wirtualnych działających pod kontrolą hypervisorów Microsoft Hyper-V oraz VMware vSphere/ESXi. W nowej wersji Altaro VM Backup v7.5 wprowadzono wsparcie dla składowania kopii zapasowych w ...

Czytaj więcej...

Bezpieczeństwo IT - w chmurze czy lokalnie?
Bezpieczeństwo IT - w chmurze czy lokalnie?

Jak wskazuje Gartner jednym z głównych trendów w gospodarce światowej jest dziś Cloud Shift, czyli coraz silniejszy nacisk na wykorzystanie chmury obliczeniowej. Analitycy tej firmy twierdzą, że do 2020 roku niewykorzystywanie chmury będzie w przedsiębiorstwach zjawiskiem tak rzadkim, jak obecnie brak dos...

Czytaj więcej...

Inwestycje w chmurę będą rosły o blisko 19 proc. rocznie
Inwestycje w chmurę będą rosły o blisko 19 proc. rocznie

Polskie firmy coraz powszechniej wdrażają rozwiązania oparte na chmurze obliczeniowej, doceniając korzyści oraz oszczędności w wydatkach na IT. Eksperci prognozują, że rynek ten będzie w najbliższych latach rósł skokowo, a technologia cloud computing wkrótce będzie w stanie zaspokoić wszystkie potrzeby biznesowe fir...

Czytaj więcej...

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

Aktualności

Nowości z zakresu infrastruktury definiowanej programowo od HDS

HitachiHitachi Data Systems Corporation umacnia swoją pozycję w obszarze infrastruktury definiowanej przez oprogramowanie. Infrastruktura tego typu upraszcza systemy IT i uwalnia dane od tradycyjnych ograniczeń sprzętowo-lokalizacyjnych, dzięki czemu stają są one bardziej dostępne. Nowe i ulepszone rozwiązania HDS pomogą klientom uzyskać większy dostęp do informacji za pośrednictwem zwirtualizowanych, hiperkonwergentnych i skalowalnych platform zbudowanych w celu szybszego przejścia do modelu systemów IT jako usługi (IT as a service - ITaaS).


W celu efektywnego wykorzystania zalet infrastruktury definiowanej przez oprogramowanie technologia musi upraszczać operacje poprzez automatyzację, wzbogacać wiedzę poprzez lepszy dostęp do informacji oraz zwiększać wszechstronność wykorzystania zasobów poprzez abstrakcję, która przekształca posiadane aktywa w elastyczne zasoby.

Hitachi Data Systems realizuje te cele:
• przystosowując swój system operacyjny do wirtualizacji pamięci masowych, Hitachi Storage Virtualization Operating System (SVOS) do potrzeb poszerzonej rodziny platform pamięci masowej Hitachi Virtual Storage Platform (VSP),
• wzbogacając rodzinę Hitachi Unified Compute Platform (UCP) o modele infrastruktury konwergentnej i hiperkonwergentnej różnej wielkości (małe i duże),
• wprowadzając platformę Hitachi Hyper Scale-Out Platform (HSP) do coraz częściej stosowanych zadań  analitycznych,
• wypuszczając na rynek nowe oprogramowanie automatyzujące udostępnianie i ochronę środowisk aplikacyjnych.

Wirtualizacja pamięci dla mas
Dzięki nowej rodzinie pamięci masowych Hitachi VSP - G200, G400, G600 i, już wkrótce, G800 - Hitachi Data Systems jest jedynym dostawcą IT, który oferuje takie same możliwości przechowywania danych zarówno w najmniejszych, jak i największych systemach klasy mainframe za pomocą jednego stosu oprogramowania. Dzięki dalszej rozbudowie systemu operacyjnego Hitachi SVOS, cała rodzina VSP może oferować natywną i heterogeniczną wirtualizację pamięci masowych oraz pamięć rozproszoną pracującą w trybie active-active - jak również w pełni kompatybilną migrację danych, replikację i zarządzanie. Klienci mogą teraz wybrać systemy o pożądanej pojemności, wydajności i cenie, kierując się własnymi celami biznesowymi, a nie różnicami funkcjonalnymi.

Klienci poszukujący mniejszych systemów będą mieć teraz dostęp do tej samej technologii wirtualizacji, która jest stosowana we wcześniejszych, zaawansowanych systemach HDS, osiągających najwyższe oceny, zarówno ogólnie, jak i w szczególnych zastosowaniach, w rankingu Critical Capabilities for General-Purpose, High-End Storage Arrays1 firmy Gartner. Te sprawdzone możliwości przyspieszają postęp w konsolidacji i uproszczeniu środowisk użytkownika bez względu na ich wielkość. Ponadto upraszczają proces migracji, umożliwiają łatwiejsze zarządzanie i pełną odporność na awarie.

Najlepsze w swej klasie konwergentne platformy do wszelkich zastosowań
Oferta platform obliczeniowych Hitachi Unified Compute Platform (UCP) została wzbogacona o nowe hiperkonwergentne i konwergentne modele, które obecnie zaspokajają potrzeby klientów w zakresie szybszej i łatwiejszej obsługi realizowanych całościowych obciążeń roboczych. Najnowsze nabytki rodziny UCP obejmują hiperkonwergentne rozwiązania Hitachi UCP 1000 for VMware EVO:RAIL i konwergentne rozwiązania Hitachi UCP 2000 - oba wykorzystują nowe serwery w obudowie typu rack oraz są przeznaczone dla środowisk małych i średnich albo dla rozproszonych oddziałów firm. Konwergentny model Hitachi UCP 6000 integruje wprowadzone niedawno serwery kasetowe Hitachi CB 2500 oraz zapewnia korzystną relację ceny do osiągów w realizacji krytycznych zadań. Rodzina UCP wraz z oprogramowaniem do automatyzacji infrastruktury, Hitachi Unified Compute Platform Director, umożliwia klientom zwiększanie efektywności operacyjnej dzięki szybkiemu wdrażaniu i udostępnianiu infrastruktury do zarządzania elastycznym centrum danych, pozwalającej dostosowywać realizowane zadania do potrzeb działalności biznesowej.

Budowa aktywnego repozytorium „data lake” do analiz dużych zbiorów danych (big data)
Hiperkonwergentna architektura nowej platformy Hitachi Hyper Scale-Out Platform (HSP) zapewnia efektywne kosztowo przetwarzanie danych i umożliwia dostosowanie na żądanie pojemności do bieżących potrzeb. Dzięki możliwości obsługi dużych zbiorów danych różnego rodzaju w rozproszonej architekturze klastrowej, proste i zautomatyzowane zarządzanie HSP umożliwia elastyczny wzrost danych dzięki zastosowaniu technologii systemu plików Hitachi z wykorzystaniem oprogramowania open source do zarządzania i wirtualizacji. HSP to skalowalna platforma dla środowisk Hadoop, umożliwiająca użytkownikom analizowanie danych na miejscu i eliminująca potrzebę przemieszczania dużych zbiorów danych w celu skorzystania z narzędzi analitycznych dla big data.

Zautomatyzowane udostępnianie pamięci dostosowane do wykorzystywanych aplikacji oraz ochrona danych
Hitachi Data Systems dodatkowo wprowadza i rozszerza bogatą ofertę narzędzi programistycznych, które pomogą użytkownikom zbudować pożądaną infrastrukturę ITaaS, oferując jednocześnie większe możliwości samodzielnej obsługi użytkownikom wewnętrznym. Te nowe, dostosowane do aplikacji rozwiązania umożliwiają większą automatyzację i skuteczniejszą ochronę krytycznych zadań realizowanych przez klienta. Zmniejszają one koszty, ograniczają złożoność, a jednocześnie zwiększają efektywność środowisk definiowanych przez oprogramowanie.

Hitachi Automation Director, nowa aplikacja współpracująca z pakietem do zarządzania infrastrukturą Hitachi Command Suite, udostępnia konfigurowalne szablony obsługowe, opracowane na podstawie najlepszych praktyk. Szablony umożliwiają proste i dostosowane do używanych aplikacji udostępnianie zasobów pamięci masowych bazom danych, aplikacjom i środowiskom VDI. Zintegrowane wsparcie kontroli dostępu w oparciu o realizowane zadania oznacza, że po zdefiniowaniu szablony te mogą być stosowane przez użytkowników biznesowych w trybie samoobsługowym.

Hitachi Infrastructure Director stanowi dodatek do Hitachi Command Suite. To nowa aplikacja do konfigurowania i zarządzania pamięcią masową. Wykorzystuje API nowych systemów VSP w celu umożliwienia prostego i intuicyjnego zarządzania - sterowanego przez wbudowany silnik rekomendacji - dla środowisk, w których prostota jest ważniejsza niż potrzeba manualnego kontrolowania każdego szczegółu. Hitachi Infrastructure Director zapewnia użytkownikom narzędzie potrzebne do kierowania uproszczonymi operacjami zarządzania w celu szybkiego wdrażania nowych systemów pamięci masowych i związanych z nimi usług dla nowych modeli z rodziny VSP.

Hitachi Data Instance Director upraszcza ochronę danych poprzez automatyzację i zastosowanie technologii Hitachi z zakresu kopii migawkowych (snapshot), klonowania i replikacji, uzupełnione o kopie zapasowe w czasie rzeczywistym, ciągłą ochronę danych oraz archiwizację na jednej platformie. Data Instance Director udostępnia prosty interfejs typu whiteboard, który dopasowuje poziom ochrony danych do priorytetów biznesowych.

Źródło: Hitachi Data Systems

Logowanie i rejestracja