Virtual-IT.pl - wirtualizacja cloud computing storage data center

Altaro VM Backup dla dostawców usług IT!
Altaro VM Backup dla dostawców usług IT!

Altaro Software, dostawca rozwiązań do tworzenia kopii zapasowych, znany głównie ze swojego flagowego produktu VM Backup, pozwalającego na tworzenie kopii zapasowych maszyn wirtualnych działających w środowisku Microsoft Hyper-V i VMware vSphere, udostępnił portal online, zbudowany specjalnie z myślą o dostawcach us...

Czytaj więcej...

15 najlepiej płatnych certyfikacji w 2015 roku
15 najlepiej płatnych certyfikacji w 2015 roku

Certyfikacja IT stanowi niezbędny element w wielu obszarach. Chcąc aktywnie uczestniczyć w rynku pracy, należy stale podnosić swoje kwalifikacje, a certyfikacja jest jedną z metod pozwalających na usystematyzowanie i poszerzenie wiedzy. Posiadanie odpowiednich certyfikatów niejednokrotnie jest elementem wymaganym po...

Czytaj więcej...

Microsoft PowerShell z otwartym kodem dla Linuksa i OS X
Microsoft PowerShell z otwartym kodem dla Linuksa i OS X

Po otwarciu źródeł .Net, wydaniu otwartego Visual Studio Code, udostępnieniu silnika Chakra Javascript, zapowiedzi wydania SQL Server dla systemów Linux i szerokiemu wsparciu maszyn wirtualnych z linuksami przez hypervisor Hyper-V i chmurę Azure, gigant z Redmond zrobił kolejny krok w stronę świata open source. Micr...

Czytaj więcej...

XenServer ma 10 lat!
XenServer ma 10 lat!

Dokładnie 10 lat temu, końcem sierpnia 2006 roku firma XenSource, sponsorująca prace nad otwartoźródłowym hypervisorem Xen, wydała pierwszą komercyjną wersję produktu do wirtualizacji, skierowaną do firm każdej wielkości - XenEnterprise (nazwa kodowa 'Burbank') - bazującą na Xen 3.0.0.

Czytaj więcej...

Wchodzisz w chmurę? Sprawdź umowę by uniknąć kosztownych perturbacji
Wchodzisz w chmurę? Sprawdź umowę by uniknąć kosztownych perturbacji

Współpraca z niewłaściwym dostawcą usług chmurowych może mieć swoje nieprzyjemne konsekwencje. Ważne jest by potencjalni klienci wiedzieli dokładnie na co się decydują wybierając chmurę obliczeniową. Migracja do chmury, to kluczowa decyzja biznesowa, niosąca ze sobą długoterminowe skutki. Jeżeli chcesz skorzystać z ...

Czytaj więcej...

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)
Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)

Wraz z rozwojem technologii wirtualizacji i wynikającymi z tego zmianami krajobrazu środowisk IT, zmienia się podejście do ochrony danych. Z wirtualizacją przegrało wiele rozwiązań zaprojektowanych z myślą o środowiskach fizycznych. Na rynku pojawiły się nowe rozwiązania, opracowane z myślą o środowiskach wirtualnyc...

Czytaj więcej...

Aktualności

Macierze Hitachi Data Systems w superkomputerze Galera

HitachiHitachi Data Systems, spółka zależna Hitachi, Ltd., we współpracy z firmą WASKO S.A. wdrożyła w Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej (CI TASK) system pamięci masowej oparty na platformach Hitachi Unified Storage VM i Hitachi Unified Storage 150.


CI TASK to ośrodek zlokalizowany w Gdańsku, w którym naukowcy z całej Polski mogą przeprowadzać złożone analizy, obliczenia i eksperymenty laboratoryjne, wpływające na rozwój wiedzy w dziedzinach takich jak fizyka, meteorologia, mechanika czy chemia. Na przestrzeni 20 lat istnienia ośrodka jego superkomputery m.in. modelowały skrzydła polskich i zagranicznych samolotów, wspierały badania nad nowymi materiałami i pomagały w wirtualnym testowaniu substancji leczniczych.

Pamięci masowe Hitachi pełnią rolę podsystemu dyskowego superkomputera Galera Plus, najważniejszego i najpotężniejszego superkomputera w CI TASK, który pomaga środowiskom naukowym w szybszym i skuteczniejszym prowadzeniu zaawansowanych badań.

Galera Plus to klaster składający się z serwerów o łącznej ilości 10896 rdzeni i mocy obliczeniowej przekraczającej 100 teraflopsów (FLOPS określa liczbę operacji zmiennoprzecinkowych na sekundę). Inwestycje w pierwotną wersję Galery, oddanej do użytku w 2008 roku, skupiały się na osiągnięciu jak najwyższej mocy obliczeniowej. Kwestie związane z systemem składowania danych zeszły na drugi plan, czego konsekwencją w przypadku wystąpieniu awarii dysków twardych był spadek wydajności całego środowiska.

"Awaria dysku była dla nas głównie problemem wydajnościowym. Gdy macierz rozpoczynała automatyczne odbudowywanie woluminu logicznego, spadała wydajność całego podsystemu dyskowego, a w rezultacie superkomputera jako całości" - mówi Rafał Tylman, Kierownik Działu Systemów Komputerów Dużej Mocy w Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej.

Planując zakup nowego środowiska do składowania danych, tym razem priorytetem dla CI TASK stało się uzyskanie wysokiej wydajności całego środowiska, nawet w sytuacji wystąpienia awarii kilku dysków jednocześnie. Propozycję najbardziej odpowiadającą oczekiwaniom ośrodka naukowego zaproponowała w przetargu firma Wasko. Architektura rozwiązania opierała się na trzech macierzach klasy enterprise (HUS VM) oraz jednej platformie midrange (HUS 150). Dodatkowo w rozwiązaniu zastosowano serwery z procesorami Intel Xeon wykorzystywane przez klastrowy systemu plików Lustre. Nowe środowisko superkomputera Galera Plus osiągnęło w testach stabilną wydajność zapisu rzędu 15 GB/s - co ważne, również trakcie odbudowy uszkodzonego dysku.

Wyższa wydajność systemu związana z dostępem do ponad dziesięciu tysięcy rdzeni i prawie dwupetabajtowego repozytorium na dane w ramach jednego, spójnego środowiska oznacza większą dostępność superkomputera dla naukowców. Mogą oni swobodnie prowadzić bardziej efektywne działania i realizować skomplikowane zadania obliczeniowe polegające na modelowaniu zjawisk fizycznych, chemicznych czy inżynierskich. Tego typu badania, często prowadzone w czasie rzeczywistym, wymagają wydajnej komunikacji serwerów z pamięciami masowymi. Odpowiednia konfiguracja macierzy zapewnia stałą wysoką wydajność środowiska nawet podczas awarii jednego, czy nawet kilku dysków.

"Rozwiązanie Hitachi Data Systems pozwala nam na rozwój, zarówno na poziomie architektury, jak i technologii. Macierze są wyposażone w funkcje wirtualizacji zasobów, co stanowi dodatkowe ułatwienie. Upraszcza rekonfigurację środowiska, dzielenie go na logicznie niezależne części, a także migrowanie danych" - mówi Michał Białoskórski, Administrator w Dziale Systemów KDM w CI TASK.

Źródło: Hitachi Data Systems