Virtual-IT.pl - wirtualizacja cloud computing storage SDx data center
Altaro VM Backup

Bezpieczeństwo IT - w chmurze czy lokalnie?
Bezpieczeństwo IT - w chmurze czy lokalnie?

Jak wskazuje Gartner jednym z głównych trendów w gospodarce światowej jest dziś Cloud Shift, czyli coraz silniejszy nacisk na wykorzystanie chmury obliczeniowej. Analitycy tej firmy twierdzą, że do 2020 roku niewykorzystywanie chmury będzie w przedsiębiorstwach zjawiskiem tak rzadkim, jak obecnie brak dos...

Czytaj więcej...

15 najlepiej płatnych certyfikacji w 2017 roku
15 najlepiej płatnych certyfikacji w 2017 roku

Od specjalistów IT bardzo często wymaga się posiadania dodatkowych certyfikatów potwierdzających umiejętności w obszarze, za który są odpowiedzialni. Odpowiednie certyfikaty, w parze z posiadanymi kompetencjami oraz determinacja związana ze zdobywaniem wiedzy, często pomagają wspiąć się na kolejn...

Czytaj więcej...

Inwestycje w chmurę będą rosły o blisko 19 proc. rocznie
Inwestycje w chmurę będą rosły o blisko 19 proc. rocznie

Polskie firmy coraz powszechniej wdrażają rozwiązania oparte na chmurze obliczeniowej, doceniając korzyści oraz oszczędności w wydatkach na IT. Eksperci prognozują, że rynek ten będzie w najbliższych latach rósł skokowo, a technologia cloud computing wkrótce będzie w stanie zaspokoić wszystkie potrzeby biznesowe fir...

Czytaj więcej...

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

Dwie trzecie firm z sektora MŚP już wybrało chmurę
Dwie trzecie firm z sektora MŚP już wybrało chmurę

Z raportu "Chmura w MŚP. Zaufanie czy ostrożność przedsiębiorców?" opracowanego przez Onex Group wynika, że już 67 procent małych i średnich firm w Polsce korzysta z rozwiązań chmurowych. W porównaniu z badaniami przeprowadzonymi przed rokiem odnotowano 16 procentowy wzrost. Choć na pierwszy rzut oka taki...

Czytaj więcej...

Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm
Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm

Badanie firmy Veeam Software, innowacyjnego dostawcy rozwiązań, które zapewniają stałą dostępność na potrzeby przedsiębiorstw działających non stop (Availability for the Always-On Enterprise), pokazuje, że ponad połowa organizacji w Polsce zmaga się z przystosowaniem firmowej infrastruktury do wymogów now...

Czytaj więcej...

Altaro VM Backup 7.6 na horyzoncie!
Altaro VM Backup 7.6 na horyzoncie!

Wielkimi krokami zbliża się nowe wydanie Altaro VM Backup, rozwiązania przeznaczonego do tworzenia kopii zapasowych maszyn wirtualnych działających pod kontrolą hypervisorów Microsoft Hyper-V oraz VMware vSphere/ESXi. W nowej wersji Altaro VM Backup oznaczonej numerem 7.6 wprowadzono kilka istotnych usprawnień. ...

Czytaj więcej...

Aktualności

Macierze Hitachi Data Systems w superkomputerze Galera

HitachiHitachi Data Systems, spółka zależna Hitachi, Ltd., we współpracy z firmą WASKO S.A. wdrożyła w Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej (CI TASK) system pamięci masowej oparty na platformach Hitachi Unified Storage VM i Hitachi Unified Storage 150.


CI TASK to ośrodek zlokalizowany w Gdańsku, w którym naukowcy z całej Polski mogą przeprowadzać złożone analizy, obliczenia i eksperymenty laboratoryjne, wpływające na rozwój wiedzy w dziedzinach takich jak fizyka, meteorologia, mechanika czy chemia. Na przestrzeni 20 lat istnienia ośrodka jego superkomputery m.in. modelowały skrzydła polskich i zagranicznych samolotów, wspierały badania nad nowymi materiałami i pomagały w wirtualnym testowaniu substancji leczniczych.

Pamięci masowe Hitachi pełnią rolę podsystemu dyskowego superkomputera Galera Plus, najważniejszego i najpotężniejszego superkomputera w CI TASK, który pomaga środowiskom naukowym w szybszym i skuteczniejszym prowadzeniu zaawansowanych badań.

Galera Plus to klaster składający się z serwerów o łącznej ilości 10896 rdzeni i mocy obliczeniowej przekraczającej 100 teraflopsów (FLOPS określa liczbę operacji zmiennoprzecinkowych na sekundę). Inwestycje w pierwotną wersję Galery, oddanej do użytku w 2008 roku, skupiały się na osiągnięciu jak najwyższej mocy obliczeniowej. Kwestie związane z systemem składowania danych zeszły na drugi plan, czego konsekwencją w przypadku wystąpieniu awarii dysków twardych był spadek wydajności całego środowiska.

"Awaria dysku była dla nas głównie problemem wydajnościowym. Gdy macierz rozpoczynała automatyczne odbudowywanie woluminu logicznego, spadała wydajność całego podsystemu dyskowego, a w rezultacie superkomputera jako całości" - mówi Rafał Tylman, Kierownik Działu Systemów Komputerów Dużej Mocy w Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej.

Planując zakup nowego środowiska do składowania danych, tym razem priorytetem dla CI TASK stało się uzyskanie wysokiej wydajności całego środowiska, nawet w sytuacji wystąpienia awarii kilku dysków jednocześnie. Propozycję najbardziej odpowiadającą oczekiwaniom ośrodka naukowego zaproponowała w przetargu firma Wasko. Architektura rozwiązania opierała się na trzech macierzach klasy enterprise (HUS VM) oraz jednej platformie midrange (HUS 150). Dodatkowo w rozwiązaniu zastosowano serwery z procesorami Intel Xeon wykorzystywane przez klastrowy systemu plików Lustre. Nowe środowisko superkomputera Galera Plus osiągnęło w testach stabilną wydajność zapisu rzędu 15 GB/s - co ważne, również trakcie odbudowy uszkodzonego dysku.

Wyższa wydajność systemu związana z dostępem do ponad dziesięciu tysięcy rdzeni i prawie dwupetabajtowego repozytorium na dane w ramach jednego, spójnego środowiska oznacza większą dostępność superkomputera dla naukowców. Mogą oni swobodnie prowadzić bardziej efektywne działania i realizować skomplikowane zadania obliczeniowe polegające na modelowaniu zjawisk fizycznych, chemicznych czy inżynierskich. Tego typu badania, często prowadzone w czasie rzeczywistym, wymagają wydajnej komunikacji serwerów z pamięciami masowymi. Odpowiednia konfiguracja macierzy zapewnia stałą wysoką wydajność środowiska nawet podczas awarii jednego, czy nawet kilku dysków.

"Rozwiązanie Hitachi Data Systems pozwala nam na rozwój, zarówno na poziomie architektury, jak i technologii. Macierze są wyposażone w funkcje wirtualizacji zasobów, co stanowi dodatkowe ułatwienie. Upraszcza rekonfigurację środowiska, dzielenie go na logicznie niezależne części, a także migrowanie danych" - mówi Michał Białoskórski, Administrator w Dziale Systemów KDM w CI TASK.

Źródło: Hitachi Data Systems