Virtual-IT.pl - wirtualizacja cloud computing storage SDx data center
Altaro VM Backup

15 najlepiej płatnych certyfikacji w 2017 roku
15 najlepiej płatnych certyfikacji w 2017 roku

Od specjalistów IT bardzo często wymaga się posiadania dodatkowych certyfikatów potwierdzających umiejętności w obszarze, za który są odpowiedzialni. Odpowiednie certyfikaty, w parze z posiadanymi kompetencjami oraz determinacja związana ze zdobywaniem wiedzy, często pomagają wspiąć się na kolejn...

Czytaj więcej...

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

Dwie trzecie firm z sektora MŚP już wybrało chmurę
Dwie trzecie firm z sektora MŚP już wybrało chmurę

Z raportu "Chmura w MŚP. Zaufanie czy ostrożność przedsiębiorców?" opracowanego przez Onex Group wynika, że już 67 procent małych i średnich firm w Polsce korzysta z rozwiązań chmurowych. W porównaniu z badaniami przeprowadzonymi przed rokiem odnotowano 16 procentowy wzrost. Choć na pierwszy rzut oka taki...

Czytaj więcej...

Altaro VM Backup 7.6 na horyzoncie!
Altaro VM Backup 7.6 na horyzoncie!

Wielkimi krokami zbliża się nowe wydanie Altaro VM Backup, rozwiązania przeznaczonego do tworzenia kopii zapasowych maszyn wirtualnych działających pod kontrolą hypervisorów Microsoft Hyper-V oraz VMware vSphere/ESXi. W nowej wersji Altaro VM Backup oznaczonej numerem 7.6 wprowadzono kilka istotnych usprawnień. ...

Czytaj więcej...

Inwestycje w chmurę będą rosły o blisko 19 proc. rocznie
Inwestycje w chmurę będą rosły o blisko 19 proc. rocznie

Polskie firmy coraz powszechniej wdrażają rozwiązania oparte na chmurze obliczeniowej, doceniając korzyści oraz oszczędności w wydatkach na IT. Eksperci prognozują, że rynek ten będzie w najbliższych latach rósł skokowo, a technologia cloud computing wkrótce będzie w stanie zaspokoić wszystkie potrzeby biznesowe fir...

Czytaj więcej...

Bezpieczeństwo IT - w chmurze czy lokalnie?
Bezpieczeństwo IT - w chmurze czy lokalnie?

Jak wskazuje Gartner jednym z głównych trendów w gospodarce światowej jest dziś Cloud Shift, czyli coraz silniejszy nacisk na wykorzystanie chmury obliczeniowej. Analitycy tej firmy twierdzą, że do 2020 roku niewykorzystywanie chmury będzie w przedsiębiorstwach zjawiskiem tak rzadkim, jak obecnie brak dos...

Czytaj więcej...

Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm
Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm

Badanie firmy Veeam Software, innowacyjnego dostawcy rozwiązań, które zapewniają stałą dostępność na potrzeby przedsiębiorstw działających non stop (Availability for the Always-On Enterprise), pokazuje, że ponad połowa organizacji w Polsce zmaga się z przystosowaniem firmowej infrastruktury do wymogów now...

Czytaj więcej...

Aktualności

IBM pracuje nad system przechowywania 120 petabajtów danych

Jak donosi serwis Technology Review, firma IBM otrzymała zlecenie opracowania systemu magazynującego dane o pojemności 120 petabajtów (jeden petabajt to miliard - 1 000 000 000 - megabajtów), który byłby najbardziej pojemnym systemem przechowywania na świecie.


Steve Conway, wiceprezes ds. badań w firmie analitycznej IDC, który specjalizuje się w High Performance Computing (HPC), mówi - "Repozytorium IBM jest znacznie większe niż w obecnie dostępnych systemach pamięci masowej. Największe macierze dostępne obecnie mogą pomieścić około 15 petabajtów danych". Pojemność 120 petabajtów niech zobrazuje fakt, że system mógłby pomieścić 24 miliardy plików mp3 o wielkości 5 MB. Macierz nad którą pracuje IBM będzie osiem razy większa od aktualnie dostępnych systemów storage.

Kluczowymi parametrami podczas budowy systemu będą wysokie wymagania odnośnie wydajności i niezawodności. Klaster będzie korzystał z wydajnego systemu plików GPFS (General Parallel File System), pozwalającego na szybki dostęp do plików aplikacji przechowywanych na wielu jego węzłach. Do budowy systemu IBM wykorzysta 200 tys. dysków twardych

System ten ma stać się częścią nowego superkomputera, tworzonego dla klienta którego danych nie ujawniono. Prawdopodobnie system ten będzie składował około biliona plików i służył do symulacji złożonych procesów, jak np. zmiany klimatu, przetwarzanie danych sejsmicznych, syntezy złożonych cząsteczek itp.

Źródło: Technology Review
Skomentuj na forum