Virtual-IT.pl - wirtualizacja cloud computing storage SDx data center

Inwestycje w chmurę będą rosły o blisko 19 proc. rocznie
Inwestycje w chmurę będą rosły o blisko 19 proc. rocznie

Polskie firmy coraz powszechniej wdrażają rozwiązania oparte na chmurze obliczeniowej, doceniając korzyści oraz oszczędności w wydatkach na IT. Eksperci prognozują, że rynek ten będzie w najbliższych latach rósł skokowo, a technologia cloud computing wkrótce będzie w stanie zaspokoić wszystkie potrzeby biznesowe fir...

Czytaj więcej...

Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm
Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm

Badanie firmy Veeam Software, innowacyjnego dostawcy rozwiązań, które zapewniają stałą dostępność na potrzeby przedsiębiorstw działających non stop (Availability for the Always-On Enterprise), pokazuje, że ponad połowa organizacji w Polsce zmaga się z przystosowaniem firmowej infrastruktury do wymogów now...

Czytaj więcej...

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

Altaro VM Backup 7.5 z backupem do chmury Azure
Altaro VM Backup 7.5 z backupem do chmury Azure

Firma Altaro zaktualizowała swoje flagowe rozwiązanie - Altaro VM Backup - przeznaczone do tworzenia kopii zapasowych maszyn wirtualnych działających pod kontrolą hypervisorów Microsoft Hyper-V oraz VMware vSphere/ESXi. W nowej wersji Altaro VM Backup v7.5 wprowadzono wsparcie dla składowania kopii zapasowych w ...

Czytaj więcej...

Bezpieczeństwo IT - w chmurze czy lokalnie?
Bezpieczeństwo IT - w chmurze czy lokalnie?

Jak wskazuje Gartner jednym z głównych trendów w gospodarce światowej jest dziś Cloud Shift, czyli coraz silniejszy nacisk na wykorzystanie chmury obliczeniowej. Analitycy tej firmy twierdzą, że do 2020 roku niewykorzystywanie chmury będzie w przedsiębiorstwach zjawiskiem tak rzadkim, jak obecnie brak dos...

Czytaj więcej...

15 najlepiej płatnych certyfikacji w 2016 roku
15 najlepiej płatnych certyfikacji w 2016 roku

Certyfikacja wśród specjalistów z branży IT jest elementem często pożądanym przez pracodawców. By aktywnie uczestniczyć w rynku pracy, należy stale podnosić swoje kwalifikacje. Odpowiednie certyfikaty idąc w parze z posiadanymi i rozwijanymi umiejętnościami oraz determinacja związana ze zdobywaniem wiedzy, niejednok...

Czytaj więcej...

Aktualności

IBM pracuje nad system przechowywania 120 petabajtów danych

Jak donosi serwis Technology Review, firma IBM otrzymała zlecenie opracowania systemu magazynującego dane o pojemności 120 petabajtów (jeden petabajt to miliard - 1 000 000 000 - megabajtów), który byłby najbardziej pojemnym systemem przechowywania na świecie.


Steve Conway, wiceprezes ds. badań w firmie analitycznej IDC, który specjalizuje się w High Performance Computing (HPC), mówi - "Repozytorium IBM jest znacznie większe niż w obecnie dostępnych systemach pamięci masowej. Największe macierze dostępne obecnie mogą pomieścić około 15 petabajtów danych". Pojemność 120 petabajtów niech zobrazuje fakt, że system mógłby pomieścić 24 miliardy plików mp3 o wielkości 5 MB. Macierz nad którą pracuje IBM będzie osiem razy większa od aktualnie dostępnych systemów storage.

Kluczowymi parametrami podczas budowy systemu będą wysokie wymagania odnośnie wydajności i niezawodności. Klaster będzie korzystał z wydajnego systemu plików GPFS (General Parallel File System), pozwalającego na szybki dostęp do plików aplikacji przechowywanych na wielu jego węzłach. Do budowy systemu IBM wykorzysta 200 tys. dysków twardych

System ten ma stać się częścią nowego superkomputera, tworzonego dla klienta którego danych nie ujawniono. Prawdopodobnie system ten będzie składował około biliona plików i służył do symulacji złożonych procesów, jak np. zmiany klimatu, przetwarzanie danych sejsmicznych, syntezy złożonych cząsteczek itp.

Źródło: Technology Review
Skomentuj na forum

 

Logowanie i rejestracja