Virtual-IT.pl - wirtualizacja cloud computing storage data center

Microsoft PowerShell z otwartym kodem dla Linuksa i OS X
Microsoft PowerShell z otwartym kodem dla Linuksa i OS X

Po otwarciu źródeł .Net, wydaniu otwartego Visual Studio Code, udostępnieniu silnika Chakra Javascript, zapowiedzi wydania SQL Server dla systemów Linux i szerokiemu wsparciu maszyn wirtualnych z linuksami przez hypervisor Hyper-V i chmurę Azure, gigant z Redmond zrobił kolejny krok w stronę świata open source. Micr...

Czytaj więcej...

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)
Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)

Wraz z rozwojem technologii wirtualizacji i wynikającymi z tego zmianami krajobrazu środowisk IT, zmienia się podejście do ochrony danych. Z wirtualizacją przegrało wiele rozwiązań zaprojektowanych z myślą o środowiskach fizycznych. Na rynku pojawiły się nowe rozwiązania, opracowane z myślą o środowiskach wirtualnyc...

Czytaj więcej...

Prognozy Veeam na 2017 rok: chmura kluczowa dla rozwoju biznesu
Prognozy Veeam na 2017 rok: chmura kluczowa dla rozwoju biznesu

Mijający rok dobitnie wskazuje, jak ważna jest stała dostępność - zarówno usług, jak i danych. Wystarczy wspomnieć głośne fiasko elektronicznego spisu powszechnego na kontynencie australijskim, czy równie dotkliwe w skutkach przestoje systemów IT w sektorze transportu pasażerskiego. Awarie te sprawiły, że ludzie na ...

Czytaj więcej...

Altaro VM Backup dla dostawców usług IT!
Altaro VM Backup dla dostawców usług IT!

Altaro Software, dostawca rozwiązań do tworzenia kopii zapasowych, znany głównie ze swojego flagowego produktu VM Backup, pozwalającego na tworzenie kopii zapasowych maszyn wirtualnych działających w środowisku Microsoft Hyper-V i VMware vSphere, udostępnił portal online, zbudowany specjalnie z myślą o dostawcach us...

Czytaj więcej...

Równoważenie obciążenia jako kluczowy element architektury chmurowej
Równoważenie obciążenia jako kluczowy element architektury chmurowej

Równoważenie obciążenia odnosi się do technologii, która jest wykorzystywana do rozdzielania obciążeń roboczych pomiędzy kilkoma komputerami, klastrami, procesorami, pamięcią RAM, dyskami twardymi, jak również innymi elementami infrastruktury w celu optymalizacji wykorzystania zasobów, co przekłada się na zmniejszen...

Czytaj więcej...

Aktualności

IBM pracuje nad system przechowywania 120 petabajtów danych

Jak donosi serwis Technology Review, firma IBM otrzymała zlecenie opracowania systemu magazynującego dane o pojemności 120 petabajtów (jeden petabajt to miliard - 1 000 000 000 - megabajtów), który byłby najbardziej pojemnym systemem przechowywania na świecie.


Steve Conway, wiceprezes ds. badań w firmie analitycznej IDC, który specjalizuje się w High Performance Computing (HPC), mówi - "Repozytorium IBM jest znacznie większe niż w obecnie dostępnych systemach pamięci masowej. Największe macierze dostępne obecnie mogą pomieścić około 15 petabajtów danych". Pojemność 120 petabajtów niech zobrazuje fakt, że system mógłby pomieścić 24 miliardy plików mp3 o wielkości 5 MB. Macierz nad którą pracuje IBM będzie osiem razy większa od aktualnie dostępnych systemów storage.

Kluczowymi parametrami podczas budowy systemu będą wysokie wymagania odnośnie wydajności i niezawodności. Klaster będzie korzystał z wydajnego systemu plików GPFS (General Parallel File System), pozwalającego na szybki dostęp do plików aplikacji przechowywanych na wielu jego węzłach. Do budowy systemu IBM wykorzysta 200 tys. dysków twardych

System ten ma stać się częścią nowego superkomputera, tworzonego dla klienta którego danych nie ujawniono. Prawdopodobnie system ten będzie składował około biliona plików i służył do symulacji złożonych procesów, jak np. zmiany klimatu, przetwarzanie danych sejsmicznych, syntezy złożonych cząsteczek itp.

Źródło: Technology Review
Skomentuj na forum