Virtual-IT.pl - wirtualizacja cloud computing storage data center

15 najlepiej płatnych certyfikacji w 2015 roku
15 najlepiej płatnych certyfikacji w 2015 roku

Certyfikacja IT stanowi niezbędny element w wielu obszarach. Chcąc aktywnie uczestniczyć w rynku pracy, należy stale podnosić swoje kwalifikacje, a certyfikacja jest jedną z metod pozwalających na usystematyzowanie i poszerzenie wiedzy. Posiadanie odpowiednich certyfikatów niejednokrotnie jest elementem wymaganym po...

Czytaj więcej...

Microsoft PowerShell z otwartym kodem dla Linuksa i OS X
Microsoft PowerShell z otwartym kodem dla Linuksa i OS X

Po otwarciu źródeł .Net, wydaniu otwartego Visual Studio Code, udostępnieniu silnika Chakra Javascript, zapowiedzi wydania SQL Server dla systemów Linux i szerokiemu wsparciu maszyn wirtualnych z linuksami przez hypervisor Hyper-V i chmurę Azure, gigant z Redmond zrobił kolejny krok w stronę świata open source. Micr...

Czytaj więcej...

Wchodzisz w chmurę? Sprawdź umowę by uniknąć kosztownych perturbacji
Wchodzisz w chmurę? Sprawdź umowę by uniknąć kosztownych perturbacji

Współpraca z niewłaściwym dostawcą usług chmurowych może mieć swoje nieprzyjemne konsekwencje. Ważne jest by potencjalni klienci wiedzieli dokładnie na co się decydują wybierając chmurę obliczeniową. Migracja do chmury, to kluczowa decyzja biznesowa, niosąca ze sobą długoterminowe skutki. Jeżeli chcesz skorzystać z ...

Czytaj więcej...

Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)
Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)

Wraz z rozwojem technologii wirtualizacji i wynikającymi z tego zmianami krajobrazu środowisk IT, zmienia się podejście do ochrony danych. Z wirtualizacją przegrało wiele rozwiązań zaprojektowanych z myślą o środowiskach fizycznych. Na rynku pojawiły się nowe rozwiązania, opracowane z myślą o środowiskach wirtualnyc...

Czytaj więcej...

Altaro VM Backup dla dostawców usług IT!
Altaro VM Backup dla dostawców usług IT!

Altaro Software, dostawca rozwiązań do tworzenia kopii zapasowych, znany głównie ze swojego flagowego produktu VM Backup, pozwalającego na tworzenie kopii zapasowych maszyn wirtualnych działających w środowisku Microsoft Hyper-V i VMware vSphere, udostępnił portal online, zbudowany specjalnie z myślą o dostawcach us...

Czytaj więcej...

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

XenServer ma 10 lat!
XenServer ma 10 lat!

Dokładnie 10 lat temu, końcem sierpnia 2006 roku firma XenSource, sponsorująca prace nad otwartoźródłowym hypervisorem Xen, wydała pierwszą komercyjną wersję produktu do wirtualizacji, skierowaną do firm każdej wielkości - XenEnterprise (nazwa kodowa 'Burbank') - bazującą na Xen 3.0.0.

Czytaj więcej...

Aktualności

IBM pracuje nad system przechowywania 120 petabajtów danych

Jak donosi serwis Technology Review, firma IBM otrzymała zlecenie opracowania systemu magazynującego dane o pojemności 120 petabajtów (jeden petabajt to miliard - 1 000 000 000 - megabajtów), który byłby najbardziej pojemnym systemem przechowywania na świecie.


Steve Conway, wiceprezes ds. badań w firmie analitycznej IDC, który specjalizuje się w High Performance Computing (HPC), mówi - "Repozytorium IBM jest znacznie większe niż w obecnie dostępnych systemach pamięci masowej. Największe macierze dostępne obecnie mogą pomieścić około 15 petabajtów danych". Pojemność 120 petabajtów niech zobrazuje fakt, że system mógłby pomieścić 24 miliardy plików mp3 o wielkości 5 MB. Macierz nad którą pracuje IBM będzie osiem razy większa od aktualnie dostępnych systemów storage.

Kluczowymi parametrami podczas budowy systemu będą wysokie wymagania odnośnie wydajności i niezawodności. Klaster będzie korzystał z wydajnego systemu plików GPFS (General Parallel File System), pozwalającego na szybki dostęp do plików aplikacji przechowywanych na wielu jego węzłach. Do budowy systemu IBM wykorzysta 200 tys. dysków twardych

System ten ma stać się częścią nowego superkomputera, tworzonego dla klienta którego danych nie ujawniono. Prawdopodobnie system ten będzie składował około biliona plików i służył do symulacji złożonych procesów, jak np. zmiany klimatu, przetwarzanie danych sejsmicznych, syntezy złożonych cząsteczek itp.

Źródło: Technology Review
Skomentuj na forum