Virtual-IT.pl - data center cloud computing SDx AI storage network cybersecurity

FRITZ!Box 6850 5G - router gotowy na sieć piątej generacji
FRITZ!Box 6850 5G - router gotowy na sieć piątej generacji

Przed kilkoma tygodniami w skromnych progach naszej Virtual-nej redakcji pojawiła się przesyłka zawierająca router FRITZ!Box 6850 5G od firmy AVM. Router wprowadzony na rynek latem ubiegłego roku, za pomocą wbudowanego modemu obsługuje zakresy 5G w paśmie poniżej 6 GHz, a także LTE Advanced Pro we wszystkich obecnie wy...

Czytaj więcej...

Integracja AIOps w kompleksowym monitorowaniu IT: Site24x7
Integracja AIOps w kompleksowym monitorowaniu IT: Site24x7

Środowiska IT stają się coraz bardziej rozbudowane. Firmy korzystają z infrastruktury on-premise jak również z rozwiązań chmurowych, często z wielu chmur (multicloud). W takiej sytuacji kluczem dla zapewnienia niezawodnego działania systemów IT jest monitoring infrastruktury. Właściwe rozwiązanie do monit...

Czytaj więcej...

Broadcom upraszcza ofertę i model licencjonowania VMware
Broadcom upraszcza ofertę i model licencjonowania VMware

W ciągu ostatnich dwóch lat firma VMware podejmowała wysiłki mające na celu uproszczenie swojego portfolio rozwiązań i przejście z modelu licencji wieczystych na model subskrypcji, który branża przyjęła już jako standard korzystania z chmury. Firma zaznaczyła, że takie zmiany przyniosą klientom większe ko...

Czytaj więcej...

Historia oszukiwania ludzi przez sztuczną inteligencję
Historia oszukiwania ludzi przez sztuczną inteligencję

Wraz z rozwojem nowoczesnych technologii rozwijają się również złośliwe schematy. Od niedawna do długiej listy oszustw dołączyła sztuczna inteligencja (Artificial Intelligence, AI). Wykorzystanie technologii sztucznej inteligencji i uczenia maszynowego (Machine Learning, ML) przenosi phishing i inne oszustwa cyb...

Czytaj więcej...

Brak wykwalifikowanej kadry i starzejące się systemy główną barierą cyfryzacji
Brak wykwalifikowanej kadry i starzejące się systemy główną barierą cyfryzacji

Według opublikowanego przez Veeam raportu Data Protection Trends Report 2022, największym wyzwaniem dla firm związanym z cyfryzacją są braki wykwalifikowanej kadry IT i starzejące się systemy. Aż 1/3 przedsiębiorstw w razie awarii i braku dostępu do zasobów planuje przywracać działanie serwerów w trybie r...

Czytaj więcej...

Chcielibyśmy, żeby chmura…, czyli oczekiwania wobec dostawcy
Chcielibyśmy, żeby chmura…, czyli oczekiwania wobec dostawcy

Wyniki badania PMR dla Polskiej Chmury wskazują, że ponad 2/3 firm korzysta z rozwiązań chmurowych, a około 1/3 jest w trakcie ich wdrażania. Tym samym chmura to już stały element ekosystemu i działalności przedsiębiorstw w Polsce. Rynek ten dojrzał i firmy szukają w chmurze korzyści oraz rozwiązań dopasowanych wprost ...

Czytaj więcej...

Aktualności

IBM pracuje nad system przechowywania 120 petabajtów danych

Jak donosi serwis Technology Review, firma IBM otrzymała zlecenie opracowania systemu magazynującego dane o pojemności 120 petabajtów (jeden petabajt to miliard - 1 000 000 000 - megabajtów), który byłby najbardziej pojemnym systemem przechowywania na świecie.


Steve Conway, wiceprezes ds. badań w firmie analitycznej IDC, który specjalizuje się w High Performance Computing (HPC), mówi - "Repozytorium IBM jest znacznie większe niż w obecnie dostępnych systemach pamięci masowej. Największe macierze dostępne obecnie mogą pomieścić około 15 petabajtów danych". Pojemność 120 petabajtów niech zobrazuje fakt, że system mógłby pomieścić 24 miliardy plików mp3 o wielkości 5 MB. Macierz nad którą pracuje IBM będzie osiem razy większa od aktualnie dostępnych systemów storage.

Kluczowymi parametrami podczas budowy systemu będą wysokie wymagania odnośnie wydajności i niezawodności. Klaster będzie korzystał z wydajnego systemu plików GPFS (General Parallel File System), pozwalającego na szybki dostęp do plików aplikacji przechowywanych na wielu jego węzłach. Do budowy systemu IBM wykorzysta 200 tys. dysków twardych

System ten ma stać się częścią nowego superkomputera, tworzonego dla klienta którego danych nie ujawniono. Prawdopodobnie system ten będzie składował około biliona plików i służył do symulacji złożonych procesów, jak np. zmiany klimatu, przetwarzanie danych sejsmicznych, syntezy złożonych cząsteczek itp.

Źródło: Technology Review
Skomentuj na forum

 

Logowanie i rejestracja