Virtual-IT.pl - wirtualizacja cloud computing storage SDx data center

Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)
Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)

Wraz z rozwojem technologii wirtualizacji i wynikającymi z tego zmianami krajobrazu środowisk IT, zmienia się podejście do ochrony danych. Z wirtualizacją przegrało wiele rozwiązań zaprojektowanych z myślą o środowiskach fizycznych. Na rynku pojawiły się nowe rozwiązania, opracowane z myślą o środowiskach wirtualnyc...

Czytaj więcej...

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

Pięć głównych zasad zarządzania danymi
Pięć głównych zasad zarządzania danymi

Obecnie centralnym elementem każdej działalności biznesowej są dane. Firmy chcą z nich aktywnie korzystać bez względu na miejsce, w którym dane te są przechowywane. W przemówieniu inaugurującym konferencję Commvault GO 2016, Robert Hammer, prezes i dyrektor generalny firmy Commvault, przedstawił pięć podstawowych za...

Czytaj więcej...

15 najlepiej płatnych certyfikacji w 2016 roku
15 najlepiej płatnych certyfikacji w 2016 roku

Certyfikacja wśród specjalistów z branży IT jest elementem często pożądanym przez pracodawców. By aktywnie uczestniczyć w rynku pracy, należy stale podnosić swoje kwalifikacje. Odpowiednie certyfikaty idąc w parze z posiadanymi i rozwijanymi umiejętnościami oraz determinacja związana ze zdobywaniem wiedzy, niejednok...

Czytaj więcej...

#VeeamON2017 - Rozszerzenie platformy Veeam Availability
#VeeamON2017 - Rozszerzenie platformy Veeam Availability

Firma Veeam Software, w trakcie konferencji VeeamON 2017, poinformowała o rozszerzeniu platformy Veeam ‘Always-On Cloud’ Availability Platform o nowy framework Universal Storage API oraz rozszerzenie ekosystemu partnerów strategicznych.

Czytaj więcej...

Altaro VM Backup dla dostawców usług IT!
Altaro VM Backup dla dostawców usług IT!

Altaro Software, dostawca rozwiązań do tworzenia kopii zapasowych, znany głównie ze swojego flagowego produktu VM Backup, pozwalającego na tworzenie kopii zapasowych maszyn wirtualnych działających w środowisku Microsoft Hyper-V i VMware vSphere, udostępnił portal online, zbudowany specjalnie z myślą o dostawcach us...

Czytaj więcej...

Aktualności

NetApp zwiększa wydajność i zmniejsza koszt użycia aplikacji

NetAppFirma NetApp zaprezentowała ulepszone oprogramowanie do pamięci masowej NetApp SANtricity i nową macierz all-flash klasy podstawowej dla firm średniej wielkości i zewnętrznych oddziałów - NetApp E2800. We współpracy z firmą Zaloni, które oferuje rozwiązania do zarządzania tzw. jeziorami danych (data lake), firma NetApp zapowiedziała nowatorskie, hybrydowe podejście do zarządzania cyklem życia danych w repozytoriach tego typu.


Technologie do analizy danych, takie jak rozwiązania Splunk, czy technologie takie jak Hadoop lub NoSQL, które zapewniają wgląd i wydajność do szybkiego pozyskiwania potrzebnych informacji, to aplikacje o znaczeniu krytycznym dla firm średniej wielkości i zewnętrznych oddziałów. Podmioty takie często mają jednak zbyt mały personel IT i budżet do ich utrzymywania.

Nowe rozwiązania firmy NetApp oferują większą wydajność, użyteczność i elastyczność. Umożliwiają one między innymi:
• uproszczenie infrastruktury IT i zmniejszenie kosztów operacyjnych o ponad 35%;
• nawet trzykrotne zwiększenie wydajności podczas uzyskiwania dostępu do danych i ich analizowania;
• osiąganie najwyższej w tej klasie wydajności po najniższych kosztach uzyskania macierzy typu all-flash;
• nawet sześciokrotnie szybsze przetwarzanie sygnału wideo;
• uproszczenie wdrażania i dostępu do danych dzięki nowoczesnemu, wbudowanemu interfejsowi graficznemu SANtricity System Manager dostępnemu za pośrednictwem przeglądarki internetowej.

Zarządzanie cyklem życia informacji w „jeziorach danych”

Jeziora danych to nowe, skuteczne podejście architektoniczne do porządkowania coraz bardziej zróżnicowanych i obszernych zbiorów danych. Przydaje się ono szczególnie wtedy, gdy firmy wdrażają mobilne aplikacje w chmurze oraz Internet rzeczy jako narzędzia do dostarczania big data w odpowiednim momencie. Zdolność do zarządzania cyklem życia danych w jeziorze w zależności od ich wieku i istotności decyduje o efektywności i przydatności repozytorium cennych danych oraz o związanych z nim kosztach. Dzięki nowemu podejściu opracowanemu przez NetApp i Zaloni urządzenia NetApp z serii E oraz rozwiązania pamięci masowej NetApp StorageGRID Webscale umożliwiają definiowanie logicznych jezior danych lokalnie, zdalnie, a także w konfiguracji mieszanej. Platforma Bedrock firmy Zaloni umożliwia kompleksowe zarządzanie jeziorem danych.

"Jeziora danych zapewniają firmom znaczne korzyści, ale homogeniczne przechowywanie danych zmniejsza wydajność takiego repozytorium. Automatyczne rozwiązanie do zarządzania cyklem danych firm Zaloni i NetApp pomaga klientom w odpowiednim dobieraniu wielkości jeziora danych. Umożliwia ono automatyczne zarządzanie warstwą pamięci masowej na podstawie wartości danych dla firmy, którą ocenia przy użyciu reguł wykorzystania i podziału na warstwy. Klienci mogą teraz archiwizować lub usuwać dane, które nie są już potrzebne z punktu widzenia analizy i zgodności z przepisami, a także wykorzystywać magazyny obiektów do zmniejszania kosztów archiwizacji bez uszczerbku dla wydajności" - powiedział Scott Gidley, wiceprezes ds. produktu w firmie Zaloni.

"Współczesne firmy cyfrowe nieustannie poszukują sposobów na szybsze uzyskiwanie wartości z danych i jej maksymalizację. Urządzenia NetApp z serii E i oprogramowanie SANtricity pomaga naszym klientom w szybkim i łatwym uzyskaniu tej wartości, oferując najwyższą wydajność do obsługi nawet ekstremalnych obciążeń związanych z analizą danych" - powiedział Robert Berger, dyrektor zarządzający ds. big data i analizy danych w Global Technology Resources, Inc.

Źródło: NetApp