Virtual-IT.pl - wirtualizacja cloud computing storage data center

Jak dbać o bezpieczeństwo chmury i usług chmurowych?
Jak dbać o bezpieczeństwo chmury i usług chmurowych?

Jakie są realia współczesnej chmury? Co musiało ulec zmianie, by chmura nadawała się do zastosowań wymagających wysokiego stopnia bezpieczeństwa? I co jest wymagane oraz zalecane, aby krytyczne funkcje biznesowe oraz poufne dane były skutecznie chronione w chmurze? To tylko kilka z kluczowych pytań, które warto sobi...

Czytaj więcej...

Wchodzisz w chmurę? Sprawdź umowę by uniknąć kosztownych perturbacji
Wchodzisz w chmurę? Sprawdź umowę by uniknąć kosztownych perturbacji

Współpraca z niewłaściwym dostawcą usług chmurowych może mieć swoje nieprzyjemne konsekwencje. Ważne jest by potencjalni klienci wiedzieli dokładnie na co się decydują wybierając chmurę obliczeniową. Migracja do chmury, to kluczowa decyzja biznesowa, niosąca ze sobą długoterminowe skutki. Jeżeli chcesz skorzystać z ...

Czytaj więcej...

Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)
Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)

Wraz z rozwojem technologii wirtualizacji i wynikającymi z tego zmianami krajobrazu środowisk IT, zmienia się podejście do ochrony danych. Z wirtualizacją przegrało wiele rozwiązań zaprojektowanych z myślą o środowiskach fizycznych. Na rynku pojawiły się nowe rozwiązania, opracowane z myślą o środowiskach wirtualnyc...

Czytaj więcej...

Altaro VM Backup dla dostawców usług IT!
Altaro VM Backup dla dostawców usług IT!

Altaro Software, dostawca rozwiązań do tworzenia kopii zapasowych, znany głównie ze swojego flagowego produktu VM Backup, pozwalającego na tworzenie kopii zapasowych maszyn wirtualnych działających w środowisku Microsoft Hyper-V i VMware vSphere, udostępnił portal online, zbudowany specjalnie z myślą o dostawcach us...

Czytaj więcej...

Microsoft PowerShell z otwartym kodem dla Linuksa i OS X
Microsoft PowerShell z otwartym kodem dla Linuksa i OS X

Po otwarciu źródeł .Net, wydaniu otwartego Visual Studio Code, udostępnieniu silnika Chakra Javascript, zapowiedzi wydania SQL Server dla systemów Linux i szerokiemu wsparciu maszyn wirtualnych z linuksami przez hypervisor Hyper-V i chmurę Azure, gigant z Redmond zrobił kolejny krok w stronę świata open source. Micr...

Czytaj więcej...

15 najlepiej płatnych certyfikacji w 2015 roku
15 najlepiej płatnych certyfikacji w 2015 roku

Certyfikacja IT stanowi niezbędny element w wielu obszarach. Chcąc aktywnie uczestniczyć w rynku pracy, należy stale podnosić swoje kwalifikacje, a certyfikacja jest jedną z metod pozwalających na usystematyzowanie i poszerzenie wiedzy. Posiadanie odpowiednich certyfikatów niejednokrotnie jest elementem wymaganym po...

Czytaj więcej...

XenServer ma 10 lat!
XenServer ma 10 lat!

Dokładnie 10 lat temu, końcem sierpnia 2006 roku firma XenSource, sponsorująca prace nad otwartoźródłowym hypervisorem Xen, wydała pierwszą komercyjną wersję produktu do wirtualizacji, skierowaną do firm każdej wielkości - XenEnterprise (nazwa kodowa 'Burbank') - bazującą na Xen 3.0.0.

Czytaj więcej...

Aktualności

Commvault - nowe technologie dla środowisk Big Data

Commvault przedstawił nową technologię, która pomoże przedsiębiorstwom w obsłudze projektów opartych na środowiskach Big Data i zarządzaniu nimi. Nowa technologia Commvault, wdrożona w kolejnym zestawie innowacji w ramach jedenastej edycji oprogramowania, umożliwi wykorzystanie najlepszych procedur zarządzania danymi w projektach wykorzystujących środowiska Big Data, takie jak Hadoop, Greenplum i Global Partition File Systems (GPFS).


Jak wynika z badań przeprowadzonych przez firmę Gartner, których wyniki opublikowano pod koniec 2015 r., ponad trzy czwarte firm inwestuje lub zamierza w ciągu najbliższych dwóch lat zainwestować w przedsięwzięcia dotyczące big data. Firmy muszą przechowywać coraz większe ilości informacji, aby na podstawie zbiorów danych i plików generować użyteczne informacje i dane analityczne. Przedsięwzięcia z zakresu big data wymagają nowych metod i technologii przechowywania, indeksowania i analizowania danych. Te metody i technologie powinny zmniejszać zapotrzebowanie na pamięć masową i przyspieszać uzyskanie oczekiwanych rezultatów. Firmy, które angażują się w takie przedsięwzięcia, często rezygnują jednak ze stosowania procedur ochrony danych i procedur Disaster Recovery w zbiorach big data. Przy zastosowaniu tradycyjnych technologii byłoby to zbyt skomplikowane, kosztowne i mało efektywne, zwłaszcza że zbiory te znajdują się poza tradycyjnymi granicami systemów i infrastruktur.

Innowacyjne rozwiązania Commvault Software i Commvault Data Platform są odpowiedzią na nowe potrzeby klientów w zakresie zarządzania środowiskami big data. W szczególności zapewniają lepsze zrozumienie potrzeb ochrony i wizualizację najczęściej używanych środowisk big data, takich jak Hadoop, Greenplum i GPFS. Ułatwia to klientom odwzorowywanie systemów i architektur w celu znalezienia najlepszego sposobu ochrony i odtwarzania środowisk big data w całości bądź z ograniczeniem do wybranych węzłów, komponentów lub zbiorów danych. Wykorzystując oprogramowanie Commvault Software do zarządzania takimi środowiskami, klient może też łatwiej określić, jaka konfiguracja najbardziej sprzyja wydajności, uproszczeniu procesów i obniżeniu kosztów.

"Od kilku lat obserwujemy rozwój technologii big data i sposobu, w jaki firmy wykorzystują te technologie do zarządzania informacjami. Najnowsza wersja otwartej platformy danych Commvault wykorzystuje historyczne informacje dotyczące zarządzania danymi w firmie, aby dostarczać klientom dane analityczne i wartościowe informacje, które umożliwiają im realizację wdrożeń w chmurze w sposób znacznie prostszy i bardziej ekonomiczny" - powiedział Phil Goodwin, dyrektor ds. badań w firmie IDC.

Commvault Software umożliwia inteligentną ochronę złożonych infrastruktur wykorzystywanych w przedsięwzięciach big data, a także automatyzację procesów Disaster Recovery w tych wielowęzłowych systemach. Commvault Data Platform pozwala na osiągnięcie jeszcze większych korzyści z przedsięwzięć big data, ponieważ rozszerza możliwości bezproblemowego przenoszenia danych między infrastrukturami różnego typu. Udostępnia najszerszy w branży zakres stosowanej infrastruktury, w tym chmury, infrastruktury lokalne oraz środowiska zwirtualizowane (tradycyjne lub konwergentne).

"Coraz więcej przedsiębiorstw, niezależnie od wielkości i branży, angażuje się w przedsięwzięcia oparte na big data. Firmy inwestują znaczne środki, aby pozyskiwać wartościowe dane biznesowe na podstawie ogromnych zbiorów danych. Często jednak nie stosują w tych strategicznych projektach efektywnych rozwiązań do zarządzania danymi i procedur Disaster Recovery. W wielu przypadkach dostępne rozwiązania tego typu nie nadążają za infrastrukturami big data, które rozrastają się w tempie wykładniczym. Dziś, dzięki rozwiązaniu Commvault Software, klienci mogą po raz pierwszy zastosować najlepsze procedury zarządzania danymi w środowiskach Hadoop, Greenplum i GPFS. Innowacje te przynoszą klientom firmy Commvault znaczne korzyści, a przed samą firmą otwierają duże możliwości na dynamicznie rozwijającym się rynku technologii big data" - powiedział Don Foster, dyrektor ds. zarządzania rozwiązaniami w firmie Commvault.

Źródło: Commvault