Virtual-IT.pl - wirtualizacja cloud computing storage SDx data center

Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)
Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)

Wraz z rozwojem technologii wirtualizacji i wynikającymi z tego zmianami krajobrazu środowisk IT, zmienia się podejście do ochrony danych. Z wirtualizacją przegrało wiele rozwiązań zaprojektowanych z myślą o środowiskach fizycznych. Na rynku pojawiły się nowe rozwiązania, opracowane z myślą o środowiskach wirtualnyc...

Czytaj więcej...

Altaro VM Backup dla dostawców usług IT!
Altaro VM Backup dla dostawców usług IT!

Altaro Software, dostawca rozwiązań do tworzenia kopii zapasowych, znany głównie ze swojego flagowego produktu VM Backup, pozwalającego na tworzenie kopii zapasowych maszyn wirtualnych działających w środowisku Microsoft Hyper-V i VMware vSphere, udostępnił portal online, zbudowany specjalnie z myślą o dostawcach us...

Czytaj więcej...

Pięć głównych zasad zarządzania danymi
Pięć głównych zasad zarządzania danymi

Obecnie centralnym elementem każdej działalności biznesowej są dane. Firmy chcą z nich aktywnie korzystać bez względu na miejsce, w którym dane te są przechowywane. W przemówieniu inaugurującym konferencję Commvault GO 2016, Robert Hammer, prezes i dyrektor generalny firmy Commvault, przedstawił pięć podstawowych za...

Czytaj więcej...

Prognozy Veeam na 2017 rok: chmura kluczowa dla rozwoju biznesu
Prognozy Veeam na 2017 rok: chmura kluczowa dla rozwoju biznesu

Mijający rok dobitnie wskazuje, jak ważna jest stała dostępność - zarówno usług, jak i danych. Wystarczy wspomnieć głośne fiasko elektronicznego spisu powszechnego na kontynencie australijskim, czy równie dotkliwe w skutkach przestoje systemów IT w sektorze transportu pasażerskiego. Awarie te sprawiły, że ludzie na ...

Czytaj więcej...

15 najlepiej płatnych certyfikacji w 2016 roku
15 najlepiej płatnych certyfikacji w 2016 roku

Certyfikacja wśród specjalistów z branży IT jest elementem często pożądanym przez pracodawców. By aktywnie uczestniczyć w rynku pracy, należy stale podnosić swoje kwalifikacje. Odpowiednie certyfikaty idąc w parze z posiadanymi i rozwijanymi umiejętnościami oraz determinacja związana ze zdobywaniem wiedzy, niejednok...

Czytaj więcej...

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

Aktualności

Jakie trendy miały wpływ na branżę odzyskiwania danych w 2015 roku?

Data RecoveryRosnące zainteresowanie złożonymi rozwiązaniami SDS to trend, który najmocniej wpłynął na rynek odzyskiwania danych w 2015 roku - wynika z analiz ekspertów Kroll Ontrack. Przełożyło się to na rozwój zaawansowanych technik odzyskiwania danych dla przedsiębiorstw. W minionym roku trendy dyktowały także: ochrona prywatności i bezpieczeństwa informacji oraz rozwój technologii zarządzania archiwami danych.


Pamięci masowe zdefiniowane programowo (Software Defined Storage)
Możliwość odzyskiwania danych z rozwiązań SDS to już nie nowinka technologiczna, ale konieczność. W założeniu bezawaryjne, coraz popularniejsze wśród użytkowników biznesowych systemy SDS, okazały się jednak zawodne i niejednokrotnie w 2015 roku wymagały interwencji specjalistów odzyskiwania danych. Jak zauważają eksperci, takie przypadki utraty danych wymagały opracowania dedykowanych rozwiązań, ponieważ większość producentów wykorzystuje własne metody przechowywania danych w obrębie SDS.

"Niezależnie od tego, czy przedsiębiorstwa korzystają z systemów EMC Isilon, Infortrend EonStor, HP StorageWorks czy z innych systemów korporacyjnych, odzyskiwanie tego typu danych jest możliwe, choć bardzo złożone. W 2015 roku zaobserwowaliśmy dwukrotny wzrost liczby awarii systemów SDS, skutkujących utratą danych. Warunkiem udanego procesu odzyskiwania danych z takich rozwiązań jest przede wszystkim dokładne zidentyfikowanie awarii, analiza i rozszyfrowanie dedykowanych wzorów przechowywania danych. Potem powinna nastąpić odbudowa systemu plików i opracowanie narzędzi służących przywróceniu kluczowych informacji" - mówi Adam Kostecki, specjalista do spraw rozwoju i bezpieczeństwa Kroll Ontrack.

Hiperkonwergentne systemy: połączenie sprzętu sieciowego, pamięci masowej i wirtualizacji
Hiperkonwergencja to jedna z najważniejszych innowacji, związanych z przechowywaniem danych. Tego typu architektura IT łączy w sobie sprzęt, sieć i zasoby pamięci masowej za pośrednictwem oprogramowania, umożliwiającego uruchomienie na każdym urządzeniu, niezależnie od jego producenta.

Rozwiązania tego typu pojawiły się na rynku pod koniec 2014 roku, a w 2015 roku ich popularność rosła. Specjaliści przewidują, że w 2016 roku - pociągnie to za sobą konieczność opracowania technologii służących odzyskiwaniu danych z systemów hiperkonwergentnych. Takie procesy może skomplikować wstępna konfiguracja systemu, zwłaszcza nośników HDD, SSD oraz pamięci Flash lub w ogóle brak informacji o konfiguracji systemu.

Stacjonarne i zdalne odzyskiwanie danych: ochrona informacji we wrażliwych i kluczowych środowiskach
Sektor odzyskiwania danych to branża, na którą silnie wpływają globalne regulacje, dotyczące prywatności i bezpieczeństwa danych. Zmieniające się otoczenie prawne i tendencja do regulowania dostępu do określonych informacji, przekładają się na rosnące zapotrzebowanie na zdalne lub odbywające się wewnątrz organizacji procesy odzyskiwania danych. Przywracanie informacji bez transportowania ich poza firmę to także konieczność w przypadku złożonych i rozbudowanych systemów.

Zarządzanie archiwami danych: wgląd i korzystanie z archiwalnych informacji
Wiele przedsiębiorstw stoi w obliczu obowiązku przechowywania i utrzymania dostępu do archiwalnych danych. Bywa to kosztowne i kłopotliwe. Niewłaściwe prowadzenie archiwów cyfrowych może z kolei skutkować problemami prawnymi. W 2015 roku globalne badanie Kroll Ontrack, przeprowadzone wśród ponad 700 administratorów IT ujawniło, że prawie jedna trzecia organizacji nie ma wglądu w informacje przechowywane za pośrednictwem archiwów taśmowych. Wśród dobrych praktyk, związanych z zarządzaniem archiwami taśmowymi, kluczowe jest zidentyfikowanie ich jakości i uzyskanie wiedzy na temat zgromadzonych na nich informacji. Specjaliści dostrzegają więc zapotrzebowanie na technologie nie tylko katalogujące informacje i ich umiejscowienie, ale także konsolidujące katalogi z wielu systemów w jeden, umożliwiający przeszukiwanie zasób.

Kasowanie danych i weryfikacja: nacisk na bezpieczeństwo i walkę z nieumyślną ekspozycją informacji
W 2015 roku po raz kolejny okazało się, że prywatność i bezpieczeństwo danych to priorytety każdej organizacji. Rosnąca liczba informacji na temat cyberprzestępczości i naruszeń danych była dla przedsiębiorstw motorem do wzmacniania procedur bezpieczeństwa.

"Rośnie liczba zapytań ze strony działów IT i producentów napędów, dotyczących weryfikacji skuteczności fabrycznych funkcji usuwania danych. W rezultacie, Kroll Ontrack doświadcza gwałtownego wzrostu zapotrzebowania na usługi weryfikacji kasowania danych. Nasi inżynierowie coraz częściej przeprowadzają szczegółową analizę napędów i przygotowują sprawozdania weryfikujące, czy zastosowane metody usuwania informacji są bezpieczne" - wyjaśnia Adam Kostecki.

Źródło: Kroll Ontrack