Virtual-IT.pl - wirtualizacja cloud computing storage SDx data center

#VeeamON2017 - Rozszerzenie platformy Veeam Availability
#VeeamON2017 - Rozszerzenie platformy Veeam Availability

Firma Veeam Software, w trakcie konferencji VeeamON 2017, poinformowała o rozszerzeniu platformy Veeam ‘Always-On Cloud’ Availability Platform o nowy framework Universal Storage API oraz rozszerzenie ekosystemu partnerów strategicznych.

Czytaj więcej...

Bezpieczeństwo IT - w chmurze czy lokalnie?
Bezpieczeństwo IT - w chmurze czy lokalnie?

Jak wskazuje Gartner jednym z głównych trendów w gospodarce światowej jest dziś Cloud Shift, czyli coraz silniejszy nacisk na wykorzystanie chmury obliczeniowej. Analitycy tej firmy twierdzą, że do 2020 roku niewykorzystywanie chmury będzie w przedsiębiorstwach zjawiskiem tak rzadkim, jak obecnie brak dos...

Czytaj więcej...

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

Altaro VM Backup 7.5 z backupem do chmury Azure
Altaro VM Backup 7.5 z backupem do chmury Azure

Firma Altaro zaktualizowała swoje flagowe rozwiązanie - Altaro VM Backup - przeznaczone do tworzenia kopii zapasowych maszyn wirtualnych działających pod kontrolą hypervisorów Microsoft Hyper-V oraz VMware vSphere/ESXi. W nowej wersji Altaro VM Backup v7.5 wprowadzono wsparcie dla składowania kopii zapasowych w ...

Czytaj więcej...

Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm
Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm

Badanie firmy Veeam Software, innowacyjnego dostawcy rozwiązań, które zapewniają stałą dostępność na potrzeby przedsiębiorstw działających non stop (Availability for the Always-On Enterprise), pokazuje, że ponad połowa organizacji w Polsce zmaga się z przystosowaniem firmowej infrastruktury do wymogów now...

Czytaj więcej...

15 najlepiej płatnych certyfikacji w 2016 roku
15 najlepiej płatnych certyfikacji w 2016 roku

Certyfikacja wśród specjalistów z branży IT jest elementem często pożądanym przez pracodawców. By aktywnie uczestniczyć w rynku pracy, należy stale podnosić swoje kwalifikacje. Odpowiednie certyfikaty idąc w parze z posiadanymi i rozwijanymi umiejętnościami oraz determinacja związana ze zdobywaniem wiedzy, niejednok...

Czytaj więcej...

Aktualności

Jakie trendy miały wpływ na branżę odzyskiwania danych w 2015 roku?

Data RecoveryRosnące zainteresowanie złożonymi rozwiązaniami SDS to trend, który najmocniej wpłynął na rynek odzyskiwania danych w 2015 roku - wynika z analiz ekspertów Kroll Ontrack. Przełożyło się to na rozwój zaawansowanych technik odzyskiwania danych dla przedsiębiorstw. W minionym roku trendy dyktowały także: ochrona prywatności i bezpieczeństwa informacji oraz rozwój technologii zarządzania archiwami danych.


Pamięci masowe zdefiniowane programowo (Software Defined Storage)
Możliwość odzyskiwania danych z rozwiązań SDS to już nie nowinka technologiczna, ale konieczność. W założeniu bezawaryjne, coraz popularniejsze wśród użytkowników biznesowych systemy SDS, okazały się jednak zawodne i niejednokrotnie w 2015 roku wymagały interwencji specjalistów odzyskiwania danych. Jak zauważają eksperci, takie przypadki utraty danych wymagały opracowania dedykowanych rozwiązań, ponieważ większość producentów wykorzystuje własne metody przechowywania danych w obrębie SDS.

"Niezależnie od tego, czy przedsiębiorstwa korzystają z systemów EMC Isilon, Infortrend EonStor, HP StorageWorks czy z innych systemów korporacyjnych, odzyskiwanie tego typu danych jest możliwe, choć bardzo złożone. W 2015 roku zaobserwowaliśmy dwukrotny wzrost liczby awarii systemów SDS, skutkujących utratą danych. Warunkiem udanego procesu odzyskiwania danych z takich rozwiązań jest przede wszystkim dokładne zidentyfikowanie awarii, analiza i rozszyfrowanie dedykowanych wzorów przechowywania danych. Potem powinna nastąpić odbudowa systemu plików i opracowanie narzędzi służących przywróceniu kluczowych informacji" - mówi Adam Kostecki, specjalista do spraw rozwoju i bezpieczeństwa Kroll Ontrack.

Hiperkonwergentne systemy: połączenie sprzętu sieciowego, pamięci masowej i wirtualizacji
Hiperkonwergencja to jedna z najważniejszych innowacji, związanych z przechowywaniem danych. Tego typu architektura IT łączy w sobie sprzęt, sieć i zasoby pamięci masowej za pośrednictwem oprogramowania, umożliwiającego uruchomienie na każdym urządzeniu, niezależnie od jego producenta.

Rozwiązania tego typu pojawiły się na rynku pod koniec 2014 roku, a w 2015 roku ich popularność rosła. Specjaliści przewidują, że w 2016 roku - pociągnie to za sobą konieczność opracowania technologii służących odzyskiwaniu danych z systemów hiperkonwergentnych. Takie procesy może skomplikować wstępna konfiguracja systemu, zwłaszcza nośników HDD, SSD oraz pamięci Flash lub w ogóle brak informacji o konfiguracji systemu.

Stacjonarne i zdalne odzyskiwanie danych: ochrona informacji we wrażliwych i kluczowych środowiskach
Sektor odzyskiwania danych to branża, na którą silnie wpływają globalne regulacje, dotyczące prywatności i bezpieczeństwa danych. Zmieniające się otoczenie prawne i tendencja do regulowania dostępu do określonych informacji, przekładają się na rosnące zapotrzebowanie na zdalne lub odbywające się wewnątrz organizacji procesy odzyskiwania danych. Przywracanie informacji bez transportowania ich poza firmę to także konieczność w przypadku złożonych i rozbudowanych systemów.

Zarządzanie archiwami danych: wgląd i korzystanie z archiwalnych informacji
Wiele przedsiębiorstw stoi w obliczu obowiązku przechowywania i utrzymania dostępu do archiwalnych danych. Bywa to kosztowne i kłopotliwe. Niewłaściwe prowadzenie archiwów cyfrowych może z kolei skutkować problemami prawnymi. W 2015 roku globalne badanie Kroll Ontrack, przeprowadzone wśród ponad 700 administratorów IT ujawniło, że prawie jedna trzecia organizacji nie ma wglądu w informacje przechowywane za pośrednictwem archiwów taśmowych. Wśród dobrych praktyk, związanych z zarządzaniem archiwami taśmowymi, kluczowe jest zidentyfikowanie ich jakości i uzyskanie wiedzy na temat zgromadzonych na nich informacji. Specjaliści dostrzegają więc zapotrzebowanie na technologie nie tylko katalogujące informacje i ich umiejscowienie, ale także konsolidujące katalogi z wielu systemów w jeden, umożliwiający przeszukiwanie zasób.

Kasowanie danych i weryfikacja: nacisk na bezpieczeństwo i walkę z nieumyślną ekspozycją informacji
W 2015 roku po raz kolejny okazało się, że prywatność i bezpieczeństwo danych to priorytety każdej organizacji. Rosnąca liczba informacji na temat cyberprzestępczości i naruszeń danych była dla przedsiębiorstw motorem do wzmacniania procedur bezpieczeństwa.

"Rośnie liczba zapytań ze strony działów IT i producentów napędów, dotyczących weryfikacji skuteczności fabrycznych funkcji usuwania danych. W rezultacie, Kroll Ontrack doświadcza gwałtownego wzrostu zapotrzebowania na usługi weryfikacji kasowania danych. Nasi inżynierowie coraz częściej przeprowadzają szczegółową analizę napędów i przygotowują sprawozdania weryfikujące, czy zastosowane metody usuwania informacji są bezpieczne" - wyjaśnia Adam Kostecki.

Źródło: Kroll Ontrack