Virtual-IT.pl - wirtualizacja cloud computing storage SDx data center

Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm
Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm

Badanie firmy Veeam Software, innowacyjnego dostawcy rozwiązań, które zapewniają stałą dostępność na potrzeby przedsiębiorstw działających non stop (Availability for the Always-On Enterprise), pokazuje, że ponad połowa organizacji w Polsce zmaga się z przystosowaniem firmowej infrastruktury do wymogów now...

Czytaj więcej...

Bezpieczeństwo IT - w chmurze czy lokalnie?
Bezpieczeństwo IT - w chmurze czy lokalnie?

Jak wskazuje Gartner jednym z głównych trendów w gospodarce światowej jest dziś Cloud Shift, czyli coraz silniejszy nacisk na wykorzystanie chmury obliczeniowej. Analitycy tej firmy twierdzą, że do 2020 roku niewykorzystywanie chmury będzie w przedsiębiorstwach zjawiskiem tak rzadkim, jak obecnie brak dos...

Czytaj więcej...

Altaro VM Backup 7.6 na horyzoncie!
Altaro VM Backup 7.6 na horyzoncie!

Wielkimi krokami zbliża się nowe wydanie Altaro VM Backup, rozwiązania przeznaczonego do tworzenia kopii zapasowych maszyn wirtualnych działających pod kontrolą hypervisorów Microsoft Hyper-V oraz VMware vSphere/ESXi. W nowej wersji Altaro VM Backup oznaczonej numerem 7.6 wprowadzono kilka istotnych usprawnień. ...

Czytaj więcej...

Dwie trzecie firm z sektora MŚP już wybrało chmurę
Dwie trzecie firm z sektora MŚP już wybrało chmurę

Z raportu "Chmura w MŚP. Zaufanie czy ostrożność przedsiębiorców?" opracowanego przez Onex Group wynika, że już 67 procent małych i średnich firm w Polsce korzysta z rozwiązań chmurowych. W porównaniu z badaniami przeprowadzonymi przed rokiem odnotowano 16 procentowy wzrost. Choć na pierwszy rzut oka taki...

Czytaj więcej...

Inwestycje w chmurę będą rosły o blisko 19 proc. rocznie
Inwestycje w chmurę będą rosły o blisko 19 proc. rocznie

Polskie firmy coraz powszechniej wdrażają rozwiązania oparte na chmurze obliczeniowej, doceniając korzyści oraz oszczędności w wydatkach na IT. Eksperci prognozują, że rynek ten będzie w najbliższych latach rósł skokowo, a technologia cloud computing wkrótce będzie w stanie zaspokoić wszystkie potrzeby biznesowe fir...

Czytaj więcej...

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

15 najlepiej płatnych certyfikacji w 2017 roku
15 najlepiej płatnych certyfikacji w 2017 roku

Od specjalistów IT bardzo często wymaga się posiadania dodatkowych certyfikatów potwierdzających umiejętności w obszarze, za który są odpowiedzialni. Odpowiednie certyfikaty, w parze z posiadanymi kompetencjami oraz determinacja związana ze zdobywaniem wiedzy, często pomagają wspiąć się na kolejn...

Czytaj więcej...

Aktualności

Chaos danych utopimy w jeziorach?

data lakeAnaliza danych z roku na rok staje się coraz większym wyzwaniem. W 2025 roku do Internetu będzie podłączonych 80 miliardów urządzeń, co pozwoli wygenerować 180 bilionów gigabajtów nowych danych rocznie, wynika z najnowszego raportu IDC. Taka liczba danych może stanowić dla wielu firm poważny problem - wynika z obserwacji firmy TogetherData.


 
W większości firm już dziś ilość nieuporządkowanych danych osiąga niespotykany wcześniej poziom. Z badania sporządzonego przez Enterprise Strategy Group (ESG), wynika, że 47 proc. organizacji zadeklarowało, iż nieustrukturyzowane dane stanowią ponad połowę z posiadanych informacji. Co ciekawe aż 46 proc. badanych określiło dynamikę wzrostu liczby nieuporządkowanych danych na 20 proc. rocznie.

"Większość organizacji agreguje zbierane przez siebie dane w kilkunastu albo nawet kilkudziesięciu różnych systemach, platformach, a nawet nośnikach pamięci masowej. To rozproszenie wprowadza niespotykany dotąd chaos. Wyszukiwanie informacji często trwa nie dni, a tygodnie, co oczywiście niesie ze sobą dodatkowe koszty. Z roku na rok liczba danych wzrasta, a problemy się powiększają" - mówi Michał Grams, Prezes Zarządu TogetherData.

Z analizy przeprowadzonej przez firmę TogetherData wynika, iż największym problemem polskich firm w przypadku korzystania z dużych zbiorów danych jest brak umiejętności zarządzania, wykorzystywania pełnej wydajności, zabezpieczenia zbiorów oraz monetyzacji danych. Odnotowano, iż ponad połowa firm wciąż wykorzystuje technologię tzw. hurtowni danych, które gromadzą informacje w plikach i folderach, co znacznie wydłuża i komplikuje proces porządkowania danych.

"Rozwiązaniem problemu strukturyzacji danych jest korzystanie z tzw. data lakes - jezior danych. Pozwala to na szybką oraz bardzo zaawansowaną analizę danych nie tylko archiwalnych, ale również tych, które generowane są w czasie rzeczywistym. Popyt na technologie jezior danych zaczyna rosnąć, z naszych obserwacji wynika, iż coraz więcej firm zaczyna się interesować tą technologią" - dodaje Michał Grams.

Rok 2018 będzie należał do tzw. data lakes. W stosunku do ubiegłego roku aż o 27 proc. więcej firm ankietowanych przez firmę Synscrot uważa integrowanie danych w „jeziora danych” za istotne. Data lakes stanowią swoiste repozytorium, gdzie przechowywana jest ogromna ilość jeszcze nieprzetworzonych danych. W przeciwieństwie do hurtowni danych w „jeziorach” stosuję płaską niezhierarchizowaną strukturę.  

Obecnie firmy dysponują zettabajtami danych, które zostały zgromadzone w stosunkowo szybkim tempie. Z szacunków IBM wynika, iż 90 procent z nich zostało wygenerowanych w ciągu ostatnich 3 lat. Opublikowane w tym roku badanie przeprowadzone przez firmę AtScale pokazało, iż pomimo postępów dokonanych w dziedzinie analityki danych, globalne przedsiębiorstwa wciąż nie osiągnęły dostatecznego poziomu dojrzałości w tej kwestii. Jedynie 12 procent spośród ponad 5 tys. firm biorących udział w badaniu osiągnęło wysoki poziom dojrzałości technologicznej w przypadku analizy dużych zbiorów danych.

Źródło: TogetherData