Virtual-IT.pl - wirtualizacja cloud computing storage SDx data center
Altaro VM Backup

15 najlepiej płatnych certyfikacji w 2017 roku
15 najlepiej płatnych certyfikacji w 2017 roku

Od specjalistów IT bardzo często wymaga się posiadania dodatkowych certyfikatów potwierdzających umiejętności w obszarze, za który są odpowiedzialni. Odpowiednie certyfikaty, w parze z posiadanymi kompetencjami oraz determinacja związana ze zdobywaniem wiedzy, często pomagają wspiąć się na kolejn...

Czytaj więcej...

Bezpieczeństwo IT - w chmurze czy lokalnie?
Bezpieczeństwo IT - w chmurze czy lokalnie?

Jak wskazuje Gartner jednym z głównych trendów w gospodarce światowej jest dziś Cloud Shift, czyli coraz silniejszy nacisk na wykorzystanie chmury obliczeniowej. Analitycy tej firmy twierdzą, że do 2020 roku niewykorzystywanie chmury będzie w przedsiębiorstwach zjawiskiem tak rzadkim, jak obecnie brak dos...

Czytaj więcej...

Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm
Raport Veeam: ciągłość działania usług IT poważnym wyzwaniem dla polskich firm

Badanie firmy Veeam Software, innowacyjnego dostawcy rozwiązań, które zapewniają stałą dostępność na potrzeby przedsiębiorstw działających non stop (Availability for the Always-On Enterprise), pokazuje, że ponad połowa organizacji w Polsce zmaga się z przystosowaniem firmowej infrastruktury do wymogów now...

Czytaj więcej...

Altaro VM Backup 7.6 na horyzoncie!
Altaro VM Backup 7.6 na horyzoncie!

Wielkimi krokami zbliża się nowe wydanie Altaro VM Backup, rozwiązania przeznaczonego do tworzenia kopii zapasowych maszyn wirtualnych działających pod kontrolą hypervisorów Microsoft Hyper-V oraz VMware vSphere/ESXi. W nowej wersji Altaro VM Backup oznaczonej numerem 7.6 wprowadzono kilka istotnych usprawnień. ...

Czytaj więcej...

Gartner: Chmura wśród 10 największych zagrożeń dla biznesu
Gartner: Chmura wśród 10 największych zagrożeń dla biznesu

Nieustający rozwój technologii przynosi nowe ryzyka dla prowadzenia działalności gospodarczej. Firma analityczna Gartner zdiagnozowała dziesięć obszarów, na które musi zwrócić uwagę każdy szybko rozwijający się biznes. Zaskakiwać może wysokie pierwsze miejsce dla chmury obliczeniowej. Eksper...

Czytaj więcej...

Czy VMware przejmie Dell'a?
Czy VMware przejmie Dell'a?

Tytuł niniejszego wpisu nie jest spóźnionym żartem primaaprilisowym lecz wynika z niedawno zaprezentowanej przez Michaela Della wizji dotyczącej odwróconej fuzji (downstream merger). Według niepotwierdzonych informacji upublicznionych przez CNBC, Dell Technologies - największa na świecie firma technologic...

Czytaj więcej...

Dwie trzecie firm z sektora MŚP już wybrało chmurę
Dwie trzecie firm z sektora MŚP już wybrało chmurę

Z raportu "Chmura w MŚP. Zaufanie czy ostrożność przedsiębiorców?" opracowanego przez Onex Group wynika, że już 67 procent małych i średnich firm w Polsce korzysta z rozwiązań chmurowych. W porównaniu z badaniami przeprowadzonymi przed rokiem odnotowano 16 procentowy wzrost. Choć na pierwszy rzut oka taki...

Czytaj więcej...

Aktualności

Chaos danych utopimy w jeziorach?

data lakeAnaliza danych z roku na rok staje się coraz większym wyzwaniem. W 2025 roku do Internetu będzie podłączonych 80 miliardów urządzeń, co pozwoli wygenerować 180 bilionów gigabajtów nowych danych rocznie, wynika z najnowszego raportu IDC. Taka liczba danych może stanowić dla wielu firm poważny problem - wynika z obserwacji firmy TogetherData.


 
W większości firm już dziś ilość nieuporządkowanych danych osiąga niespotykany wcześniej poziom. Z badania sporządzonego przez Enterprise Strategy Group (ESG), wynika, że 47 proc. organizacji zadeklarowało, iż nieustrukturyzowane dane stanowią ponad połowę z posiadanych informacji. Co ciekawe aż 46 proc. badanych określiło dynamikę wzrostu liczby nieuporządkowanych danych na 20 proc. rocznie.

"Większość organizacji agreguje zbierane przez siebie dane w kilkunastu albo nawet kilkudziesięciu różnych systemach, platformach, a nawet nośnikach pamięci masowej. To rozproszenie wprowadza niespotykany dotąd chaos. Wyszukiwanie informacji często trwa nie dni, a tygodnie, co oczywiście niesie ze sobą dodatkowe koszty. Z roku na rok liczba danych wzrasta, a problemy się powiększają" - mówi Michał Grams, Prezes Zarządu TogetherData.

Z analizy przeprowadzonej przez firmę TogetherData wynika, iż największym problemem polskich firm w przypadku korzystania z dużych zbiorów danych jest brak umiejętności zarządzania, wykorzystywania pełnej wydajności, zabezpieczenia zbiorów oraz monetyzacji danych. Odnotowano, iż ponad połowa firm wciąż wykorzystuje technologię tzw. hurtowni danych, które gromadzą informacje w plikach i folderach, co znacznie wydłuża i komplikuje proces porządkowania danych.

"Rozwiązaniem problemu strukturyzacji danych jest korzystanie z tzw. data lakes - jezior danych. Pozwala to na szybką oraz bardzo zaawansowaną analizę danych nie tylko archiwalnych, ale również tych, które generowane są w czasie rzeczywistym. Popyt na technologie jezior danych zaczyna rosnąć, z naszych obserwacji wynika, iż coraz więcej firm zaczyna się interesować tą technologią" - dodaje Michał Grams.

Rok 2018 będzie należał do tzw. data lakes. W stosunku do ubiegłego roku aż o 27 proc. więcej firm ankietowanych przez firmę Synscrot uważa integrowanie danych w „jeziora danych” za istotne. Data lakes stanowią swoiste repozytorium, gdzie przechowywana jest ogromna ilość jeszcze nieprzetworzonych danych. W przeciwieństwie do hurtowni danych w „jeziorach” stosuję płaską niezhierarchizowaną strukturę.  

Obecnie firmy dysponują zettabajtami danych, które zostały zgromadzone w stosunkowo szybkim tempie. Z szacunków IBM wynika, iż 90 procent z nich zostało wygenerowanych w ciągu ostatnich 3 lat. Opublikowane w tym roku badanie przeprowadzone przez firmę AtScale pokazało, iż pomimo postępów dokonanych w dziedzinie analityki danych, globalne przedsiębiorstwa wciąż nie osiągnęły dostatecznego poziomu dojrzałości w tej kwestii. Jedynie 12 procent spośród ponad 5 tys. firm biorących udział w badaniu osiągnęło wysoki poziom dojrzałości technologicznej w przypadku analizy dużych zbiorów danych.

Źródło: TogetherData