Virtual-IT.pl - wirtualizacja cloud computing storage data center

Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)
Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)

Wraz z rozwojem technologii wirtualizacji i wynikającymi z tego zmianami krajobrazu środowisk IT, zmienia się podejście do ochrony danych. Z wirtualizacją przegrało wiele rozwiązań zaprojektowanych z myślą o środowiskach fizycznych. Na rynku pojawiły się nowe rozwiązania, opracowane z myślą o środowiskach wirtualnyc...

Czytaj więcej...

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

Microsoft PowerShell z otwartym kodem dla Linuksa i OS X
Microsoft PowerShell z otwartym kodem dla Linuksa i OS X

Po otwarciu źródeł .Net, wydaniu otwartego Visual Studio Code, udostępnieniu silnika Chakra Javascript, zapowiedzi wydania SQL Server dla systemów Linux i szerokiemu wsparciu maszyn wirtualnych z linuksami przez hypervisor Hyper-V i chmurę Azure, gigant z Redmond zrobił kolejny krok w stronę świata open source. Micr...

Czytaj więcej...

Równoważenie obciążenia jako kluczowy element architektury chmurowej
Równoważenie obciążenia jako kluczowy element architektury chmurowej

Równoważenie obciążenia odnosi się do technologii, która jest wykorzystywana do rozdzielania obciążeń roboczych pomiędzy kilkoma komputerami, klastrami, procesorami, pamięcią RAM, dyskami twardymi, jak również innymi elementami infrastruktury w celu optymalizacji wykorzystania zasobów, co przekłada się na zmniejszen...

Czytaj więcej...

Altaro VM Backup dla dostawców usług IT!
Altaro VM Backup dla dostawców usług IT!

Altaro Software, dostawca rozwiązań do tworzenia kopii zapasowych, znany głównie ze swojego flagowego produktu VM Backup, pozwalającego na tworzenie kopii zapasowych maszyn wirtualnych działających w środowisku Microsoft Hyper-V i VMware vSphere, udostępnił portal online, zbudowany specjalnie z myślą o dostawcach us...

Czytaj więcej...

Prognozy Veeam na 2017 rok: chmura kluczowa dla rozwoju biznesu
Prognozy Veeam na 2017 rok: chmura kluczowa dla rozwoju biznesu

Mijający rok dobitnie wskazuje, jak ważna jest stała dostępność - zarówno usług, jak i danych. Wystarczy wspomnieć głośne fiasko elektronicznego spisu powszechnego na kontynencie australijskim, czy równie dotkliwe w skutkach przestoje systemów IT w sektorze transportu pasażerskiego. Awarie te sprawiły, że ludzie na ...

Czytaj więcej...

Aktualności

Prognozy Veeam na 2017 rok: chmura kluczowa dla rozwoju biznesu

veeam cloudMijający rok dobitnie wskazuje, jak ważna jest stała dostępność - zarówno usług, jak i danych. Wystarczy wspomnieć głośne fiasko elektronicznego spisu powszechnego na kontynencie australijskim, czy równie dotkliwe w skutkach przestoje systemów IT w sektorze transportu pasażerskiego. Awarie te sprawiły, że ludzie na całym świecie coraz lepiej zdają sobie sprawę z wagi nieprzerwanego dostępu do informacji i kluczowych usług.


W 2017 roku firmy będą musiały uwzględnić rosnące oczekiwania klientów i zapewnić nieprzerwane dostarczanie usług.

Krzysztof Rachwalski, dyrektor regionalny na rynkach Europy Wschodniej w Veeam Software, wskazuje kluczowe trendy technologiczne, za którymi powinny podążać organizacje chcące spełnić wymagania klientów i partnerów:

• Zacierające się granice między chmurami publicznymi, prywatnymi i hybrydowymi. Kilka lat temu próba rozszerzenia infrastruktury centrum danych na chmurę publiczną byłaby uważana za ryzykowną z powodu wyzwań związanych z łącznością, zapewnieniem bezpieczeństwa oraz czynnikami, które trudno przewidzieć. Jednak dzisiaj rynek dojrzał do przyjęcia architektury chmury hybrydowej, zarówno od strony infrastruktury, jak i aplikacji. Proces ten już się rozpoczął i wkrótce nabierze bardziej masowego charakteru. Napędzają go przedsiębiorstwa dążące do zwiększania zarówno elastyczności i niezawodności operacyjnej, jak też dostępności danych i aplikacji.

• Dynamiczny rozwój infrastruktury definiowanej przez oprogramowanie. Nie jest tajemnicą, że software-defined data center stało się ważnym trendem w ostatnich latach, po części za sprawą popularności wirtualizacji. Uruchamianie aplikacji w środowisku wirtualnym przynosi firmom wiele korzyści. Pomaga zwiększyć efektywność i niezawodność, a także stworzyć elastyczną infrastrukturę IT, która upraszcza zarządzanie oraz oszczędza czas i zasoby. W miarę ewolucji przedsiębiorstw możemy spodziewać się większego popytu na oprogramowanie i usługi, które spełnią oczekiwania następnej generacji innowatorów.

• O krok przed hakerami. W 2017 roku cyberataki oraz szybki rozwój botnetów i złośliwego oprogramowania (w szczególności wymuszającego okup) będą spędzać sen z powiek menedżerom IT. W 2016 roku wiele organizacji padło ofiarą zmasowanych ataków na systemy DNS, przez które duże firmy i usługi były niedostępne w kluczowych okresach. W miarę, jak coraz więcej organizacji będzie dążyło do udostępniania cyfrowych usług, hakerzy będą deptać im po piętach. Firmy będą musiały położyć szczególnie duży nacisk na kompleksową ochronę, backup i odzyskiwanie danych, aby zagwarantować partnerom i klientom stałą dostępność usług.

• Więcej danych, więcej możliwości. Dzisiejsze, a z pewnością jutrzejsze centra danych będą przechowywać coraz więcej informacji, zarówno archiwalnych, jak też mających kluczowe znaczenie dla funkcjonowania firmy. Czy chodzi o napływ danych z internetu rzeczy (IoT), bardziej skomplikowane systemy biznesowe, czy też o powiększanie się istniejących zbiorów informacji, wniosek może być tylko jeden: potop danych nie ustanie. Pozytywnym aspektem tego stanu rzeczy będą korzyści dla firm, które zdecydują się zaprząc do pracy zaawansowaną analitykę w celu usprawnienia aktualnej działalności oraz zaoferowania klientom nowych usług. W 2017 roku firmy będą mogły skuteczniej używać zgromadzonych danych do podejmowania decyzji i kształtowania strategii biznesowych. Te możliwości analityczne będą użyteczne jednak tylko wtedy, gdy dane będą dostępne i sprawdzone. W firmach, które wykorzystują zaawansowaną analitykę w codziennej działalności, każdy przestój nie tylko wstrzymuje transakcje z klientami i dostawcami, ale również utrudnia podejmowanie świadomych decyzji. Przedsiębiorstwa będą musiały skutecznie zadbać o utrzymanie ciągłej dostępności krytycznych systemów, na których opierają swoje narzędzia analityczne.

Stawianie konkretnych prognoz zawsze jest wyzwaniem. Jednak dzisiejszy krajobraz technologiczny zapewnia organizacjom nieograniczone możliwości świadczenia znakomitych usług w oparciu o centrum danych oraz informacje, które są tam przechowywane i przetwarzane. Oczekiwania są takie, że dane te mają być dostępne na żądanie. Minęły czasy, w których przestój uważano za „normalną” część działalności biznesowej. W 2017 roku centrum danych stanie się przedmiotem ciągłej uwagi, jako kluczowy elementu infrastruktury, który zarówno przechowuje informacje, jak i świadczy usługi klientom, pracownikom i partnerom. Posiadanie planu gwarantowania stałej dostępności będzie miało priorytetowe znaczenie dla utrzymania ciągłości działania firmy oraz spełnienia, a nawet przekroczenia oczekiwań.

Źródło: Veeam Software