Virtual-IT.pl - wirtualizacja cloud computing storage data center

Czy ufamy chmurze? - Raport Intel Security
Czy ufamy chmurze? - Raport Intel Security

Tylko jedna trzecia (34%) osób przebadanych w ramach nowego projektu Intel Security uznała, że członkowie najwyższego kierownictwa w ich organizacjach w pełni rozumieją kwestie bezpieczeństwa chmury obliczeniowej. Kompletne wyniki ankiety wskazują na ogromną, wręcz krytyczną potrzebę zwiększania poziomu zaufania do ...

Czytaj więcej...

Microsoft PowerShell z otwartym kodem dla Linuksa i OS X
Microsoft PowerShell z otwartym kodem dla Linuksa i OS X

Po otwarciu źródeł .Net, wydaniu otwartego Visual Studio Code, udostępnieniu silnika Chakra Javascript, zapowiedzi wydania SQL Server dla systemów Linux i szerokiemu wsparciu maszyn wirtualnych z linuksami przez hypervisor Hyper-V i chmurę Azure, gigant z Redmond zrobił kolejny krok w stronę świata open source. Micr...

Czytaj więcej...

Równoważenie obciążenia jako kluczowy element architektury chmurowej
Równoważenie obciążenia jako kluczowy element architektury chmurowej

Równoważenie obciążenia odnosi się do technologii, która jest wykorzystywana do rozdzielania obciążeń roboczych pomiędzy kilkoma komputerami, klastrami, procesorami, pamięcią RAM, dyskami twardymi, jak również innymi elementami infrastruktury w celu optymalizacji wykorzystania zasobów, co przekłada się na zmniejszen...

Czytaj więcej...

Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)
Altaro VM Backup 6 dla Hyper-V i VMware - przegląd i instalacja (cz. 1)

Wraz z rozwojem technologii wirtualizacji i wynikającymi z tego zmianami krajobrazu środowisk IT, zmienia się podejście do ochrony danych. Z wirtualizacją przegrało wiele rozwiązań zaprojektowanych z myślą o środowiskach fizycznych. Na rynku pojawiły się nowe rozwiązania, opracowane z myślą o środowiskach wirtualnyc...

Czytaj więcej...

Prognozy Veeam na 2017 rok: chmura kluczowa dla rozwoju biznesu
Prognozy Veeam na 2017 rok: chmura kluczowa dla rozwoju biznesu

Mijający rok dobitnie wskazuje, jak ważna jest stała dostępność - zarówno usług, jak i danych. Wystarczy wspomnieć głośne fiasko elektronicznego spisu powszechnego na kontynencie australijskim, czy równie dotkliwe w skutkach przestoje systemów IT w sektorze transportu pasażerskiego. Awarie te sprawiły, że ludzie na ...

Czytaj więcej...

Altaro VM Backup dla dostawców usług IT!
Altaro VM Backup dla dostawców usług IT!

Altaro Software, dostawca rozwiązań do tworzenia kopii zapasowych, znany głównie ze swojego flagowego produktu VM Backup, pozwalającego na tworzenie kopii zapasowych maszyn wirtualnych działających w środowisku Microsoft Hyper-V i VMware vSphere, udostępnił portal online, zbudowany specjalnie z myślą o dostawcach us...

Czytaj więcej...

Aktualności

DataCore - Priorytety użytkowników oprogramowania do wirtualizacji

DataCoreDataCore Software, dostawca oprogramowania do wirtualizacji pamięci masowych, podsumował tegoroczne trendy związane z wykorzystaniem przez klientów nowej generacji platformy SANsymphony-V. Firma przekroczyła ważną liczbę 10 tys. zrealizowanych wdrożeń, co jest potwierdzeniem trendu, że to oprogramowanie stanowi ważny element w infrastrukturze pamięci masowych, znajdujących się w centrach danych.


Trzy główne scenariusze użycia oprogramowania DataCore wskazywane przez klientów w 2013 r. to:
1. Coraz częstsze wykorzystanie pamięci flash w centrach danych - zapewniają one unikalną możliwość znacznego zwiększenia wydajności całej infrastruktury pamięci masowych, jako że tylko ok. 5% danych w środowisku IT jest wykorzystywanych na tyle często, że powinno być przechowywanych na najszybszym nośniku. Producenci macierzy opartych wyłącznie na dyskach flash przekonują, do kupna ich rozwiązania, jednak nie zawsze jest to konieczne. Dzięki oprogramowaniu DataCore czasami wystarczy umieścić w serwerze kartę rozszerzeń z pamięcią flash i poddać ją wirtualizacji wraz z innymi macierzami, aby znacznie zwiększyć wydajność środowiska pamięci masowych.
2. Wykorzystanie wirtualizacji do obsługi aplikacji wymagających największej wydajności - bazy danych, systemy ERP oraz poczta elektroniczna to najczęstsze rozwiązania podatne na powstawanie wąskich gardeł w każdej architekturze pamięci masowych, ze względu na ich duże zapotrzebowanie na moc transakcyjną. Wirtualizacja pozwala na połączenie wszystkich posiadanych przez firmę pamięci masowych i zróżnicowanie ich na warstwy wobec oferowanej wydajności. Dzięki temu aplikacje wymagające największej mocy transakcyjnej mogą trafić na najszybsze pamięci masowe - automatycznie, bez konieczności ingerencji administratora.
3. Łączenie ze sobą niekompatybilnych systemów pamięci masowych - taką możliwość daje tylko wirtualizacja. Dzięki temu w jedną pulę mogą zostać połączone urządzenia firm EMC, NetApp, IBM, Dell czy HP - bez wirtualizacji żadne z nich nie jest w stanie współpracować bezpośrednio ze sobą. Klienci DataCore często wskazywali też na problemy z kompatybilnością między różnymi modelami macierzy dyskowych nawet od tego samego dostawcy, co w konsekwencji skłoniło ich do wyboru rozwiązania wirtualizacyjnego.

"Coraz większe zainteresowanie rozwiązaniami DataCore potwierdza, że oprogramowanie wygrywa ze sprzętem. Najlepiej obrazuje to fakt, że nawet najwięksi dostawcy sprzętu ogłaszają swoją strategię związaną z centrami danych zarządzanymi przez oprogramowanie. Jednak tylko niezależny dostawca takich rozwiązań jest w stanie spełnić oczekiwania klientów, związane z automatyzacją i wirtualizacją zasobów pochodzących od różnych producentów" - powiedział George Teixeira, prezes zarządu i dyrektor DataCore.

Potwierdzeniem tych słów jest umieszczenie rozwiązania DataCore w raporcie Gartnera “IT Market Clock for Storage, 2013” opublikowanym 6 września 2013 r. Autorzy raportu - Valdis Filks, Dave Russell oraz Arun Chandrasekan - określili trend związany z zarządzaniem pamięciami masowymi przy pomocy oprogramowania, jako wkraczający w zaawansowaną fazę: - Daje on możliwość znacznego ograniczenia wydatków na pamięci masowe, dzięki możliwości pełnego wykorzystania wszystkich posiadanych zasobów. Jednocześnie coraz częściej dane muszą być współdzielone między wieloma użytkownikami, niezależnie od miejsca ich przechowywania - w lokalnym centrum danych, czy też w chmurze.

Źródło: DataCore Software