Virtual-IT.pl - wirtualizacja cloud computing storage SDx data center

Dwie trzecie firm z sektora MŚP już wybrało chmurę
Dwie trzecie firm z sektora MŚP już wybrało chmurę

Z raportu "Chmura w MŚP. Zaufanie czy ostrożność przedsiębiorców?" opracowanego przez Onex Group wynika, że już 67 procent małych i średnich firm w Polsce korzysta z rozwiązań chmurowych. W porównaniu z badaniami przeprowadzonymi przed rokiem odnotowano 16 procentowy wzrost. Choć na pierwszy rzut oka taki...

Czytaj więcej...

Gartner: Chmura wśród 10 największych zagrożeń dla biznesu
Gartner: Chmura wśród 10 największych zagrożeń dla biznesu

Nieustający rozwój technologii przynosi nowe ryzyka dla prowadzenia działalności gospodarczej. Firma analityczna Gartner zdiagnozowała dziesięć obszarów, na które musi zwrócić uwagę każdy szybko rozwijający się biznes. Zaskakiwać może wysokie pierwsze miejsce dla chmury obliczeniowej. Eksper...

Czytaj więcej...

Bezpieczeństwo IT - w chmurze czy lokalnie?
Bezpieczeństwo IT - w chmurze czy lokalnie?

Jak wskazuje Gartner jednym z głównych trendów w gospodarce światowej jest dziś Cloud Shift, czyli coraz silniejszy nacisk na wykorzystanie chmury obliczeniowej. Analitycy tej firmy twierdzą, że do 2020 roku niewykorzystywanie chmury będzie w przedsiębiorstwach zjawiskiem tak rzadkim, jak obecnie brak dos...

Czytaj więcej...

Altaro VM Backup v8 już dostępny!
Altaro VM Backup v8 już dostępny!

Firma Altaro zaktualizowała swoje flagowe rozwiązanie - Altaro VM Backup - przeznaczone do tworzenia kopii zapasowych maszyn wirtualnych działających pod kontrolą hypervisorów Microsoft Hyper-V oraz VMware vSphere/ESXi. Nowy Altaro VM Backup 8.0 (Build 8.0.3) wprowadza funkcjonalność - WAN-Optimized Replication....

Czytaj więcej...

Chmura obliczeniowa wyprze tradycyjne centra danych
Chmura obliczeniowa wyprze tradycyjne centra danych

Wyniki najnowszego badania Cisco Global Cloud Index koncentrującego się wokół wirtualizacji centrów danych i chmury obliczeniowej wskazują, że do 2021 roku przesył danych związany z chmurą będzie wynosił 19,5 ZB (zettabajtów), a co ważne będzie stanowił 95 procent całkowitego ruchu w centrach danyc...

Czytaj więcej...

15 najlepiej płatnych certyfikacji w 2018 roku
15 najlepiej płatnych certyfikacji w 2018 roku

Nikt nie ma wątpliwości, że IT można zaliczyć do najszybciej rozwijających się branż. Osoby wchodzące w świat IT zadają sobie pytanie jak zrobić ten pierwszy krok, a specjaliści mocno zakorzenieni w branży często myślą na kolejnym krokiem, na drodze do wymarzonego stanowiska. Dobrym sposobem na wprowadzenie zmian, jest...

Czytaj więcej...

Veeam umacnia pozycję lidera w obszarze zarządzania danymi w chmurze
Veeam umacnia pozycję lidera w obszarze zarządzania danymi w chmurze

Podczas konferencji Veeam Velocity 2019 odbywającej się w tym tygodniu w Orlando, Veeam Software podkreślając swoje mocne zaangażowanie w usprawnienie zarządzania danymi w chmurze, integracji chmury, przenoszeniu obciążeń między lokalizacjami i podniesieniu możliwości związanych z bezpieczeństwem zaprezentował Veeam Av...

Czytaj więcej...

Aktualności

Prognozy firmy NetApp na rok 2019

prognozy NetAppWkroczyliśmy już w rok 2019. Przy tej okazji Atish Gude, starszy wiceprezes i dyrektor ds. strategii w NetApp, zwraca uwagę na kwestie, które można zauważyć w trendach biznesowych i technologicznych występujących na rynku. Gude zwraca uwagę, że sztuczna inteligencja pojawia się jako element trendów związanych z projektowaniem, zarządzaniem danymi i udostępnianiem aplikacji oraz usług na granicy sieci, w jej rdzeniu i w chmurze.

 

Newralgiczną technologią staje się również konteneryzacja, a urządzenia Internetu rzeczy (IoT) znajdujące się na granicy sieci są coraz bardziej zaawansowane. To projektanci i programiści wyznaczają kierunki transformacji. Dzięki ich wymaganiom pojawiają się nowe paradygmaty i nowe technologie, w których muszą potem osiągnąć biegłość, aby zachować w dłuższej perspektywie dobrą pozycję na rynku.

1. Pierwszym obszarem działania rozwiązań sztucznej inteligencji będą chmury

Technologie sztucznej inteligencji są nadal na wczesnych etapach rozwoju. Będą wykorzystywane do przetwarzania ogromnych ilości danych, w większości przypadków w chmurach publicznych.

Dzięki szybko poszerzającej się ofercie oprogramowania i usług opartych na sztucznej inteligencji, dostępnych głównie w chmurze, tworzenie rozwiązań tego rodzaju będzie procesem coraz mniej złożonym. Aplikacje takie będą mogły uzyskać dużą wydajność i skalowalność, zarówno w środowiskach lokalnych, jak i zdalnych; będą też obsługiwać różne protokoły dostępu do danych i wiele nowych formatów danych. Zmiany czekają również infrastrukturę umożliwiającą obsługę obciążeń obliczeniowych korzystających ze sztucznej inteligencji - niezbędna tu jest odpowiednia szybkość, odporność i automatyzacja. Systemy sztucznej inteligencji staną się bez wątpienia kolejnym obszarem rywalizacji dla dostawców infrastruktury, jednak większość nowych projektów będzie realizowana z myślą o chmurach.

2. Internet rzeczy: nie kontaktuj się z centralą. Rozwiąż problem samodzielnie

Urządzenia graniczne będą bardziej inteligentne i w większym stopniu zdolne do podejmowania w czasie rzeczywistym decyzji dotyczących przetwarzania danych i działania aplikacji.

Tradycyjne urządzenia Internetu rzeczy (IoT) konstruuje się z uwzględnieniem paradygmatu „połączenia z centralą”: ich praca polega na gromadzeniu danych, przesyłaniu ich do przetworzenia i oczekiwaniu na instrukcje. Jednak nawet po pojawieniu się sieci 5G w przypadku podejmowania decyzji w czasie rzeczywistym nie zawsze można czekać na zakończenie obiegu danych do centrum przetwarzania w chmurze i z powrotem, a do tego ilość przesyłanych danych wciąż rośnie. Dlatego przetwarzanie powinno odbywać się jak najbliżej odbiorcy, a to oznacza, że wzrośnie zapotrzebowanie na funkcje przetwarzania danych na granicy sieci. Urządzenia i aplikacje IoT - wykorzystujące wbudowane usługi, na przykład analizy i redukcji danych - będą coraz szybciej, skuteczniej i inteligentniej podejmować decyzje o tym, które dane wymagają natychmiastowego działania, które należy przesłać do rdzenia sieci lub do chmury, a których należy się po prostu pozbyć.

3. Wszystko ma działać „automagicznie”

Dzięki zapotrzebowaniu na bardzo uproszczone usługi wzrośnie poziom abstrakcji zasobów informatycznych, a usługi przetwarzania danych staną się standardowymi produktami.

Jakiś czas temu producenci samochodów zaczęli przechwalać się w reklamach, że pierwszy przegląd auta nastąpi dopiero po 100 tysiącach mil. W pewnym zakresie te zapowiedzi okazały się zresztą prawdziwe. Rzecz w tym, że w zasadzie nikt już nie poświęca weekendów na samodzielną wymianę oleju albo świec zapłonowych czy napinanie paska rozrządu. Wsiadamy do samochodu, przekręcamy kluczyk, jedziemy. Nie musimy nad niczym się zastanawiać, dopóki nie pojawi się informacja, że jakiś element wymaga sprawdzenia. Nic prostszego. Użytkownicy mają podobne oczekiwania wobec infrastruktury informatycznej, zaczynając od pamięci masowych i funkcji zarządzania danymi. Programiści nie chcą się nad tym zastanawiać, chcą po prostu pracować. Wszystko ma się odbywać „automagicznie” i już! Szczególnie w przypadku konteneryzacji i technologii „bezserwerowych” tendencja do zwiększania poziomu abstrakcji poszczególnych systemów i usług sprawi, że architekci systemów informatycznych zaczną projektować rozwiązania pod kątem danych i ich przetwarzania, tak aby zbudować hybrydowe, obejmujące wiele chmur infrastruktury przetwarzania danych, a nie zwykłe centra obliczeniowe.  Dzięki zastosowaniu technologii i diagnostyki predykcyjnej osoby podejmujące decyzje będą mogły w większym stopniu oprzeć się na wyjątkowo niezawodnych, „niewidzialnych” usługach przetwarzania, udostępniających dane niezależnie od miejsca ich przechowywania tam, gdzie są potrzebne i wtedy, kiedy są potrzebne. Dzięki takim nowym możliwościom uda się również zautomatyzować proces udostępniania usług infrastrukturalnych w postaci dynamicznych produktów standardowych, a także proces przesyłania kontenerów i obciążeń między rozwiązaniami różnych usługodawców w celu zastosowania najbardziej efektywnego w danym przypadku rozwiązania.

4. Jedną z możliwości będzie tworzenie rozwiązań dla środowisk wielochmurowych (a każdy wybór, jak wiadomo, niesie ze sobą pewne konsekwencje…)

Hybrydowe, obejmujące wiele chmur środowiska staną się standardową architekturą informatyczną większości dużych przedsiębiorstw, natomiast inne organizacje zdecydują się na prostotę i spójność oferowane przez pojedynczego dostawcę.

Dzięki kontenerom obciążenia obliczeniowe staną się wyjątkowo przenośnymi obiektami. Same dane mogą być jednak znacznie mniej przenośne niż zasoby obliczeniowe i aplikacje, co będzie mieć wpływ na przenośność środowisk wykonawczych. Nawet po rozwiązaniu problemów dotyczących „grawitacji” danych, ich spójności, bezpieczeństwa i ochrony, oraz uwzględnieniu innych aspektów, wciąż może wystąpić zjawisko uzależnienia od jednej platformy i usług specyficznych dla danego dostawcy usług chmurowych, na których to usługach należy się oprzeć w projektowanym rozwiązaniu, zupełnie niedającym się przenieść do innej chmury. W efekcie mniejsze przedsiębiorstwa będą wolały budować rozwiązania we własnym zakresie, bez korzystania z oferty dostawców usług chmurowych albo zdecydują się na prostotę, optymalizację i automatyczne zarządzanie, które można uzyskać dzięki wyborowi pojedynczego dostawcy. A dostawcy bez wątpienia opracują nowe mechanizmy oferujące korzyści firmom decydującym się na zastosowanie ich platform. Z drugiej strony większe przedsiębiorstwa będą oczekiwały elastyczności, niezależności i niskich kosztów, które wynikają z możliwości przemieszczania aplikacji między chmurami. Zastosują kontenery i infrastrukturę przetwarzania danych, aby uniknąć uzależnienia od jednego dostawcy, zapewnić pełną przenośność i zachować pełną kontrolę nad rozwojem środowiska. Niezależnie od wybranej drogi organizacje dowolnej wielkości muszą pomyśleć o opracowaniu strategii i procedur pozwalających zmaksymalizować korzyści z zastosowanego rozwiązania.

5. Kontenery: naprawdę fajna nowość

Koordynacja działania chmury oparta na kontenerach umożliwi tworzenie aplikacji rzeczywiście przygotowanych do działania w chmurach hybrydowych.

Zaletą kontenerów jest między innymi możliwość uniezależnienia się od konkretnego dostawcy usług. Technologie konteneryzacji, takie jak Docker, będą nadal mieć znaczenie, ale standardem de facto w dziedzinie tworzenia aplikacji dla środowisk wielochmurowych stanie się Kubernetes, co nie jest zresztą zbyt odkrywczym stwierdzeniem. Istnieje jednak pewien bardzo interesujący aspekt tego zagadnienia: nowe, oparte na kontenerach technologie koordynacji działania chmury umożliwią tworzenie aplikacji przeznaczonych dla chmur hybrydowych, a to oznacza, że nowe aplikacje będą mogły działać zarówno w chmurze publicznej, jak i w środowisku lokalnym: zniknie potrzeba ciągłego przenoszenia aplikacji między środowiskami. Coraz łatwiej będzie przenosić obciążenia w miejsce, w którym generowane są dane, a nie odwrotnie, jak w tradycyjnym podejściu.

Źródło: NetApp