Virtual-IT.pl - data center cloud computing SDx AI storage network cybersecurity

Integracja AIOps w kompleksowym monitorowaniu IT: Site24x7
Integracja AIOps w kompleksowym monitorowaniu IT: Site24x7

Środowiska IT stają się coraz bardziej rozbudowane. Firmy korzystają z infrastruktury on-premise jak również z rozwiązań chmurowych, często z wielu chmur (multicloud). W takiej sytuacji kluczem dla zapewnienia niezawodnego działania systemów IT jest monitoring infrastruktury. Właściwe rozwiązanie do monit...

Czytaj więcej...

Brak wykwalifikowanej kadry i starzejące się systemy główną barierą cyfryzacji
Brak wykwalifikowanej kadry i starzejące się systemy główną barierą cyfryzacji

Według opublikowanego przez Veeam raportu Data Protection Trends Report 2022, największym wyzwaniem dla firm związanym z cyfryzacją są braki wykwalifikowanej kadry IT i starzejące się systemy. Aż 1/3 przedsiębiorstw w razie awarii i braku dostępu do zasobów planuje przywracać działanie serwerów w trybie r...

Czytaj więcej...

Chcielibyśmy, żeby chmura…, czyli oczekiwania wobec dostawcy
Chcielibyśmy, żeby chmura…, czyli oczekiwania wobec dostawcy

Wyniki badania PMR dla Polskiej Chmury wskazują, że ponad 2/3 firm korzysta z rozwiązań chmurowych, a około 1/3 jest w trakcie ich wdrażania. Tym samym chmura to już stały element ekosystemu i działalności przedsiębiorstw w Polsce. Rynek ten dojrzał i firmy szukają w chmurze korzyści oraz rozwiązań dopasowanych wprost ...

Czytaj więcej...

Historia oszukiwania ludzi przez sztuczną inteligencję
Historia oszukiwania ludzi przez sztuczną inteligencję

Wraz z rozwojem nowoczesnych technologii rozwijają się również złośliwe schematy. Od niedawna do długiej listy oszustw dołączyła sztuczna inteligencja (Artificial Intelligence, AI). Wykorzystanie technologii sztucznej inteligencji i uczenia maszynowego (Machine Learning, ML) przenosi phishing i inne oszustwa cyb...

Czytaj więcej...

Broadcom upraszcza ofertę i model licencjonowania VMware
Broadcom upraszcza ofertę i model licencjonowania VMware

W ciągu ostatnich dwóch lat firma VMware podejmowała wysiłki mające na celu uproszczenie swojego portfolio rozwiązań i przejście z modelu licencji wieczystych na model subskrypcji, który branża przyjęła już jako standard korzystania z chmury. Firma zaznaczyła, że takie zmiany przyniosą klientom większe ko...

Czytaj więcej...

FRITZ!Box 6850 5G - router gotowy na sieć piątej generacji
FRITZ!Box 6850 5G - router gotowy na sieć piątej generacji

Przed kilkoma tygodniami w skromnych progach naszej Virtual-nej redakcji pojawiła się przesyłka zawierająca router FRITZ!Box 6850 5G od firmy AVM. Router wprowadzony na rynek latem ubiegłego roku, za pomocą wbudowanego modemu obsługuje zakresy 5G w paśmie poniżej 6 GHz, a także LTE Advanced Pro we wszystkich obecnie wy...

Czytaj więcej...

Aktualności

Prognozy firmy NetApp na rok 2019

prognozy NetAppWkroczyliśmy już w rok 2019. Przy tej okazji Atish Gude, starszy wiceprezes i dyrektor ds. strategii w NetApp, zwraca uwagę na kwestie, które można zauważyć w trendach biznesowych i technologicznych występujących na rynku. Gude zwraca uwagę, że sztuczna inteligencja pojawia się jako element trendów związanych z projektowaniem, zarządzaniem danymi i udostępnianiem aplikacji oraz usług na granicy sieci, w jej rdzeniu i w chmurze.

 

Newralgiczną technologią staje się również konteneryzacja, a urządzenia Internetu rzeczy (IoT) znajdujące się na granicy sieci są coraz bardziej zaawansowane. To projektanci i programiści wyznaczają kierunki transformacji. Dzięki ich wymaganiom pojawiają się nowe paradygmaty i nowe technologie, w których muszą potem osiągnąć biegłość, aby zachować w dłuższej perspektywie dobrą pozycję na rynku.

1. Pierwszym obszarem działania rozwiązań sztucznej inteligencji będą chmury

Technologie sztucznej inteligencji są nadal na wczesnych etapach rozwoju. Będą wykorzystywane do przetwarzania ogromnych ilości danych, w większości przypadków w chmurach publicznych.

Dzięki szybko poszerzającej się ofercie oprogramowania i usług opartych na sztucznej inteligencji, dostępnych głównie w chmurze, tworzenie rozwiązań tego rodzaju będzie procesem coraz mniej złożonym. Aplikacje takie będą mogły uzyskać dużą wydajność i skalowalność, zarówno w środowiskach lokalnych, jak i zdalnych; będą też obsługiwać różne protokoły dostępu do danych i wiele nowych formatów danych. Zmiany czekają również infrastrukturę umożliwiającą obsługę obciążeń obliczeniowych korzystających ze sztucznej inteligencji - niezbędna tu jest odpowiednia szybkość, odporność i automatyzacja. Systemy sztucznej inteligencji staną się bez wątpienia kolejnym obszarem rywalizacji dla dostawców infrastruktury, jednak większość nowych projektów będzie realizowana z myślą o chmurach.

2. Internet rzeczy: nie kontaktuj się z centralą. Rozwiąż problem samodzielnie

Urządzenia graniczne będą bardziej inteligentne i w większym stopniu zdolne do podejmowania w czasie rzeczywistym decyzji dotyczących przetwarzania danych i działania aplikacji.

Tradycyjne urządzenia Internetu rzeczy (IoT) konstruuje się z uwzględnieniem paradygmatu „połączenia z centralą”: ich praca polega na gromadzeniu danych, przesyłaniu ich do przetworzenia i oczekiwaniu na instrukcje. Jednak nawet po pojawieniu się sieci 5G w przypadku podejmowania decyzji w czasie rzeczywistym nie zawsze można czekać na zakończenie obiegu danych do centrum przetwarzania w chmurze i z powrotem, a do tego ilość przesyłanych danych wciąż rośnie. Dlatego przetwarzanie powinno odbywać się jak najbliżej odbiorcy, a to oznacza, że wzrośnie zapotrzebowanie na funkcje przetwarzania danych na granicy sieci. Urządzenia i aplikacje IoT - wykorzystujące wbudowane usługi, na przykład analizy i redukcji danych - będą coraz szybciej, skuteczniej i inteligentniej podejmować decyzje o tym, które dane wymagają natychmiastowego działania, które należy przesłać do rdzenia sieci lub do chmury, a których należy się po prostu pozbyć.

3. Wszystko ma działać „automagicznie”

Dzięki zapotrzebowaniu na bardzo uproszczone usługi wzrośnie poziom abstrakcji zasobów informatycznych, a usługi przetwarzania danych staną się standardowymi produktami.

Jakiś czas temu producenci samochodów zaczęli przechwalać się w reklamach, że pierwszy przegląd auta nastąpi dopiero po 100 tysiącach mil. W pewnym zakresie te zapowiedzi okazały się zresztą prawdziwe. Rzecz w tym, że w zasadzie nikt już nie poświęca weekendów na samodzielną wymianę oleju albo świec zapłonowych czy napinanie paska rozrządu. Wsiadamy do samochodu, przekręcamy kluczyk, jedziemy. Nie musimy nad niczym się zastanawiać, dopóki nie pojawi się informacja, że jakiś element wymaga sprawdzenia. Nic prostszego. Użytkownicy mają podobne oczekiwania wobec infrastruktury informatycznej, zaczynając od pamięci masowych i funkcji zarządzania danymi. Programiści nie chcą się nad tym zastanawiać, chcą po prostu pracować. Wszystko ma się odbywać „automagicznie” i już! Szczególnie w przypadku konteneryzacji i technologii „bezserwerowych” tendencja do zwiększania poziomu abstrakcji poszczególnych systemów i usług sprawi, że architekci systemów informatycznych zaczną projektować rozwiązania pod kątem danych i ich przetwarzania, tak aby zbudować hybrydowe, obejmujące wiele chmur infrastruktury przetwarzania danych, a nie zwykłe centra obliczeniowe.  Dzięki zastosowaniu technologii i diagnostyki predykcyjnej osoby podejmujące decyzje będą mogły w większym stopniu oprzeć się na wyjątkowo niezawodnych, „niewidzialnych” usługach przetwarzania, udostępniających dane niezależnie od miejsca ich przechowywania tam, gdzie są potrzebne i wtedy, kiedy są potrzebne. Dzięki takim nowym możliwościom uda się również zautomatyzować proces udostępniania usług infrastrukturalnych w postaci dynamicznych produktów standardowych, a także proces przesyłania kontenerów i obciążeń między rozwiązaniami różnych usługodawców w celu zastosowania najbardziej efektywnego w danym przypadku rozwiązania.

4. Jedną z możliwości będzie tworzenie rozwiązań dla środowisk wielochmurowych (a każdy wybór, jak wiadomo, niesie ze sobą pewne konsekwencje…)

Hybrydowe, obejmujące wiele chmur środowiska staną się standardową architekturą informatyczną większości dużych przedsiębiorstw, natomiast inne organizacje zdecydują się na prostotę i spójność oferowane przez pojedynczego dostawcę.

Dzięki kontenerom obciążenia obliczeniowe staną się wyjątkowo przenośnymi obiektami. Same dane mogą być jednak znacznie mniej przenośne niż zasoby obliczeniowe i aplikacje, co będzie mieć wpływ na przenośność środowisk wykonawczych. Nawet po rozwiązaniu problemów dotyczących „grawitacji” danych, ich spójności, bezpieczeństwa i ochrony, oraz uwzględnieniu innych aspektów, wciąż może wystąpić zjawisko uzależnienia od jednej platformy i usług specyficznych dla danego dostawcy usług chmurowych, na których to usługach należy się oprzeć w projektowanym rozwiązaniu, zupełnie niedającym się przenieść do innej chmury. W efekcie mniejsze przedsiębiorstwa będą wolały budować rozwiązania we własnym zakresie, bez korzystania z oferty dostawców usług chmurowych albo zdecydują się na prostotę, optymalizację i automatyczne zarządzanie, które można uzyskać dzięki wyborowi pojedynczego dostawcy. A dostawcy bez wątpienia opracują nowe mechanizmy oferujące korzyści firmom decydującym się na zastosowanie ich platform. Z drugiej strony większe przedsiębiorstwa będą oczekiwały elastyczności, niezależności i niskich kosztów, które wynikają z możliwości przemieszczania aplikacji między chmurami. Zastosują kontenery i infrastrukturę przetwarzania danych, aby uniknąć uzależnienia od jednego dostawcy, zapewnić pełną przenośność i zachować pełną kontrolę nad rozwojem środowiska. Niezależnie od wybranej drogi organizacje dowolnej wielkości muszą pomyśleć o opracowaniu strategii i procedur pozwalających zmaksymalizować korzyści z zastosowanego rozwiązania.

5. Kontenery: naprawdę fajna nowość

Koordynacja działania chmury oparta na kontenerach umożliwi tworzenie aplikacji rzeczywiście przygotowanych do działania w chmurach hybrydowych.

Zaletą kontenerów jest między innymi możliwość uniezależnienia się od konkretnego dostawcy usług. Technologie konteneryzacji, takie jak Docker, będą nadal mieć znaczenie, ale standardem de facto w dziedzinie tworzenia aplikacji dla środowisk wielochmurowych stanie się Kubernetes, co nie jest zresztą zbyt odkrywczym stwierdzeniem. Istnieje jednak pewien bardzo interesujący aspekt tego zagadnienia: nowe, oparte na kontenerach technologie koordynacji działania chmury umożliwią tworzenie aplikacji przeznaczonych dla chmur hybrydowych, a to oznacza, że nowe aplikacje będą mogły działać zarówno w chmurze publicznej, jak i w środowisku lokalnym: zniknie potrzeba ciągłego przenoszenia aplikacji między środowiskami. Coraz łatwiej będzie przenosić obciążenia w miejsce, w którym generowane są dane, a nie odwrotnie, jak w tradycyjnym podejściu.

Źródło: NetApp

Logowanie i rejestracja