F5 i NetApp ogłosiły rozszerzoną współpracę, której celem jest uproszczenie i przyśpieszenie wdrażania sztucznej inteligencji w przedsiębiorstwach. W ramach partnerstwa, F5 oferuje swoje bezpieczne rozwiązania sieciowe w chmurze, natomiast NetApp dostarcza zaawansowane narzędzia do zarządzania danymi. Współpraca wykorzystuje usługi F5 Distributed Cloud, aby uprościć wdrażanie dużych modeli językowych (LLM*) w środowiskach hybrydowych chmur. Dzięki integracji bezpiecznych usług sieciowych F5 z zaawansowanym zarządzaniem danymi NetApp, przedsiębiorstwa mogą skutecznie i bezpiecznie wdrażać rozwiązania Retrieval Augmented Generation (RAG), co poprawia wydajność, bezpieczeństwo oraz funkcjonalność ich systemów AI.
Wraz z rosnącym zainteresowaniem AI (Artificial Intelligence) w przedsiębiorstwach, kluczowym wyzwaniem staje się dostarczanie dokładnych i kontekstowo istotnych informacji - to właśnie tutaj, do gry wchodzi technika RAG. Retrieval Augmented Generation łączy metody wyszukiwania (retrieval) i generowania (generation) odpowiednich informacji, aby poprawić jakość i trafność odpowiedzi**. Pozwala ona na bezpieczne włączanie odpowiednich, często zastrzeżonych dokumentów lub informacji z dużego zbioru danych do generowanych odpowiedzi, bez udostępniania ich publicznym modelom językowym. Dzięki temu AI może dostarczać precyzyjne i specyficzne dla kontekstu odpowiedzi.
RAG szybko zyskuje na popularności wśród klientów, jednak wyzwaniem pozostaje rozproszenie danych w przedsiębiorstwach, co często prowadzi do powstania tzw. silosów danych*** i utrudnia integrację z dużymi modelami językowym. F5 i NetApp rozwiązują ten problem, zapewniając bezpieczny dostęp do prywatnych danych z różnych lokalizacji oraz usprawniając ich transfer i migrację. Połączone technologie znacząco upraszczają zarządzanie infrastrukturą hybrydową i wielochmurową. Dzięki usługom F5 Distributed Cloud oraz NetApp BlueXP, klienci mogą zintegrować modele operacyjne w zakresie zarządzania danymi, bezpieczeństwa i sieci, co przyczynia się do redukcji kosztów i wspiera wielochmurowe RAG w innowacyjnych projektach AI.
"F5 przyspiesza wdrażanie AI w przedsiębiorstwach, integrując nasze bezpieczne, wysokowydajne rozwiązania sieciowe w chmurze z zaawansowanymi rozwiązaniami do zarządzania danymi od NetApp. Ta współpraca odblokowuje potencjał RAG, pozwalając na płynne połączenie firmowych danych z podstawowymi i nowatorskimi modelami AI" - zaznacza Kunal Anand, Chief Technology and AI Officer, F5. "Nasze wspólne rozwiązanie rewolucjonizuje sposób, w jaki przedsiębiorstwa szkolą duże modele językowe, dostarczając wyjątkową wydajność i zabezpieczenia. Umożliwia to przedsiębiorstwom bezpieczne wykorzystanie możliwości AI w ich unikalnych kontekstach biznesowych. Dzięki F5 i NetApp przedsiębiorstwa mogą łatwo nawigować po zawiłościach integracji AI, przekształcając swoje dane w strategiczny zasób napędzający innowacje i przewagę konkurencyjną".
NetApp Cloud Volumes ONTAP optymalizuje koszty oraz wydajność przechowywania danych w chmurze, jednocześnie wzmacniając ochronę danych i zgodność z przepisami. Połączenie tego rozwiązania z sieciowymi możliwościami F5 umożliwia szybkie i bezpieczne przenoszenie danych, odciążając działy IT. Przedsiębiorstwa mogą swobodnie migrować dane między strefami i regionami, wykorzystując technologię NetApp SnapMirror, która zapewnia mobilność danych.
"Nasza współpraca z F5 pomaga rozwiązać złożone wyzwania związane z wdrożeniami AI w hybrydowych środowiskach chmurowych. Dzięki połączeniu rozwiązań do zarządzania danymi NetApp z bezpieczną technologią od F5, oferujemy przedsiębiorstwom bezproblemowy i bezpieczny sposób zarządzania, ochrony i optymalizacji danych, umożliwiający dostarczanie kluczowych aplikacji opartych na dużych modelach językowych. Nasza współpraca wspiera firmy, które chcą wykorzystać generatywną AI do napędzania innowacji i wzrostu" - mówi Jonsi Stefansson, Chief Technology Officer, NetApp.
* LLM (Large Language Models) to duże modele językowe, które są zaawansowanymi algorytmami AI przeszkolonymi na ogromnych zbiorach danych tekstowych. Dzięki temu są w stanie generować, analizować i rozumieć naturalny język na bardzo wysokim poziomie.
** W tradycyjnych LLM, odpowiedzi generowane są wyłącznie na podstawie informacji zakodowanych w modelu podczas treningu. RAG idzie o krok dalej i umożliwia modelom dostęp do zewnętrznych baz danych lub dokumentów w trakcie generowania odpowiedzi, co zwiększa ich precyzję i trafność w zależności od kontekstu.
*** Silosy to izolowane zbiory danych, które są trudno dostępne dla innych systemów lub aplikacji. Taka fragmentacja danych utrudnia firmom skuteczne wykorzystanie dużych modeli językowych, ponieważ te modele potrzebują dostępu do jednolitego i zintegrowanego zbioru danych, aby działać efektywnie.
Źródło: Informacje o F5