Virtual-IT.pl - data center cloud computing SDx AI storage network cybersecurity

FRITZ!Box 6850 5G - router gotowy na sieć piątej generacji
FRITZ!Box 6850 5G - router gotowy na sieć piątej generacji

Przed kilkoma tygodniami w skromnych progach naszej Virtual-nej redakcji pojawiła się przesyłka zawierająca router FRITZ!Box 6850 5G od firmy AVM. Router wprowadzony na rynek latem ubiegłego roku, za pomocą wbudowanego modemu obsługuje zakresy 5G w paśmie poniżej 6 GHz, a także LTE Advanced Pro we wszystkich obecnie wy...

Czytaj więcej...

Broadcom upraszcza ofertę i model licencjonowania VMware
Broadcom upraszcza ofertę i model licencjonowania VMware

W ciągu ostatnich dwóch lat firma VMware podejmowała wysiłki mające na celu uproszczenie swojego portfolio rozwiązań i przejście z modelu licencji wieczystych na model subskrypcji, który branża przyjęła już jako standard korzystania z chmury. Firma zaznaczyła, że takie zmiany przyniosą klientom większe ko...

Czytaj więcej...

Chcielibyśmy, żeby chmura…, czyli oczekiwania wobec dostawcy
Chcielibyśmy, żeby chmura…, czyli oczekiwania wobec dostawcy

Wyniki badania PMR dla Polskiej Chmury wskazują, że ponad 2/3 firm korzysta z rozwiązań chmurowych, a około 1/3 jest w trakcie ich wdrażania. Tym samym chmura to już stały element ekosystemu i działalności przedsiębiorstw w Polsce. Rynek ten dojrzał i firmy szukają w chmurze korzyści oraz rozwiązań dopasowanych wprost ...

Czytaj więcej...

Integracja AIOps w kompleksowym monitorowaniu IT: Site24x7
Integracja AIOps w kompleksowym monitorowaniu IT: Site24x7

Środowiska IT stają się coraz bardziej rozbudowane. Firmy korzystają z infrastruktury on-premise jak również z rozwiązań chmurowych, często z wielu chmur (multicloud). W takiej sytuacji kluczem dla zapewnienia niezawodnego działania systemów IT jest monitoring infrastruktury. Właściwe rozwiązanie do monit...

Czytaj więcej...

Brak wykwalifikowanej kadry i starzejące się systemy główną barierą cyfryzacji
Brak wykwalifikowanej kadry i starzejące się systemy główną barierą cyfryzacji

Według opublikowanego przez Veeam raportu Data Protection Trends Report 2022, największym wyzwaniem dla firm związanym z cyfryzacją są braki wykwalifikowanej kadry IT i starzejące się systemy. Aż 1/3 przedsiębiorstw w razie awarii i braku dostępu do zasobów planuje przywracać działanie serwerów w trybie r...

Czytaj więcej...

Historia oszukiwania ludzi przez sztuczną inteligencję
Historia oszukiwania ludzi przez sztuczną inteligencję

Wraz z rozwojem nowoczesnych technologii rozwijają się również złośliwe schematy. Od niedawna do długiej listy oszustw dołączyła sztuczna inteligencja (Artificial Intelligence, AI). Wykorzystanie technologii sztucznej inteligencji i uczenia maszynowego (Machine Learning, ML) przenosi phishing i inne oszustwa cyb...

Czytaj więcej...

Aktualności

Raport Capgemini: etyczne AI to wymierna korzyść dla firm

AIWedług najnowszego badania Capgemini "Why addressing ethical questions in AI will benefit organizations" niemal 9 na 10 menedżerów jest świadoma przypadków, w których sztuczna inteligencja doprowadziła do problemów etycznych, a 77% kadry kierowniczej nie ma pewności co do etyki i transparentności systemów AI w ich firmach.

Niemal połowa konsumentów uważa, że w ciągu ostatnich dwóch lat doświadczyło przynajmniej dwóch typów interakcji z AI, które skutkowały problemami etycznymi. Tymczasem badanie jasno wskazuje, że etyczne interakcje z AI budują zaufanie i satysfakcję klientów i przekładają się bezpośrednio na zysk organizacji.

Najwięcej odpowiedzi dotyczących negatywnych kontaktów z AI - aż 74%, pojawiło się w Chinach, a wśród przebadanych krajów europejskich prym wiedzie Francja - 49%. Również pracownicy firm, które korzystają z rozwiązań wspieranych przez sztuczną inteligencję wskazują na jej niewłaściwe użycie. Co najmniej 40% pracowników natknęło się na jakąś formę użycia sztucznej inteligencji, które spowodowało problemy etyczne. 44% pracowników zgłasza też obawy dotyczące potencjalnie szkodliwego działania systemów sztucznej inteligencji, a 42% pracowników sprzeciwia się niewłaściwemu wykorzystaniu danych osobowych i informacji przez AI. 76% konsumentów oczekuje od rządów oraz niezależnych organizacji opracowania przepisów dotyczących sztucznej inteligencji.

Biznes potrzebuje etycznego AI
Firmy zdają sobie sprawę z powagi sytuacji, ale nie zawsze potrafią sobie z nią poradzić. Ponad połowa kadry zarządzającej postrzega transparentność i etykę systemów sztucznej inteligencji za ważną kwestię. Organizacje podejmują również konkretne działania, kiedy już pojawiają się problemy związane z AI.  64% opracowuje długofalową strategię związaną z ich rozwiązywaniem i zapobieganiem, ponad połowa spowalnia prace nad systemami i wprowadza ich mniej zaawansowane wersje. Dwóch na pięciu menedżerów przyznaje, że w ogóle porzuciło projekty związane ze sztuczną inteligencją po ujawnieniu kwestii etycznych.

"Etyka w AI to temat nowy i pojawiające się problemy do tej pory spotykały się raczej z działaniem reaktywnym. Są oczywiście pozytywne przykłady - firma GE Healthcare zobowiązała się do zatrudniania zdywersyfikowanego zespołu pracującego nad sztuczną inteligencją, żeby zapobiec możliwej dyskryminacji. Osiemdziesiąt procent grupy zajmującej się data science rekrutuje się spośród mniejszości, 44% osób przebywa poza USA, a 26% to kobiety. Firma wprowadziła również dojrzałe praktyki w zakresie analizy danych - muszą pochodzić ze sprawdzonych źródeł i mieć jasno zdefiniowane możliwości wykorzystania. Etyczne AI jest również praktykowane w mniejszych firmach, które dopiero wchodzą na rynek i postrzegają w tym możliwość zyskania przewagi konkurencyjnej" - mówi Mirosław Bartecki, główny architekt AI w Capgemini Business Services - jeden z twórców opartej na sztucznej inteligencji aplikacji Cash Collector, nagrodzonej Artificial Intelligence Breakthrough Award 2019.

Mają rację, bowiem badanie jasno wskazuje, że etyczne działania AI budują zaufanie i satysfakcję klientów. Niemal dwie trzecie twierdzi, że zgodna z kodeksem etycznym interakcja ze sztuczną inteligencją jest powodem ich większego zaufania do organizacji, a niemal tyle samo osób jest skłonna podzielić się tym faktem z przyjaciółmi i rodziną oraz deklaruje większą lojalność wobec marki. 55% kupi więcej produktów i podzieli się pozytywnym doświadczeniem w social mediach. Organizacje, których systemy sztucznej inteligencji konsumenci uważają za etyczne, cieszą się 44-punktową przewagą Net Promoter Score (NPS®) nad innymi firmami (NPS® jest podstawową miarą dla programów zarządzania doświadczeniami klientów na całym świecie).

Jak dyskryminuje AI?
Gdzie AI najczęściej nie zdawało egzaminu z etyki - czyli doprowadziło do rezultatów, które są niewytłumaczalne, niesprawiedliwe, nieprzejrzyste lub stronnicze wobec pewnej grupy użytkowników? Wśród 10 najczęściej wymienianych obszarów na najwyższym miejscu znalazło się nadmierne poleganie na decyzjach kierowanych przez maszyny bez ujawniania informacji na ten temat w sektorze bankowym, następnie zbieranie i przetwarzanie danych osobowych pacjentów w algorytmach sztucznej inteligencji bez ich zgody oraz niejednoznaczne lub niejasne zalecenia z systemu opartego na sztucznej inteligencji dotyczące diagnostyki, opieki czy leczenia.

Wśród konkretnych przykładów również z innych obszarów znalazło się korzystanie z opartego na sztucznej inteligencji systemu, który nie jest w stanie wyjaśnić, na jakiej podstawie podjął decyzję o odmowie udzielenia kredytu lub wypłaty odszkodowania lub nie można go poddać audytowi przy podejmowaniu decyzji, wykorzystanie sztucznej inteligencji w rekrutacji, co skutkuje dyskryminacją kandydatów pod kątem płci, pochodzenia etnicznego, wieku lub innych czynników czy dyskryminacyjna polityka cenowa wynikająca z automatycznych decyzji AI.

Mirosław Bartecki wskazuje, że główną przyczyną tego typu problemów jest brak odpowiedniej kontroli czy interpretacji ludzkiej - "Nie da się zagwarantować, że AI będzie etyczne, jeśli nie podlega ludzkiej kontroli. Samo w sobie AI nie ocenia ludzi na podstawie kryteriów dyskryminacyjnych, ale kieruje się danymi statystycznymi, które mogą być mylące. Przykład? Analiza procesów biznesowych, które przeprowadzamy w dwóch różnych centrach Capgemini na świecie – w obu przypadkach mamy 5 rzeczy do procesowania, ale w pierwszym wykonano 22 telefony, załatwiając wszystkie, a w drugim jeden godzinny, ale załatwiając tylko dwie – za to bardzo ważne sprawy. AI wyciągnie tu oczywisty wniosek o efektywności, bo jest jeszcze zbyt mało zaawansowane żeby przeanalizować faktyczną wagę rozmów. Nie ma AI, które by odwzorowało człowieka – to co nie jest abstrakcyjne i jest pozbawione jakichkolwiek ocen i uczuć, nie może być do końca etyczne".

Dlaczego firmy nie potrafią sobie z takimi problemami radzić? 34% kadry kierowniczej wskazało presję rynku na implementację AI celem szybkiego uzyskania związanych z tym benefitów, bez odpowiednio zaadresowanych kwestii etycznych. 33% przyznało, że zagadnienia etyczne w ogóle nie były rozpatrywane przy implementacji AI. 31% nie miało zasobów w postaci specjalistów i technologii odpowiednich do rozwijania etycznej sztucznej inteligencji, a 29% nie zapewniło odpowiedniej dywersyfikacji pod kątem rasy czy płci w zespole projektującym rozwiązania z użyciem AI.

Pierwsze kroki
W jaki sposób organizacje mogą budować etyczne systemy oparte na sztucznej inteligencji? Capgemini zaleca trójstopniowe podejście do budowania strategii etyki w AI, która obejmuje wszystkich kluczowych interesariuszy:

• Wskazówki dla CXO, liderów biznesu i osób posiadających kompetencje w zakresie zaufania i etyki: powinni stworzyć silną podstawę ze strategią i kodeksem postępowania w zakresie etyki AI; opracować zasady definiujące dopuszczalne praktyki dla pracowników i aplikacji AI; tworzyć struktury zarządzania etyką i zapewnić odpowiedzialność za systemy sztucznej inteligencji; budować różnorodne zespoły, aby zapewnić wrażliwość AI na pełne spektrum problemów etycznych;
• Dla zespołów obsługujących klientów i pracowników, takich jak HR, marketing, komunikacja i obsługa klienta: powinni upewnić się na temat etycznego wykorzystania aplikacji AI; edukować i informować użytkowników na temat budowania zaufania do systemów sztucznej inteligencji; zapewnić użytkownikom większą kontrolę oraz możliwość szukania pomocy; proaktywnie komunikować w sprawach AI wewnętrznie i zewnętrznie, aby budować zaufanie;
• Dla zespołów budujących rozwiązania AI, analityków danych oraz innych specjalistów AI: powinni sprawić, aby systemy sztucznej inteligencji były przejrzyste i zrozumiałe, aby zyskać zaufanie użytkowników; praktykować dobre zarządzanie danymi i ograniczyć potencjalne błędy w danych, jak też wykorzystywać narzędzia technologiczne do budowania etyki w sztucznej inteligencji.

Jak podkreśla Mirosław Bartecki, współdziałanie z etycznym zespołem jest kluczowe dla wsparcia podejmowania właściwych decyzji przez sztuczną inteligencję - "AI samo w sobie nie ocenia na podstawie domysłów, uprzedzeń, bierze pod uwagę tylko czyste fakty i działa zgodnie z zadanymi regułami – problemem jest na przykład etyczne zastosowanie tych wyników. To człowiek musi być na końcu elementem kontrolnym. Trudno oczekiwać, żeby AI miało współczucie. Trudno wymagać od AI takich kompetencji, chociaż - przewrotnie - logiczne i bazujące na faktach AI często jest bardziej etyczne w ocenie niż ludzie – tak może się dziać na przykład w przypadku kobiet, które mają wyższe kompetencje niż mężczyźni, ale często stają w obliczu społecznych stereotypów, których AI nie zna".

Jest więc oczywiste, że w AI drzemie ogromny potencjał i że sztuczna inteligencja zmieni relacje między konsumentami a organizacjami. Ten związek będzie jednak tylko tak silny, jak etyka, która za nim stoi.

Źródło: Capgemini

Logowanie i rejestracja