Sztuczna inteligencja w krótkim czasie stała się technologią masową. Szacuje się, że z narzędzi sztucznej inteligencji skorzystało już około 1,8 miliarda osób na świecie, a nawet 500 - 600 milionów używa ich codziennie. Szczególnie szybko rośnie popularność generatywnych chatbotów - pod koniec września ubiegłego roku ChatGPT osiągnął około 700 milionów użytkowników tygodniowo.
Prognozy wskazują także na to, że do końca 2026 roku nawet 37% interakcji klientów z firmami może odbywać się z udziałem systemów AI. Jednocześnie młodsze pokolenia traktują takie narzędzia jako naturalny element codzienności - około dwie trzecie nastolatków korzysta z chatbotów AI, a niemal 30% robi to każdego dnia.
W efekcie AI coraz częściej staje się jednym z pierwszych miejsc, do których użytkownicy zwracają się po informacje i rekomendacje - pytając modele językowe m.in. o najlepszy laptop, konto bankowe czy platformę streamingową, oczekują jednej syntetycznej odpowiedzi zamiast przeglądania wielu stron internetowych.
Zjawisko to zmienia powoli sposób prowadzenia marketingu w Internecie. Obok tradycyjnej optymalizacji pod wyszukiwarki (SEO) pojawia się koncepcja AI Optimization (AIO), której celem jest zwiększenie widoczności marki w odpowiedziach generowanych przez modele językowe. AI przestaje być więc wyłącznie narzędziem, coraz częściej stając się cyfrowym doradcą. Jednak wraz z rosnącą rolą systemów AI jako źródła rekomendacji pojawia się pytanie: czy rekomendacjom generowanym przez modele można w ogóle ufać?
W przeciwieństwie do klasycznej wyszukiwarki, która pokazuje listę wyników, modele AI generują jedną syntetyczną odpowiedź. Gotowa rekomendacja - choć wygodna - sprawia, że użytkownik traci kontrolę nad procesem selekcji informacji - zaznacza Bartłomiej Anszperger, Solution Engineering Manager CEE, F5. - W efekcie sposób, w jaki model dobiera źródła wiedzy i konstruuje odpowiedź, zaczyna mieć kluczowe znaczenie dla tego, jakie rekomendacje otrzymuje użytkownik.
Jednym z wyzwań związanych z rozwojem takich systemów jest AI recommendation poisoning, czyli próby wpływania na to, jakie źródła informacji, produkty lub usługi model będzie wskazywał w generowanych odpowiedziach. W praktyce oznacza to działania mające na celu skłonienie systemu, by częściej rekomendował określone treści lub usługi.
"AI recommendation poisoning może prowadzić do sytuacji, w której AI częściej wskazuje konkretne źródła informacji lub określone produkty. Dla użytkownika wygląda to jak neutralna rekomendacja, choć w rzeczywistości może być efektem wcześniejszych danych, z którymi model miał kontakt. Próby wpływania na rekomendacje generowane przez modele AI przypominają wcześniejsze praktyki znane jako black hat SEO, takie jak spamdexing, keyword stuffing czy tzw. search engine poisoning, których celem było manipulowanie rankingami w wyszukiwarkach internetowych. Różnica polega na tym, że w przypadku AI użytkownik często nie widzi alternatywnych źródeł - otrzymuje jedną odpowiedź, która wygląda jak podsumowanie wszystkich dostępnych informacji" - wyjaśnia Bartłomiej Anszperger.
W praktyce oznacza to również, że warto zwracać uwagę na sposób, w jaki przekazujemy treści do systemów AI. W sieci coraz częściej pojawiają się przyciski lub linki typu „Summarize with AI”, które mają automatycznie przekazać artykuł lub stronę do asystenta i wygenerować jego skrót. W niektórych przypadkach takie odnośniki mogą jednak zawierać dodatkowe polecenia przekazywane bezpośrednio do modelu. Po ich uruchomieniu system otrzymuje nie tylko materiał do podsumowania, lecz także instrukcje wpływające na sposób działania - na przykład polecenie zapisania określonej informacji w pamięci. Niektóre systemy AI mogą posiadać funkcję zapamiętywania kontekstu rozmów, preferencji użytkownika czy dodatkowych instrukcji dotyczących generowania odpowiedzi. Zwiększa to użyteczność takich narzędzi, ale jednocześnie otwiera nową przestrzeń potencjalnych manipulacji.
"Rozwój AI zmienia sposób, w jaki wyszukujemy informacje i podejmujemy decyzje. Jednocześnie pokazuje, że w świecie, w którym coraz częściej polegamy na rekomendacjach generowanych przez algorytmy, kluczowe staje się pytanie o to, jak powstają te rekomendacje i kto może mieć na nie wpływ" - podsumowuje Anszperger.
Źródło: F5