Rozwój inteligencji maszynowej, platform dużych firm technologicznych i serwisów cyfrowych powoduje, że informacje zyskują na wartości w ekonomii. Równocześnie, ich segregacja staje się coraz bardziej skomplikowana. Objętość ich operowania wzrasta szybciej niż możliwości doglądu i kontroli – zarówno przez użytkowników, jak i przez przedsiębiorstwa. W rezultacie wzrasta popyt na narzędzia, które uporządkują informacje, jednocześnie redukując ryzyka związane z ich kiepską jakością oraz halucynacjami.

– W świecie techniki, w którym aktualnie funkcjonujemy, coraz bardziej uświadamiamy sobie istotność danych i naszej prywatności – zarówno w kontekście ochrony, jak i w ujęciu konsumenckim czy biznesowym. Zdajemy sobie sprawę, że dane to po prostu produkt, konkretna wartość. Czy jednak jesteśmy w stanie nimi efektywniej dysponować i bardziej efektywnie je zabezpieczać? – Nie sądzę – stwierdza w rozmowie z agencją Newseria Sylwia Czubkowska, dziennikarka specjalizująca się w technologiach.
Z rezultatów badania Eurobarometru odnoszącego się do „cyfrowej dekady” wynika, że 73 proc. Europejczyków twierdzi, że technologie cyfrowe upraszczają im życie codzienne. Jednocześnie 83 proc. oczekuje, że do roku 2030 będą one kluczowe w relacjach z rodziną i przyjaciółmi online oraz w dostępie do usług publicznych, a 79 proc. – w otrzymywaniu opieki zdrowotnej. Blisko połowa (46 proc.) ankietowanych wskazuje niestosowne wykorzystywanie danych osobowych jako jeden z problemów o największym wpływie na ich życie, a 45 proc. zwraca uwagę na niebezpieczeństwa związane z dezinformacją. Mniej niż połowa uznaje, że ich prawa w środowisku cyfrowym są należycie chronione.
Zobacz także
Rozlicz PIT online i zyskaj maksymalny zwrot podatku za 2025 r.
Europejczycy obawiają się o własne dane w sieci
– Mamy aktualnie do czynienia z coraz bardziej nasilonym procesem używania danych oraz trenowania na nich modeli. Konsumenci nie zawsze mają świadomość, jak dalece jest on zaawansowany. Trudno nam dotrzymać kroku kolejnym, jeszcze bardziej skomplikowanym mechanizmom wykorzystania naszego wizerunku, naszych publikacji i aktywności w sieci, naszej prywatności. To nieustający proces uczenia się, rozwijania się w tym zakresie, lecz sama świadomość użytkownika nie wystarczy. Tak jak na każdym rynku konieczna jest ochrona, niezbędny jest ktoś – organ, regulator, eksperci – kto będzie dbał o to, aby organizacje i firmy nie nadużywały możliwości używania naszych danych i wykorzystywania ich do celów komercyjnych – wyjaśnia Sylwia Czubkowska.
Z badań Eurobarometru wynika, że 81 proc. mieszkańców Europy uważa, że poprawa cyberbezpieczeństwa oraz solidniejsza ochrona danych w internecie ułatwiłyby im stosowanie technologii cyfrowych. Równocześnie 48 proc. zapewnia, że ma kontrolę nad tym, w jaki sposób wykorzystywane są ich dane w internecie, a 41 proc. jest przeciwnego zdania.
Użytkownicy tracą orientację w sieci, a rynek żąda lepszych przepisów
Brak klarowności i władzy nad danymi nie jest kłopotem wyłącznie użytkowników. Przekłada się również na metodę, w jaki sposób przedsiębiorstwa podejmują decyzje marketingowe, częstokroć bazując na niekompletnych lub niewiarygodnych wiadomościach. Choć dostęp do danych jest obecnie bardziej powszechny niż kiedykolwiek wcześniej i organizacje gromadzą ich coraz więcej, nie zawsze potrafią je odpowiednio spożytkować, co utrudnia skuteczne kierowanie kampaniami.
– Największym wyzwaniem dla specjalistów od marketingu w tym momencie jest rzetelność danych, mnogość wskaźników KPI mierzących skuteczność kampanii i często niedostatek zrozumienia ze strony zleceniodawców, które spośród tych danych są dostatecznie wiarygodne i powiązane z rzeczywistym wpływem na sprzedaż. Marketerzy – lecz także ich partnerzy, współpracujące agencje – grzęzną przez to w różnego rodzaju danych pochodzących z platform, lecz nie potrafią dobrze pojąć, na których spośród nich powinni się koncentrować, aby budować swoje marki, ich wizerunek czy sprzedaż w sklepie internetowym/tradycyjnym – tłumaczy Joanna Okła, senior vice president Clients & Strategy, WPP Media.
Koniec z marketingową fatamorganą?
Z globalnego raportu IBM Institute for Business Value wynika, że 43 proc. dyrektorów operacyjnych wskazuje jakość danych jako jeden z najistotniejszych priorytetów w organizacji. Jednocześnie więcej niż jedna czwarta firm szacuje, że traci rocznie ponad 5 mln dol. z powodu słabej jakości danych, a 7 proc. ogłasza straty przekraczające 25 mln dol. Ten problem nierzadko pozostaje niedostrzegalny i objawia się dopiero w formie utraconych przychodów lub mylnych decyzji biznesowych.
Z powodu niedostatecznej jakości danych, pomimo ich wzrastającej ilości, przełożenie tego „bogactwa” na konkretne poczynania oraz efekty sprzedażowe jest limitowane. Dane są używane na różnych etapach procesu marketingowego, ale nie zawsze w spójny sposób – od przygotowania strategii, poprzez planowanie, aż po wykonanie kampanii. Bez należytego przetwarzania danych, ich scalenia i analizy kampania marketingowa może nie dostarczyć wyczekiwanych rezultatów. Przykładem może być popularny w ostatnich latach omnichannel, rozumiany nie tylko jako obecność w wielu kanałach, lecz przede wszystkim jako ich wzajemne przenikanie się, umożliwiające konsumentowi sprawne przechodzenie między sferą online oraz offline.
– Cały marketing od dłuższego czasu bardzo lubi mówić, że rozważa i działa omnichannelowo. Współpracując z wieloma zleceniodawcami, którzy prowadzą sprzedaż w kanałach stacjonarnych i internetowych jednocześnie, dostrzegamy, że nie zawsze tak jest. Bardzo często marketerzy dysponują odseparowanymi działami, które wspomagają sprzedaż w każdym z tych kanałów oddzielnie, i co więcej, nie rozumieją, w jaki sposób te narzędzia wspierające sprzedaż wpływają na siebie nawzajem. A oddziałują w bardzo znaczący sposób – ocenia Joanna Okła.
Jakość danych jest aktualnie istotniejsza niż ich objętość
Znaczenie jakości danych jeszcze bardziej wzrasta w kontekście coraz szerszego korzystania z inteligencji sztucznej – niemal połowa liderów biznesowych sygnalizuje obawy o jakość, dokładność i rzetelność danych jako jedną z głównych przeszkód skalowania projektów AI. Modele uczące się na pospolitych danych mogą przecież generować błędne wnioski, a tym samym obniżać precyzję podejmowanych na ich bazie decyzji biznesowych.
– W świecie, gdzie dostęp do ogólnych modeli inteligencji sztucznej ma praktycznie każdy, to właśnie dane, którymi zasilimy te modele, stają się wyróżniającym paliwem, które umożliwia markom wygraną na rynku. Już w tej chwili, porównując rezultaty modeli, które karmimy wysokiej jakości danymi o konsumentach, danymi, których nie da się syntetycznie wytworzyć, dostrzegamy znaczącą przewagę w jakości odpowiedzi w stosunku do generycznych modeli, które są trenowane na całym internecie i mają halucynacje – zaznacza Maciej Kawka, vice president, Data Strategy CEE w WPP Media.
