
Zdaniem Andrew Halla, profesora ekonomii politycznej w Stanford Graduate School of Business, na rynkach predykcyjnych sztuczna inteligencja mogłaby pełnić rolę arbitra wbudowanego bezpośrednio w technologię blockchain.
https://t.co/wQfka1JDA6
— a16z crypto (@a16zcrypto) 22 stycznia 2026
Opisał problem „sprawiedliwego” rozwiązywania sporów na przykładzie wyborów prezydenckich w Wenezueli.
W zeszłym roku podpisano kontrakty na łączną kwotę ponad 6 milionów dolarów na realizację wydarzenia. Jednak po zakończeniu kampanii rynek nie miał jasnego wniosku:
- rząd ogłosił zwycięzcą Nicolasa Maduro;
- Opozycja i obserwatorzy międzynarodowi twierdzili, że doszło do oszustwa.
„Czy decyzja o kontraktach na rynku predykcyjnym powinna być podejmowana w oparciu o „oficjalne” informacje (zwycięstwo Maduro) czy o „konsensus wiarygodnych doniesień” (zwycięstwo opozycji)?” – zapytał Hall.
To nie jest odosobniony przypadek, zauważył ekspert. W innym przypadku ktoś rzekomo manipulował mapą Ukrainy w kontekście sporu terytorialnego.
Hall uważa, że ważne jest stworzenie uczciwego i godnego zaufania systemu zawierania umów, tak aby ceny stały się miarodajnym sygnałem dla społeczeństwa.
Problem nie leży tylko w rynku prognoz
Podobne problemy nękają rynki finansowe. Międzynarodowe Stowarzyszenie Swapów i Derywatów (International Swaps and Derivatives Association) od lat zmaga się z problemami rozliczeniowymi na rynku swapów kredytowych (CDS) – kontraktów wypłacanych w przypadku bankructwa firmy lub kraju.
Komitety decyzyjne głosują nad tym, czy wystąpiły zdarzenia kredytowe. Proces ten jest jednak krytykowany za brak przejrzystości, potencjalne konflikty interesów i niespójne wyniki.
„Podstawowy problem pozostaje ten sam: gdy od ustalenia, co się wydarzyło w niejasnej sytuacji, zależą duże sumy pieniędzy, każdy mechanizm rozliczeniowy staje się celem manipulacji, a niejasność potencjalnym punktem debaty” – powiedział Hall.
Właściwości dobrego roztworu
Ekspert wymienił kilka kluczowych cech, które powinno mieć każde wykonalne rozwiązanie:
- odporność na manipulację — jeśli na werdykt można wpłynąć poprzez edycję Wikipedii, rozpowszechnianie fałszywych wiadomości, przekupywanie wyroczni lub wykorzystywanie luk prawnych, rynek zmienia się w grę, w której wygrywa najlepszy manipulator;
- rozsądna dokładność — mechanizm musi w większości przypadków wyciągać prawidłowe wnioski. Idealna dokładność jest niemożliwa, ale ważne jest wyeliminowanie błędów systematycznych i oczywistych pomyłek;
- przejrzystość – inwestorzy muszą jasno rozumieć zasadę działania mechanizmu;
- Neutralność — uczestnicy muszą mieć pewność, że system nie faworyzuje żadnego konkretnego użytkownika ani wyniku.
Komitety składające się z ludzi mogą spełnić część tych wymagań, są jednak podatne na manipulację i nie mogą zachować neutralności.
Sztuczna inteligencja jest rozwiązaniem problemu
Hall proponuje wykorzystanie dużych modeli językowych jako sędziów, przy czym każdy model i podpowiedź powinny być rejestrowane w blockchainie w momencie tworzenia kontraktu.
Podstawowa architektura wygląda następująco:
- Podczas tworzenia kontraktu animator rynku określa nie tylko kryteria rozstrzygania sporów w języku naturalnym, ale także LLM , a także dokładny monit, który zostanie użyty do ustalenia wyniku.
- Specyfikacja jest zapisywana w blockchainie za pomocą kryptografii.
- Kiedy rozpoczyna się handel, uczestnicy mają okazję zapoznać się z pełnym mechanizmem kontraktu – wiedzą dokładnie, w jaki sposób model uzyskuje dostęp do określonych źródeł informacji i podejmuje decyzje.
Takie podejście eliminuje kilka kluczowych problemów:
- Sztuczna inteligencja jest odporna na manipulację (choć nie całkowicie). Wyniki dużego LLM nie są tak łatwe do edycji. Aby zmienić decyzję, atakujący musi zmienić źródła informacji, na których opiera się model;
- zapewniona jest dokładność — sieci neuronowe mogą szybko poruszać się po sieci i wyszukiwać nowe dane;
- Przejrzystość – cały mechanizm rozstrzygania sporów jest dostępny do analizy i weryfikacji. W procesie nie ma miejsca na zmiany zasad ani subiektywne decyzje;
- Wiarygodność — LLM nie jest zainteresowany wynikiem konkursu i nie można go przekupywać.
Jedną z wad pozostaje możliwość wystąpienia błędów po stronie sztucznej inteligencji. System może błędnie odczytać artykuł lub zmyślić fakt.
Manipulacje nie są niemożliwe, są po prostu trudniejsze do przeprowadzenia. Oszuści mogą nakazać zamieszczenie określonych informacji w głównych mediach. To kosztowne, ale realne.
Istnieje również możliwość ataku na dane dotyczące szkoleń LLM. Musi to jednak nastąpić na długo przed podpisaniem umowy.
Rozwiązania oparte na sztucznej inteligencji zastępują jeden zestaw problemów innym, łatwiejszym do opanowania. Platformy powinny eksperymentować z różnymi modelami nauczania (LLM), mówi Hall.
W miarę pojawiania się najlepszych praktyk, społeczność musi pracować nad standaryzacją kombinacji programów AI. Autor uważa, że pomoże to w koncentracji płynności.
Przypomnijmy, że w styczniu analitycy kryptowalutowi a16z przewidzieli rozwój rynków predykcyjnych i odpornych na ZK.
