Dokładność czy wyjaśnialność? Wyzwania risk managera w erze AI

„If credit risk models are increasingly powered by machine learning and alternative data, where should we, as risk professionals, draw the line between predictive accuracy and explainability? Would you rather approve a model that’s 15% more accurate but a ‘black box,’ or one that’s fully transparent but less predictive — and why?”

To pytanie pojawiło się dziś w jednej z grup dyskusyjnych na LinkedIn – Credit Risk Management Professionals Network. Zatrzymałem się nad nim na dłużej. Nie dlatego, że nie znam odpowiedzi, ale dlatego, że pytanie dotyka samego sedna naszej pracy w ryzyku kredytowym: czy ważniejsza jest moc predykcji, czy możliwość wyjaśnienia decyzji?


1. Pytanie jako wyzwanie

Na pierwszy rzut oka wybór wydaje się oczywisty. Kto nie chciałby modelu o 15% lepszej trafności? Mniej strat, lepsze ceny, przewaga konkurencyjna. Niby prosta decyzja, ale… Zdrowy rozsądek podpowiada, że to fałszywa alternatywa. Risk manager nie może być tylko konsumentem wyników modeli. Musi być strażnikiem zaufania – wobec regulatora, zarządu, akcjonariuszy i klientów.

I tu zaczyna się podróż bohatera.


2. Pierwsze przeszkody: czarna skrzynka

Wyobraźmy sobie, że wdrażamy model „black box”: algorytm sieci neuronowej zasilany alternatywnymi danymi – mediami społecznościowymi, sygnałami z urządzeń mobilnych, historią transakcji. Wyniki są świetne. Aż do dnia, gdy regulator pyta: „Dlaczego ten klient otrzymał odmowę kredytu?”

I nagle nie mamy odpowiedzi.

Nie jest to science fiction. To realne ryzyko, przed którym stają banki i fintechy na całym świecie. Decyzje kredytowe muszą być wyjaśnialne – dla regulatora, dla klienta, dla samego banku. Bez tego model, nawet najlepszy, staje się źródłem ryzyka systemowego.


3. Sprzymierzeńcy: narzędzia explainable AI

W poszukiwaniu równowagi między mocą predykcji a przejrzystością natrafiamy na narzędzia, które pomagają „odczarować” black box:

  • SHAP values – wywodzące się z teorii gier, przypisują „udział” każdej zmiennej w ostatecznej decyzji. Dzięki nim możemy powiedzieć: „Historia spłat dodała +35 punktów, niestabilność dochodów odjęła -20.” To daje analitykowi i regulatorowi mapę wpływów.
  • Counterfactual explanations – odpowiadają na pytanie: „Co musiałoby się zmienić, aby decyzja była inna?”. Klient słyszy: „Gdyby Twój wskaźnik DTI spadł o 5 punktów, decyzja byłaby pozytywna.” To nie tylko przejrzystość, ale też szansa na budowanie relacji z klientem.
  • Surrogate models – prostsze modele (np. drzewa decyzyjne) naśladujące decyzje złożonego algorytmu. Nie mają tej samej mocy predykcyjnej, ale pozwalają menedżerom, komitetom kredytowym i audytorom zrozumieć ogólną logikę systemu.

Dzięki tym narzędziom bohater – menadżer ryzyka – zaczyna znajdować równowagę między dokładnością a odpowiedzialnością.


4. Przykłady z rzeczywistości (case studies)

Jeśli jesteś menedżerem ryzyka, nie jesteś sam w tej podróży. Banki na całym świecie mierzą się z tym samym dylematem.

  • BBVA AI Factory pokazała, jak wykorzystuje SHAP w procesach windykacyjnych i w ocenie klientów – by nie tylko przewidywać, ale też rozumieć źródła decyzji .
  • Norweski bank wdrożył LightGBM z SHAP na danych pożyczkowych, by równoważyć wymogi regulacyjne z mocą predykcji . Bardzo polecam ten artykuł, bo jest to dobre połączenie teorii akademickiej z praktyką.
  • Capital One publicznie przyznał, że bez wyjaśnialności modele kredytowe są nie do obrony, i zbudował ramy „responsible AI” . Co prawda case już nieco stary i wiele rzeczy się zmieniło, ale daje dobre wprowadzenie do tematu
  • Lloyds Banking Group stworzył własny framework „Responsible AI”, kładąc nacisk na testy, nadzór ludzki i symulację scenariuszy ryzyka .
  • Monzo – bank cyfrowy – poszedł o krok dalej: tłumaczy klientom logikę scoringu kredytowego wprost, stawiając transparentność w centrum relacji z użytkownikami .

Te case studies pokazują jak bardzo niezbędna jest wyjaśnialność decyzji: biznesowo i regulacyjnie.


5. Powrót z eliksirem

Na końcu tej podróży moja odpowiedź brzmi jasno:

Gdybym musiał wybierać, wybrałbym model w pełni przejrzysty, nawet jeśli mniej trafny – pod warunkiem, że jego skuteczność spełnia minimalne standardy. Dlaczego? Bo ryzyko braku wyjaśnialności jest większe niż zysk z kilku dodatkowych punktów predykcji.

Ale wiem też, że nie musimy zatrzymywać się w tym punkcie. Prawdziwa przewaga konkurencyjna polega na tym, by łączyć oba światy: budować modele silne predykcyjnie, a jednocześnie wyposażone w warstwę wyjaśnialności. SHAP, counterfactuals i surrogate models to dziś narzędzia, które nam to umożliwiają.

I na tym chyba właśnie polega rola menedżera ryzyka w XXI wieku: musi nie tylko zarządzać ryzykiem w tabelach i modelach, ale także budować most zaufania między technologią a biznesem. Amen.

A jak wygląda to w Waszych bankach? Czy są jakieś ogólnodostępne publikacje lub prezentacje na ten temat? Czy może musimy się chronić umowami NDA i słuchać, nie zdradzając jak wygląda nasza czarna skrzynka?