Mirek z robotem w kuchni

Czego sztuczna inteligencja nie rozumie o zarządzaniu

Oryginalny tekst opublikowałem 3 dni temu na moim profilu na LinkedIn. Na prośbę osób, które nie są członkami tego portalu, powielam moje refleksje tutaj, na blogu.

Od kilku lat obserwuję ciekawe zjawisko. Im więcej szefowie firm mówią o sztucznej inteligencji, tym częściej wypływają na powierzchnię stare korporacyjne problemy: strach podwładnych, nadmierne ego szefa i kierownictwa, konflikty interesów, złudzenia poznawcze i błędne interpretacje rzeczywistości.

To paradoks naszych czasów. Najbardziej zaawansowana technologia w historii trafia do firm, których szefowie nie potrafią zrozumieć samych siebie, nie ogarniają wdrażanej technologii i nie do końca panują nad dynamiką wewnątrz swojej organizacji.

Sztuczna inteligencja potrafi dziś znacznie szybciej od nas przeanalizować miliony dokumentów, wykryć anomalie i napisać raport. Potrafi też w kilka minut stworzyć model finansowy by przetestować określone założenia. Może dość dobrze przewidywać zachowania klientów, napisać chwytliwe reklamy czy nawet stworzyć kod oprogramowania, które będzie działać skutecznie. Sztuczna inteligencja nie rozumie jednak czym tak naprawdę jest firma.

Firma nie jest arkuszem kalkulacyjnym

Z perspektywy sztucznej inteligencji przedsiębiorstwo wygląda jak logiczny zbiór danych. AI może szczegółowo wydzielić przychody i koszty, może obliczyć marże, ustawić KPI, opisać procesy i zaplanować przepływy. Problem w tym, że większość krytycznych decyzji biznesowych nigdy nie była podejmowana wyłącznie na podstawie danych. Często głównym czynnikiem sukcesu był przypadek, albo upór właściciela (Steve Jobs i zakrzywianie rzeczywistości). Równie dobrze przypadek lub podobny upór właściciela mógł być przyczyną porażki (Jack Welsh i GE).

Przypadek jest czynnikiem losowym i w żaden sposób nie da się go przewidzieć. Upór czasem jest konieczny, a czasem trzeba odejść od stołu (Annie Duke, „Odpuść”)

Parafrazując tytuł książki Marshalla Goldsmitha „Co doprowadziło Cię tutaj, nie doprowadzi Cię tam” – mamy odpowiedź dlaczego sztuczna inteligencja nie może zrozumieć firmy. To samo odnosi się również do ludzi, którzy te firmy zbudowali.

Article content

Sztuczna inteligencja nie rozumie charakteru władzy

Od kilku lat sprawdzam jak dobrze różne LLM-y są w stanie ocenić firmę przy pomocy mojego modelu 4 filarów. Wszystkie dość poprawnie analizują branżę w której funkcjonuje dana firma. Wszystkie dobrze robią analizę finansową na bazie historycznych sprawozdań. Większość dość skutecznie jest w stanie oszacować maksymalne limity kredytowe i dostosować do nich strukturę transakcji. Niestety, sztuczna inteligencja najgorzej radzi sobie z oceną pierwszego filara, czyli z analizą zarządu i właściciela. Ludziom ten filar sprawia zresztą również najwięcej kłopotów i najczęściej jest przyczyną błędnych decyzji kredytowych.

Analizując firmę, AI przeszukuje prezentacje, schematy organizacyjne, procedury, strategie, sprawozdania finansowe, ankiety klientów itd. itp. Z reguły nie dostrzega sieci wpływów, zależności, nieformalnych koalicji, ambicji, lęków, konfliktów i ukrytych interesów.

W swojej prawie 40-letniej karierze nie spotkałem jeszcze organizacji w której najważniejsze decyzje zapadają podczas oficjalnych spotkań zarządu. Zapadają wcześniej, a zarząd ma je tylko formalnie przyklepać. AI tego nie rozumie. Nie rozumie też, że w organizacjach ludzie często nie walczą o najlepsze rozwiązanie. Walczą o swoje wpływy, budżety, status, przetrwanie… Sztuczna inteligencja nigdy nie będzie w stanie podjąć decyzji, którą Rod Canion podjął z dwoma kolegami z Texas Instruments. Tu zachęcam do lektury jego książki „Open”.

Sztuczna inteligencja nie rozumie strachu

Większość błędów strategicznych wynika właśnie z ludzkiego strachu przed podjęciem trudnych decyzji.

Firmy za długo utrzymują nierentowne projekty, ignorują zmiany na rynku, odraczają konieczne działania restrukturyzacyjne, nie zwalniają toksycznych liderów (ale pozwalają odejść najlepszym pracownikom), nie potrafią zapomnieć o kosztach utopionych i wyeliminować je z procesu decyzyjnego. Dzieje się tak dlatego, że psychologiczny koszt przyznania się lidera do błędu jest zbyt wysoki.

AI nie rozumie kultury organizacyjnej

Na początku mojej kariery trafiła mi się książka „The Manager’s Handbook”, przeznaczona dla menadżerów niższego i średniego szczebla, w której odkryłem koncept winorośli (the grapevine). Pamiętam jakim to było dla mnie zaskoczeniem, choć dość szybko zrozumiałem na czym ta metoda polega.

Był to jeden z pierwszych momentów, gdy dowiedziałem się, że informacje krytyczne dla decyzji, nastroje, konflikty, opór wobec zmian czy realne układy wpływu przepływają głównie przez sieci nieformalne, a nie przez oficjalne kanały raportowania. Funkcjonowanie grapevine zrozumiałem dopiero wiele lat później i tu sztuczna inteligencja przegrywa z doświadczonym menedżerem. To także jeden z powodów, dla którego wielu inteligentnych i dobrze wykształconych menedżerów nigdy nie będzie w stanie dotrzeć na poziom członka zarządu.

Jak dotąd sztucznej inteligencji trudno jest zrozumieć na czym polega kultura organizacyjna. Nie jest to bowiem misja, czy projektowany za zewnątrz wizerunek employer branding. W rzeczywistości kultura organizacyjna to odpowiedź na pytanie:

„Co dzieje się z ludźmi, którzy mówią niewygodną prawdę?”

Niby jest to bardzo proste i oczywiste, ale sztucznej inteligencji ciężko jest znaleźć samodzielnie odpowiedź na to pytanie. Może dlatego, że w żadnym podręczniku zarządzania nie może znaleźć takiej definicji.

A przecież to kultura organizacji decyduje czy problemy są eskalowane czy ukrywane; czy ludzie zgłaszają ryzyko, czy wolą milczeć. Katastrofy biznesowe bardzo rzadko pojawiają się nagle. Trochę tak jak z czarnym łabędziem Taleba, okazuje się, że wcześniej wiele osób widziało sygnały ostrzegawcze.

Problem polegał na tym, że organizacja stworzyła środowisko, w którym bardziej opłacało się milczeć niż mówić. Czyli klasyczne zjawisko paradoksu Abilene. Sztucznej inteligencji brakuje wglądu w motywacje menedżerów i w atmosferę panującą w firmie czy na spotkaniach zarządu. Ciekaw jestem ile jeszcze energii będziemy musieli zużyć na farmach serwerowych by sztuczna inteligencja poradziła sobie z tymi problemami.

AI nie rozumie sensu istnienia

Coraz częściej mam wrażenie, że największym problemem współczesnych organizacji nie jest brak informacji a właśnie jej nadmiar. W jednej z globalnych korporacji prowadziłem kiedyś szkolenie na temat formatu prezentacji na szczebel zarządu. Niestety zderzyłem się ze ścianą. Zarząd sformułował cele szkolenia, przekazał do HR i na tej bazie przygotowałem program. Chcieli, bym nauczył analityków jak ograniczyć kokpity do najbardziej istotnych informacji. Uczestnicy szkolenia nie mogli tego zrozumieć. Powiedzieli wyraźnie, że ich menadżerowie żądają by w kokpitach pojawiało się znacznie więcej informacji. Nie mogli zrozumieć, że nadmiar informacji paraliżuje proces decyzyjny.

Problem pogłębia się teraz jeszcze bardziej, bo sztuczna inteligencja potrafi zebrać i przeanalizować coraz większą ilość informacji. Potrafi też generować odpowiedzi szybciej niż kiedykolwiek wcześniej. Niestety, by dostać właściwe odpowiedzi, trzeba zadać właściwe pytania. I tutaj tkwi sedno problemu.

W zarządzaniu kluczowe pytania bardzo często brzmią:

  • Co naprawdę się tutaj dzieje?
  • Które sygnały są ważne?
  • Co jest przypadkiem, a co zmianą strukturalną?
  • Czy problem jest operacyjny, strategiczny czy psychologiczny?
  • Czy firma nadal rozumie własny model biznesowy?

To są pytania o sens.

A sens niemal zawsze powstaje na przecięciu:

  • doświadczenia,
  • intuicji,
  • specjalistycznej wiedzy,
  • psychologii,
  • kontekstu,
  • historii organizacji.

Nie da się go całkowicie sprowadzić do statystyki.

Co z tego wynika?

Najprawdopodobniej sztuczna inteligencja zwiększy wartość ludzi z bardzo głębokim doświadczeniem biznesowym. Tych, którzy doświadczyli kryzysów, uczestniczyli w restrukturyzacjach, negocjowali z bankami, widzieli próby wdrożenia błędnych strategii i rozumieją zachowania ludzi pod presją.

Specjaliści bez praktycznego doświadczenia lub skoncentrowani na wiedzy staną się zbędni. W świecie, w którym niemal każdy ma dostęp do inteligentych narzędzi, przewagą stanie się zdolność do właściwej interpretacji rzeczywistości. Jak dotąd, to nadal pozostaje głęboko ludzką kompetencją. Pytanie na jak długo?

Zostaw odpowiedź