Empire of AI by Karen Hao - okładka

Imperium sztucznej inteligencji – lekcje z książki Karen Hao

Czytając książkę Empire of AI Karen Hao, trudno oprzeć się wrażeniu, że mamy do czynienia nie tylko z historią jednej organizacji, ale z opowieścią o tym, jak rodzą się i upadają imperia – imperia technologiczne!

Karen Hao – doświadczona dziennikarka zajmująca się sztuczną inteligencją – z reporterską precyzją odsłania kulisy powstania i ekspansji OpenAI. Zaczyna od idealistycznego startu: mały zespół badaczy, wspieranych przez Sama Altmana i Elona Muska, ogłasza w 2015 roku, że chce stworzyć sztuczną inteligencję bezpieczną i otwartą dla całej ludzkości. Wizja wydaje się szlachetna: przeciwwaga dla zamkniętych laboratoriów Google czy Facebooka. Nauka prowadzona w duchu transparentności i współpracy.

Bardzo szybko jednak mit ten rozpada się pod ciężarem rzeczywistości. Rozwój sztucznej inteligencji wymaga gigantycznych zasobów: danych, mocy obliczeniowej, finansowania. OpenAI zaczyna przyciągać miliardy, podpisuje strategiczne partnerstwo z Microsoftem, ogranicza otwartość badań, a zamiast „dla dobra ludzkości” coraz częściej słyszymy o „dla stabilności biznesu”.

Między misją a rynkiem

Hao świetnie pokazuje mechanizm, który menedżerowie i przedsiębiorcy dobrze znają: jak idea, która miała być przełomem etycznym, staje się produktem dostosowanym do logiki rynku. To nie jest unikalny problem OpenAI – to strukturalna prawidłowość. Najlepsze intencje zderzają się z realiami finansowania, konkurencji i oczekiwań inwestorów.

Warto tu zadać sobie pytanie: czy w ogóle możliwa jest wielka technologia rozwijana poza logiką rynku? Jeśli nawet organizacja non-profit zderza się z koniecznością komercjalizacji, to co to oznacza dla przyszłości innych „misyjnych” projektów – od energii odnawialnej po biotechnologię?

Koncentracja władzy

Kolejny wątek to koncentracja decyzji. W książce znajdziemy wiele opisów, jak kilka osób – w szczególności Sam Altman – decydowało o kierunku, komunikacji, a nawet o tym, co jest publikowane w prasie. Kryzys w listopadzie 2023 roku, gdy zarząd próbował usunąć Altmana, pokazał światu, jak kruche są mechanizmy nadzoru w organizacji, która deklarowała, że ma działać „dla dobra ludzkości”.

To lekcja dla wszystkich menedżerów i liderów: im bardziej kluczowa jest technologia, tym większe znaczenie ma transparentność zarządzania. W przeciwnym razie nawet najlepsze produkty mogą zostać zakwestionowane przez brak zaufania.

Nauka w niewoli

Rozdział zatytułowany „Science in Captivity” powinien szczególnie poruszyć każdego akademika. OpenAI zaczynało od idei otwartych badań. Dziś większość wyników pozostaje tajna. Publikacje są ograniczane, a dostęp do danych czy modeli kontrolowany.

Karen Hao stawia pytanie: czy AI jest jeszcze częścią nauki otwartej, czy raczej przemysłu zbrojeniowego, w którym dostęp do wiedzy jest reglamentowany? To dramatyczna zmiana, bo brak otwartości oznacza brak społecznej kontroli i ograniczenie możliwości oceny ryzyk.

Koszty ukryte w cieniu

Autorka zwraca też uwagę na koszty społeczne i środowiskowe. Modele takie jak GPT wymagają setek tysięcy godzin pracy annotatorów, często w krajach Trzeciego, gdzie płaci się stawki poniżej godziwego wynagrodzenia. Do tego dochodzi zużycie energii i wody w centrach danych, emisja CO₂, problemy z prawami autorskimi do danych, itd. itp.

To szczególnie ważne, bo jako użytkownicy nowych technologii często zachwycamy się możliwościami narzędzi, zapominając, że ich rozwój bywa oparty na eksploatacji pracy i zasobów. To kolejna lekcja: każdy produkt technologiczny ma swój „ślad etyczny”.

Religia sztucznej inteligencji

Jednym z najbardziej niepokojących wątków jest narracja mesjanistyczna. Altman i inni przywódcy branży często używają języka quasi-religijnego: AGI może zbawić świat, ale też go zniszczyć. To nadaje projektowi aurę świętej misji i pozwala usprawiedliwiać ryzykowne decyzje.

Karen Hao ostrzega: w świecie, gdzie technologia zyskuje wymiar religijny, łatwo zatracić granicę między realnym zagrożeniem a retoryką, która ma mobilizować inwestorów i pracowników.

Lekcja dla polityki i społeczeństwa

Najważniejszy wniosek z lektury Empire of AI dotyczy odpowiedzialności. Hao pokazuje, że AI nie może być pozostawiona wyłącznie w rękach prywatnych firm. Potrzebne są regulacje, niezależny nadzór, a przede wszystkim debata społeczna o tym, jak chcemy, by ta technologia była wykorzystywana.

Dla liderów i menedżerów to wskazówka: nie można ignorować kontekstu społecznego i politycznego technologii, z której korzystamy. Wdrażając AI w firmach, powinniśmy pytać nie tylko o efektywność, ale i o etykę, wpływ na pracowników, bezpieczeństwo danych.


Co z tego wynika dla nas?

  1. Idealizm nie chroni przed realiami rynku. Każdy projekt potrzebuje finansowania i strategii, które mogą wypaczyć pierwotną misję.
  2. Transparentność jest warunkiem zaufania. W świecie technologii, które zmieniają życie milionów, brak przejrzystości oznacza ryzyko kryzysów reputacyjnych.
  3. Każda innowacja ma ukryte koszty. Warto je znać i świadomie minimalizować, zamiast ulegać iluzji „czystej” technologii.
  4. Narracje mają moc. Język, którym opisujemy technologie, kształtuje nasze postawy wobec nich. Dlatego trzeba odróżniać wizję od propagandy.
  5. Polityka i prawo są nieuniknione. AI to nie tylko produkt – to infrastruktura władzy. O jej kształcie zdecydują nie tylko inżynierowie, ale i regulatorzy.

Wnioski dla nas

Empire of AI to książka, która powinna być obowiązkową lekturą nie tylko dla entuzjastów sztucznej inteligencji, dla menedżerów, dla polityków ale i dla nas wszystkich. To historia o tym, jak marzenia o „technologii dla dobra ludzkości” mogą przerodzić się w budowę imperium, którego logika przypomina dawne imperia polityczne: ekspansja, kontrola, sekrety, a na końcu pytanie – co pozostanie po upadku.

Czytając Hao, przypomniałem sobie zdanie Petera Druckera: „Każda organizacja jest cudem, że w ogóle działa, bo każda ma w sobie zarodek autodestrukcji.”
OpenAI jest właśnie takim cudem – organizacją, która zmienia świat, ale jednocześnie pokazuje, jak cienka jest granica między wizją a hybris.


Jest to też dobry moment, by zadać sobie pytanie: czy nasze firmy, projekty, a nawet osobiste kariery nie podlegają tej samej dynamice? Zaczynamy od idealizmu, ale czy w miarę upływu czasu pamiętamy jeszcze co jest naszym ikigai?