Czytając książkę Empire of AI Karen Hao, trudno oprzeć się wrażeniu, że mamy do czynienia nie tylko z historią jednej organizacji, ale z opowieścią o tym, jak rodzą się i upadają imperia – imperia technologiczne!
Karen Hao – doświadczona dziennikarka zajmująca się sztuczną inteligencją – z reporterską precyzją odsłania kulisy powstania i ekspansji OpenAI. Zaczyna od idealistycznego startu: mały zespół badaczy, wspieranych przez Sama Altmana i Elona Muska, ogłasza w 2015 roku, że chce stworzyć sztuczną inteligencję bezpieczną i otwartą dla całej ludzkości. Wizja wydaje się szlachetna: przeciwwaga dla zamkniętych laboratoriów Google czy Facebooka. Nauka prowadzona w duchu transparentności i współpracy.
Bardzo szybko jednak mit ten rozpada się pod ciężarem rzeczywistości. Rozwój sztucznej inteligencji wymaga gigantycznych zasobów: danych, mocy obliczeniowej, finansowania. OpenAI zaczyna przyciągać miliardy, podpisuje strategiczne partnerstwo z Microsoftem, ogranicza otwartość badań, a zamiast „dla dobra ludzkości” coraz częściej słyszymy o „dla stabilności biznesu”.
Między misją a rynkiem
Hao świetnie pokazuje mechanizm, który menedżerowie i przedsiębiorcy dobrze znają: jak idea, która miała być przełomem etycznym, staje się produktem dostosowanym do logiki rynku. To nie jest unikalny problem OpenAI – to strukturalna prawidłowość. Najlepsze intencje zderzają się z realiami finansowania, konkurencji i oczekiwań inwestorów.
Warto tu zadać sobie pytanie: czy w ogóle możliwa jest wielka technologia rozwijana poza logiką rynku? Jeśli nawet organizacja non-profit zderza się z koniecznością komercjalizacji, to co to oznacza dla przyszłości innych „misyjnych” projektów – od energii odnawialnej po biotechnologię?
Koncentracja władzy
Kolejny wątek to koncentracja decyzji. W książce znajdziemy wiele opisów, jak kilka osób – w szczególności Sam Altman – decydowało o kierunku, komunikacji, a nawet o tym, co jest publikowane w prasie. Kryzys w listopadzie 2023 roku, gdy zarząd próbował usunąć Altmana, pokazał światu, jak kruche są mechanizmy nadzoru w organizacji, która deklarowała, że ma działać „dla dobra ludzkości”.
To lekcja dla wszystkich menedżerów i liderów: im bardziej kluczowa jest technologia, tym większe znaczenie ma transparentność zarządzania. W przeciwnym razie nawet najlepsze produkty mogą zostać zakwestionowane przez brak zaufania.
Nauka w niewoli
Rozdział zatytułowany „Science in Captivity” powinien szczególnie poruszyć każdego akademika. OpenAI zaczynało od idei otwartych badań. Dziś większość wyników pozostaje tajna. Publikacje są ograniczane, a dostęp do danych czy modeli kontrolowany.
Karen Hao stawia pytanie: czy AI jest jeszcze częścią nauki otwartej, czy raczej przemysłu zbrojeniowego, w którym dostęp do wiedzy jest reglamentowany? To dramatyczna zmiana, bo brak otwartości oznacza brak społecznej kontroli i ograniczenie możliwości oceny ryzyk.
Koszty ukryte w cieniu
Autorka zwraca też uwagę na koszty społeczne i środowiskowe. Modele takie jak GPT wymagają setek tysięcy godzin pracy annotatorów, często w krajach Trzeciego, gdzie płaci się stawki poniżej godziwego wynagrodzenia. Do tego dochodzi zużycie energii i wody w centrach danych, emisja CO₂, problemy z prawami autorskimi do danych, itd. itp.
To szczególnie ważne, bo jako użytkownicy nowych technologii często zachwycamy się możliwościami narzędzi, zapominając, że ich rozwój bywa oparty na eksploatacji pracy i zasobów. To kolejna lekcja: każdy produkt technologiczny ma swój „ślad etyczny”.
Religia sztucznej inteligencji
Jednym z najbardziej niepokojących wątków jest narracja mesjanistyczna. Altman i inni przywódcy branży często używają języka quasi-religijnego: AGI może zbawić świat, ale też go zniszczyć. To nadaje projektowi aurę świętej misji i pozwala usprawiedliwiać ryzykowne decyzje.
Karen Hao ostrzega: w świecie, gdzie technologia zyskuje wymiar religijny, łatwo zatracić granicę między realnym zagrożeniem a retoryką, która ma mobilizować inwestorów i pracowników.
Lekcja dla polityki i społeczeństwa
Najważniejszy wniosek z lektury Empire of AI dotyczy odpowiedzialności. Hao pokazuje, że AI nie może być pozostawiona wyłącznie w rękach prywatnych firm. Potrzebne są regulacje, niezależny nadzór, a przede wszystkim debata społeczna o tym, jak chcemy, by ta technologia była wykorzystywana.
Dla liderów i menedżerów to wskazówka: nie można ignorować kontekstu społecznego i politycznego technologii, z której korzystamy. Wdrażając AI w firmach, powinniśmy pytać nie tylko o efektywność, ale i o etykę, wpływ na pracowników, bezpieczeństwo danych.
Co z tego wynika dla nas?
- Idealizm nie chroni przed realiami rynku. Każdy projekt potrzebuje finansowania i strategii, które mogą wypaczyć pierwotną misję.
- Transparentność jest warunkiem zaufania. W świecie technologii, które zmieniają życie milionów, brak przejrzystości oznacza ryzyko kryzysów reputacyjnych.
- Każda innowacja ma ukryte koszty. Warto je znać i świadomie minimalizować, zamiast ulegać iluzji „czystej” technologii.
- Narracje mają moc. Język, którym opisujemy technologie, kształtuje nasze postawy wobec nich. Dlatego trzeba odróżniać wizję od propagandy.
- Polityka i prawo są nieuniknione. AI to nie tylko produkt – to infrastruktura władzy. O jej kształcie zdecydują nie tylko inżynierowie, ale i regulatorzy.
Wnioski dla nas
Empire of AI to książka, która powinna być obowiązkową lekturą nie tylko dla entuzjastów sztucznej inteligencji, dla menedżerów, dla polityków ale i dla nas wszystkich. To historia o tym, jak marzenia o „technologii dla dobra ludzkości” mogą przerodzić się w budowę imperium, którego logika przypomina dawne imperia polityczne: ekspansja, kontrola, sekrety, a na końcu pytanie – co pozostanie po upadku.
Czytając Hao, przypomniałem sobie zdanie Petera Druckera: „Każda organizacja jest cudem, że w ogóle działa, bo każda ma w sobie zarodek autodestrukcji.”
OpenAI jest właśnie takim cudem – organizacją, która zmienia świat, ale jednocześnie pokazuje, jak cienka jest granica między wizją a hybris.
Jest to też dobry moment, by zadać sobie pytanie: czy nasze firmy, projekty, a nawet osobiste kariery nie podlegają tej samej dynamice? Zaczynamy od idealizmu, ale czy w miarę upływu czasu pamiętamy jeszcze co jest naszym ikigai?