Większość kodu powstającego dziś w firmach technologicznych nie wychodzi spod palców programistów. Generują go systemy AI, a inżynierowie sprawdzają, poprawiają i decydują, co z tym zrobić. Ten zwrot dokonał się w ciągu ostatnich sześciu miesięcy i jest faktem, który Mustafa Suleyman, CEO Microsoft AI, wskazuje jako zapowiedź zmian w prawie, księgowości i zarządzaniu. W wywiadzie dla Financial Times opublikowanym w lutym 2026 roku Suleyman postawił tezę: AI przejmie większość rutynowych zadań zawodów umysłowych w ciągu najbliższych 12 do 18 miesięcy, a to, z czego składa się praca biurowa dziś, zmieni się nie do poznania.
Kto to mówi i dlaczego warto go słuchać?
Zanim ocenimy wagę tej prognozy, warto wiedzieć, skąd pochodzi. Mustafa Suleyman to nie samozwańczy youtube’owy guru, a brytyjski przedsiębiorca i jeden z najdłużej działających praktyków w branży AI. Nie jest akademikiem spekulującym o przyszłości, lecz człowiekiem, który tę przyszłość współtworzył. W 2010 roku współzałożył DeepMind, jedno z najbardziej liczących się laboratoriów AI na świecie, przejęte później przez Google. W 2022 roku założył Inflection AI. W marcu 2024 roku objął stanowisko CEO Microsoft AI, czyli działu odpowiadającego za integrację sztucznej inteligencji w całym ekosystemie Microsoftu, od Copilota po rozwiązania dla korporacji.
To właśnie ta ostatnia pozycja daje mu wgląd niedostępny dla zewnętrznych obserwatorów. Suleyman nie prognozuje na podstawie modeli teoretycznych, lecz widzi, w jakim tempie firmy z listy Fortune 500 wdrażają narzędzia AI do codziennej pracy biurowej i jakie efekty te wdrożenia przynoszą. Jego definicja „professional-grade AGI” jest celowo pozbawiona filozoficznego zadęcia: to nie maszyna, która myśli jak człowiek, lecz system zdolny wykonać większość zadań, które dziś realizuje wykwalifikowany pracownik biurowy, czyli prawnik, księgowy, menedżer projektu czy specjalista od marketingu.
Dla porównania warto przytoczyć odmienną ocenę: Dario Amodei, CEO Anthropic, szacuje podobne zmiany na horyzont pięcioletni. Różnica między prognozami obu liderów branży pokazuje, że nawet eksperci z pierwszego rzędu nie są zgodni co do tempa tej transformacji.
Programiści już to przeżyli i nie stracili pracy, ale zmienili ją nie do poznania
Gdyby szukać jednego dowodu, że prognoza Suleymana nie jest myśleniem życzeniowym, wystarczy spojrzeć na to, co stało się z inżynierią oprogramowania. Jeszcze dwa lata temu AI-assisted coding był ciekawostką dla entuzjastów. Dziś, jak przyznają sami inżynierowie Microsoftu w rozmowach cytowanych przez Suleymana w wywiadzie dla Financial Times, zdecydowana większość kodu powstaje przy wsparciu systemów AI.
Nie oznacza to, że programiści stali się zbędni. Ich praca zmieniła się strukturalnie: z pisarzy kodu stali się jego redaktorami i architektami. Cykl od pomysłu do działającego komponentu skrócił się radykalnie, a wzrosła waga decyzji, których AI nie potrafi podjąć samodzielnie: czy ta architektura jest bezpieczna? Czy logika systemu jest spójna? Czy rozwiązanie skaluje się do potrzeb biznesu?
Gdy w latach 80. kalkulatory arkuszowe, Lotus 1-2-3, a później Excel, weszły powszechnie do biur, nie wyeliminowały księgowych, lecz przesunęły ich pracę z ręcznego liczenia i wypełniania tabel na interpretację wyników i doradztwo. Podobnie oprogramowanie CAD nie zlikwidowało funkcji architektów, lecz uwolniło ich od rysowania na deskach kreślarskich i przeniosło uwagę na projektowanie. W obu przypadkach zawód przetrwał, ale jego istota zmieniła się tak gruntownie, że specjalista sprzed tej transformacji nie rozpoznałby własnej roli po niej.
Suleyman wskazuje IT jako „kanarek w kopalni” dla pozostałych sektorów. Pytanie, które zadaje, brzmi: skoro kodowanie, uważane za jedną z trudniejszych dyscyplin intelektualnych, przeszło tę zmianę w sześć miesięcy, ile czasu potrzebują do tego prawo, księgowość i zarządzanie?
AI już działa w kancelariach i biurach rachunkowych i ma wyniki
Debata o tym, czy AI zastąpi pracowników biurowych, byłaby łatwiejsza, gdyby dotyczyła wyłącznie przyszłości. Tymczasem w największych kancelariach prawnych na świecie zmiana już trwa i jest mierzalna.
A&O Shearman, powstała w 2024 roku z fuzji Allen & Overy i Shearman & Sterling, wdrożyła platformę Harvey AI dla 4 000 pracowników w 43 jurysdykcjach. 2 000 prawników korzysta z niej codziennie do analizy umów. Według danych firmy prawnicy oszczędzają 2–3 godziny tygodniowo na rutynowych zadaniach, a czas przeglądu kontraktów skrócił się o 30 procent. Nie jest to przypadek odosobniony: DLA Piper i Clifford Chance wdrożyły Kira Systems do analizy umów w transakcjach M&A, redukując czas przeglądu nawet o 90 procent.
Harvey AI, wyceniany w grudniu 2025 roku na 8 miliardów dolarów po serii finansowania prowadzonej przez Andreessen Horowitz, obsługuje dziś 700 klientów instytucjonalnych na całym świecie i przetwarza miliony zapytań prawnych miesięcznie. Według danych z sierpnia 2025 roku liczba aktywnych akt w systemie wzrosła z 268 000 do 9,75 miliona w ciągu roku, co stanowi 36-krotny wzrost w dwunastu miesiącach.
Warto jednak przytoczyć, co powiedział David Wakeling, szef działu innowacji Allen & Overy, przy wdrożeniu platformy, „Musisz weryfikować wszystko, co wychodzi z systemu. Musisz sprawdzać każdą rzecz” — podkreślił wyraźnie. Pytanie o to, kto i jak nadzoruje wyniki systemów AI, pozostaje dziś otwarte w każdej branży, która po nie sięga.
Cztery rzeczy, których AI za ciebie nie zrobi i dlaczego wymagają więcej, nie mniej wiedzy
W modelu, gdzie AI dostarcza pierwszy szkic dokumentu, pierwszą analizę danych czy pierwszą propozycję harmonogramu, rola człowieka nie znika, lecz przesuwa się na poziom, który Suleyman i praktycy z IT nazywają meta-funkcjami. Składają się na nie cztery rodzaje pracy.
Pierwsza to krytyczna weryfikacja wyników AI. Nie chodzi o korekturę literówek, lecz o wyłapywanie błędów logicznych i tzw. halucynacji, czyli przypadków, gdy system generuje odpowiedź wyglądającą wiarygodnie, ale faktycznie nieprawdziwą. Żeby to robić skutecznie w prawie, trzeba znać prawo lepiej niż junior, bo junior może nie zauważyć, że cytowany wyrok nie istnieje. Żeby weryfikować wyniki AI w finansach, trzeba rozumieć, dlaczego dana klasyfikacja transakcji jest błędna, nie tylko stwierdzić, że jest.
Druga meta-funkcja to debugowanie, czyli identyfikowanie błędów w procesach zautomatyzowanych i ich naprawianie. Praktycy z branży IT opisują tę rolę jako pracę detektywa systemowego: pracownik musi rozumieć logikę procesu, którego sam nie zaprojektował od zera, i zlokalizować miejsce, w którym coś poszło nie tak.
Trzecia to architektura, czyli decyzje o tym, jak poszczególne moduły AI mają ze sobą współpracować, by tworzyć spójną strukturę biznesową lub technologiczną. Czwarta to nadzór nad wdrożeniem i ostateczna odpowiedzialność za skutki prawne, etyczne i biznesowe.
Wspólny mianownik tych czterech funkcji jest jeden: wszystkie wymagają głębszej wiedzy dziedzinowej niż zadania, które AI wykonuje zamiast człowieka. To jeden z najbardziej kontraintuicyjnych aspektów tej transformacji, bo AI nie obniża poprzeczki kompetencyjnej, lecz ją wyraźnie podnosi.
Gdy AI myli się w sądzie, kto odpowiada
Rok 2023 dostarczył prawniczej branży przykładu, który trafił do podręczników. Prawnicy Steven Schwartz i Peter LoDuca z nowojorskiej kancelarii Levidow, Levidow & Oberman złożyli pismo procesowe w sprawie Mata v. Avianca, Inc. zawierające cytaty z sześciu orzeczeń sądowych. Żadne z nich nie istniało, bo wszystkie zostały wygenerowane przez ChatGPT, który zapewnił jednocześnie, że „można je znaleźć w takich bazach jak LexisNexis i Westlaw.” W czerwcu 2023 roku sędzia P. Kevin Castel nałożył na prawników i kancelarię grzywnę w wysokości 5 000 dolarów.
Schwartz zeznał, że „działał pod fałszywym przekonaniem, że ta strona internetowa nie może po prostu wymyślać spraw” — i dodał, że gdyby wiedział, iż ChatGPT hallucynuje, nigdy nie złożyłby tych materiałów. Sprawa pokazała precyzyjnie granicę między narzędziem a odpowiedzialnością: sąd nie ukarał prawników za użycie AI, lecz za brak weryfikacji jej wyników.
Problem nie jest jednorazowy. W lipcu 2025 roku federalny sąd w Alabamie w sprawie Johnson v. Dunn stwierdził wprost, że kary pieniężne okazują się nieskutecznym środkiem odstraszającym od składania fałszywych, wygenerowanych przez AI twierdzeń w pismach procesowych. Sąd zasugerował, że potrzebne są ostrzejsze konsekwencje. Pytanie o odpowiedzialność prawną, czy ponosi ją prawnik, firma, czy dostawca AI, pozostaje otwarte w większości systemów prawnych na świecie. Właśnie dlatego meta-funkcja nadzoru jest dziś cenniejsza niż umiejętność generowania dokumentu.
Co zrobić w ciągu najbliższych miesięcy: plan dla pracownika, nie dla zarządu
Raporty strategiczne o transformacji AI są adresowane głównie do zarządów i działów HR. Tymczasem pracownik, który chce się odnaleźć w zmieniającym się środowisku, potrzebuje innych narzędzi niż firma i ma znacznie mniej czasu na wdrożenie abstrakcyjnych strategii.
Pierwszym krokiem jest audyt własnych zadań. Które z nich polegają na wytwarzaniu cyfrowych dokumentów lub powtarzalnych analizach? Research prawniczy, klasyfikacja faktur, generowanie raportów statusowych, tworzenie pierwszych wersji umów to zadania, które systemy AI już wykonują lub będą wykonywać w pierwszej kolejności. Nie dlatego, że są łatwe, lecz dlatego, że ich efekty są cyfrowe i mierzalne.
Drugi krok to identyfikacja własnej wiedzy dziedzinowej. Co wiesz z wieloletniego doświadczenia, czego AI nie może zweryfikować bez człowieka? Jakie błędy logiczne w dokumentacji prawnej, finansowej czy projektowej potrafisz wyłapać, bo znasz kontekst biznesowy lub prawny danej sytuacji? To rdzeń przyszłej wartości zawodowej i jednocześnie obszar, którego nie da się zastąpić bez głębokiej ekspertyzy.
Trzeci krok to oswojenie narzędzi, ale nie po to, żeby je zastąpić, lecz żeby wiedzieć, gdzie popełniają błędy. Prawnik, który nigdy nie używał Harvey AI czy podobnych platform, nie będzie w stanie ocenić, kiedy system hallucynuje. Inżynier, który nie pracował z AI-assisted coding, nie wie, jakie typy błędów architektonicznych AI generuje najczęściej. Nadzór nad systemem zaczyna się od jego znajomości.
Warto też pamiętać o szerszym pytaniu, które ta transformacja otwiera, a na które branże nie mają jeszcze odpowiedzi: jeśli AI wykonuje zadania stażysty i młodszego specjalisty, jak firmy będą kształcić przyszłych ekspertów? Model kariery oparty na stopniowym awansie od prac operacyjnych ku strategicznym traci fundament, gdy AI przejmuje pierwszy szczebel tej drabiny. To pytanie dotyczy szczególnie tych, którzy dopiero wchodzą na rynek pracy, i każdego, kto zarządza dziś zespołami złożonymi z juniorów.
