Zagrożeniem nie jest sama technologia, lecz brak gotowości instytucjonalnej i społecznej, by nią odpowiedzialnie zarządzać.
Sztuczna inteligencja (AI) coraz śmielej wkracza w życie społeczne i gospodarcze. Choć niesie ogromny potencjał wzrostu produktywności, transformacji usług publicznych i poprawy jakości życia, to jednocześnie stwarza ryzyka, których nie sposób ignorować. Ekonomiści – jako analitycy systemów społecznych i projektanci polityk publicznych – muszą uwzględniać te zagrożenia nie tylko w wymiarze technologicznym, lecz także instytucjonalnym i etycznym.
Zagrożenia pierwszego rzędu
Do najważniejszych problemów należą:
• Błędy i uprzedzenia algorytmiczne – AI uczy się na danych odzwierciedlających nierówności społeczne, co może skutkować dyskryminacją w decyzjach kredytowych, rekrutacyjnych czy ubezpieczeniowych¹.
• Brak przejrzystości (black-boxing) – modele oparte na deep learningu są często nieczytelne nawet dla ich twórców, co uniemożliwia zewnętrzny audyt i utrudnia regulację².
• Zagrożenia dla prywatności – systemy AI operują na ogromnych zbiorach danych osobowych, często bez adekwatnych zabezpieczeń³.
• Rozprzestrzenianie dezinformacji – generatywna AI umożliwia tworzenie deepfake’ów i manipulowanie opinią publiczną na skalę przemysłową⁴.
• Automatyzacja i ryzyko wykluczenia – AI może prowadzić do znaczących zmian na rynku pracy, w tym do likwidacji zawodów rutynowych⁵. Bez systemowych programów przekwalifikowania i adaptacji grozi to pogłębieniem nierówności społecznych.
Zagrożenia strukturalne i globalne
Niepokój budzi również rosnąca koncentracja władzy nad AI w rękach kilku globalnych korporacji oraz państw, co może prowadzić do ekonomicznej koncentracji zysków i geopolitycznej niestabilności⁶. Nie bez znaczenia są też zagrożenia bezpieczeństwa – AI bywa wykorzystywana do zaawansowanych cyberataków, a nawet w autonomicznych systemach uzbrojenia⁷. Szczególnie niebezpieczna jest wizja wyścigu zbrojeń na polu AI, w którym tempo rozwoju wyprzedza możliwości regulacyjne.
AGI – egzystencjalne ryzyko
Najbardziej fundamentalne zagrożenie stanowi jednak rozwój tzw. sztucznej inteligencji ogólnej (AGI), czyli systemu zdolnego do samodzielnego uczenia się i podejmowania decyzji w wielu dziedzinach – potencjalnie przewyższającego człowieka pod względem zdolności poznawczych. Jeśli AGI nie będzie zgodna z ludzkimi wartościami lub będzie działać poza kontrolą instytucjonalną, jej decyzje mogą mieć nieprzewidywalne i katastrofalne konsekwencje⁸. W tym kontekście potrzebne jest globalne porozumienie na rzecz badania bezpieczeństwa AGI, transparentności rozwoju oraz ustanowienia czerwonych linii technologicznych.
Wyzwania instytucjonalne i systemowe
W Polsce istnieje poważne ryzyko cywilizacyjnego opóźnienia. Zajmujemy dopiero 25. miejsce w rankingu European Innovation Scoreboard 2024 – osiągając zaledwie 60 proc. średniej UE. Problemem nie jest infrastruktura cyfrowa, lecz niski poziom stosowania AI w sektorze MŚP, słaba współpraca nauki z biznesem i brak społecznego zaufania do technologii.
Uczelnie rzadko są aktywnymi ośrodkami innowacji – kształcą raczej operatorów niż twórców systemów. Brakuje interdyscyplinarnych laboratoriów AI łączących ekonomię, etykę, informatykę i prawo.
Co należy zrobić?
Reakcja powinna być wielopoziomowa:
• Budowa narodowej strategii AI zintegrowanej wokół edukacji, innowacji i rynku pracy – na wzór Korei Południowej czy Finlandii.
• Reforma edukacji – od wczesnych etapów nauczania: kodowania, myślenia algorytmicznego, prompt engineeringu (tworzenia i optymalizacji promptów, czyli instrukcji dla modeli sztucznej inteligencji).
• Wspieranie innowacji deep-tech i państwo jako pierwszy klient innowacji (np. GovTech, czyli użycie technologii do poprawy efektywności, przejrzystości i dostępności usług administracji rządowej, zamówienia prekomercyjne).
• Wprowadzenie mechanizmów zarządzania ryzykiem AI – opartych na AI Act i międzynarodowej współpracy⁹.
• Promowanie odpowiedzialnej innowacji – obejmującej zarówno kwestie techniczne (audyt, transparentność), jak i etyczne (sprawiedliwość, inkluzywność, odpowiedzialność społeczna).
Zagrożeniem nie jest sama technologia, lecz brak gotowości instytucjonalnej i społecznej, by nią odpowiedzialnie zarządzać. W czasach „twórczej destrukcji” (Schumpeter), AI może być zarówno narzędziem wzrostu, jak i źródłem kryzysów – zależnie od tego, kto ją tworzy, kto nadzoruje i komu służy.
Tekst powstał na podstawie wystąpienia podczas konferencji z okazji 30-lecia TEP.
Jacek J. Wojciechowicz
————————-
Autor jest członkiem Towarzystwa Ekonomistów Polskich i prezesem Ai4smart sp. z o.o.
Towarzystwo Ekonomistów Polskich (TEP) krzewi wiedzę ekonomiczną i wyjaśnia zjawiska gospodarcze współczesnego świata, propagując poszanowanie własności prywatnej, wolną konkurencję oraz wolność gospodarczą, jako warunki rozwoju Polski. Zrzesza praktyków biznesu i teoretyków różnych dziedzin nauk ekonomicznych.
Przypisy
- C. O’Neil, Broń matematycznej zagłady, PWN, 2018.
- S. Burrell, The Black Box Society, Harvard University Press, 2016.
- Forbes Advisor, AI and Privacy, 2024.
- Stanford University, AI and Disinformation, 2023.
- E. Brynjolfsson, A. McAfee, The Second Machine Age, Norton & Co., 2014.
- AI Now Institute, Concentration of Power and AI, 2023.
- B. Mittelstadt et al., The ethics of algorithms, Big Data & Society, 3(2), 2016.
- Future of Life Institute, AGI Risks and Safety, 2023.
- European Commission, Artificial Intelligence Act – Proposal for a Regulation, 2021.





