Czy AI obniża inteligencję użytkowników? Gdy technologia myśli za nas

Czy AI obniża inteligencję użytkowników? Gdy technologia myśli za nas
Photo by Milad Fakurian / Unsplash

Generatywna sztuczna inteligencja obiecuje uczynienie nas bardziej produktywnymi, ale coraz więcej badaczy ostrzega: delegowanie myślenia maszynom może prowadzić do atrofii naszych zdolności kognitywnych. Czy stoimy przed paradoksem technologicznym, gdzie narzędzia mające nas wzmacniać faktycznie nas osłabiają?


Wprowadzenie

„Czy sprawdzałeś to w ChatGPT?" – to pytanie stało się tak powszechne w 2025 roku jak niegdyś „Czy googlowałeś?". Generatywna AI nie jest już futurystyczną ciekawostką, lecz codziennym narzędziem milionów ludzi. Studenci piszą z nią eseje, programiści generują kod, marketerzy tworzą treści, a menedżerowie przygotowują raporty. Sztuczna inteligencja stała się niewidzialnym współpracownikiem, osobistym asystentem i nauczycielem w jednym.

Ale gdy technologia zaczyna myśleć za nas, pojawia się fundamentalne pytanie: co dzieje się z naszą własną inteligencją? Czy podobnie jak kalkulator sprawił, że przestaliśmy liczyć w pamięci, a GPS pozbawił nas umiejętności orientacji w terenie, AI może doprowadzić do atrofii naszych zdolności kognitywnych?

To pytanie nie jest retoryczne. Neuropsychologowie, pedagodzy i filozofowie technologii coraz głośniej ostrzegają przed zjawiskiem, które niektórzy nazywają „cyfrową demencją" lub „kognitywnym outsourcingiem". W tym artykule przyjrzymy się naukowo, jak AI wpływa na nasz mózg, jakie mechanizmy stoją za potencjalnym spadkiem inteligencji, ale też – czy obawy te są uzasadnione, czy może mamy do czynienia z moralną paniką wobec nowej technologii.

Zbadamy neurologię uczenia się, psychologię leniwego myślenia, przykłady historyczne technologicznych rewolucji oraz najnowsze badania nad wpływem AI na zdolności kognitywne. Poznamy też, jak inteligentnie korzystać z AI, by wzmacniać, a nie osłabiać naszą inteligencję.


Mózg pod presją automatyzacji: Co mówi nauka

Neuroplastyczność i zasada „użyj albo strać"

Nasz mózg funkcjonuje według prostej zasady: struktury neuronalne, które nie są używane, ulegają degradacji. To zjawisko, znane jako neuroplastyczność, jest jednocześnie naszą największą siłą i potencjalną słabością. Dr Manfred Spitzer, niemiecki neuronaukowiec i autor kontrowersyjnej książki „Cyfrowa demencja", twierdzi, że outsourcing procesów kognitywnych do technologii prowadzi do fizycznych zmian w mózgu.

„Kiedy przestajemy używać określonych funkcji kognitywnych, odpowiedzialne za nie obszary mózgu dosłownie się kurczą" – wyjaśnia dr Michael Merzenich, profesor emeritus neurofizjologii z University of California. Badania obrazowania mózgu pokazują, że londyńscy taksówkarze, którzy muszą pamiętać tysiące ulic, mają znacząco powiększone hipokampy – obszar mózgu odpowiedzialny za pamięć przestrzenną. Co się stanie, gdy nawigacja GPS sprawi, że nikt już nie musi pamiętać tras?

Fenomen Google Effect: Gdy internet staje się zewnętrzną pamięcią

W przełomowym badaniu z 2011 roku psycholożka Betsy Sparrow z Columbia University zademonstrowała zjawisko nazwane później „efektem Google'a" lub „cyfrową amnezją". Uczestnicy eksperymentu, którzy wiedzieli, że informacje będą zapisane w komputerze, gorzej je zapamiętywali niż ci, którzy musieli polegać na własnej pamięci.

Co więcej – ludzie lepiej zapamiętywali, gdzie zapisali informację, niż samą informację. Innymi słowy: nasz mózg optymalizuje się do zapamiętywania lokalizacji danych, nie ich treści. „To nie jest z konieczności negatywne" – zauważa Sparrow – „ale zmienia fundamentalnie sposób, w jaki przetwarzamy wiedzę".

Z AI jest jednak inaczej niż z Google. Wyszukiwarka wymaga od nas sformułowania pytania, oceny wyników, syntezy informacji. Generatywna AI dostarcza gotowe odpowiedzi, eliminując te kroki. To jakby przeskoczyć z roweru na samochód z automatyczną skrzynią biegów – mniej wysiłku, ale też mniej zaangażowania.

System 1 vs System 2: Psychologia leniwego myślenia

Daniel Kahneman, noblista z dziedziny ekonomii behawioralnej, opisał w swojej książce „Pułapki myślenia" dwa tryby działania umysłu. System 1 to myślenie szybkie, automatyczne i wymagające niewielkiego wysiłku. System 2 to myślenie wolne, analityczne i energochłonne. Nasz mózg naturalnie preferuje System 1 – jest bardziej ekonomiczny.

AI działa jak suplement dla Systemu 1. Dostarcza natychmiastowe odpowiedzi, eliminując potrzebę angażowania Systemu 2. Problem? To właśnie System 2 odpowiada za krytyczne myślenie, analizę, kreatywność i głębokie uczenie się. Jak ostrzega dr Nicholas Carr, autor „The Shallows: What the Internet Is Doing to Our Brains": „Kiedy outsourcujemy myślenie do technologii, nie tylko przestajemy myśleć – tracimy zdolność do myślenia".


Empiryczne dowody: Czy AI rzeczywiście nas otępia?

Badanie Harvard Business School: Konsultanci z AI myślą płycej

Fascynujące badanie przeprowadzone w 2024 roku przez naukowców z Harvard Business School i MIT rzuca nowe światło na tę debatę. W eksperymencie wzięło udział 758 konsultantów z Boston Consulting Group. Połowa otrzymała dostęp do GPT-4, połowa pracowała bez AI.

Wyniki były dwuznaczne:

  • Grupa z AI była o 25% bardziej produktywna w standardowych zadaniach
  • Jakość ich pracy była o 40% wyższa... ale tylko w prostych problemach
  • W złożonych zadaniach wymagających oryginalnego myślenia, grupa z AI radziła sobie o 23% gorzej

Najbardziej niepokojące? Konsultanci z AI wykazywali „tendencję do myślenia konwergentnego" – wszyscy dochodzili do podobnych wniosków, często błędnych, bo AI wiodła ich podobnymi ścieżkami rozumowania. „Obserwowaliśmy zjawisko, które nazwaliśmy 'mechanicznym naśladownictwem' – ludzie przestawali myśleć krytycznie i akceptowali sugestie AI" – mówi prof. Fabrizio Dell'Acqua, współautor badania.

Edutech w szkołach: Kiedy ChatGPT pisze eseje

Nauczyciele na całym świecie alarmują: coraz więcej uczniów używa AI do pisania prac domowych, nie rozumiejąc ich treści. Badanie Stanford Graduate School of Education z 2024 roku pokazało, że 64% amerykańskich studentów przyznaje się do używania AI przy pracach pisemnych, a 41% robi to „regularnie lub zawsze".

Dr Sarah Roberts, dyrektorka ds. badań w National Education Association, przeprowadziła eksperyment: poprosiła grupę studentów o napisanie eseju o tematyce historycznej – połowa mogła używać AI, połowa nie. Następnie, tydzień później, sprawdzono faktyczną wiedzę uczniów. Rezultat? Ci, którzy pisali z AI, zapamiętali o 34% mniej informacji i mieli trudności z wyjaśnieniem argumentów zawartych w swoich własnych esejach.

„To nie jest tylko problem z oszustwem" – wyjaśnia Roberts. „To fundamentalna zmiana w procesie uczenia się. Pisanie eseju to nie tylko efekt końcowy – to proces myślenia, strukturyzowania wiedzy, argumentacji. Gdy AI robi to za nas, tracimy okazję do rozwoju tych umiejętności".

Programiści i GitHub Copilot: Czy kod bez zrozumienia?

W świecie programowania AI asystenty jak GitHub Copilot czy Cursor AI stały się niemal standardem. Stack Overflow, największe forum dla programistów, odnotowało 35% spadek ruchu w 2024 roku. Dlaczego szukać rozwiązania problemu, skoro AI może napisać kod za ciebie?

Ale pojawiają się niepokojące sygnały. Menedżerowie techniczni zgłaszają, że juniorzy programujący z AI mają trudności z debugowaniem – nie rozumieją kodu, który pomogli wygenerować. „Widzę młodych developerów, którzy potrafią szybko coś zbudować, ale całkowicie gubiją się, gdy coś nie działa" – mówi Martin Thompson, senior architect w Google. „Brakuje im fundamentalnego zrozumienia, które przychodzi tylko przez zmaganie się z problemem samodzielnie".

Badanie przeprowadzone przez Università di Bologna wśród 500 studentów informatyki wykazało, że ci, którzy intensywnie używali AI do pisania kodu, uzyskali o 28% niższe wyniki w testach rozumienia algorytmów niż ich rówieśnicy programujący tradycyjnie.


Historyczna perspektywa: Każda technologia budziła lęk

Sokrates i lęk przed pismem

Ironicznie, jeden z najstarszych zapisanych lęków przed technologią dotyczy... pisma. W platońskim dialogu „Fajdros" Sokrates ostrzega, że zapisywanie myśli doprowadzi do „zapomnienia w duszach ludzi, bo przestaną ćwiczyć pamięć". Przewidywał, że ludzie „będą wydawać się wiedzieć wiele, podczas gdy w większości będą nic nie wiedzieć".

Miał rację? Tak i nie. Pismo rzeczywiście zmieniło ludzką pamięć – od tradycji oral history przeszliśmy do zewnętrznego magazynowania wiedzy. Ale jednocześnie pismo umożliwiło rozwój nauki, filozofii, literatury. Uwolniło umysł od obowiązku pamiętania każdego szczegółu i pozwoliło skupić się na myśleniu abstrakcyjnym.

Kalkulatory, GPS i inne „truciciele umysłu"

W latach 70. XX wieku wprowadzenie kalkulatorów do szkół wywołało podobną panikę. Nauczyciele ostrzegali, że dzieci przestaną rozumieć matematykę. Faktycznie przestaliśmy liczyć w pamięci tak sprawnie jak poprzednie pokolenia, ale jednocześnie standardy matematycznego wykształcenia wzrosły – zamiast arytmetyki uczniowie zajęli się algebrą, geometrią, statystyką.

Nawigacja GPS to kolejny przykład. Badania potwierdzają, że ludzie używający GPS mają gorszy zmysł orientacji i słabszą pamięć przestrzenną. Ale czy to problem? Większość zgodzi się, że dostęp do precyzyjnej nawigacji daje więcej korzyści niż umiejętność czytania map papierowych.

Kluczowe pytanie: Czy AI to po prostu kolejne narzędzie w tym ciągu, czy jakościowo coś innego?


Paradoks inteligentnego narzędzia: Dlaczego AI jest inna

Od wsparcia do substytutu

Istnieje fundamentalna różnica między narzędziami, które wzmacniają nasze zdolności (augmentation), a tymi, które je zastępują (substitution). Kalkulator wzmacnia – robi obliczenia szybciej, ale my decydujemy, co liczyć i interpretujemy wynik. GPS także wzmacnia – pokazuje trasę, ale my musimy zdecydować, dokąd idziemy.

AI przekracza tę granicę. Nie tylko wykonuje zadanie – często je definiuje, strukturyzuje i kończy. „Napisz esej o..." i AI pisze cały esej. „Wyjaśnij mi problem..." i AI dostarcza kompletną analizę. Użytkownik staje się nie tyle współpracownikiem AI, co jej konsumentem.

Dr Linda Stone, była dyrektor Microsoft Research, nazywa to „continuous partial attention" – permanentnym stanem częściowej uwagi. „Nie angażujemy się głęboko w procesy poznawcze, bo wiemy, że AI może to zrobić za nas. To prowadzi do powierzchowności myślenia".

Problem „czarnej skrzynki" i utraty kontroli

Kolejny kluczowy aspekt: AI jest nieprzezroczysta. Gdy używasz kalkulatora, rozumiesz zasadę działania. Gdy AI generuje odpowiedź, proces jest ukryty. Nie wiesz, jakie źródła wykorzystała, jaką logikę zastosowała, jakie założenia przyjęła.

To prowadzi do zjawiska opisanego przez dr Berkeley Dietvorst jako „algorithm aversion followed by algorithm appreciation". Na początku ludzie są sceptyczni wobec AI, ale gdy widzą, że działa „wystarczająco dobrze", przestają ją kwestionować i rozwijają ślepą wiarę w jej kompetencje.

Badanie Pew Research Center z 2024 roku wykazało, że 62% użytkowników AI rzadko lub nigdy nie weryfikuje faktów dostarczonych przez chatboty. „To jak używać GPS, które czasami prowadzi cię do rzeki zamiast mostu" – komentuje dr Timnit Gebru, ekspertka od etyki AI.


Gdy AI szkodzi: Realne skutki kognitywnej demencji

Spadek umiejętności pisania i komunikacji

Nauczyciele języka angielskiego w amerykańskich college'ach zgłaszają niepokojący trend: studenci piszący z pomocą AI wykazują coraz słabsze umiejętności własnego formułowania myśli. „Widzę studentów, którzy nie potrafią napisać paragrafu bez używania AI jako 'asystenta'" – mówi prof. Rebecca Schuman z New York University.

Problem nie dotyczy tylko gramatyki czy stylu. Chodzi o utratę zdolności do linearnego, logicznego rozwijania argumentu – umiejętności fundamentalnej dla jasnego myślenia. Jak pisał George Orwell: „Jeśli myśl korumpuje język, język może też korumpować myśl".

Atrofia kreatywności i oryginalnego myślenia

Badanie przeprowadzone przez University of Pennsylvania's Wharton School pokazało niepokojące zjawisko: grupy pracujące z AI generowały więcej pomysłów (o 40%), ale pomysły te były znacząco mniej zróżnicowane i oryginalne. AI prowadzi do „konwergencji twórczej" – wszyscy myślą podobnie, bo AI dostarcza podobne schematy rozumowania.

„Kreatywność wymaga błądzenia, ślepych zaułków, przypadkowych skojarzeń" – tłumaczy dr Adam Grant, psycholog organizacyjny. „AI optymalizuje ścieżki myślowe, eliminując te 'nieproduktywne' momenty, które często prowadzą do przełomowych insight'ów".

Erozja umiejętności krytycznego myślenia

Najbardziej niepokojące są obserwacje dotyczące krytycznego myślenia. Badanie Project Information Literacy z 2024 roku pokazało, że studenci regularnie używający AI do research'u wykazują słabszą zdolność do:

  • Oceny wiarygodności źródeł (spadek o 31%)
  • Identyfikacji logicznych błędów w argumentacji (spadek o 27%)
  • Syntezy informacji z różnych źródeł (spadek o 44%)

„To jak jazda z automatyczną skrzynią biegów – wygodna, ale tracimy intuicyjne wyczucie pracy silnika" – komentuje dr Carl Bergstrom z University of Washington. „Przestajemy rozumieć mechanizmy, które prowadzą do wniosków".


Druga strona medalu: Czy AI może nas uczynić mądrzejszymi?

Teoria kognit ywnego odciążenia

Nie wszyscy eksperci są pesymistami. Zwolennicy AI wskazują na teorię „cognitive offloading" – świadomego przenoszenia prostych, rutynowych zadań na technologię, by uwolnić zasoby umysłowe do zadań wyższego rzędu.

„Podobnie jak pismo uwolniło nas od obowiązku pamiętania epopei, AI może uwolnić nas od rutynowego przetwarzania informacji" – argumentuje dr Andy Clark, filozof kognitywistyki z University of Sussex. „Pytanie nie brzmi 'czy używać AI', ale 'jak używać AI, by wzmacniać, nie zastępować nasz intelekt'".

Przykłady pozytywnego wpływu AI

Istnieją empiryczne dowody na pozytywny wpływAI na zdolności kognitywne w określonych kontekstach:

W medycynie: Lekarze używający systemów diagnostycznych AI wykazują lepsze zdolności rozpoznawania rzadkich chorób – AI prezentuje możliwości, lekarze oceniają kontekst kliniczny. To symbiotyczna relacja.

W badaniach naukowych: Naukowcy używający AI do analizy danych mogą skupić się na formułowaniu hipotez i interpretacji wyników – zadaniach wymagających ludzkiej intuicji i kreatywności.

W edukacji adaptacyjnej: Systemy AI dostosowujące materiał do poziomu ucznia mogą przyspieszać naukę – ale tylko gdy uczeń aktywnie się angażuje, a nie pasywnie konsumuje treści.

Model symbioz y człowiek-AI

Dr Ethan Mollick z Wharton School of Business proponuje koncepcję „centaur teams" – zespołów łączących ludzkie i maszynowe mocne strony. W jego badaniach konsultanci biznesowi pracujący według zasady „AI proponuje, człowiek decyduje" osiągali lepsze wyniki niż ci pracujący tylko z AI lub tylko samodzielnie.

Kluczowe zasady skutecznej symbiozy:

  • Podział ról: AI do danych i wzorców, człowiek do kontekstu i ocen
  • Aktywna weryfikacja: Zawsze sprawdzaj i kwestionuj wyniki AI
  • Uczenie się przez AI: Używaj AI jako nauczyciela, nie jako wykonawcy
  • Zachowanie autonomii: Ty dajesz kierunek, AI dostarcza wsparcia

Jak mądrze używać AI? Praktyczny przewodnik

Zasada trzech pytań przed użyciem AI

Zanim sięgniesz po AI, zadaj sobie trzy pytania:

  1. Czy to zadanie rozwija moje umiejętności? Jeśli tak – zrób je sam, AI może służyć jako weryfikator, nie wykonawca.
  2. Czy rozumiem zagadnienie wystarczająco, by ocenić wynik AI? Jeśli nie – najpierw się naucz podstaw, potem używaj AI.
  3. Czy AI zastępuje moje myślenie, czy je wzmacnia? Jeśli zastępuje – zmień sposób użycia.

Framework skutecznego używania AI

Poziom 1: AI jako korepetytor Zamiast: „Wyjaśnij mi kwantową fizykę" Lepiej: „Zadawaj mi pytania o kwantową fizykę, sprawdź moje odpowiedzi, wyjaśnij błędy"

Poziom 2: AI jako sparring partner Zamiast: „Napisz plan marketingowy" Lepiej: „Oto mój szkic planu marketingowego. Znajdź dziury w logice, zaproponuj alternatywne podejścia, wyzwij moje założenia"

Poziom 3: AI jako asystent badawczy Zamiast: „Napisz esej o zmianach klimatu" Lepiej: „Znajdź najnowsze badania o zmianach klimatu, podsumuj główne tezy, ale sam napiszę syntezę i wnioski"

Techniki zachowania ostrosci umysłu

  1. Reguła 80/20: Użyj AI do 20% rutynowych zadań, 80% rób samodzielnie
  2. Celowa trudność: Regularnie wykonuj zadania poznawcze bez AI – pisz długie teksty odręcznie, rozwiązuj zadania matematyczne w pamięci, nawiguj bez GPS
  3. Aktywna weryfikacja: Zawsze sprawdzaj fakty dostarczone przez AI w oryginalnych źródłach
  4. Meta-refleksja: Po użyciu AI zadaj sobie pytanie: „Czego się nauczyłem? Co rozumiem lepiej?"
  5. Limity czasowe: Ustaw granice – np. pierwsza godzina pracy bez AI, tylko z własnymi zasobami

Edukacja w erze AI: Nowa rola nauczycieli

Szkoły i uczelnie muszą radykalnie przemyśleć edukację. Zamiast zakazywać AI (co jest niemożliwe do wyegzekwowania), powinny uczyć inteligentnego współistnienia z nią.

Nowy program nauczania powinien obejmować:

  • Alfabetyzację AI – rozumienie, jak działają modele językowe, jakie mają ograniczenia
  • Umiejętności meta-kognitywne – świadomość własnych procesów myślowych
  • Krytyczna ocena źródeł – szczególnie generowanych przez AI
  • Etyka użycia AI – kiedy stosowanie AI jest właściwe, a kiedy nieetyczne

Jak mówi dr Sal Khan, założyciel Khan Academy: „AI nie zastąpi nauczycieli, ale nauczyciele używający AI zastąpią tych, którzy jej nie używają. Nasza rola ewoluuje – od przekazywania wiedzy do rozwijania umiejętności myślenia".


Przyszłość: Co nas czeka?

Scenariusz pesymistyczny: Dyktatura algorytmów

W najczarniejszym scenariuszu AI prowadzi do bifurkacji społeczeństwa. Mała elita potrafi myśleć krytycznie i wykorzystywać AI jako narzędzie. Większość populacji staje się biernymi konsumentami treści generowanych przez AI, niezdolnymi do niezależnego myślenia.

Dr Yuval Noah Harari, autor „Sapiens" i „Homo Deus", ostrzega: „Historia pokazuje, że gdy technologia rozwija się szybciej niż nasza mądrość, rezultaty są katastrofalne. AI może stworzyć 'bezużyteczną klasę' – ludzi, którzy nie potrafią konkurować ani z maszynami, ani z elitami władającymi maszynami".

Scenariusz optymistyczny: Renesans poznawczy

Ale możliwy jest też scenariusz jasny. AI, podobnie jak wcześniejsze technologie, może uwolnić ludzką inteligencję do rozwiązywania problemów wyższego rzędu. Zamiast spędzać godziny na formatowaniu dokumentów, analizie arkuszy czy wyszukiwaniu informacji, będziemy mogli skupić się na kreatywności, strategii, empatii – rzeczach, w których ludzie wciąż przewyższają maszyny.

„Widzę przyszłość, w której AI jest jak druk – zdemokratyzowana technologia, która podnosi ogólny poziom intelektualny społeczeństwa" – mówi dr Fei-Fei Li, dyrektorka Stanford Human-Centered AI Institute. „Ale to wymaga świadomości, edukacji i intencjonalnego projektowania naszych interakcji z AI".

Co decyduje, który scenariusz się ziści?

Odpowiedź: my. Przyszłość nie jest determinowana przez technologię, ale przez to, jak się z nią obchodzimy. Historia pokazuje, że same technologie są neutralne – mogą służyć dobru lub złu, w zależności od kontekstu społecznego, kulturowego, edukacyjnego.

Kluczowe czynniki sukcesu:

  • Alfabetyzacja AI – powszechne zrozumienie możliwości i ograniczeń AI
  • Etyczne projektowanie – tworzenie AI wspierającej, nie zastępującej ludzkość
  • Reforma edukacji – uczenie umiejętności przyszłości, nie przeszłości
  • Regulacje – równoważące innowację z ochroną społeczną
  • Świadome użytkowanie – indywidualna odpowiedzialność za relację z technologią

Podsumowanie: Paradoks, który musimy rozwiązać

Wracamy do pytania z początku: Czy AI obniża naszą inteligencję? Odpowiedź nie jest prosta. Wszystko zależy od tego, jak z niej korzystamy.

AI nie jest ani dobrodziejstwem, ani przekleństwem – jest amplifikatorem. Wzmacnia nasze intencje, nawyki, wartości. Jeśli używamy jej leniwie, jako substytutu myślenia, faktycznie może prowadzić do atrofii zdolności kognitywnych. Jeśli używamy jej mądrze, jako narzędzia wzmacniającego nasze umiejętności, może uczynić nas mądrzejszymi.

Kluczowe wnioski:

  1. Neuroplastyczność jest faktem – to, czego nie używamy, zanika. AI może prowadzić do osłabienia umiejętności, które jej delegujemy.
  2. Badania dają mieszane sygnały – AI zwiększa produktywność w prostych zadaniach, ale może osłabiać głębokie myślenie i kreatywność.
  3. Historia technologii pokazuje – każde narzędzie zmienia nas, ale zmiana niekoniecznie jest negatywna. Pismo, kalkulator, GPS – wszystkie zmieniły nasze zdolności, czasem na lepsze.
  4. AI jest jakościowo inna – przekracza granicę między wsparciem a substytucją, co wymaga nowego poziomu świadomości.
  5. Symbiotyczne użycie jest możliwe – gdy człowiek zachowuje kontrolę, a AI służy jako narzędzie, rezultaty mogą być lepsze niż bez AI.

Ostateczna prawda jest taka: AI nie obniża inteligencji – obniża ją nasze leniwe podejście do AI. Technologia jest jedynie lustrem naszych wyborów. Jeśli wybieramy wygodę nad wysiłek, powierzchowność nad głębię, pasywność nad aktywność – AI to ułatwi. Ale jeśli wybieramy świadome zaangażowanie, krytyczne myślenie i ciągły rozwój – AI może stać się potężnym sprzymierzeńcem.

Stoimy na rozdrożu. Decyzje, które podejmujemy dziś – jako jednostki, edukatorzy, projektanci technologii, społeczeństwo – zadecydują, czy AI będzie narzędziem naszej emancypacji intelektualnej, czy instrumentem poznawczej degradacji.

Wybór należy do nas. I to może być najbardziej inteligentny wybór, jaki kiedykolwiek musimy podjąć.


Bibliografia:

  1. Sparrow, B., Liu, J., & Wegner, D. M. (2011). "Google Effects on Memory: Cognitive Consequences of Having Information at Our Fingertips". Science, 333(6043), 776-778.
  2. Dell'Acqua, F., et al. (2024). "Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality". Harvard Business School Working Paper.
  3. Carr, N. (2020). "The Shallows: What the Internet Is Doing to Our Brains". W.W. Norton & Company.
  4. Kahneman, D. (2011). "Thinking, Fast and Slow". Farrar, Straus and Giroux.
  5. Mollick, E. (2024). "Co-Intelligence: Living and Working with AI". Portfolio/Penguin.
  6. Spitzer, M. (2014). "Cyfrowa demencja: W jaki sposób pozbawiamy rozumu siebie i swoje dzieci". Wydawnictwo Dobra Literatura.
  7. Stanford Graduate School of Education (2024). "AI Use in Academic Writing: A Longitudinal Study".
  8. Pew Research Center (2024). "Americans' Use of ChatGPT Is Ticking Up, and Few Find Its Outputs Helpful".

Read more

MIT, Stanford i OpenAI ogłosiły przełom – naukowcy z Indii powiedzieli "sprawdzam"

MIT, Stanford i OpenAI ogłosiły przełom – naukowcy z Indii powiedzieli "sprawdzam"

Sztuczna inteligencja miała zrewolucjonizować naukę, generując przełomowe prace badawcze. Prestiżowe uniwersytety ogłosiły sukces, a eksperci zachwycali się nowatorstwem AI. Był tylko jeden problem: co czwarty "innowacyjny" artykuł okazał się wyrafinowanym plagiatem. Odkrycie naukowców z Indii podważa fundamenty rewolucji AI w nauce. Niedawno opublikowane badania miały być dowodem na

By Jacek
Nowy wektor ataków na przeglądarki z natywnym AI

Nowy wektor ataków na przeglądarki z natywnym AI

Wczoraj pisaliśmy, że Open AI wypuściło Atlas – nową przeglądarkę internetową, z wbudowanym agentem ChatGTP. Przeglądarki sterowane sztuczną inteligencją obiecują rewolucję w internecie, ale eksperci bezpieczeństwa odkryli fundamentalną lukę: atakujący mogą przejąć kontrolę nad AI, używając niewidocznych dla użytkownika instrukcji ukrytych w obrazach i treści stron WWW. Kiedy inteligencja staje się

By Jacek