Badanie MIT: ChatGPT zmienia sposób, w jaki dzia?a nasz mózg – nie zawsze na lepsze

Izabela Myszkowska
5 Min
?ród?o: Unsplash

Du?e modele j?zykowe, takie jak ChatGPT, zrewolucjonizowa?y sposób, w jaki piszemy, uczymy si? i szukamy informacji. Ale najnowsze badanie MIT Media Lab stawia wa?ne pytanie: czy cz?ste korzystanie z AI wp?ywa na nasz mózg – i to niekoniecznie pozytywnie?

Eksperyment przeprowadzony przez neurologów i specjalistów od sztucznej inteligencji z Massachusetts Institute of Technology daje do my?lenia. W warunkach kontrolowanych 54 ochotników poproszono o napisanie esejów na temat filantropii – jedni z pomoc? ChatGPT, inni z wykorzystaniem wyszukiwarki Google, a reszta wy??cznie w?asnym umys?em. Uczestników pod??czono do urz?dze? EEG, które mierzy?y aktywno?? mózgu w czasie pisania. Wyniki okaza?y si? zaskakuj?ce.

AI jako kula u nogi?

Grupa, która pisa?a samodzielnie, wykazywa?a najwy?szy poziom zaanga?owania poznawczego i najaktywniejsz? prac? mózgu. U?ytkownicy Google byli po?rodku – korzystali z zewn?trznego ?ród?a wiedzy, ale nadal musieli selekcjonowa? informacje i samodzielnie je formu?owa?. Tymczasem u?ytkownicy ChatGPT wykazali najni?sz? aktywno?? neuronow?. Ich mózgi pracowa?y mniej intensywnie, a po kilku miesi?cach – w ponownym te?cie – uczestnicy z tej grupy zapami?tywali mniej i gorzej identyfikowali si? ze swoj? prac?.

Najbardziej wymowny by? fakt, ?e osoby korzystaj?ce z ChatGPT mia?y trudno?ci z przypomnieniem sobie, co dok?adnie napisa?y. Co wi?cej – rzadziej uto?samia?y si? z esejem, który formalnie stworzy?y. To z kolei mo?e wskazywa? na brak wewn?trznego przetworzenia tre?ci, które zosta?y w du?ej mierze wygenerowane, a nie samodzielnie wypracowane.

Modele j?zykowe a umiej?tno?? krytycznego my?lenia

Od premiery ChatGPT w 2022 roku popularno?? du?ych modeli j?zykowych (LLM) eksplodowa?a. Sta?y si? one wszechobecne w ?rodowisku akademickim, pracy biurowej i edukacji. Narz?dzia te przyspieszaj? pisanie, pomagaj? syntetyzowa? informacje i t?umaczy? z?o?one poj?cia. Ale pojawia si? pytanie: czy u?atwianie procesów my?lowych nie prowadzi przypadkiem do ich rozleniwienia?

Z bada? MIT wynika, ?e mo?e tak by?. Wskazuj? one, ?e sta?e korzystanie z AI w roli pomocnika poznawczego – nawet je?li efektywne – mo?e z czasem wp?ywa? negatywnie na rozwój umiej?tno?ci krytycznego my?lenia i zapami?tywania. To szczególnie istotne w kontek?cie systemów edukacyjnych oraz m?odych u?ytkowników, którzy dopiero kszta?tuj? swoje strategie poznawcze.

Czy AI uczy nas my?le? – czy my?le? przestajemy?

Zwolennicy LLM podkre?laj?, ?e narz?dzia takie jak ChatGPT pomagaj? rozwija? nowe formy ekspresji i dost?p do wiedzy. Z perspektywy technologicznej nie sposób si? z tym nie zgodzi? – modele te doskonale sprawdzaj? si? jako asystenci, edytorzy i korepetytorzy. S? szybkie, tanie i zawsze dost?pne.

Problem pojawia si?, gdy AI zaczyna zast?powa? proces my?lenia, zamiast go wspiera?. Badanie MIT pokazuje, ?e ró?nica mi?dzy „pomaganiem” a „wyr?czaniem” jest znacz?ca – nie tylko poznawczo, ale i neurologicznie.

Efektywno?? vs. g??bia poznawcza

To, co daje krótkoterminow? produktywno??, mo?e w d?u?szej perspektywie prowadzi? do poznawczej stagnacji. Modele AI potrafi? tworzy? teksty spójne, logiczne i przekonuj?ce – ale to nie oznacza, ?e uczymy si? lepiej. Wr?cz przeciwnie – u?ytkownicy, którzy polegali wy??cznie na sobie, osi?gali wy?sze wyniki w ocenie jako?ci esejów (zarówno wed?ug ludzi, jak i AI), lepiej je zapami?tywali i wykazywali wi?ksze zaanga?owanie poznawcze.

Wynika z tego, ?e w d?u?szej perspektywie, bycie zdanym na siebie mo?e by? bardziej rozwijaj?ce ni? ci?g?e poleganie na AI – nawet je?li ta druga opcja wydaje si? „efektywniejsza”.

Wnioski z bada? MIT mog? mie? istotne znaczenie dla bran?y technologicznej, edukacyjnej i HR. Coraz wi?cej firm implementuje generatywn? AI w codziennej pracy – od copywritingu, przez analizy, po kodowanie. Tymczasem rodzi si? pytanie: jak utrzyma? równowag? mi?dzy automatyzacj? a aktywizacj? poznawcz? pracowników?

Dla nauczycieli i decydentów edukacyjnych to tak?e sygna? ostrzegawczy – nadmierne poleganie na AI mo?e utrudnia? rozwój niezale?nego my?lenia. Potrzebne s? strategie dydaktyczne, które nie tylko pozwalaj? korzysta? z AI, ale ucz?, jak to robi? ?wiadomie – tak, by wspiera?, a nie zast?powa? procesy poznawcze.

Umiar i intencjonalno??

Jak w przypadku ka?dej technologii, kluczowe jest zrozumienie jej wp?ywu i ?wiadome korzystanie. Modele j?zykowe nie s? z natury z?e – ale ich u?ycie powinno by? przemy?lane. Jak pokazuje badanie MIT, pozostawienie cz??ci wysi?ku intelektualnego po stronie cz?owieka nadal ma sens – zw?aszcza je?li zale?y nam na d?ugofalowym rozwoju kompetencji poznawczych.

Udostępnij