Twój koszyk jest obecnie pusty!
W samym 2024 roku otwarto tam około 50 tysięcy „sal do nauki AI”. Sztuczna inteligencja jest tam wdrażana w proces edukacji na szeroką skalę. Nauczyciel tylko nadzoruje uczniów, a niemal połowa z nich otwarcie używa AI do odrabiania prac domowych.
To nie u nas. To w Chinach.
Państwo Środka pokazuje, jak można systemowo – pytanie, czy słusznie – wdrażać sztuczną inteligencję do szkół. Kultura Zachodu podchodzi do tego zagadnienia zdecydowanie bardziej humanistycznie i ostrożnie, próbując chronić procesy poznawcze dzieci.
Natomiast problem jest pilny. Nie chodzi tylko o to, w jaki sposób uczą się dziś nasze dzieci i ile zapału oraz pracy wkładają w to nauczyciele. To przede wszystkim fundamentalne pytanie: z jakimi kompetencjami i nawykami ci młodzi ludzie wejdą na rynek pracy za kilka lat.
Właśnie ten globalny kontrast i związane z nim dylematy były osią jednej z debat podczas Generative Revolution Day. Zderzyły się ze sobą dwie wizje przyszłości edukacji. Profesor Maha Bali z American University in Cairo oraz profesor Dariusz Jemielniak, wiceprezes Polskiej Akademii Nauk, podjęli dyskusję nad fundamentalnym pytaniem: czy wdrożenie algorytmów w szkolnych ławkach to nieunikniona ewolucja, czy raczej przedwczesne oddanie kontroli nad rozwojem poznawczym dzieci?
Ciąg dalszy artykułu pod materiałem video
Postęp czy pułapka?
– Idea dawania młodym ludziom narzędzia takiego jak AI, zanim w ogóle nauczą się pisać i myśleć, jest tak samo problematyczna, jak danie dziecku kalkulatora, zanim opanuje podstawy matematyki. Robiąc to, zaburzamy ich zdolność do nauczenia się danej rzeczy – zauważa prof. Maha Bali.
Wdrożenie AI do edukacji niesie za sobą bezprecedensowe wyzwania. Z perspektywy prof. Bali największym zagrożeniem jest brak ukształtowanego myślenia krytycznego u najmłodszych w starciu z niedoskonałością technologii. Algorytmy bywają omylne, a ich błędy – halucynacje – brzmią niezwykle wiarygodnie.
– To jest statystyczny model probabilistyczny. Więc tak naprawdę nie daje on poprawnej odpowiedzi. A młodzi ludzie jeszcze tego nie wiedzą. Nie mają wystarczającej wiedzy o świecie. Będą zbyt młodzi, by poddać to krytyce i zdać sobie sprawę, że coś może być nie tak – ostrzega badaczka.
Z tą wizją pełną obaw zderza się pragmatyczne spojrzenie prof. Dariusza Jemielniaka. Polskiego badacza interesuje w tym kontekście rozwiązanie konkretnych problemów, z którymi tradycyjny system edukacji od lat nie potrafi sobie poradzić. Ludzki nauczyciel ma bowiem swoje fizyczne i czasowe limity.
– Jest jeden nauczyciel i 20, 30, czasem 40 uczniów, więc musi on w zasadzie równać do średniej. Nie może tak naprawdę skupić się wyłącznie na jednej, konkretnej osobie. Nauczyciel nie ma na to czasu. Ale maszyny potrafią się dostosować – punktuje wiceprezes PAN.
Szczególną przewagą sztucznej inteligencji, na którą zwraca uwagę prof. Jemielniak, jest możliwość zautomatyzowania mechanizmu rozłożonego w czasie powtarzania, kluczowego przy treningu pamięciowym.
– Jeśli chcesz zapamiętać coś na dobre i zachować to w pamięci, musisz to powtórzyć określoną liczbę razy. I nie wystarczy powtórzyć tego kilka razy tego samego dnia, musisz to faktycznie rozłożyć w czasie – zauważa. Jego zdaniem, takiej indywidualizacji procesu nad postępami każdego ucznia z osobna nie udźwignie żaden, nawet najwybitniejszy pedagog.
Prof. Bali nie zgadza się z twierdzeniem, że sztuczna inteligencja gwarantuje personalizację procesu nauczania. W jej ocenie to niebezpieczne uproszczenie, które wręcz uderza w sprawczość ucznia:
– Historycznie, za każdym razem, gdy powoływano się na personalizację, tak naprawdę nigdy nią nie była. To raczej kategoryzacja na podstawie tego, co w przeszłości robiły inne, podobne osoby – zauważa.
Co z nich wyrośnie?
Dlaczego to ważne? Bo dzisiejsze decyzje dotyczące szkół zdeterminują profil kompetencyjny całego pokolenia. Absolwenci ukształtowani przez obecny system edukacji za kilka lat wejdą na rynek pracy, zasilając zespoły i przejmując stery w biznesie.
Profesor Maha Bali uczula, abyśmy także nie tracili z oczu szerszego kontekstu i intencji dostawców technologii:
– Oczywiście wszystkie firmy, które obecnie tworzą AI, to podmioty, które robią to dla zysku. Tak naprawdę nie dbają o uczniów. Nie dbają o nauczycieli. Nie dbają o proces uczenia się. – ostrzega. Jej zdaniem bezkrytyczne wpuszczenie korporacyjnych narzędzi do szkół może wychować biernych konsumentów, polegających na algorytmach zamiast na własnym osądzie.
Z drugiej strony – całkowity zakaz AI też nie jest rozwiązaniem. Doprowadziłby do wykluczenia cyfrowego i nieprzygotowania młodzieży do realiów nowoczesnej gospodarki.
– Myślę, że to jeden z najbardziej nagących problemów naszych czasów. Wiele osób powie, że nie powinniśmy używać AI w edukacji. Uważam, że to błędne podejście, ponieważ gdy o tym pomyślimy, AI to tylko narzędzie, a narzędzie, jak każde inne, może być dobre w jednych rzeczach i nieszczególnie udane w innych – argumentuje prof. Jemielniak.
Edukacja na rozdrożu
Alternatywą dla technologicznego chaosu, o której wspominają oboje badacze, jest koncepcja swoistej higieny kompetencji i naturalnego podziału ról w klasie. W tym modelu rysuje się wizja, w której maszyny przejmują zadania związane z utrwalaniem wiedzy, odciążając tym samym pedagogów. Jednocześnie obie strony debaty zgadzają się, że funkcje relacyjne i motywacyjne to wciąż niezastąpiona domena człowieka.
– Nauczyciele najprawdopodobniej nadal będą uczyć lepiej niż robiłby to system. Mam na myśli zwłaszcza kwestię konwersacji, czy dbania o to, by ludzie byli zmotywowani – podkreśla prof. Jemielniak. W tym miejscu prof. Bali zgadza się z nim, jednoznacznie oceniając próby automatyzacji oceny ucznia: – Wykorzystywanie AI do udzielania informacji zwrotnej jest, moim zdaniem, po prostu fundamentalnie błędne, ponieważ chcemy, aby uczniowie mieli ludzkiego odbiorcę dla tego, co piszą, i otrzymywali feedback oparty na kontekście.
Z dyskusji wyłania się obraz systemu edukacji stojącego przed koniecznością przedefiniowania swoich priorytetów. Obserwując ścierające się na rynku trendy, widać wyraźnie, że kluczowym wyzwaniem może stać się przesunięcie akcentu na naukę krytycznego myślenia i twardej weryfikacji źródeł (fact-checking). Zanim algorytmy na stałe zagoszczą w plecakach uczniów, trzeba u nich zbudować analityczne fundamenty – zdolność do samodzielnego myślenia, bez której żadne narzędzie, choćby najdoskonalsze, nie zastąpi prawdziwej edukacji. Odpowiedź na pytanie, czy AI okaże się kalkulatorem umysłów czy przyczyną systemowego rozleniwienia, może zależeć właśnie od tego, czy zdążymy te fundamenty zbudować, zanim oddamy dzieciom cyfrowy skrót.





