Nasza Loteria SR - pasek na kartach artykułów

Sztuczna inteligencja na cenzurowanym? Świadomie korzystać, ale nie zakazywać. Ekspert o ChatGPT w szkole i na uczelniach

OPRAC.:
Małgorzata Meszczyńska
Małgorzata Meszczyńska
Czy sztuczna inteligencja to szansa, a może zagrożenie?
Czy sztuczna inteligencja to szansa, a może zagrożenie? thisisengineering-raeng/unsplash
Czy narzędzi takich, jak ChatGPT należy w szkołach i na uczelniach zakazać? Eksperci są innego zdania - warto pokazać, jak korzystać z nich w sposób świadomy i celowy. - Rozwój sztucznej inteligencji niesie za sobą szereg wyzwań, ale tkwi w niej ogromny potencjał – przekonuje dr Dominika Kaczorowska-Spychalska z Grupy Roboczej ds. Sztucznej Inteligencji w KPRM.

Spis treści

Co to jest ChatGPT? Czy sztuczna inteligencja się uczy?

System ChatGPT opracowała amerykańska firma OpenAI. Chatbot, oparty o sztuczną inteligencję, odpowiada na pytania, ale też potrafi opracować teksty na zadany temat. Udostępniona w listopadzie minionego roku wersja ChatGPT zyskała ogromną popularność. Tylko w ciągu pierwszych dni z narzędzia skorzystało kilka milionów osób. ChatGPT błyskawicznie stał się pomocą dla wielu uczniów i studentów. Obok ich zachwytu, szybko pojawiły się obawy i głosy krytyki nauczycieli. Czy słusznie?

Chatbot działa na podstawie sieci neuronowych, które coraz częściej wspomagają pracę człowieka w m.in. diagnostyce medycznej, technicznej, automatycznych tłumaczeniach. Przez wiele lat uważano, że maszyny należy zaprogramować w pełni, a całą potrzebną wiedzę do ich działania zapisać w postaci reguł. Sztuczne sieci neuronowe działają jednak inaczej, bo mają zdolność do uczenia się na podanych przykładach.

ChatGPT był „szkolony” na olbrzymim zbiorze danych. Wykorzystano tu olbrzymią sieć neuronową – według dostępnych informacji, do jej stworzenia użyto 175 miliardów parametrów i 570 gigabajtów danych. Pochodzą one z tekstów dostępnych w Internecie, w tym również książek opublikowanych do 2021 r.

Jak tłumaczy dr inż. Marek Kozłowski, kierownik Laboratorium Inżynierii Lingwistycznej w Ośrodku Przetwarzania Informacji - Państwowym Instytucie Badawczym, ChatGPT działa w oparciu o głęboką sieć neuronową, czyli matematyczny odpowiednik mózgu. To oprogramowanie zostało jednak wsparte ogromną pracą człowieka, polegającą na „ręcznym” wprowadzaniu mnóstwa danych.

- Twórcy chatu napisali kilkadziesiąt tysięcy konwersacji, dialogów i pytań - w ten sposób zasymulowano działanie tego chatbota. Potem sieć neuronowa przystosowała się do prowadzenia konwersacji, ucząc się na tych danych – mówi dr Kozłowski.

Czy sztuczna inteligencja to zagrożenie?

Czy narzędzia oparte o sztuczna inteligencje, takie, jak między innymi ChatGPT, czy dostępne w sieci liczne generatory tekstów mogą nieść ze sobą zagrożenia – np. w edukacji?

- Zarzuca im się, że za ich pomocą można generować na przykład złośliwe oprogramowanie czy teksty prowadzące do szerzenia dezinformacji. Uczniowie i studenci, korzystając z nich, mogą próbować oszukiwać, bo czat za nich napisze opracowanie lub esej. Wątpliwości budzą też kwestie etyczne – przyznaje dr Dominika Kaczorowska-Spychalska, dyrektor Centrum Inteligentnych Technologii na Uniwersytecie Łódzkim i członek Grupy Roboczej ds. Sztucznej Inteligencji w KPRM.

Ekspertka zaznacza jednak, że tego typu działania nie powinny być powodem do wprowadzenia zakazu używania sztucznej inteligencji a uczelniach i w szkołach. Po pierwsze, gdyby takie zakazy zostały wprowadzone, trudno byłoby je wyegzekwować. Poza tym, jak podkreśla dr Kaczorowska-Spychalska, od technologii w dzisiejszym świecie trudno byłoby uciec.

- I chociaż dalszy rozwój SI (sztucznej inteligencji) i jej demokratyzacja będą pociągały za sobą szereg nowych wyzwań, nie chciałabym, aby tematyka zagrożeń zdominowała dyskusję na temat ChatuGPT, czy szerzej - generatywnej SI – stwierdza.

Zdania na ten temat są podzielone również w środowisku naukowym. Prestiżowy francuski Instytut Nauk Politycznych (Science Po) poinformował pod koniec stycznia br., że zakazuje studentom posługiwania się ChatemGPT. Karą za korzystanie z narzędzia może być nawet usunięcie z uniwersytetu i „wilczy bilet” na inne uczelnie.

- Korzystanie ze sztucznej inteligencji, o ile nie jest częścią procesu „pedagogicznego zainicjowanego przez wykładowcę”, będzie uznawane za popełnianie plagiatu i zostaje „ściśle zabronione” – czytamy w liście wysłanym przez władze Science Po do wszystkich studentów i pracowników naukowych instytutu.

Stosowania ChatGPT zakazały też szkoły publiczne w Nowym Jorku.

Jak świadomie korzystać z narzędzi SI?

Tymczasem dr Kaczorowska-Spychalska wskazuje, że warto wprowadzać edytory i generatory tekstu do procesu kształcenia w sposób celowy i na podstawie precyzyjnie określonych zasad, np. w zakresie własności intelektualnej.

- Pracując z takimi narzędziami, mamy szansę nauczyć młodych ludzi, jak odpowiedzialnie wykorzystać potencjał tej technologii, tak, aby nas inspirowała, a nie zastępowała - twierdzi. Zwraca też uwagę, że mamy już co prawda narzędzia wykrywające zastosowanie generatorów takich, jak ChatGPT, ale nie zawsze ich skuteczność jest wysoka.

Warto też pamiętać, że po pierwszym zachwycie użytkowników chatbotów, przychodzi refleksja.

- Czat nie jest nieomylny, popełnia błędy i miewa ograniczoną wiedzę w niektórych obszarach. Nie zmienia to jednak faktu, że ChatGPT jest niewątpliwie intrygującym rozwiązaniem, które przenosi nas na coraz wyższy poziom realnej współpracy między człowiekiem a SI, i to SI dostępnej dla każdego, kto chce z niej skorzystać - przekonuje ekspert.

ChatGPT to nadal zagadka?

Dr inż. Marek Kozłowski przyznał, że do końca nie zostało ujawnione przez twórców czatu, jak on działa.

- Są pewne przesłanki, które zawarli w artykułach naukowych, ale opublikowano je już jakiś czas temu. Rdzeniem jest model językowy GPT, który znany jest programistom na całym świecie, tyle, że został on zmodyfikowany w taki sposób, aby można było z nim skutecznie konwersować. ChatGPT nie gubi kontekstu w czasie dialogu i potrafi szerzej odpowiadać na pytania, bo jest to narzędzie oparte na modelu językowym. Nie odpowiada schematycznie, bo ma zdolność modyfikacji odpowiedzi w zależności od kontekstu. Nie byłoby to możliwe bez podania temu modelowi odpowiedniej liczby danych – podkreśla.

Tymczasem wiele osób ulega iluzji dotyczącej wszechwiedzy ChatuGPT głównie dlatego, że potrafi z nami rozmawiać i odpowiadać w poprawnej językowo formie.

- ChatGPT nie jest w stanie samodzielnie tworzyć nowej wiedzy. Wyuczony na dużych zbiorach tekstów jest w stanie generować tekst podobny do ludzkiego na podstawie wzorców i struktur, których nauczył się na podstawie tych zgromadzonych danych. Jednak nie ma on własnych myśli, opinii i nie posiada zdolności rozumowania ani wyciągania logicznych wniosków w taki sam sposób, jak ludzie – zaznacza dr Marek Kozłowski.

Źródło:

emisja bez ograniczeń wiekowych
Wideo

Krokusy w Tatrach. W tym roku bardzo szybko

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Dołącz do nas na X!

Codziennie informujemy o ciekawostkach i aktualnych wydarzeniach.

Obserwuj nas na X!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera
Wróć na expressilustrowany.pl Express Ilustrowany