CZY SZTUCZNA INTELIGENCJA ZMIENIA SPOSÓB MYŚLENIA O PLAGIACIE?
Autorka: Dr Monika Porwoł
Akademia Nauk Stosowanych w Raciborzu
ORCID: 0000-0003-1094-3910
WPROWADZENIE
Od czasu upowszechnienia narzędzi generatywnej sztucznej inteligencji (GenAI),
takich jak ChatGPT, GPT-4, HeyPi czy DALL-E, środowisko akademickie stanęło
przed nowym wyzwaniem. Jednym z najbardziej dyskusyjnych tematów stała się
kwestia plagiatu związana z możliwością wyprodukowania treści przez sztuczną
inteligencję – od wypowiedzi pisemnych, przez rozwiązania matematyczne, aż po
kod programistyczny.
W obliczu tych zmian, amerykańska firma Turnitin uruchomiła narzędzie o nazwie
Originality do wykrywania aktywności sztucznej inteligencji w generowaniu
tekstów. Jednak rosnące bogactwo algorytmów i innowacyjnych modyfikacji
narzędzi AI może uniemożliwić skuteczny proces wykrywania rzetelności autora.
„Edukacja, rozumiana jako kształtowanie charakteru, osobowości i nabywanie
prawdziwej wiedzy, lubi chaos; edukacja rozumiana jako etykietowanie nie znosi
chaosu.” – Nassim Nicholas Taleb
Niniejszy artykuł ma na celu nakreślić:
• Znaczenie myślenia kontekstowego w konfrontacji z narzędziami GenAI
• Jak długo i czy w istocie wystarczą nam aktualne rozwiązania w rozpoznaniu
rzetelności akademickiej
FENOMEN GENERATYWNEJ SZTUCZNEJ INTELIGENCJI
CZYM JEST GenAI?
Generatywne systemy sztucznej inteligencji, mimo że mogą wydawać się
inteligentne dla użytkownika końcowego, są w rzeczywistości zaawansowanymi
modelami statystycznymi. Gdy maszyna zidentyfikuje pewien wzorzec, może go
zastosować jako nowe „dane wejściowe”, aby utworzyć oryginalne „dane
wyjściowe”.
Warto podkreślić, że badania nad sztuczną inteligencją mają wymiar
interdyscyplinarny. Sam termin został zapoczątkowany przez Johna McCarthy’ego
w 1956 roku, który określił ją zarówno jako naukę, jak i inżynierię tworzenia
inteligentnych urządzeń.
CIEKAWOSTKA HISTORYCZNA:
System komputerowy HAL z filmu Stanleya Kubricka „Odyseja kosmiczna 2001”
z 1968 roku jest nadal traktowany jako koncepcja science fiction.
Samonapędzająca się „rewolucja cyfrowa” nie jest spowodowana „świadomymi”
systemami sztucznej inteligencji.
TECHNOLOGIE W TLE
Aktualne implementacje technologiczne obejmują szeroki zakres zastosowań:
1. PRZETWARZANIE JĘZYKA NATURALNEGO (NLP)
Umożliwia komputerowi wykorzystanie języka jako danych lub poleceń do
wykonania zadań. Codzienne przykłady zastosowania NLP wykrywamy podczas
uzupełniania tekstu w wiadomościach e-mail czy oknach czatu na stronach
internetowych oraz w programach takich jak Tłumacz Google.
2. ROZPOZNAWANIE MOWY
Rozwinięte od czasów maszyny Audrey z Bell Labs z 1952 roku. Ta maszyna
była gigantycznym komputerem, który potrafił rozpoznawać fonemy, czyli
podstawowe jednostki mowy ludzkiej. Technologia ta rozwinęła się do tego
stopnia, że wiele osób wykorzystuje produkty takie jak Cortana, Alexa,
Siri, które dostarczają użytkownikowi informacji na podstawie wydanego
polecenia głosowego.
3. ROZPOZNAWANIE OBRAZU
Zdolność do analizy i klasyfikacji treści wizualnych.
4. SYSTEMY REKOMENDUJĄCE
Algorytmy sugerujące treści na podstawie wzorców.
GŁĘBOKIE UCZENIE SIĘ (DEEP LEARNING)
Chociaż badania nad SI trwają od wielu lat, ostatnie osiągnięcia w zakresie
„głębokiego uczenia się” dały impuls do fenomenalnych opracowań. Deep Learning
to termin używany w SI do opisania procesu wykorzystywania ogromnych ilości
danych wejściowych do dużej sieci neuronowej. Te dane można następnie
wykorzystać do identyfikacji wzorców w zasobach bazodanowych.
Sama sieć neuronowa to algorytm komputerowy, który wykorzystuje małe jednostki
do przetwarzania bitów informacji. Dodając te małe jednostki do siebie, można
zidentyfikować cechy danych, które trudno opisać ręcznie.
KLUCZOWE DATY:
• 1952 – Powstanie pierwszej maszyny do rozpoznawania mowy (Audrey)
• 1956 – John McCarthy wprowadza termin „sztuczna inteligencja”
• 1968 – Premiera filmu „Odyseja kosmiczna 2001” z systemem HAL
• 2022 – Upowszechnienie ChatGPT i innych narzędzi GenAI
PLAGIAT W ERZE AI – NOWE WYZWANIA
PROBLEM WYKRYWALNOŚCI
Narzędzia takie jak ChatGPT posiadają zdolność do generowania tekstów wysokiej
jakości, które wydają się być napisane przez człowieka. Te narzędzia oparte są
na zaawansowanych modelach językowych, wytrenowanych na ogromnych zbiorach
danych tekstowych. W rezultacie potrafią produkować płynne, spójne i logiczne
teksty na różnorodne tematy.
Jak wyjaśnia sam ChatGPT: „Narzędzia SI, takie jak ChatGPT, posiadają zdolność
do generowania tekstu o wysokiej jakości, który wydaje się być napisany przez
człowieka. Te narzędzia są oparte na zaawansowanych modelach językowych, które
zostały wytrenowane na ogromnych zbiorach danych tekstowych. W rezultacie są
one w stanie produkować płynne, spójne i logiczne teksty na różne tematy.”
EKSPERYMENT Z TWÓRCZOŚCIĄ AI
Aby sprawdzić jakość i efektywność modelu pod kątem właściwości tekstu, można
wystosować do ChatGPT zadanie napisania utworu poetyckiego. Wynik potwierdza
fakt, że model został wytrenowany na korpusie wierszy. Sam proces tworzenia
takiej pracy opiera się o instruktaż z wykorzystaniem narzędzi takich jak
GoogleColab, a materiałem bazowym są najprawdopodobniej dzieła pobrane
z portali internetowych z wykorzystaniem metod tzw. web scrapingu.
Biorąc pod uwagę fakt, że SI codziennie generuje miliardy słów poprawnie
gramatycznych, a kreatorzy narzędzia nieustannie zwiększają jego moce
obliczeniowe, nie powinna zaskakiwać zdolność tego modelu do odnajdywania
właściwych wyrażeń i układania ich w struktury zdaniowe wyglądające zupełnie
tak, jakby stworzył je człowiek.
NARZĘDZIA WYKRYWANIA PLAGIATU.
UWAGA: Amerykańska firma Turnitin uruchomiła narzędzie ORIGINALITY do
wykrywania aktywności sztucznej inteligencji w generowaniu tekstów. Jednak
rosnąca liczba algorytmów i innowacyjnych modyfikacji narzędzi AI może
uniemożliwić skuteczny proces wykrywania.
Inne popularne narzędzia do wykrywania plagiatu to:
1. GRAMMARLY – analizuje tekst pod kątem podobieństw z ogromną bazą danych
tekstów i wskazuje potencjalne przypadki plagiatu
2. COPYSCAPE – narzędzie do wykrywania plagiatu w treściach internetowych;
pozwala na sprawdzenie, czy dany tekst nie został skopiowany lub nie jest
dostępny gdzie indziej w sieci
3. PLAGSCAN – narzędzie online, które skanuje teksty i porównuje je z innymi
źródłami, w tym z zasobami internetowymi, bazami danych naukowych
i dokumentami
4. DUPLICHECKER – darmowe narzędzie online, które analizuje podobieństwa tekstu
i wskazuje, które części są prawdopodobnie skopiowane
ASPEKTY PRAWNE I ETYCZNE
W Polsce, według Ustawy o szkolnictwie wyższym z 2005 roku, plagiat może
skutkować poważnymi konsekwencjami:
DLA PRACOWNIKÓW NAUKOWYCH (mianowanych nauczycieli akademickich):
• Rozwiązanie stosunku pracy bez wypowiedzenia (art. 126 u.s.w.)
• Odpowiedzialność dyscyplinarna (art. 144 u.s.w.)
DLA STUDENTÓW:
• Odpowiedzialność dyscyplinarna (np. kara nagany, art. 214 u.s.w.)
• Odebranie tytułu zawodowego (licencjata, magistra, inżyniera), jeżeli praca
stanowiąca podstawę nadania tego tytułu okazała się plagiatem (art. 193 u.s.w.)
WAŻNE: W przypadku plagiatu wobec studenta nie stosuje się przedawnienia
w odniesieniu do wszczęcia postępowania dyscyplinarnego (art. 217 u.s.w.).
KONTEKST MIĘDZYNARODOWY
W obecnym czasie obserwujemy globalny wyścig w regulacjach dotyczących AI:
• UNIA EUROPEJSKA – pracuje nad przyjęciem ustawy o SI (Artificial
Intelligence Act)
• STANY ZJEDNOCZONE – definiują ustawę dot. praw w zakresie SI (AI Bill of
Rights)
• WIELKA BRYTANIA – zaleca wszelkim instytucjom samodzielne uregulowanie tej
kwestii
Ponadto, użytkownicy ChatGPT składają wnioski i skargi na globalną skalę
przeciw firmom takim jak OpenAI w związku z potencjalnymi problemami
z bezpieczeństwem danych.
MYŚLENIE KONTEKSTOWE JAKO ODPOWIEDŹ
ZNACZENIE KONTEKSTU
Kenneth Cukier, Viktor Mayer-Schönberger i Francis de Véricourt w książce
„Myślenie kontekstowe. Największa przewaga ludzi nad sztuczną inteligencją”
podkreślają fundamentalną różnicę między człowiekiem a maszyną.
KLUCZOWE RÓŻNICE:
AI może:
✓ Przetwarzać ogromne ilości danych
✓ Identyfikować wzorce
✓ Wykonywać zadania oparte na danych historycznych
Człowiek potrafi:
✓ Uwzględniać niuanse sytuacyjne, emocjonalne i kulturowe
✓ Rozumieć głęboki kontekst
✓ Myśleć kreatywnie poza schematami
✓ Dostrzegać subtelne relacje między koncepcjami
Podczas gdy AI doskonale radzi sobie z zadaniami opartymi na wzorcach i danych
historycznych, człowiek posiada głębokie rozumienie kontekstu, w jakim te dane
istnieją. To właśnie ta zdolność do myślenia kontekstowego stanowi największą
przewagę ludzi nad sztuczną inteligencją.
WPŁYW NA PŁYTKIE MYŚLENIE
Nicholas Carr w książce „Płytki umysł. Jak Internet wpływa na nasz mózg”
ostrzega przed niebezpieczeństwem powierzchownego przetwarzania informacji.
W kontekście narzędzi GenAI, ta obserwacja nabiera szczególnego znaczenia.
Cytując Carra: „Internet jest wykorzystywany do przekazywania większości
informacji, jakie gromadzą nasze oczy i uszy, a także na podstawie których
dokonujemy osądów – nie tylko na temat tego, co dobre i prawdziwe, lecz także
tego, co istotne i nieistotne, co ważne i nieważne.”
Nadmierne poleganie na narzędziach AI może prowadzić do:
• Osłabienia zdolności do głębokiego myślenia
• Redukcji kreatywności
• Powierzchownego przyswajania wiedzy
• Utraty umiejętności samodzielnego rozwiązywania problemów
ROLA EDUKATORÓW
W kontekście plagiatu i rzetelności akademickiej, myślenie kontekstowe nabiera
szczególnego znaczenia. Edukatorzy muszą:
1. ROZWIJAĆ KRYTYCZNE MYŚLENIE
Uczenie studentów analizy, oceny i syntezy informacji, a nie tylko ich
reprodukcji.
2. UCZYĆ ROZUMIENIA GŁĘBOKICH RELACJI
Pokazywanie powiązań między różnymi koncepcjami i dziedzinami wiedzy.
3. PROMOWAĆ ORYGINALNOŚĆ MYŚLENIA
Zachęcanie do własnych interpretacji i wniosków, nie tylko cytowania
źródeł.
4. DOSTOSOWYWAĆ METODY OCENIANIA
Tworzenie zadań, które wymagają myślenia kontekstowego i nie mogą być
łatwo rozwiązane przez AI.
5. KSZTAŁTOWAĆ ETYCZNE PODEJŚCIE
Nauczanie odpowiedzialnego wykorzystania technologii i rozumienia granic
między pomocą a oszustwem.
ROLA TECHNOLOGII W EDUKACJI
Jak zauważa AI: „Technologia może być narzędziem wsparcia, ale nie powinna
zastępować ludzkiego myślenia i kreatywności. Kluczowe jest znalezienie
równowagi między wykorzystaniem narzędzi AI jako pomocy edukacyjnej
a zachowaniem rzetelności akademickiej.”
Technologia powinna być traktowana jako:
• Narzędzie wspierające uczenie się, nie je zastępujące
• Sposób na rozszerzenie możliwości, a nie skrót do celu
• Środek do rozwijania nowych umiejętności, nie unikania wysiłku
PRZYSZŁOŚĆ RZETELNOŚCI AKADEMICKIEJ
DYNAMIKA ZMIAN TECHNOLOGICZNYCH
Technologia GenAI rozwija się w zawrotnym tempie. Zaledwie kilka miesięcy temu
OpenAI ogłosiło wydanie GPT-4 z szerszym dostępem do sieci i witryn
internetowych. Ta dynamika zmian wymaga od nas stałego dostosowywania się
i reagowania na kolejne iteracje narzędzi sztucznej inteligencji.
UWAGA: Aktualne rozwiązania w zakresie wykrywania plagiatu, choć zaawansowane,
mogą okazać się niewystarczające w dłuższej perspektywie.
KONIECZNOŚĆ NOWEGO PODEJŚCIA
Kluczem do utrzymania rzetelności akademickiej nie jest wyłącznie technologia
wykrywania, ale fundamentalna zmiana w podejściu do edukacji.
Jak podkreśla sama sztuczna inteligencja: „Edukatorzy i instytucje edukacyjne
muszą podejmować świadome decyzje dotyczące wykorzystania narzędzi GenAI
w procesie edukacyjnym. To wymaga zarówno zrozumienia możliwości i ograniczeń
tych narzędzi, jak i świadomości potencjalnych konsekwencji dla rzetelności
akademickiej.”
PRZYSZŁOŚĆ EDUKACJI
Przyszłość edukacji leży w rozwijaniu umiejętności, których AI nie może łatwo
naśladować:
✓ MYŚLENIE KRYTYCZNE
Zdolność do analizy, oceny i syntezy informacji z różnych źródeł
✓ KREATYWNOŚĆ
Tworzenie nowych, oryginalnych rozwiązań i pomysłów
✓ ROZUMIENIE KONTEKSTU
Dostrzeganie szerszego obrazu i subtelnych powiązań
✓ ETYCZNE PODEJŚCIE
Świadome i odpowiedzialne wykorzystanie wiedzy i technologii
✓ WSPÓŁPRACA MIĘDZYLUDZKA
Umiejętność pracy z innymi, komunikacji i empatii
✓ ADAPTACYJNOŚĆ
Gotowość do ciągłego uczenia się i dostosowywania do zmian
PYTANIA NA PRZYSZŁOŚĆ
„Jak długo wystarczą nam aktualne rozwiązania?” – to pytanie, na które
odpowiedź brzmi: prawdopodobnie niezbyt długo. Ale to nie powód do niepokoju,
jeśli jesteśmy gotowi adaptować się i rozwijać wraz z technologią.
Kluczowe pytania, które musimy sobie zadać:
1. Jak możemy wykorzystać AI jako narzędzie edukacyjne, zachowując
jednocześnie rzetelność akademicką?
2. Jakie nowe formy oceniania powinniśmy wprowadzić, aby skutecznie
rozpoznawać autentyczne zrozumienie i umiejętności?
3. Jak przygotować studentów do świata, w którym AI będzie powszechnie
dostępna i wykorzystywana?
4. W jaki sposób możemy rozwijać myślenie kontekstowe i krytyczne w erze
cyfrowej?
5. Jakie wartości i umiejętności powinny stać się fundamentem edukacji
przyszłości?
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.
WNIOSKI
Czy sztuczna inteligencja zmienia sposób myślenia o plagiacie? Zdecydowanie
tak. GenAI nie tylko komplikuje tradycyjne metody wykrywania nierzetelności
akademickiej, ale również zmusza nas do przewartościowania samej koncepcji
oryginalności i autorstwa.
KLUCZOWE SPOSTRZEŻENIA:
1. TECHNOLOGIA ROZWIJA SIĘ SZYBCIEJ NIŻ REGULACJE
Narzędzia GenAI ewoluują w zawrotnym tempie, wyprzedzając możliwości
systemu edukacyjnego i prawnego do odpowiedniego na nie reagowania.
2. WYKRYWANIE PLAGIATU TO ZA MAŁO
Samo wykrywanie tekstów generowanych przez AI nie rozwiązuje problemu.
Potrzebujemy głębszej zmiany w podejściu do edukacji i oceniania.
3. MYŚLENIE KONTEKSTOWE JAKO KLUCZ
Największą przewagą człowieka nad AI jest zdolność do rozumienia
kontekstu, myślenia krytycznego i kreatywności. To te umiejętności
powinny stać się fundamentem edukacji.
4. ETYKA I ODPOWIEDZIALNOŚĆ
Edukacja musi kształtować nie tylko umiejętności, ale także etyczne
podejście do wykorzystania technologii i wiedzy.
5. ADAPTACJA JEST KONIECZNA
Zarówno edukatorzy, jak i studenci muszą być gotowi do ciągłego uczenia
się i dostosowywania do nowych realiów technologicznych.
OSTATECZNA REFLEKSJA
Zamiast postrzegać GenAI jako zagrożenie, możemy traktować to jako okazję do
ewolucji systemu edukacji – od modelu opartego na memoryzacji i reprodukcji,
w kierunku rozwijania prawdziwego zrozumienia, kreatywności i myślenia
krytycznego.
Jak zauważa Nassim Nicholas Taleb w swojej książce „Antykruchość”: prawdziwa
edukacja, która kształtuje charakter i osobowość, nie tylko że nie boi się
chaosu, ale wręcz się nim karmi. W erze AI, chaos technologiczny może stać się
katalizatorem pozytywnych zmian w edukacji – pod warunkiem, że będziemy
gotowi na te zmiany.
Przyszłość należy do tych, którzy potrafią łączyć najlepsze cechy ludzkiego
myślenia z możliwościami, jakie oferuje sztuczna inteligencja. Nie chodzi
o konkurencję między człowiekiem a maszyną, ale o synergię – wykorzystanie AI
jako narzędzia, które wzmacnia ludzkie możliwości, nie je zastępuje.
BIBLIOGRAFIA:
1. Carr N., Płytki umysł. Jak Internet wpływa na nasz mózg, Gliwice 2010.
2. Cukier K., Mayer-Schönberger V., De Véricourt F., Myślenie kontekstowe.
Największa przewaga ludzi nad sztuczną inteligencją, Warszawa 2022.
3. Hatalska N., Wiek paradoksów. Czy technologia nas ocali?, Kraków 2021.
4. Stanisławska-Kloc S., Plagiat i autoplagiat, „Infos”, 16(108), Biuro
Analiz Sejmowych 2011.
5. Stokel-Walker C., AI bot ChatGPT writes smart essays-should professors
worry? Nature 2022.
6. Taleb N.N., Antykruchość. Jak żyć w świecie, którego nie rozumiemy,
Wydawnictwo Zysk i S-ka, Poznań 2020.
7. Turnitin, Originality: the new standard in academic integrity,
https://www.turnitin.com/products/originality
================================================================================
O AUTORCE:
Dr Monika Porwoł
Akademia Nauk Stosowanych w Raciborzu
E-mail: monika.porwol@akademiarac.edu.pl
ORCID: https://orcid.org/0000-0003-1094-3910
================================================================================

