Aktualności

Używanie ChatGPT - zalecana duża ostrożność

05.04.2023
Wpis może zawierać nieaktualne dane.

Ta strona dotyczy wykorzystania ChatGPT lub podobnych modeli AI

TL;DR:

  1. Zachęcamy do zapoznania się z technologią, zarówno jak działa, jak można jej używać jako narzędzia, oraz jakie realne problemy dla społeczeństwa powstają wokół tego narzędzia.
  2. Nie polegaj na tym, że ta technologia jest za darmo. To wszystko jest nowe i może być łatwo wycofane z internetu w każdej chwili. Koszt uruchomienie takiego serwisu to duże pieniądze i byłbym zaskoczony, jeśli pozostają one długo otwarte za darmo.
  3. Jeśli używasz ChatGPT wswoich pracach, wspomnij o tym i opisz jak go użyłeś. Tutaj omawiamy niektóre wyraźnie akceptowalne przypadki użycia i niektóre absolutnie nieakceptowalne.
  4. Podawanie pracy z ChatGPT jako swojej własnej jest naruszeniem uczciwości akademickiej, które będzie traktowane bardzo poważnie. Zależy nam na tym co Wy, studenci macie do powiedzenia, nie na tym co ChatGPT ma do powiedzenia.
  5. ChatGPT będzie czasami produkował kompletne śmieci, bądźcie ostrożni.

 

   Jak skorzystać z ChatGPT

Najprościej jest skorzystać w przeglądarce pod tym adresem [openai.com](http://openai.com/) . Na tą chwilę (marzec 2023) dostęp jest darmowy, ale wymaga założenia konta lub zalogowania się z konta Google/Microsoft.

 

   Co warto wiedzieć o ChatGPT

ChatGPT to obszerny model językowy (LLM) stworzony przez firmę o nazwie OpenAI. Wiele dużych firm technologicznych tworzy swoje własne wersje tej technologii. Na przykład Meta (czyt. Facebook) wypuściła model o nazwie Galactica AI do publicznej wiadomości 15 listopada 2022 roku, a następnie zamknęła go po trzech dniach. Microsoft Bing obecnie wypuszcza swojego własnego "chatbota". Google też ma jeden o nazwie Bard.

 

    Jak działają takie modele językowe?

Ludzie mają duże doświadczenie językowe. Pomyśl, ile słów usłyszeliśmy lub przeczytaliśmy w ciągu całego swojego życia. Nie są one ułożone przypadkowo a język jest wysoce ustrukturyzowany. Oznacza to, że słowa mogą być przewidywane na podstawie kontekstu, w którym występują.

 

Jeśli zobaczysz zdanie:

>Po kupieniu w księgarni najnowszej -------- najbliższy weekend zamierzam spędzić na -------._

To na podstawie kontekstu zdania możesz wywnioskować, że ta osoba kupiła książkę i zamierza spędzić czas na czytaniu lub lekturze.

Jeśli moglibyśmy przejrzeć wszystkie zdania i zwroty, które kiedykolwiek usłyszeliśmy w swoim życiu, prawdopodobnie znaleźlibyśmy wiele przykładów, w których "_książka_" występowała obok "_czytania_" w tym samym zdaniu. Nasze doświadczenie ze współwystępującymi wzorcami w języku pomaga przewidzieć słowa w zdaniach. Jest to podstawowa zasada stojąca za dużymi modelami językowymi (LLM).

Duże modele językowe nie są jak ludzie. Zostały one wytrenowane na ogromnych korpusach tekstu (np. pół biliona słów). Nieustannie podejmowane są próby zdigitalizowania jak największej ilości tekstu wytworzonego przez człowieka. Projekt Google books był jednym z pierwszych i obejmował zeskanowanie wszystkich możliwych książek na świecie. Mamy też internet, w którym ludzie stworzyli i tworzą wszystkie rodzaje tekstów, zarówno zwykły język, jak i kod komputerowy. Możliwe jest pobranie większości rzeczy z Internetu za pomocą tzw. scrapowania_. Na przykład można pobrać całą Wikipedię lub serwis reddit, choć to bardzo dużo tekstu.

Aby przybliżyć nieco historię: w 1998 roku model zwany Latent Semantic Analysis (LSA) został wytrenowany na znacznie mniejszym zbiorze przykładów tekstowych zwanym korpusem TASA (37 000 dokumentów, około 10 milionów słów). Model ten był w stanie zrobić kilka imponujących rzeczy, takich jak zdać TOEFL (egzamin z języka angielskiego), a nawet oceniać eseje na podobnym poziomie co  eksperci. Jednak ten model nie był w stanie stworzyć całych zdań lub akapitów, które wyglądałyby jak prawdziwe zdania.

ChatGPT jest przefiltrowaną wersją innego modelu o nazwie GPT-3. Model ten został wytrenowany na pół bilionie słów. Od 1998 roku nastąpił postęp w technologii komputerowej (pamięć, szybkość procesora i algorytmy), który umożliwia statystyczne modelowanie wzorców występowania słów w ogromnym zbiorze przykładów. Rezultatem jest to, że te modele mogą z powodzeniem produkować "realistycznie" wyglądające zdania, akapity i więcej; wszystko w oparciu o strukturę przykładów szkoleniowych.

W przybliżeniu, ChatGPT pisze nowy tekst w oparciu o probabilistyczną rekombinację podobnych tekstów, na których został wytrenowany. Można dać modelowi przykładowe podpowiedzi tekstowe, a on wygeneruje uzupełnienia, które są podobne do rodzaju tekstu, który uzupełnił te rodzaje podpowiedzi w bazie treningowej.

Działa tu ogólna zasada, która dotyczy nie tylko tekstu, ale każdego dużego zbioru danych. Jeśli masz duży zbiór, to możesz wytrenować model uczenia maszynowego, aby wyodrębnić strukturę statystyczną z tych przykładów, a następnie wygenerować nowe dane, które są jak wyszkolone przykłady. Dotyczy to również narzędzi do generowania obrazów, takich jak [DALL-E](https://labs.openai.com) czy [Midjourney](https://www.midjourney.com/showcase/recent/).

 

    Garbage in - Garbage out

Modele LLM zostały przeszkolone na dużych zbiorach tekstów, w tym na niestety na zdigitalizowanych książkach i propagandzie z przeszłości i teraźniejszości, które zawierają rasistowskie, homofobiczne, transfobiczne, misoginistyczne, ksenofobiczne i inne nieakceptowalne treści. Wśród tych tekstów znajdują się również wpisy z forów internetowych zawierające mowę nienawiści oraz teorie spiskowe, a także treści tworzone przez internetowych trolli.

Niestety, LLMy często produkują nowe teksty, które odzwierciedlają te negatywne wzorce i uprzedzenia, które występują w ich treningowych zbiorach danych. W konsekwencji, ich wyniki mogą zawierać kontrowersyjne i szkodliwe treści. Publicznie udostępnione LLMy często są szybko zamykane z powodu produkowania dużych ilości tak zwanych "_hot garbage_".

Jeśli korzystasz z ChatGPT, także możesz napotkać toksyczne treści, jednak OpenAI stara się rozwiązać ten problem poprzez zastosowanie systemu filtrów. Na przykład, model może generować teksty, które są podobne lub niepodobne do innych tekstów. Jeśli dysponujesz dużą liczbą przykładów toksycznych treści, możesz poprosić model o wygenerowanie nowego tekstu, który NIE jest podobny do tych negatywnych wzorców. Należy jednak pamiętać, że system filtrów nie jest idealny i wciąż istnieje ryzyko, że LLMy wygenerują treści, których nie chcesz.

 

Samo przygotowywanie filtrów też może być różne pod względem etycznym. Magazyn TIME 18 stycznia 2023 roku odsłonił kulisy jak OpenAI zadbała o mniejszą toksyczność ChatGPT ([OpenAI Used Kenyan Workers on Less Than Per Hour to Make ChatGPT Less Toxic](https://time.com/6247678/openai-chatgpt-kenya-workers/)). Nisko opłacani pracownicy IT z Kenii oznaczali czy teksty produkowane przez AI były toksyczne, czy nie. OpenAI wykorzystało te informacje do stworzenia systemu filtrów zapobiegającym generowaniu niepożądanych treści.

 

    Wątpliwości etyczne

Istnieje wiele obaw związanych z tymi nowymi technologiami oraz wiele rozbieżnych opinii, ideologii i interesów. Aby te modele mogły działać, muszą mieć ogromne zestawy przykładów szkoleniowych. Skąd pochodzą te przykłady i czy ludzie, którzy je stworzyli, dali tym prywatnym firmom pozwolenie na ich wykorzystanie? W jakim stopniu wyniki tych modeli są zaawansowanym technologicznie plagiatem skradzionej własności intelektualnej? Czy twórcy oryginalnych treści, których przykłady szkoleniowe zostały pobrane bez pozwolenia, otrzymują rekompensatę? Czy duże firmy technologiczne powinny mieć prawo do "przekraczania granic i łamania zasad" w tej przestrzeni? Jakie są szkody tej nowej technologii i kto bierze na siebie ich ciężar? Pytania dotyczące etyki AI są bardzo liczne, a odpowiedzi firm technologicznych na te kwestie nadal budzą kontrowersje (zob. casus [Timnit Gebru](https://en.wikipedia.org/wiki/Timnit_Gebru) zwolnionej z Google za zwracanie uwagi na aspekty etyczne i podkreślanie, że przy modelach AI istnieje: "_ryzyko związane z bardzo dużymi modelami językowymi, w odniesieniu do ich kosztów środowiskowych i finansowych, nieczytelności prowadzącej do nieznanych niebezpiecznych uprzedzeń, niezdolności modeli do zrozumienia pojęć leżących u podstaw tego, czego się uczą, oraz potencjału wykorzystania ich do oszukiwania ludzi._". Timnit jest założycielką [DAIR (Distributed AI Research Institute)](https://www.dair-institute.org/), który jest "przestrzenią dla niezależnych, zakorzenionych w społeczności badań nad AI, wolnych od wszechobecnego wpływu Big Tech").

 

   Przykład użycia ChatGPT

Aby korzystać z LLM wejdź na stronę [https://chat.openai.com](https://chat.openai.com/) – jeśli korzystasz z programów do zarządzania wiedzą np. Notion albo Obsidian, to istnieją specjalne rozszerzenia, które umożliwiają korzystanie z AI bezpośrednio w tych programach.

Usługa ta jest obecnie darmowa, ale czasami serwer nie działa (często jak jest dzień w USA ????). Aby skorzystać z usługi wpisujemy tekstowe podpowiedzi (z ang. prompt), a ChatGPT zwraca tekstowe dane wyjściowe. Korzystając z usługi pomagamy OpenAI w dalszym trenowaniu tego modelu, na dobre i na złe. Nie dostajemy wynagrodzenia, ale otrzymujemy usługę za darmo – puki co ????.

Oto kilka sposobów, w jaki możesz wykorzystać ChatGPT. Pamiętaj, określ w swojej pracy ==kiedy== i ==jak== użyłeś ChatGPT.

Potrzebujemy trochę tekstu na początek. Autorem tego fragmentu jestem ja ????‍????.

> W 1892 roku William James, jeden z filarów współczesnej psychologii, napisał o psychologii: „To nie jest nauka, to tylko nadzieja na naukę” i dodał, że psychologia jako nauka empiryczna przyjęła pewne założenia nauki przyrodniczej, ale „(…) założenia nauki przyrodniczej, od których zaczęliśmy, mają charakter tymczasowy i mogą zostać poddane rewizji”. Dziewięćdziesiąt lat później, Daniel Robinson, amerykański historyk psychologii dodał: „Musimy się liczyć z możliwością, jakkolwiek niepokojącą, że psychologia nie jest jeszcze wcale nauką, a nie że jest po prostu młoda jako nauka.”. Przez ponad stulecie jej istnienia problem naukowości psychologii nie został rozwiązany. Mimo przybierających na sile głosów krytycznych, które obecne są na każdym etapie rozwoju nauki, psychologii jednak bezpieczniej było zachwycić się kolejnymi „nowinkami” inkorporowanymi na swój grunt z ościennych dziedzin: socjologii, fizyki, matematyki czy ostatnio informatyki oraz neuronauki. Zachwyt nad nowymi metodami prowadzenia badań czy też analizą ich wyników sprawiał, że psychologia „szła do przodu, nie oglądając się za siebie”. Niestety problemy, które nie zostały dostatecznie zbadane i rozwiązane, wpływają moim zdaniem teraz na spadek zaufania do psychologii jako dziedziny nauki.

 

    Parafrazowanie

Poprosiłem ChatGPT o poprawienie mojego tekstu.

>[Prompt:] Przepisz ten paragraf aby był bardziej zrozumiały.

> [ChatGPT:] W 1892 roku William James, jeden z ważnych filarów współczesnej psychologii, napisał, że psychologia to nie jest jeszcze nauka, tylko jedynie nadzieja na przyszłą naukę. Zaznaczył także, że naukowe założenia, od których się zaczynało, są jedynie tymczasowe i mogą zostać w przyszłości zmienione. Daniel Robinson, amerykański historyk psychologii, dziewięćdziesiąt lat później powiedział nawet, że istnieje ryzyko, iż psychologia wcale nie jest jeszcze dziedziną nauki. Mimo upływu ponad stulecia od jej powstania problem uzyskania statusu dziedziny naukowej przez psychologię nadal nie został rozwiązany. Mimo krytyki ze strony innych naukowców oraz braku odpowiedniego zbadania i rozwiązania pewnych problemów w dziedzinie psychologii, jej przedstawiciele nadal chętnie korzystają z nowych metod badawczych oraz technologicznych osiągnięć innych dziedzin nauki. Jednakże, moim zdaniem, brak odpowiedniego rozwiązania pewnych problemów przez tę dziedzinę wpływa na spadek zaufania do niej jako do dziedziny nauki.

Moim zdaniem wykonał dobrą pracę - tekst jest bardziej płynny i nie utracił żadnych informacji. Parafrazowanie w najlepszym wydaniu.

 

    Podsumowanie

Można poprosić go o wyłowienie głównej myśli z danego fragmentu.

>[Prompt:] Jak jest główna myśl w tym paragrafie?

> [ChatGPT:] Główną myślą w tym paragrafie jest to, że psychologia jako nauka empiryczna ma problemy z naukowością i pomimo przyjmowania założeń nauki przyrodniczej, nadal nie jest jasne, czy jest już pełnoprawną nauką. Problemy te wpływają na spadek zaufania do psychologii jako dziedziny nauki.

Moim zdaniem w punkt, choć pojęcie naukowości pewnie wymagałoby doprecyzowania.

 

    Pisanie fragmentów tekstu

A jak poradzi sobie z napisaniem takiego fragmentu samodzielnie.

>[Prompt:] Napisz krótki paragraf o spadku zaufania społecznego do psychologi w związku z kryzysem replikowalności badań. Wykorzystaj cytat z Wiliama Jamesa, 1892: "psychologia to nie nauka, to dopiero nadzieja na naukę" oraz stwierdzenie Daniela Robinsona z 1980, że "istnieje ryzyko, że psychologia wciąż nauka nie jest".

> [ChatGPT:] W ostatnich latach zaobserwowano spadek zaufania społecznego do psychologii, co wiąże się z kryzysem replikowalności badań. William James już w 1892 roku stwierdził, że "psychologia to nie nauka, to dopiero nadzieja na naukę", a Daniel Robinson w 1980 roku dodał, że "istnieje ryzyko, że psychologia wciąż nauka nie jest". W obliczu licznych przypadków niespójnych wyników badań i braku powtarzalności eksperymentów, wielu ludzi traci zaufanie do tej dziedziny. Jednakże, należy pamiętać, że psychologia to ciągle młoda nauka i wymaga dalszych badań i rozwoju. Warto zwrócić uwagę na staranność metod badawczych oraz na transparentność publikacji wyników badań, aby przywrócić zaufanie społeczne do tej dziedziny.

Wypowiedź jest bardziej zrównoważona niż moja, przedstawia także zalety psychologii. Jednocześnie ograniczona jest tylko do wątków, które były w poleceniu i nie zawiera własnej opinii (na szczęście ????????).

 

    Szukanie pomocy w pisaniu

>[Prompt:] Czy możesz wyjaśnić elementy składowe prostego akapitu i powiedzieć mi, jakie poszczególne rodzaje zdań powinny znaleźć się na początku, w środku i na końcu akapitu?

> [ChatGPT:] Tak, oczywiście.

> Elementy składowe prostego akapitu to:

> 1. Temat zdania - wyrażenie lub zdanie, które stanowi główny temat akapitu.>

> 2. Wstęp - zdanie wprowadzające temat i pomagające czytelnikowi zrozumieć kontekst.

> 3. Rozwinięcie - zdania wyjaśniające temat i przedstawiające argumenty lub przykłady.

> 4. Konkluzja - zdanie kończące akapit i podsumowujące omówione wcześniej kwestie.

> Rodzaje zdań, które powinny znaleźć się na początku, w środku i na końcu akapitu zależą od celu pisania tekstu oraz od stylu autora. Jednakże, ogólnie przyjętą zasadą jest umieszczanie wstępu na początku akapitu, a konkluzji na końcu. W środku powinny znaleźć się zdania rozwijające temat i przedstawiające argumenty lub przykłady, a ich kolejność może być dowolna w zależności od stylu autora i celu tekstu.

> Na przykład, jeśli celem tekstu jest przekonanie czytelnika do jakiegoś stanowiska, to na początku akapitu należy umieścić zdanie wprowadzające wraz z tezą lub argumentem głównym, następnie należy przedstawić argumenty popierające tezę i dopiero na końcu umieścić podsumowanie lub wniosek. Natomiast jeśli celem tekstu jest opisanie jakiegoś procesu lub sytuacji, to na początku można umieścić ogólne wprowadzenie do tematu, następnie opisać szczegóły procesu lub sytuacji w kolejnych zdaniach i na końcu podsumować najważniejsze informacje zawarte w akapicie.

---

    Zamiana notatek w tekst

Załóżmy, że mam notatki w postaci punktów. Poproszę ????o napisanie z tego tekstu:

>[Prompt:] Zamień poniższe punkty na paragraf tekstu

* na początku istnienia psychologii istniały wątpliwości czy może być nauka empiryczną

* Wiliam James w 1892 roku powiedział, że to tylko nadzieja na naukę

* Komitet Fergusona w 1920 stwierdził, że pomiar naukowy w psychologii nie jest możliwy

* Stanley Stevens sprzeciwił się temu i opracował operacyjną teorię pomiaru

* Teoria ta zastąpiła reprezencjonistyczną teorię pomiaru z nauk przyrodniczych

* Teoria Stevensa powoduje dużo problemów z pomiarem, co przyczyniło się do kryzysu replikowalności

* Istnieją nadal wątpliwości, czy psychologia ma charakter naukowy

 

> [ChatGPT:] Na początku istnienia psychologii pojawiły się wątpliwości, czy ta dziedzina może być nauką empiryczną. W 1892 roku William James wyraził swoją opinię, że psychologia to tylko nadzieja na naukę. Jednakże, w 1920 roku Komitet Fergusona stwierdził, że pomiar naukowy w psychologii nie jest możliwy. To było sprzeczne z teorią Stanleya Stevensa, który opracował operacyjną teorię pomiaru, która zastąpiła reprezentacyjną teorię pomiaru z nauk przyrodniczych. Pomimo to, teoria Stevensa powoduje dużo problemów z pomiarem, co przyczyniło się do kryzysu replikowalności. Nadal istnieją wątpliwości dotyczące charakteru naukowego psychologii.

Paragraf tekstu o znikomej czytelności_. Przez użycie przeczeń pojawiają się sprzeczności między tym co było w notatce, a tym co jest w tekście. Ale jeśli nie wiedziałbym jako zacząć pisać, może taki paragraf posłużyć za punkt wyjścia do dalszej pracy.

 

    Nieakceptowalne przypadki użycia AI

Nie wolno używać LLM do pisania w naszym imieniu a tym bardziej podpisywać output'u z ChatGPT swoim nazwiskiem. To w dłużej perspektywie zrujnuje wzajemne zaufanie, a w skrajnym wypadku spowoduje, że pojawi się swoisty wyścig zbrojeń między zakazami ze strony uczelni a sprytem i kreatywnościa studentów. Nie idźmy tą drogą

 

>[Prompt:] Napisz co sądzisz o psychologii jako nauce.

> [ChatGPT:] Jako sztuczna inteligencja nie posiadam zdania ani emocji, ale mogę przedstawić pewne fakty na temat psychologii jako nauki.

> Psychologia jest nauką interdyscyplinarną, która zajmuje się badaniem ludzkiego zachowania, procesów poznawczych, emocji i funkcjonowania umysłowego. Jest to bardzo ważna dziedzina, ponieważ pozwala nam lepiej zrozumieć siebie i innych ludzi oraz pomaga w rozwiązywaniu problemów emocjonalnych i psychicznych.

> Jednakże, psychologia jako nauka nie jest wolna od krytyki. Istnieją kontrowersje na temat metod badawczych stosowanych w psychologii oraz nadmiernego skupienia się na badaniach laboratoryjnych kosztem badań terenowych. Ponadto, istnieją również kontrowersje związane z etyką w badaniach psychologicznych.

> Mimo tych kontrowersji, uważam, że psychologia jest bardzo ważną nauką i może mieć pozytywny wpływ na nasze życie i społeczeństwo jako całość.

Gładko, na temat, ale bez jakiś głębszych refleksji. Wszystko prawda, ale taka "_bezpieczna_"...

---

Pamiętajcie! Interesuje nas co macie Wy do powiedzenia, a nie co do powiedzenia ma ChatGPT. 

Używajcie tej fascynującej technologii z rozwagą i ostrożnością. W esejach, pracach zaliczeniowych, zadaniach domowych trzebawskazać gdzie użyło się LLM. W pracach naukowych wymagamy (i nie tylko my????‍♂️), aby to użycie było nie tylko odnotowane, ale także opisane – transparentnie i jawnie. Więcej na temat naukowego pisania z LLM w artykule [Aczel'a i Wagenmakers'a (2023)](https://psyarxiv.com/b58ex/download?format=pdf).

 

 

Logo programu Widza Edukacja Rozwój Biało-czerwona flaga i napis Rzeczpospolita Polska Logo Euopejskiego Funduszu Społecznego
Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego, Program Operacyjny Widza Edukacja Rozwój 2014-2020 "Nowoczesne nauczanie oraz praktyczna współpraca z przedsiębiorcami - program rozwoju Uniwersytetu Zielonogórskiego" POWR.03.05.0-00-00-Z014/18