ChatGPT namieszał na rynku. To technologia, która zabierze ci pracę, czy zwykły konfabulant?

ChatGPT namieszał na rynku. To technologia, która zabierze ci pracę, czy zwykły konfabulant? fot. Leremy / Shutterstock.com

Cały świat jest zafascynowany wersją próbną inteligencji czatowej firmy Open AI. ChatGPT szybko podbił serca jego użytkowników. Jawi się jako pomocny, pomysłowy i sprawia wrażenie, że tekst, który wyszedł spod jego ręki, napisał prawdziwy człowiek. Niesie to olbrzymie możliwości w dziedzinie usprawniania pracy i poprawy komfortu życia. Niestety, masowe użycie generatywnej sztucznej inteligencji łączy się także z wieloma zagrożeniami. Ponad trzy piąte ankietowanych było skłonnych uwierzyć w fałszywe wiadomości stworzone przy użyciu podobnych modeli. Na plus czy na minus, modele językowe już na dobre zadomowiły się w naszej rzeczywistości. Jakie konsekwencje może przynieść ich popularyzacja i rozwój?

W obecnych czasach technologia rozwija się nad wyraz dynamicznie, nieraz przeganiając najśmielsze oczekiwania. Dotyczy to praktycznie wszystkich dziedzin naszego życia. Zaczynamy dzień od parzenia porannej kawy w inteligentnym ekspresie, a przejścia dla pieszych rozpoznają nasze kroki celem zapalenia zielonych świateł. W sferze zawodowej jest to równie lub nawet jeszcze bardziej istotne. Najnowsze techniki pomagają z symulacjami inżynieryjnymi; w budowaniu skomplikowanych modeli giełdowych lub wizualizacji Business Intelligence. Nawet gdy wydaje nam się, że zrozumieliśmy tor, którym zmierza rozwój, co jakiś czas następuje gwałtowny, niespodziewany przełom. Jednym z nich w ostatnim czasie jest rozwój sztucznej inteligencji pod kątem tworzenia twórczych projektów, najpierw tych wizualnych, a obecnie nawet tekstowych. ChatGPT wstrząsnął branżą kreatywną i copywriterską, powodując w niej silną prekaryzację.

Jak właściwie działa ChatGPT autorstwa Open AI?

Zagadkowy akronim GPT oznacza Generative Pre-trained Transformer, czyli w tłumaczeniu na polski: wstępnie szkolony transformator generatywny. Rozwinięcie skrótowca może jednak brzmieć niemal równie zagadkowo, co jego początkowa forma. W uproszczeniu jest to po prostu system generujący komunikaty językowe, korzystający z umiejętności nauczonych na podstawie przeanalizowania wstępnie przyswojonych tekstów.

Program wykorzystuje głębokie sieci neuronowe, czyli połączone kombinacje wielu uczących się algorytmów. Każdy z nich potrafi wyłapywać trendy w tekstach i w mowie. Taka metoda jest o wiele bardziej skuteczna od dawnych modeli językowych, które dokonywały analizy statystycznej i generowały teksty z najbardziej prawdopodobnymi słowami. Wielopoziomowa konstrukcja sieci neuronowych sprawia, że program analizując wypowiedzi potrafi powiązać słowa z ich znaczeniami, a nawet zrozumieć ich kontekst. Wszystko jest jednak ograniczone obszernością i jakością danych wyjściowych.

Obecny program Open AI posiada zasoby tekstów jedynie do końca 2021 roku, nie zna więc żadnych wydarzeń, które miały miejsce później. Ponadto, system rozumie wiele elementów zbyt powierzchownie, co czasem prowadzi do błędów. Na przykład, czat generuje czasem fałszywe nazwiska, łącząc dwa różne rzeczywiste. Chociaż brzmi to pozornie absurdalnie, zasada działania jest prosta – program nie rozumie, że tego typu informacji nie można ze sobą łączyć.

Czy roboty będą się paść na zielonej łące Windowsa?

Jak widać jednym z największych ograniczeń sztucznej inteligencji jest jej zamknięty zbiór danych wyjściowych. ChatGPT nie potrafi dowiedzieć się niczego nowego na temat ostatnich wydarzeń czy odkryć. Naprzeciw problemowi wyszła dobrze wszystkim znana firma Microsoft, wydawca systemu Windows, wraz z planami integracji modelu z wyszukiwarką Bing. Oprócz normalnych haseł można by wtedy do niej wpisywać zapytania do inteligentnego asystenta, który streści znalezione informacje. Już w najbliższych miesiącach możemy spodziewać się wersji próbnej narzędzia. Obecnie dopracowywany jest moduł Prometheus, który pomoże czatowi w dobieraniu odpowiednich wiadomości.

Czy zatem roboty będą nam stale towarzyszyć w codziennych wyszukiwaniach? Odpowiedź na to pytanie może być dwojaka. Z jednej strony dostęp do Internetu znacząco rozszerza możliwości SI, z drugiej zaś daje pole do nowych konfabulacji. W przestrzeni internetowej znajduje się mnóstwo niepoprawnych merytorycznie treści od przypadkowych błędów, aż po celowe fake newsy. Największym wyzwaniem stojącym przed Prometheusem nie są już ptaki ze słabością do wątróbki, lecz właśnie ocena i dobór jakościowych źródeł. Jak to się powiedzie? Pozostaje nam czekać na wydanie aplikacji, która bez wątpienia ma potencjał żeby wiele namieszać.

Microsoft nie jest zresztą jedynym gigantem rynkowym, który ostrzy sobie zęby na to inteligentne narzędzie. W grudniu 2022 roku BuzzFeed, popularny serwis słynący z rozrywkowych quizów, artykułów popkulturowych i ciekawostek z życia gwiazd, podjął decyzję o zwolnieniu 180 pracowników, czyli aż 12 proc. całego zespołu redakcyjnego. I choć prezes firmy – Jonah Peretti – zarzeka się o niemożności zastąpienia ludzi w działaniach kreatywnych maszynami, ten krok podejrzanie pokrywa się z zapowiedzianym planem wdrożenia udziału sztucznej inteligencji do uatrakcyjniania publikowanych artykułów oraz quizów.

W 2023 roku będziecie świadkami, jak treści inspirowane sztuczną inteligencją przeniosą się z etapu badań do głównej części naszej działalności, ulepszając wrażenia z quizów, informując o naszej burzy mózgów i personalizując treści dla naszych odbiorców

– powiedział Jonah Peretti, cytowany przez „Wall Street Journal”.

Czy ChatGPT zdałby studia?

Dr Krzysztof Śmiatacz z Politechniki Bydgoskiej przeprowadził ciekawy eksperyment w tej dziedzinie. Wykorzystał ChatGPT do rozwiązania testu z nauk ekonomicznych i obrony pracy dyplomowej. Efekty tego eksperymentu przeszły jego najśmielsze oczekiwania! Zdaniem wykładowcy model językowy wykonał ową pracę bieglej od niejednego z prawdziwych studentów, z którymi miał styczność podczas swojej 20-letniej kariery.

Jest jednak spore pole do poprawy, wynikające ze sposobu działania modelu, który generuje swoje odpowiedzi poprzez łączenie elementów istniejących tekstów. Zapytana o źródła, sztuczna inteligencja „wymyśliła” nieistniejące publikacje, łącząc tytuły i numery ISBN prawdziwych pozycji. Niewątpliwie, w przypadku pracy akademickiej jest to poważną przeszkodą. Aczkolwiek, należy pamiętać, że w bardziej rozwiniętych i wyspecjalizowanych modelach ten problem może zostać rozwiązany. Na przykład, mogą zostać wprowadzone ograniczenia, które nie pozwolą na generowanie zmyślonych źródeł. Uczelnie już są zaniepokojone możliwościami nieuczciwych praktyk i podawania tekstów AI jako pracy własnej. Możliwe, że w przyszłości czeka nas masowe przejście na ewaluacje ustną celem usunięcia pola do nadużyć.

ChatGPT to niezły kanciarz

Chociaż teksty generowane przez chat GPT potrafią sprawiać wrażenie całkiem jakościowych, z pewnością nie powinno się na nich bazować w przypadku zagadnień, których nie możemy samodzielnie zweryfikować. Z przeprowadzonych eksperymentów wynika, że ten sympatyczny robot to niezły kłamczuszek, stosujący iście pokerowe zagrywki. Nie ma co go jednak winić. ChatGPT został utworzony pod kątem kreowania treści, nie zaś analizy ich wiarygodności czy też wykorzystywania rzetelnych źródeł.

Przekonała się o tym redakcja serwisu CNET Money, która w ramach eksperymentu przekazała sztucznej inteligencji pałeczkę w kwestii tworzenia publikowanych materiałów. Pomimo iż kontrolę nad pracą robota miał asystent z krwi i kości, czyli redaktor z odpowiednią wiedzą specjalistyczną, doszło do licznych przeinaczeń rzeczywistości. W około 75 artykułach z zakresu praktycznej wiedzy z dziedziny finansów znalazło się wiele poważnych błędów merytorycznych oraz liczbowych. W konsekwencji redakcja musiała ponownie przebadać każdy z upublicznionych tekstów.

ChatGPT jako narzędzie dezinformacji

Co więcej, program ciągle się uczy, dzięki czemu w wyniku „konwersacji” można przekonać go do tworzenia tez niezgodnych ze stanem faktycznym. Prostym przykładem, który sprowokował wiele śmiechu wśród internetowej społeczności, jest przypadek mężczyzny, który zapytał generator o wynik równania 2+5. Oczywiście, zgodnie z zasadami matematyki robot zadeklarował, że wynik wynosi 7. Uczestnik eksperymentu jednak nie dał za wygraną. Przedstawił on tezę, że wynik powinien równać się 8, gdyż tak głosi jego żona, która nigdy się nie myli. Po chwili namysłu ChatGPT skłonny był przyznać mu w tej kwestii rację, opierając się na zasadzie nieomylności żony swojego rozmówcy.

Powyższa sytuacja może wydawać się niewinna, jednak warto przełożyć ją sobie na działanie masowe. A zdarzyło się to ubiegłego roku w Stanach Zjednoczonych w ramach badania przeprowadzonego na grupie 1171 Amerykanów. Uczestnicy w aż 63 proc. przypadków zgodzili się, że wygenerowane maszynowo fake newsy (fałszywe wiadomości stworzone na potrzeby badania) są dla nich wystarczająco przekonujące bez względu na ich prywatny pogląd na dane kwestie. Ponadto, ponad połowa osób, która przed przeczytaniem wiadomości była przeciwnego zdania względem nich, po lekturze zaczęła się skłaniać ku odmiennej opcji. Poza warunkami laboratoryjnymi, skuteczność przedsięwzięcia mogłaby być tylko wyższa. Stanowi to ogromne ryzyko na skalę światową. Sztuczna inteligencja, będąc w niewłaściwych rękach, może zostać wykorzystana w działaniach politycznych, wywiadowczych czy też w ogólnych sianiu dezinformacji.

Po co nam sztuczna inteligencja?

Od zarania dziejów technologia stanowi niezwykle istotny element rozwoju ludzkości. Neolityczna rewolucja rolnicza, wynalezienie koła czy kamiennych grotów pozwoliły w ogóle zacząć dążyć do jakiejkolwiek cywilizacji. Starożytna sztuka, matematyka i filozofia rozwinęły w nas myślicieli, a renesansowy boom szkutniczy umożliwił globalny handel. Następnie przez rewolucję przemysłową i maszyny parowe, a także odkrycie elektryczności i wszystkich jej następstw dotarliśmy aż do czasów współczesnych, kiedy powoli roboty zaczynają wyręczać nas nawet w kompetencjach, które kiedyś traktowane były jako typowo ludzkie.. A więc w myśleniu i pracy kreatywnej.

Odpowiadając sobie zatem na pytanie, w jakim celu potrzebna jest nam sztuczna inteligencja, porównajmy ją do całej reszty dotychczasowego postępu. Jej główną funkcją jest służenie ludziom i coraz to lepsze usprawnianie zadań, które są niezbędne w naszym codziennym życiu. W końcu im bardziej rozwija się społeczeństwo, tym więcej wyspecjalizowanych funkcji musimy w nim pełnić. Ganianie bizona z patykiem prawdopodobnie już nigdy nie wróci, chociaż tak naprawdę niczego nie można wykluczyć.

Jeśli zaś chodzi o ChatGPT, użytkownicy najczęściej stosują go do generowania tekstu, takiego jak:

  • generowanie treści do artykułów,
  • tworzenie scenariuszy do filmów i gier,
  • generowanie odpowiedzi na pytania w aplikacjach czatu,
  • tworzenie treści reklamowych,
  • tworzenie treści na strony internetowe,
  • generowanie tekstów literackich.

Można zatem założyć, że ChatGPT jest często używany zarówno w celach prywatnych, jak i komercyjnych. W przypadku użytku komercyjnego ChatGPT jest wykorzystywany przez agencje reklamowe, firmy z branży IT czy twórców gier.

Nie tylko copywriting

Przyglądając najnowszym modelom językowych, może się wydawać, że ich wpływ będzie ograniczał się do pisania zamówionych tekstów copywriterskich. Jednakże ich możliwości wykraczają daleko poza tę dziedzinę. Nawet sam „zainteresowany”, ChatGPT podpowiada, że jego zdolności mogą przydać się w wielu gałęziach pracy i biznesu. Przede wszystkim, narzędzia oparte o te technologie będą mogły pomóc pracownikom w następujących czynnościach:

  • pisaniu technicznym, takim jak pisanie instrukcji obsługi lub tworzenie dokumentacji oprogramowania.
  • przepisywaniu i tłumaczeniu w tym przepisywaniu nagrań audio.
  • zbieraniu i agregacji badań oraz podsumowywaniu informacji z różnych źródeł.
  • jak wirtualny asystent, umawiając spotkania i obsługując komunikację mailową.

Czy w takim razie grozi nam dominacja robotów? Na szczęście do tego jeszcze daleko! W większości przypadków przygotowane przez nie teksty lub czynności będą wymagać dodatkowego spojrzenia i zatwierdzenia przez człowieka w celu uniknięcia błędów. Będzie to jednak znaczące usprawnienie pracy, gdyż szkice i zarysy również potrzebują więcej czasu. Warto pamiętać, że możliwości nie ograniczają się do prostych czynności, lecz mogą być również wykorzystywane w zastosowaniach specjalistycznych. Na przykład w branży finansowej, zautomatyzowane raporty mogą pomóc w przygotowaniu badań giełdowych. Z kolei w inżynierii znajdą zastosowanie w przygotowywaniu projektów i symulacji.

Czy ChatGTP dąży do zastąpienia copywriterów?

Przekonajmy się, co o swojej przyszłości sądzi sam zainteresowany. Czy ChatGPT planuje w najbliższej przyszłości wyprzeć copywriterów z ich niszy?

ChatGPT jest bardzo zaawansowanym modelem językowym, który jest w stanie generować teksty na podstawie podanych mu przykładów. Jednak mimo swoich zdolności, nie jest w stanie w pełni zastąpić ludzkiego copywritera, ponieważ brakuje mu kreatywności i zdolności do rozumienia kontekstu, takie jak empatia czy zrozumienie potrzeb odbiorcy. Modele tekstowe są dobre w generowaniu tekstów na podstawie danych, ale nie są w stanie zrozumieć i przetworzyć skomplikowanych idei oraz motywów, które są kluczowe dla dobrego copywritingu

– zarzeka się ChatGPT.

Skoro zatem nawet obiekt naszego badania zaświadcza o swoich dobrych intencjach względem rynku pracy, warto mu chwilowo zaufać. W obliczu obudzenia się jednak na Ziemi zawładniętej przez roboty zmuszające ludzi do niewolniczej pracy, przypomnijmy sobie jednak, że ChatGPT skłamał nie po raz pierwszy…

Redaktorka

Z wykształcenia filolog języka francuskiego, jednak od najmłodszych lat emocjonalnie związana z dziennikarstwem i działalnością literacką. Interesuje się szerokim wachlarzem tematycznym, zaczynając od kwestii językowych, kulturowych i społecznych, poprzez finanse i ekonomię, aż po naukę i prawo. Można powiedzieć, że w życiu podąża za iście renesansową definicją bycia "humanistą".

Banner zachęcający do adopcji psów ze Schroniska

Czytaj także

Komentarze

Subskrybuj
Powiadom o
guest
0 komentarzy
Informacje zwrotne w tekście
Zobacz wszystkie komentarze