Komputer, powiedz mi... - jak zaprzyjaźnić się z AI

Od kilku miesięcy w ramach relaksu po godzinach delektuję się odkrywaniem kolejnej ogromnej serii z uniwersum Star Trek. Choć moim ulubionym kapitanem do tej pory był Jean Luc Picard to coraz bardziej podoba mi się to, w jaki sposób rolę przywódcy przedstawia postać Benjamina Sisko. Tak, dobrze się domyślacie - oglądam Deep Space Nine.
Jednak poza śledzeniem z zapartym tchem jak się rozwija sytuacja na obrzeżach kwadrantu Alpha (gruby konflikt Bajoran z Cardassianami z Klingonami i Romulanami w tle) oraz w kwadrancie Gamma (gdzie z kolei miesza Dominion), z coraz większym zaciekawieniem analizuję podejście do technologii na pokładzie stacji Deep Space Nine.
I choć niektóre koncepcje wciąż zdają się odległe lub wręcz nieprawdopodobne (teleportacha, podróże międzyplanetarne z prędkością warp czy podróże w czasie), to część koncepcji czy motywów stała się dziwnie... znajoma.
Miles O'Brien w akcji, czyli rozmowa z komputerem pokładowym
Fani serii kojarzą szefa operacyjnego na stacji Deep Space Nine - Milesa O'Briena. To głównie jego praca stała się pretekstem do tych rozważań, choć w uniwersum Star Treka prawie każdy w jakiś sposób korzysta z zaawansowanych technologii tamtego czasu - prowadząc dziennik pokładowy, prosząc o jakieś informacje, wykonując swoją pracę. Jednak nikt nie debuguje (czytaj - nie próbuje naprawić) tylu rzeczy na stacji co nasz inżynier.

Spoiler alert!
W jednym z odcinków Miles O'Brien ma za zadanie sprawdzić, czemu komputer pokładowy odmawia posłuszeństwa. Okazuje się, że odpowiedzialny jest za to program, który pochodzi z kwadrantu Gamma, a który przypadkowo wgrany został do komputera pokładowego Deep Space Nine. Szef O'Brien, po długich bojach, orientuje się, że program zachowuje się jak szczeniak szukający uwagi i izoluje go, tworząc wirtualną budę (mówiąc techniczniej - tworzy dla niego sandbox). Fani serii mogą sobie odświeżyć wiedzę tutaj.
Koniec spoilera
To, w jaki sposób O'Brien próbował dojść do tego, jaki problem trapi komputer na stacji, przypominało mi moje boje z modelem językowym. Tylko zamiast mówić "Komputer, sprawdź... Komputer, powiedz mi... Komputer, zrób..." pisałam kolejne prompty dla AI. Nieważne, czy debugowałam kod, czy prosiłam o tłumaczenie jakichś treści na inny język, próbowałam poszerzyć swoją wiedzę, czy robiłam pogłębiony research. Schemat był ten sam. Proszę o coś, dostaję odpowiedź. Czasem jest ok, częściej próbuję wyciągnąć więcej informacji. Czasem zaczynam się denerwować, ponieważ AI nie rozumie moich założeń, a ich doprecyzowanie nie pomaga - podobnie, jak denerwował się O'Brien, gdy Cardassiańska technologia znów utrudniała mu pracę z oprzyrządowaniem na stacji.
Rozmowy członków załogi Deep Space Nine z komputerem pokładowym wydawały mi się kiedyś wyłącznie owocem intelektualnego wysiłku i wyobraźni twórców scenariusza. Gdy jednak zaczęłam więcej pracować z AI, nagle zauważyłam, że uniwersum Star Treka stało się mi nieco bliższe, właśnie za sprawą podobnych radości i bolączek wynikających z komunikacji z komputerem pokładowym.
Technologia jutra, wczoraj czy dziś?
Subiektywnie patrząc można odnieść wrażenie, że AI pojawiło się nagle, kilka lat temu, a nagłość tego pojawienia się stała się powodem kolejnej rewolucji. Jednak patrząc obiektywnie mówimy o kilku dekadach, w trakcie których entuzjazm mieszał się ze sceptycyzmem, a kolejne małe i większe przełomy pomagały dołożyć do "ejajowej" układanki kolejne puzzle.
AI ma samo w sobie długą historię, a za jej początek wielu przyjmuje test Turinga w 1950 roku. To granica umowna, a sam rozwój AI miał swoje wzloty i upadki, o czym opowiadałam w trakcie wystąpienia na DevJS na jesieni tego roku w wystąpieniu o programowaniu w erze AI. Jednak w świadomości wielu osób AI pojawiło się w momencie, gdy na przełomie 2022 i 2023 roku można było zacząć samemu testować jego możliwości, korzystając z wersji ChataGPT-3. Słowem - wtedy, gdy AI z pokoju naukowców i innowatorów trafiło pod strzechy. I choć model GPT-1 był zaprezentowany już w 2018 roku, to dopiero po kolejnych kilku latach prac zyskał możliwości, które zaczęły zachwycać świat - i stały się początkiem swoistej rewolucji.
Celowo nie będę zagłębiać się w dywagacje, czy jest to rewolucja, czy nie. Mam poczucie, że na ten moment brakuje nam dystansu do tej rzeczywistości, którą przeżywamy. A to, czy coś jest rewolucją, czy nie, zdecydowanie łatwiej ocenić z perspektywy czasu. Dwa lata od momentu, gdy ChatemGPT mógł się zainteresować zwykły zjadacz chleba to też dość krótki okres, by mówić o wielkich zmianach dla nas i dla potomnych. Nie posiadamy wystarczającej wiedzy o skutkach tych zmian, ba! Zmiany te wciąż zachodzą i trudno jest nawet mówić na ten moment o jakiejś stabilizacji.
Możemy jednak przyjąć za pewnik, że technologia "jutra" już teraz pojawiła się w zasięgu wielu z nas, a jednocześnie nie jest to technologia, która spadła znienacka z nieba - już od wielu lat specjaliści pracowali nad rozwiązaniami, które pomogły ostatecznie zbudować narzędzie, które my nazywamy sztuczną inteligencją.
Overkill, czyli kto szybciej doda AI u siebie
Nie ulega wątpliwości, że AI daje spore możliwości w obszarze generowania treści, analizy treści czy automatyzacji pewnych procesów, a także syntezowaniu wiedzy. Trudno też odmówić efektownego wejścia koncepcji AI do mainstreamu. Ma to swoje plusy, ale i wiele minusów.
Sporo firm zaczęło korzystać z AI w ostatnich dwóch latach, wręcz przesadnie próbując wykorzystać to narzędzie w każdym możliwym miejscu, nie zawsze rzeczywiście ulepszając produkt czy doświadczenie użytkownika. Niektórzy właśnie w coraz bardziej powszechnym wykorzystaniu modeli językowych widzą przyczynę kryzysu w branży IT, przestój w zatrudnianiu juniorów i masowe zwolnienia. Choć AI mogło być jednym z powodów, to raczej nie jedynym - jednak to właśnie AI często otrzymywało łatkę sprawcy całego zamieszania. Jakby w ogóle nie zauważano wpływu korekty rynku po wzroście zatrudnienia w branży IT w trakcie pandemii, zmian politycznych w USA, oraz innych zmian politycznych i gospodarczych na całym świecie, z wojną za naszą wschodnią granicą włącznie.
Mimo wszystko temat wykorzystania modeli językowych w codziennej pracy jest tematem, któremu warto poświęcić nieco uwagi. W końcu wielu z nas może skorzystać na wykorzystaniu supermocy, jakie drzemią w AI. Jednocześnie jednak nie warto się wciągać w dyskusje o tym, czy AI zaraz stanie się Skynetem z Terminatora, zabierze nam pracę, a może właśnie da nam nowe, nieograniczone możliwości, w obliczu których tylko nasze lenistwo i niechęć do stosowania AI są barierami. Emocje - ani te nadmiernie pozytywne, ani nadmiernie negatywne - nie służą sensownemu przyjrzeniu się tematowi i refleksji, gdzie i jak możemy sami wykorzystać możliwości oferowane przez LLMy.
"Mistrzowie" AI, Prorocy końca świata i Pseudoeksperci w natarciu
Nie tylko firmy zauważalnie zaczęły sięgać po rozwiązania z etykietką "sztuczna inteligencja". Nośność tego tematu spowodowała również zmiany dla nas wszystkich, chcących dowiedzieć się nieco więcej o AI. I biada temu, kto próbuje znaleźć obecnie sensowny kurs w tym zakresie. Praca ze wsparciem generatywnej sztucznej inteligencji wciąż jest dość nowym i dość modnym tematem. To sprawia, że mamy obecnie już nie tylko sporo wartościowych kursów w tym temacie, ale także wysyp pseudoekspertów, którzy są w stanie wcisnąć spragnionemu wiedzy odbiorcy wszystko, co sobie wymarzą.
Zdarzyło mi się oglądać webinary takich specjalistów, którzy na proste pytania zamiast odpowiedzieć pokrótce, mówili tylko: "Aaaaa, o tym to mówię w swoim płatnym kursie". Gdybym dała się ponieść chwili, pewnie byłabym lżejsza o kilkaset złotych, jednak w takich momentach zwykle włącza mi się czerwona lampka - jeśli tak wygląda darmowy webinar, to ile razy na płatnym kursie usłyszę, że aby dostać odpowiedź na kolejne pytanie muszę kupić kolejny kurs?
A takich "ekspertów" nie brakuje. Nie raz wciąż omiatam wzrokiem clickbaitowe nagłówki obiecujące sporą oszczędność czasu w przypadku, gdy tylko oddamy AI całość swoich zadań. To akurat przykład w wydźwięku bardziej pozytywny - szereg innych nagłówków wróży koniec kolejnych zawodów, które niechybnie zastąpi AI. Każdy kurs jednak zdaje się obiecywać nieskończone możliwości z minimalnym wkładem własnym. I oczywiście właściwym kursem - od reklamującego. Jak dla mnie - brzmi nieco podejrzanie...
Dlatego też w ostatnich miesiącach warto szczególnie uważać na wszelkie kursy, kursiki, studia i inne materiały - bezpłatne i odpłatne - obiecujące szybką ekspertyzę w temacie. Temat stał się nośny i wiele osób chce załapać się na kawałek rynkowego tortu. W najbliższym czasie polecę dwa darmowe kursy, w których udział warto przemyśleć. Tymczasem przyjrzyjmy się, czemu AI mogło wprowadzić tyle zamieszania na rynku.
Co może zrobić młotek?
Modele językowe to tylko - i aż - narzędzie. Wielu ekspertów podkreśla, że wciąż nie wiemy do końca, jak działa AI, jednak wciąż - zapewne w większości przypadków - reaguje ono na nasze prompty czy inne ustawienia. Ma ono swoje plusy, ma i minusy, a w pewnych zadaniach konkretne modele mogą się sprawdzać lepiej, niż inne.
Do plusów wykorzystania AI można zaliczyć spore możliwości, jeśli chodzi o generowanie tekstu, grafik, dźwięku, tłumaczenie treści na inne języki czy tworzenie kodu. LLMy potrafią wesprzeć nas w analizie treści, researchu, a programistów - poza tworzeniem kodu - również w jego debugowaniu. Niejedna osoba korzysta z możliwości LLM by zdobyć nową wiedzę, przedyskutować pewne kwestie, a także stworzyć coś, co wcześniej mogło być poza finansowym zasięgiem np. początkujących twórców - profesjonalne grafiki, jingle etc.
Do minusów zaliczyć można chociażby halucynacje, czyli sytuacje, gdy LLMy zwracają nam nieprawdziwe informacje. Nie każdy model językowy ma aktualną wiedzę lub dostęp do internetu, by tę wiedzę uzupełnić, co też wpływa na to, jakie treści dany model nam generuje. Rozwój AI to również rozwój nowych form ataków z wykorzystaniem AI, ale też rozkwit dezinformacji - generowanie deepfake'ów i fałszywych treści nigdy nie było tak łatwe, jak teraz, co niestety sprzyja m.in. rozkwitowi ataków socjotechnicznych czy szerzeniu się dezinformacji.
Sporym problemem jest również kwestia praw autorskich - w zależności od kontekstu prawa autorskie możemy mieć my albo dostawca rozwiązania, z którego korzystamy. Inną kwestią problematyczną jest to, co stanowi często o sile modelu językowego. LLM jest uczony na danych, materiałach, dziełach autorstwa konkretnych ludzi, przez co nigdy nie mamy pewności, czy nie wykorzystał do stworzenia materiału czyjegość utworu w zbyt dużym stopniu - naruszając istniejące prawa autorskie. Co ciekawe, na ten moment - według mojej wiedzy - za ewentualne naruszenia odpowiada użytkownik, a nie dostawca, choć sami dostawcy nie zawsze legalnie trenują swoje modele. Wystarczy przypomnieć sobie przypadek Mety trenującej modele danymi bez zgody ich autorów, korzystając z pirackich źródeł.
Świadomość plusów i minusów korzystania z AI może, ale nie musi wpłynąć na to, jak z niego korzystamy. Na to wpływ ma również to, w jaki sposób postrzegamy modele językowe, jakie są nasze przekonania dotyczące chociażby możliwości tych modeli. Jeszcze innym czynnikiem będą umiejętności, które posiadamy, lub które już zdobyliśmy, korzystając z AI. To wszystko wpływa na to, czy modele językowe - nasz młotek - jesteśmy w stanie wykorzystać zgodnie z jego przeznaczeniem (do wbijania gwoździ), czy na siłę próbujemy wykorzystać w kontekstach, w których to nie ma sensu (np. odlewając makaron czy ryż). Znajdą się też ci, dla których młotek będzie narzędziem do popełniania przestępstw. W tle zaś toczy się bitwa dostawców o naszą uwagę (i nasze pieniądze).
Mimo pewnych ograniczeń młotek AI ma sporo możliwości, z którymi warto się zapoznać. Tym bardziej, że LLMy raczej zostaną z nami na dłużej. A z czasem, gdy minie pierwszy zachwyt, ich pozycja w pewnych zastosowaniach ma szanse mocno się ugruntować.
Rewolucja w myśleniu
Korzystanie z LLMów wymaga na pierwszym miejscu nie samej wiedzy o tym, jak korzystać, lecz sporej zmiany w myśleniu. Sama nabyta wiedza o możliwościach AI nie przekłada się na stosowanie go w praktyce. Przekonałam się o tym pewnego wieczoru, gdy wróciłam do prac nad swoją stroną.
Jakiś czas temu LinkedIn uniemożliwił pobranie własnych wpisów z platformy. Trochę mnie to wkurzyło - w końcu umieściłam tam wiele treści, które chcę wykorzystać do tworzenia nowych wpisów. Zanim jednak je wykorzystam chcę mieć alternatywę - backup na wypadek, gdybym straciła z jakichś przyczyn dostęp do konta. Niestety, z postanowieniami dużego dostawcy usługi trudno jest negocjować.
Zaczęłam zastanawiać się nad opcją napisania scappera, nie chcąc wydawać pieniędzy na dostępne rozwiązania, z których planowałam skorzystać tylko raz. Zderzyłam się tu ze ścianą. LinkedIn daje pewne opcje w tym zakresie, jednak gdy się wczytałam w zasady stwierdziłam, że gra nie jest warta świeczki. Ponieważ temat scrapperów jest mi zupełnie obcy wiedziałam, że na pisanie takiego narzędzia poświęciłabym dużo czasu, nie mając gwarancji, że za jakiś czas LinkedIn znów czegoś nie zmieni. Zostało mi stare, dobre kopiowanie.
Po trzech godzinach powolnego i żmudnego kopiuj (z portalu) - wklej (do kolejnego pliku markdown) zorientowałam się, że... męczę się trochę niepotrzebnie. To nie są treści, których nie mogłabym wrzucić do AI. A skoro tak, to mogę napisać prompt, który zrobi mi tłumaczenie treści, doda poptrzebne tagi, wrzuci je w plik formatu markdown, a w nazwie doda odpowiednią datę. Voila. Kolejne 3 godziny minęły jak z bicza strzelił, na stronie pojawiły się treści, które chcę zachować "na później", a ja zyskałam kilka godzin na złapanie oddechu.
Poczułam wtedy, jak moja głowa po kilku miesiącach zmagań wreszcie zrozumiała, jak wiele możliwości może dać dobre wykorzystanie AI. Jak bardzo może przyspieszyć pracę- jeśli tylko wiem, w jaki sposób poprosić o pomoc. Poczułam się w tym dialogu z technologią nieco swobodniej. Właśnie tak, wyobrażam sobie, mogą się czuć postacie z uniwersum Star Treka prosząc o asystę w zadaniach komputer pokładowy.
Komputer, powiedz mi...
Gdyby nie kursy, własnie potknięcia, przyglądanie się, jak z AI działają inni, nie zdołałabym ani zdobyćwystarczającej wiedzy, ani wypracować w sobie odpowiednich nawyków, by sięgnąć w powyższej sytuacji po inne niż klasyczne rozwiązanie. Zmiana w myśleniu o tym, co ja mogę zrobić z pomocą LLMów wymaga czasu, praktyki, a nie tylko pobieżnego dowiedzenia się, co można zrobić z pomocą AI.
Mimo tego doświadczenia wciąż podchodzę ostrożnie do korzystania z modeli językowych. Mam też wciąż sporo pytań i wątpliwości. Niektóre rzeczy - jak pisanie tekstów na bloga - wciąż wolę robić samodzielnie. Po prostu uwielbiam pisać i nie chcę pozbawiać siebie tej przyjemności, a także chcę oferować czytelnikowi coś, co stworzyłam sama. A jednak jeśli chodzi o tłumaczenie, to tu już, ze względu na ograniczenia czasowe, sięgam po pomoc LLMów - inaczej ciężko by mi było tworzyć stronę dwujęzyczną.
Jeśli szukacie takiego przełomowego doświadczenia to mam dwie wiadomości: złą i dobrą. Zła - nie przyjdzie ono samo z siebie. Dobra - pracując z AI i poznając jej możliwości możecie zwiększyć szanse na to, że z czasem taka swoboda wykorzystania LLMów na co dzień pojawi się i u Was.
Na tej drodze nie ma prostych wielofunkcyjnych promptów, nie ma też złotych rad i cudownych rozwiązań na wszystko. Każdy z nas ma inną wiedzę i inaczej może ją wykorzystać do pracy z modelem. Na pewno warto pamiętać o temacie bezpieczeństwa oraz aspektach prawnych w kontekście korzystania z AI. Choć i tak oba zagadnienia dynamicznie się zmieniają wraz z tym, jak zarówno prawnicy, jak i osoby z branży cyberbezpieczeńswa starają się nadążyć za zmianami.
Niewątpliwie żyjemy w ciekawych czasach, wymagających zmierzenia się z tym, w jaki sposób postrzegamy świat i to, co nam oferuje. Myślę jednak, że warto dać sobie przestrzeń na naukę tego, w jaki sposób pracować z pomocą AI. Z czasem, gdy coraz łatwiej nam będzie wymyślić, w jaki sposób wykorzystać LLMy w naszej codzienności, przyjdzie może zachwyt, może pewien zawód. Z czasem możliwe, że się z AI polubimy, a może nawet zaprzyjaźnimy - wiedząc, kiedy możemy polegać na AI jak na przyjacielu, a kiedy - nawet będąc wciąż na przyjacielskiej stopie - lepiej będzie mocno przez palce patrzeć na to, co "znowu to AI wymyśliło".
Jak już zauważyliście, bliski mi jest świat Star Treka - wiele można w nim zrobić samymi komendami głosowymi ("promptami"), ale jednak nie wszystko da się w nim tak zrobić. Choć rzeczywistość korzystania z AI może coraz bardziej przypominać tę ze Star Treka, to wciąż potrzeba sporej wiedzy by wiedzieć - jakie są możliwości LLMów, jakie są ograniczenia, co może pójść nie tak, żeby być w stanie lepiej korzystać z narzędzi, które pewnie z nami trochę zostaną.
A na koniec podkreślę raz jeszcze - nie ma sensu podróżowanie między nadmiernym optymizmem (bo jak widać, niektórzy uciekają od krytycyzmu i idą w zaparte z pozytywnym przekazem, pisze o tym the Guardian) i nadmiernym pesymizmem (widocznym chociażby w artykule studzącym optymistyczne nastroje pióra Bartosza Kiciora i Rafała Pikluły w Spider's web). Życie na pewno zweryfikuje i optymizm, i pesymizm, i racjonalizm. Jak zwykle w takich sprawach zalecam umiar.
