AI Moment prawdy sztucznej inteligencji 2024

AI
Sztuczna inteligencja (AI) tworzy coraz bardziej przekonujące, lecz fałszywe wersje rzeczywistości. Co oznacza to dla zawodów, które dążą do wiarygodności, takich jak prawo i dziennikarstwo?

Podczas niedawnej sprawy Eda Sheerana o plagiat w Nowym Jorku, ekspert złożył w sądzie komputerowo wygenerowaną interpretację piosenki, z której rzekomo skopiował Sheeran – „Let’s Get It On” Marvina Gaye’a (współautorstwo Eda Townsenda, którego rodzina wytoczyła proces). Ten „nagrany przez AI”, przedstawiony przez obronę, odtworzył czterech-akordowy schemat muzyczny, który leżał u podstaw sprawy, intonując teksty w seksualnie neutralnym, pozbawionym duszy śpiewie robotycznym, który wywołał śmiech w sali. Inni obecni zgłosili pewne przykre uczucia.

„To było okropne” – powiedziała Griffin, córka Townsenda, dla strony internetowej biznesowej, Insider. To oznacza, że stosunkowo mało poważna wiadomość o sztucznej inteligencji wciąż może wywołać odruchowe przeszywanie. Takie narzędzia są coraz częściej stosowane w celu ustalania faktów i dążenia do tego, co nazywamy „prawdą” – pojęcie to jest śliskie nawet w najlepszym razie, ale nadal jest nominalnym ideałem prawa i dziennikarstwa. W tym drugim przypadku ostatnie historie o pojawiających się korzyściach i zagrożeniach tej technologii również sugerowały różne ironie.

Po pierwsze, większość reporterów ledwie rozumie to, o czym relacjonują. Większość z nich nie jest nawet w minimalnym stopniu kwalifikowana do korzystania z omawianego sprzętu czy oprogramowania, ani do mówienia lub pisania o nich w jakichkolwiek istotnych szczegółach. (Autor tego artykułu nie wyłącza siebie.)

„Największe słabe punkty”

„W ogólności poziom zrozumienia i zaangażowania w informatykę oraz złożone systemy sztucznej inteligencji jest znacznie niższy niż to, co chcielibyśmy lub mielibyśmy nadzieję” – mówi Dr Bronwyn Jones, pracownik naukowy na Uniwersytecie Edynburskim, którego praca naukowa polega na przekształcaniu sztuki i humanistyki w związku z zmianami związanymi z AI, a także kształtowanie odpowiednich badań w propozycje polityczne i przyswajalną komunikację. Od ponad dekady Jones pracuje również jako reporter terenowy w Merseyside, swoim rodzinnym terenie.

„Jesteśmy największymi słabymi punktami w łańcuchu” – mówi o lokalnych dziennikarzach w Wielkiej Brytanii. „Przeciążeni, niedofinansowani, ostatni, którzy otrzymują jakąkolwiek nową technologię.” Wśród jej kolegów i w całej branży szacuje, że około 10 procent jest „bardzo zainteresowanych” tą technologią, kolejne 20 procent po prostu nie chce się tym interesować, a reszta stanowi „środkową grupę”, która boryka się z jej zrozumieniem.

Oto kolejna ironia, jeśli chcesz: dowolny artykuł online na temat uczenia maszynowego może korzystać z mocy tych samych maszyn. Gładkie, nieprzejrzyste i drogie jednostki przetwarzania w lepiej zaopatrzonych redakcjach już teraz zbierają materiał z przeszukiwanych dokumentów, monitorują media społecznościowe w poszukiwaniu popularnych słów kluczowych, przedstawiają nagłówki i podpisy do zdjęć, układają informacje statystyczne w proste biuletyny, moderują komentarze użytkowników i liczą, ile może przeczytać użytkownik bez subskrypcji, zanim trafi na płatny dostęp.

Wyścig zbrojeń AI

Obecnie, jak twierdzi Jones, głównym celem takich działań jest „oszczędność efektywności”. „W teorii, pozwalanie sztucznej inteligencji na wykonanie ciężkiej pracy uwalnia dziennikarzy do bardziej kreatywnej lub dochodzeniowej pracy. Ale ostatecznie są to decyzje kierownicze, czy przeznaczysz te zasoby na produktywny sposób, czy po prostu zautomatyzujesz i zaoszczędzisz koszty pracy”.

Jak do tej pory, Jones widziała wiele dowodów na to, że AI przejmuje pewne zadania w redakcjach, ale niewiele na temat wynikającego z tego wzmocnienia (lub dalszego zatrudnienia) żywych, oddychających pracowników. Istnieją również trwałe pytania o prawdziwość, przejrzystość, integralność. Systemy AI stają się coraz lepsze, coraz szybsze w wykrywaniu „fake newsów”, nawet gdy nadal ulepszają swoją zdolność do tworzenia i manipulowania cyfrowymi mediami. „Trwa pewna rywalizacja w celu doskonalenia technologii po obu stronach” – mówi Jones. „Dobra i złe strony próbują prześcignąć się nawzajem”.

„Ale oczywiście widzimy zanieczyszczenie ekosystemu informacyjnego treściami wyprodukowanymi przez generatywną AI, która nie ma związku z prawdą, ponieważ nie ma w niej zobowiązania. Nawet materiał wytworzony przez farmy treści tylko dla kliknięć, bez złej intencji, może być bardzo trudny do przeanalizowania przez każdego dziennikarza, ponieważ często jest prezentowany w formatach, które naśladują autorytatywne treści, takie jak raporty akademickie czy białe księgi”.

Wygląd prawdy

Warto zadać sobie pytanie, czy maszyna, która może nauczyć się syntezy ludzkich twarzy, głosów, procesów myślenia i praktyk twórczych, może również wewnętrznie zaakceptować nasze abstrakcje – nasze aspiracje w kierunku samej prawdy?

„Słowo 'dane’ jest rzeczywiście bardzo podobne do słowa 'fakt’” – mówi Vassilis Galanos, nauczyciel nauczycieli w Szkole Nauk Społecznych i Politycznych Uniwersytetu Edynburskiego. „Dosłownie oznacza „dane”, jako prawdę przyjętą za pewnik. „Jeśli można uzgodnić pewną wersję prawdy, która ma zostać wyekstrahowana z twoich danych, to być może uda się nauczyć maszynę, aby imitowała ten proces i produkowała formę zabstrahowanej prawdy, która wygląda tak, jakby ją stworzył człowiek”.

Rozważ funkcję autouzupełnienia systemu wyszukiwania Google’a, mówi Galanos, który będzie proponował różne sugestie, aby zakończyć swoje zapytanie – niektóre dość rozsądne, inne dość dzikie, ale wszystkie pochodzące z nieprzejrzystych procesów statystycznych, które mogą rozszerzać lub nawet wzmacniać społeczne uprzedzenia. „Ponieważ są one elektroniczne, i noszą autorytet 'obiektywności danych’, pochodzący od 'zbiorowej inteligencji’, są uznawane za wiarygodne odpowiedzi”.

Ale są w naszych wejściach i wnioskach usterki, „ponieważ tendujemy do szeroko zakrojonych generalizacji, kojarzenia nieistotnych zjawisk lub służenia ukrytym motywacjom”. I jest ogromna różnica między zaufaniem do dokładności kalkulatora kieszonkowego a oczekiwaniem, że chatbot wyda „stałe, prawdziwe oświadczenie [na podstawie] ograniczonych źródeł i metodologii”.

Nie panikuj

Badania doktorskie Galanosa nad przeszłymi i obecnymi oczekiwaniami wobec sztucznej inteligencji uczyniły go pewnego rodzaju historykiem uczenia maszynowego – pierwszego opracowanego tutaj na Uniwersytecie Edynburskim przez profesora Donalda Michie i jego współzałożycieli laboratorium AI na placu Hope Park około 1963 roku. Późniejszy absolwent Geoffrey Hinton otrzymał własne doktorat za wczesne badania nad sztucznymi sieciami neuronowymi wzorowanymi na mózgu człowieka, a jego późniejsza eminencja w dziedzinie nadała dramatyzmu i powagi jego pozornemu zmianie zdania: jest przede wszystkim wśród ekspertów publicznie zaniepokojonych szybko narastającymi, niebezpiecznymi zdolnościami tego, co stworzyli.

Galanos jest łagodnie sardyński wobec „heroicznej wizji 'odpowiedzialnego naukowca’, który oferuje truciznę razem z lekarstwem”. „Wiele popularnych narracji zostało ukształtowanych przez samych specjalistów od AI, którzy mogli przesadzić z korzyściami lub szkodliwym potencjałem, aby ich dziedzina otrzymała więcej uwagi.” (Zauważają, że inny pionier kognitywny/informatyk, Marvin Minsky, doradzał Stanleyowi Kubrickowi przy tworzeniu ożywionego systemu operacyjnego, HAL-a, do filmu 2001: Odyseja kosmiczna).

Pierwotne, statystyczne podejście Geoffrey’a Hintona było długo uważane za „skazane na porażkę”, mówi Galanos, z powodu braku wystarczających danych, aż do momentu, gdy rosnący internet dostarczył nowego wybuchowego efektu. Teraz, jak to opowiada Hinton, te sieci neuronowe wydają się prawie skazane na sukces i zniszczenie nas w procesie. Galanos z kolei nie jest tak zaniepokojony.

„Nie chcę brzmieć pretensjonalnie odważny, ale nic tak naprawdę mnie nie przeraża w samej AI. Mamy wiele powodów, by rozwinąć trzeźwe, historyczne zrozumienie tych zmian i budować mechanizmy obronne.” Co do regulacji AI, o której zabiegają obecnie wielcy gracze technologiczni, jak założyciel ChatGPT, Sam Altman, skłonny jest wierzyć, że będzie działać tylko wtedy, gdy zostanie dostosowana do kontekstu – wojskowego czy opieki zdrowotnej, które prezentują własne specyficzne zagrożenia i wymagania. Konkurencja tam, gdzie ludzkość jest najmocniejsza

Jeśli chodzi o system prawny, mówi Burkhard Schafer z Wydziału Prawa Uniwersytetu Edynburskiego, „Nie sądzę, aby istniała jakakolwiek realistyczna perspektywa zastąpienia sędziów przez AI.” Jako profesor teorii prawniczej komputerowej, uważa, że sądownictwo ma dość jasne zrozumienie tego, co maszyny mogą, a czego nie mogą i nie powinny robić. Mogłyby przeskanować odpowiednie przepisy, precedensy i dowody, aby wydać ważny wyrok, a my moglibyśmy uznawać ten wynik za prawdę, ale „poprawność” sama w sobie nie zapewnia sprawiedliwości.

„W prawie, proces ma takie samo znaczenie jak wynik. Dajemy oskarżonemu szansę na wypowiedzenie się, dajemy stronom interes. Nie chcemy tylko decyzji, chcemy zobaczyć rozumowanie za nią.” Schafer nie kwestionuje, że pewne zadania i stanowiska w ramach tej profesji (wiele usług notarialnych, na przykład) wkrótce zostaną utracone z powodu automatyzacji.

„Przyzwyczaj się do tego,” mówi. „Stało się to tkaczom, stanie się tobie. Nie rywalizuj z AI tam, gdzie jest najmocniejsza, rywalizuj tam, gdzie ty, jako człowiek, jesteś najmocniejszy.” Zamiast testować studentów prawa na mechaniczną pamięć tekstu, którą bazy danych już uczyniły natychmiastowo dostępną, optymalna przyszłość Schafera polega na nauczaniu praktycznej empatii i psychologii – umiejętności przeprowadzania wywiadów, aby pomóc traumatyzowanym klientom, umiejętności opowiadania historii, aby stworzyć przekonujące przypadki, prawnej odpowiednik lepszego taktu lekarskiego. „Obszary, w których AI jest słaba i zawsze będzie.”

Gdzie AI jest dobra, oczywiście, i będzie coraz lepsza, to fałszowanie materiałów cyfrowych. Obawy przed sfałszowaniem łagodzi, mówi Schafer, narzędzia, które śledzą źródła i śledzą łańcuch dowodowy dla dowolnego danego pliku. Jego większym zmartwieniem jest to, że nawet uwierzytelnione dowody mogą być podejrzane. „Sędziowie, ławnicy, laicy wszyscy słyszeli o deepfake’ach i widzieli, jak przekonujące mogą być. Mogą w związku z tym wątpić we wszystko, nawet w rzetelne rzeczy.

„Potencjał całkowitej wyparcia jest o wiele bardziej niepokojący dla prawników i dziennikarzy niż sama technologia.” Przychodzi tu na myśl inna piosenka Marvina Gaye’a – tekst, który wciąż brzmi wystarczająco prawdziwie, chociaż jego anegdotyczna nuta ostrożności może być jeszcze poddana korekcie statystycznej: „Ludzie mówią, aby wierzyć w połowę tego, co widzisz, synu, i nic z tego, co słyszysz.”

Zapraszam do przeczytania mojego poprzedniego artykułu, AI będzie mądrzejsze niż ludzie TUTAJ