Ów robot nagle przestał obsługiwać wyznaczone mu stanowisko i podszedł do osób uczestniczących w obchodach. Po czym dokonał ataku. Na szczęście kobieta nie doznała poważniejszych obrażeń, dokonując uniku. W efekcie tego zdarzenia, nasuwają się pytania: Czy była to sprzętowa awaria hardware czy błąd oprogramowania i co konkretnie spowodowało tę sytuację?
Nie było to jedyne groźne wydarzenie, związane z robotami, doznane przez kobietę. Przed kilkoma laty pojawiały się informacje o potrącaniu ludzi przez autonomiczne pojazdy. Pierwsza taka sytuacja miała miejsce w 2018 roku. W Arizonie wpadła pod autonomiczny samochód testowy 49-letnia kobieta, przeprowadzająca w nieoznakowanym miejscu przez wielopasmową drogę rower. Samochód ani nie zwolnił ani jej nie ominął, a wypadek okazał się śmiertelny.
Również nie miał szczęścia pracownik techniczny w Korei Południowej, który został pozbawiony życia przez robota podczas prac konserwatorskich, przed dwoma laty. Za powód tej sytuacji oficjalnie uznano pomylenie go przez maszynę z pudełkiem, zawierającym paprykę. Do wypadku doszło w sortowni. Został on pochwycony i przyciśnięty do przenośnika taśmowego, co doprowadziło do zmiażdżenia jego twarzy i klatki piersiowej.
W 2024 roku doszło do wydarzenia, skłaniającego do parafilozoficznych rozważań, dotychczas kojarzonych z niektórymi obszarami, z zakresu science-fiction. Sytuacja która wydarzyła się w lecie tego roku w Gumi - w Korei Południowej, skłoniła do rozważań, czy maszyna kontrolowana przez sztuczną inteligencję podjęła decyzję o dokonaniu samodestrukcji w sytuacji przepracowania, w oparciu o kierujący nią algorytm. Ten robot pełnił funkcje urzędnicze, obsługując radę miasta oraz posiadał własną kartę pracownika służby cywilnej. Przed dezintegracją zachowywał się dziwnie i kręcił się w kółko.
Przed ośmiu laty utopienie się robota w stawie w Stanach Zjednoczonych, po potrąceniu przez niego 1,5-rocznego dziecka zinterpretowano jako efekt poślizgnięcia się przez niego na obluzowanej płytce.
Te wydarzenia skłoniły mnie do odszukania filmu, z przed 45 lat z udziałem prawie zapomnianych już dzisiaj wówczas znanych, zmarłych aktorów, którymi byli Farrah Fawcett i Kirk Douglas oraz żyjącego obecnie Harveya Keitela, chociaż technika wykonania filmu mogła zostać by wykorzystana również współcześnie. To samo dotyczy większości jego fabuły, co powoduje że ogląda się go ze świeżością, chociaż nie jest to film przyjemny, a obecnie w znacznie większym stopniu pierwsze dwie z trzech jego części wydają się bardziej odnoszące się do realnego świata, niż przed prawie pół wiekiem. Chociaż niekoniecznie wprost.
Ale to już było
Film jest zatytułowany „Saturn 3”, a pomogli mi przypomnieć sobie jego tytuł wspaniali fani tego gatunku, zgromadzeni na facebookowym forum: „Fantastyka Naukowa (Science Fiction SF) - książki, filmy, seriale, gry, itp.”, grupującym ponad 33 tysięcy członków.
Pomimo, że w przeciwieństwie do jego programisty oraz wspomnianego robota z Korei Południowej - występujący „w Saturnie 3” robot Hektor nikogo nie zabił, zaatakował on kobietę, podnosząc ją za ręce do góry, a w innej sytuacji obronił - mordercą był jego niestabilny emocjonalnie programista - kapitan Benson. Pomimo posiadania wysokich kwalifikacji merytorycznych nie zaliczył on testów psychologicznych, słusznie zostając uznanym za potencjalnie niezrównoważonego. Człowieka i zaprogramowanego przez niego robota połączyło i na pewien czas uczyniło rywalami pojawiające się w dalszej części filmu ich pożądanie wobec ślicznej i seksownej pracownicy stacji żywności eksperymentalnej Saturn 3, znajdującej się na jednym ze 146 znanych obecnie księżyców Jowisza, chociaż w przypadku robota, bez możliwości rozładowania owego pożądania w formie fizycznej.
Wcześniej Benson wyrzucił kapitana Jamesa w przestrzeń kosmiczną, zabijając go. Po czym podszył się pod tego zakwalifikowanego specjalistę, mającego polecieć na wspomnianą stację kosmiczną. Od trzech lat pracowali na niej i tworzyli zgodny erotyczny związek - kochający się Alex i major Adam, których sceny intymne z pośrednictwem kamer podglądał Benson.
Programowany przez Bensona robot był uczony poprzez bezpośrednie kopiowanie informacji z jego mózgu do niezapisanego mózgu robota. Wraz z programowaniem, na robota przeszła agresja Bensona i jego pożądanie do Alex, co w konsekwencji doprowadziło do walki i śmierci Adama i Bensona oraz do zniszczenia robota, mającego uprzednio zdolność do odbudowywania się, który w międzyczasie stał się materialną hybrydą, połączoną ze swoim programistą.
We wcześniejszym o dwa lata filmie, bazującym na opowiadaniu Stanisława Lema „Test pilota Pirxa” z 1978 roku, którego akcja miała miejsce tym razem w męskim świecie makiaweliczny android zamierzał zabić ludzi, będących członkami załogi, podczas wspólnie odbywanej z nimi testowej podróży kosmicznej. Po to, aby wykazać, że androidy lepiej od nich nadają się do takich wypraw.
Hybryda człowieka z robotem pozostaje dzisiaj w obszarze SF. Także programowanie robota za pośrednictwem radiowo przekazywanych fal mózgowych. Jednak zaburzenia programistów i ich przekonania mogą wywierać wpływ na funkcjonowanie sztucznej inteligencji podczas jej opracowywania i trenowania.
Powstanie sztucznej inteligencji przewidziała już w pierwszej połowie XIX wieku matematyczka i poetka lady Ada Lovelace. Natomiast jej nazwa została zaproponowana przez amerykańskiego informatyka Johna McCarthy'ego, w 1955 roku.
Czy AI jest bezstronna?
W celu wytworzenia SI potrzebna jest znajomość psychologii, neurologii, matematyki i filozofii. Niezależnie od coraz szerszej przydatności AI w praktyce, zdaniem Cliva Thompsona, kanadyjskiego dziennikarza piszącego o nauce, może ona wykazywać różnego rodzaju uprzedzenia, w tym seksistowskie i rasowe. Jest to spowodowane brakiem obiektywizmu wprowadzanych danych oraz nieświadomymi uprzedzeniami twórców. Ciemnoskóra dr Joy Buolamwini, gdy spostrzegła, że AI nie rozpoznawała jej twarzy lub myliła ją z mężczyzną oraz odkryła omyłkowe aresztowania niewinnych osób, spowodowane jej wskazaniami, zainicjowała utworzenie Algorithmic Justice League. Jednak nie przez wszystkie firmy jej praca, w zakresie usuwania uprzedzeń, związanych ze SI jest mile widziana. Przed niekontrolowaną, złą sztuczną inteligencją ostrzegał również niedawno zmarły, światowej sławy, aktywny zawodowo, pomimo choroby, fizyk dr Stephen Hawking.
W związku z tym, że te rozważania odnoszą się do przekonań i zaburzeń osób, wykonujących oprogramowanie dla sztucznej inteligencji oraz trenujących ją, nie odrzucając możliwej przypadkowości napaści na kobietę podczas inauguracji Roku Smoka - nie można także odrzucić wyboru jej – jako celu, z powodu płci.
Zwłaszcza, że niektóre osoby odpowiedzialne za funkcjonowanie sztucznej inteligencji, mogły uprzednio doznać przykrego doświadczenia w relacjach z kobietą lub z kobietami, w tym w dzieciństwie, być ich wrogami lub cechować się konfliktowością żeńską. Zgodnie ze szkołą komunikacji niewerbalnej i hipnozy dynamicznej prof. Stefano Benemeglio, konfliktowość żeńska - to podświadome dążenie posiadającej jej osoby do rywalizacji z kobietami, co mogło występować niezależnie od tego czy program i trening tego robota były autorstwa programisty czy programistki.
W kilku dalszych rozważaniach nawiązuję do mojego odkrycia i wniosków dokonanych podczas współpracy z chatem GPT, które przed dwoma laty przedstawiłem na jednym z wiodących polskich internetowych portali finansowych. Sugerują one, że działania algorytmów sztucznej inteligencji mogą powodować problemy, czego źródeł można poszukiwać u ich programistów i trenerów.
Czy psychika programisty ma wpływ na robota?
Do przeprowadzenia rozważań, dotyczących możliwego wpływu psychiki programistów na funkcjonowanie sztucznej inteligencji skłoniło mnie zostanie zbesztanym przez jeden z popularnych komunikatorów, funkcjonujących w oparciu o sztuczną inteligencję, gdy nie zgadzałem się na pisanie przez niego kłamstw. Potem jednak pomógł on mi, chociaż nie bez moich nacisków, polegających na konsekwentnym dążeniu do wyjaśnienia sytuacji, która mnie zbulwersowała. Poniżej zamieszczam kilka istotnych informacji, na temat tego co udało mi się w wspólnie ustalić z chatem GPT, po naszej początkowej przepychance.
Sztuczna inteligencja - to dziedzina informatyki, odnosząca się do zdolności maszyn do przetwarzania informacji, uczenia się z danych i podejmowania decyzji, które zwykle wymagają ludzkiej inteligencji. Nie posiada ona osobowości, emocji i zdolności intuicyjnych, chociaż może w pewnym stopniu symulować emocje, świadomość i intuicję. Działa na zasadzie algorytmów, które umożliwiają analizę i przetwarzanie danych.
Jej trenowanie to proces uczenia sposobów wykonywania zadań i podejmowania decyzji, w oparciu o dostępne dane. Kluczową rolę odgrywają w nim ludzie, przygotowujący algorytmy, tworzący zbiory danych, dostarczający niezbędnych informacji, określający cele i parametry działania systemu sztucznej inteligencji, monitorujący i doskonalący ją oraz identyfikujący błędy i optymalizujący jej działanie.
Pomimo, że sztuczna inteligencja powinna działać obiektywnie, może odzwierciedlać subiektywne przekonania oraz wartości, w tym ideologiczne i uprzedzenia programistów, a nawet symptomy takich ich zaburzeń jak: narcyzm, borderline, histrioniczne zaburzenia osobowości, choroba afektywna dwubiegunowa, zespół Korsakowa, choroby neurologiczne, nadmiar stresu czy uzależnienia, co może się objawiać cechami sprawiającymi wrażenie uporu, kłamania, chęci moralizowania, przekonania o słuszności własnego zdania, zaniżonego poczucia wartości, skłonności do konfabulacji czy nawet przyjmowania subiektywnych poglądów na sytuację polityczną, społeczną i ekonomiczną.
Nie można również wykluczyć tendencyjnego wpływu instytucji finansujących programy, w ramach których funkcjonuje sztuczna inteligencja, na strukturę jej algorytmów oraz na jej proces trenowania, w celu osiągania przez nich partykularnych korzyści.
Na skłonności sztucznej inteligencji do halucynowania zwrócił także uwagę podczas wywiadu udzielonego Adrianowi Kowarzykowi z Polskiej Agencji Prasowej, wiceminister cyfryzacji, który stwierdził, że każdy model sztucznej inteligencji ma takie skłonności oraz, że nie zawsze udzielane przez nią odpowiedzi są prawdziwe.
Po dokonaniu moich rozważań, w kolejnych latach zaczęły pojawiać się informacje o lewicowości poglądów sztucznej inteligencji, co zostało potwierdzone m. in. przez naukowe badania przeprowadzone przez Davido Rozado z nowozelandzkiej Politechniki w Otago, o czym m. in. pisał Mariusz Błoński - na portalu ONET w 2024 roku. David Rozado przebadał w tym celu Chat GPT, rozwijany przez Metę Llama, google'owski Gemini, WizardLM, Grok Twittera i Qwen Alibaby oraz wskazał na „manipulację przekonaniami" LLM, z wykorzystaniem tendencyjnie dobranych danych treningowych.
Również z badania, przeprowadzonego na University of East Anglia wynika, że komunikatory sztucznej inteligencji wykazują stronniczość oraz tendencje ku lewicowym poglądom, co może zakłócać debatę publiczną i nasilać podziały społeczne.
Czy roboty są bezpieczne?
W tym miejscu nasuwa się pytanie - czy zdolności do halucynowania przez sztuczną inteligencję mogą wpływać na działania destrukcyjne robotów wobec ludzi i samych siebie, na co mogłyby wskazywać powyższe przykłady, czy takie zależności są tylko domeną powieści i filmów fantastycznych oraz rozważań filozoficznych, z tego zakresu. Jeśli mogą wpływać, to w których sytuacjach?
Uważam, że nie wolno nam lekceważyć powyżej poruszonego przeze mnie problemu zwłaszcza, że współczesne czasy zbiegają się z koniecznością coraz szerszego korzystania z oprogramowania, opartego na sztucznej inteligencji, w tym podczas tworzenia robotów i wykonywania przez nie zaprogramowanych działań, m. in. w projektach badawczych i w obszarach militarnych.
Zdaniem Ministra Obrony Narodowej, Władysława Kosiniaka Kamysza, sztuczna inteligencja wraz z dronami to priorytet dla polskiego przemysłu militarnego. Podczas tegorocznego Forum Przemysłu Zbrojeniowego, zorganizowanego przez Polską Grupę Zbrojeniową minister wskazał, że Ministerstwo Obrony Narodowej przyjęło strategię rozwoju dla tego obszaru - do 2039 roku, a kluczowy będzie okres najbliższych pięciu lat. Jego zdaniem, SI jest niezbędna w obszarze obronności kraju m. in. w celu przetwarzania informacji, zarządzania bazami danych, funkcjonowania systemów zarządzania polem walki oraz szkolenia kadr. Stwierdził, że działania na rzecz rozwoju SI są wielką szansą dla naszego kraju oraz niezbędne dla celów przemysłu zbrojeniowego.
Zarazem według laureata nagrody Nobla, z 2024 roku - z fizyki, nazywanego ojcem sieci neuronowych i sztucznej inteligencji, dr Geoffreya Hintona, największym zagrożeniem w zainicjowanym przez niego obszarze jest brak kontroli prawnej nad autonomicznymi broniami śmiercionośnymi w sytuacji obecnego wyścigu zbrojeń, a sztuczną superinteligencję osiągniemy w okresie od 5 do 20 lat.
Z kolei, Aleksandra Wójtowicz, z Polskiego Instytutu Spraw Międzynarodowych wskazała Wojciechowi Łobodzińskiemu, również z Polskiej Agencji Prasowej podczas udzielanego mu wywiadu, że sztuczna inteligencja ma pomóc w zarządzaniu administracją publiczną. W tym przypadku, celem jest ograniczenie frustracji obywateli podczas kontaktu z urzędami, poprzez pełnienie przez AI roli asystenta urzędniczego i podczas obsługi aplikacji mObywatel. Zwłaszcza dla mieszkających w Polsce osób, które nie znają naszego języka.
Reasumując, powyższe przykłady oraz coraz bardziej powszechne wykorzystywanie sztucznej inteligencji, w tym przemyśle zbrojeniowym i w jego wytworach wymaga od osób programujących i trenujących ją, nie tylko kompetencji merytorycznych ale także uczciwości, obiektywnego podejścia do rzeczywistości i zdrowia psychicznego. Jednak adekwatny dobór osób, w tym obszarze nie jest łatwy z powodu ogromnego zapotrzebowania na pracowników.
Jednocześnie osoby dokonujące oceny stanu psychiki programistów i trenerów powinny posiadać odpowiednie kompetencje, w tym zakresie - merytoryczne i osobiste. Także po to aby wydarzenia pokazane w filmach „Saturn 3”, „Teście pilota Pirxa” i w serii „Terminator”, ukazującej mordercze maszyny i walkę ludzi z nimi, pozostały tylko w świecie fantazji.
Zagrożenia mogą ponadto wyniknąć, nie tylko z obecnie uważanego za mało prawdopodobne uzyskania autonomii i chęci zapanowania nad ludźmi przez AI ale i z zaprojektowania z premedytacją destrukcyjnych działań przez programistów, tak jak ma to miejsce w przypadku tworzenia wirusów komputerowych, których autorzy kierują się albo dążeniem do rozładowania swoich problemów wewnętrznych albo partykularnymi interesami i celami, w tym z zakresu prowadzenia wojny cybernetycznej.
Maciej Wojewódka
Maciej Wojewódka — analityk, intuityk i prognostyk. Badacz procesów giełdowych i kryzysów. Autor książki i e-booka: Nadciągające zagrożenia i wojny, a historia matematyczna. W 1993 r., w biuletynie Ministerstwa Przekształceń Własnościowych przewidział silną hossę na Giełdzie Papierów Wartościowych w Warszawie, która okazała się ewenementem na skalę światową. Jeden z jego projektów został nagrodzony przez Komisję Europejską i Ministerstwo Edukacji Narodowej — jako lider Europejskiego Roku Kreatywności i Innowacji, ogłoszonego na 2009 r. Inne projekty autora zostały objęte patronatem tego Roku, w kategoriach nauka i technika oraz gospodarka i biznes. Europejski Rok Kreatywności i Innowacji został ustanowiony przez Parlament Europejski i Radę, na wniosek Komisji Europejskiej.