Baner z okładką książki Moralna AI. Czy bać się sztucznej inteligencji

Moralna AI. Czy bać się sztucznej inteligencji

Autorzy: Jana Schaich Borg, Vincent Conitzer, Walter Sinnott-Armstrong

  • Tłumaczenie: Ewa L. Łokas, Bogumił Bieniok
    Wydawnictwo: Prószyński i S-ka
    Data wydania: 2024
    ISBN: 9788383523903
  • Wydanie: papierowe
    Oprawa: miękka
    Format: 135 x 210 mm
    Liczba stron: 424
Rewolucja związana z rozwojem sztucznej inteligencji już się rozpoczęła. Nie ulega wątpliwości, że systemy AI będą odgrywały w naszym życiu coraz większą rolę. Niektórzy widzą w tym początek epoki innowacji i wygody, inni niepokoją się wynikającymi z tego zagrożeniami. Jedno jest jednak pewne: ta technologia nie przypomina niczego, z czym do tej pory mieliśmy do czynienia.

W „Moralnej AI” znani badacze w dziedzinie psychologii moralności, filozofii i sztucznej inteligencji mierzą się z tymi trudnymi problemami. Opisują najnowsze postępy w tej dziedzinie, odrzucając przy tym utarte błędne opinie. Przedstawiają przejrzystą analizę i twierdzą, że sztuczną inteligencję można tworzyć i bezpiecznie wykorzystywać, ale aby to osiągnąć, musimy jej wpoić wartości. Lektura obowiązkowa dla każdej myślącej osoby.z opisu wydawcy

Temat pojawienia się i zastosowania sztucznej inteligencji jest w ostatnich latach bardzo popularny. Technologia ta zmieniła sposób, w jaki korzystamy ze zdobyczy techniki. Na co dzień prawdopodobnie nie zdajemy sobie sprawy z tego, jak wiele naszych interakcji odbywa się przy zastosowaniu AI. Warto zainteresować się tym tematem z wielu perspektyw, bowiem technologia ta w coraz większym stopniu decyduje o sposobie naszego funkcjonowania, niezależnie od tego, czy zdajemy sobie z tego sprawę. W pozycji, którą w tym tekście zaprezentuję, autorzy skupili się na moralności i odpowiedzialności sztucznej inteligencji w zakresie, w jakim jest lub może być ona wykorzystywana w niedalekiej przyszłości.

Autorzy książki Moralna AI podjęli się trudnej sztuki połączenia trzech różnych dziedzin: informatyki, socjologii i etyki. Trudność ta objawia się nie tylko z uwagi na konieczność stosowania jednoznacznej i tożsamej terminologii (w różnych dziedzinach nauki to samo pojęcie może mieć różne znaczenia), ale też dlatego, że definicje w przypadku tak słabo usystematyzowanej dziedziny, jaką jest sztuczna inteligencja oraz jej zastosowanie, ciągle jeszcze ewoluują i zyskują dodatkowe konteksty. Mimo to efektem tej współpracy jest całkiem poprawne dzieło, które każdemu przeciętnemu czytelnikowi pozwoli zbudować zainteresowanie tematem zastosowań i problemów związanych z projektowaniem sztucznej inteligencji. Mocną stroną pracy jest przytoczenie realnych przykładów i stosowanie możliwie szerokich pojęć, co pozwala na przyjęcie perspektywy ogólnej, zamiast skupiania się na technikaliach i szczegółach działania systemów inteligentnych, które mogłyby zaciemniać przekaz związany z etyką i moralną odpowiedzialnością, który był celem autorów opracowania. Z aspektów technicznych został poruszony problem wystarczającej dokładności, który jest bardzo istotny, oraz odniesiono się do problemu sztucznej inteligencji jako czarnej skrzynki. Książka jest łatwa w odbiorze i sądzę, że może motywować do głębszej refleksji nad tym, do jakiego stopnia kontrolujemy sztuczną inteligencję.

Dużą pokusą w omawianiu tak popularnych zagadnień, jakim jest sztuczna inteligencja, jest odnoszenie się do fikcji naukowej lub futurystycznych wizji świata, który jeszcze nie istnieje, ale mógłby. Takim pokusom momentami ulegają autorzy, zwłaszcza kiedy próbują nadawać sztucznej inteligencji cechy ludzkie i kiedy przywołują na początkowym etapie książki historię inżyniera AI z Microsoftu, który stwierdził, że sztuczna inteligencja, nad którą pracowała jego firma, zyskała świadomość. Oczywiście stwierdzenie to wywołało sensację, natomiast najprawdopodobniej były to twierdzenia nieprawdziwe. Takie upodmiotowienie sztucznej inteligencji być może mogłoby być lepiej rozpoznane, jeśli wśród autorów znaleźliby się eksperci z dziedziny psychologii. Myślę, że większość ludzi korzystających z różnych modeli językowych zdaje sobie sprawę z ich niedoskonałości i skłonności do symulowania czy wymyślania faktów. Symulowanie odpowiedzi w taki sposób, że sprawia wrażenie samoświadomości, nie stanowi problemu dla tej technologii. W rzeczywistości dobór słów w odpowiedziach opiera się na prawdopodobieństwie ich wystąpienia obok siebie w zdaniach, a samo wrażenie rozumienia kontekstu jest oskryptowane. W tekście autorzy napotykają na ten problem, kiedy próbują znaleźć odpowiedź na pytanie o świadomość i odpowiedzialność sztucznej inteligencji, ale ten zaczyna się już na poziomie definiowana czym sztuczna inteligencja jest. Zresztą, czasami trudno jest zrozumieć głębszy sens stojący za rozważaniami, gdyż nie przedstawiono jednoznacznych definicji dużych modeli językowych, czy ogólnie sztucznej inteligencji, a są to pojęcia ważne, ale używane tutaj w sposób niejednoznaczny. Nawet jeśli chodzi o przedstawione w książce zagrożenia, to nie zawsze są związane ze sztuczną inteligencją jako taką, ale na przykład z algorytmami predykcyjnymi lub automatyzacją, co może być bardzo twórcze z perspektywy filozoficznej, jednak jeśli mówimy o aspekcie technicznym, to jest on znacznie uproszczony. Nie jest to zarzut, gdyż aby pisać o technologiach, z którymi ludzkość wiąże duże nadzieje, to niestety sama teoretyczna podstawa ich działania nie wystarcza, aby zrozumieć praktyczne problemy przez nią generowane. Niewątpliwie jednak przedstawione studia przypadków dobrze odwzorowują dylematy moralne natury ogólnej, jeśli chodzi o sztuczną inteligencję.

W ostatniej części dzieła autorzy podejmują próbę zaproponowania rozwiązań dla przedstawionych problemów, jednak trudno traktować to jako coś więcej niż dalsze filozoficzne rozważania na tematy technologii i etyki. W obrębie filozofii taki sposób myślenia jest zdecydowanie poprawny, natomiast rzutuje to na przedstawione propozycje rozwiązań tych problemów, które jednak są niemożliwe do wdrożenia. Czytając na temat tych propozycji po raz kolejny natrafiamy na problem uczłowieczenia bytów abstrakcyjnych – tym razem firm. Nie do końca przemawia do mnie przypisywanie im woli etycznego postępowania. Autorzy co prawda zauważają, że firmy kierują się zyskiem, jednak nie doceniają tego, do jakiego stopnia zysk jako podstawa ich funkcjonowania kieruje wszelkimi innymi działaniami – w tym także prospołecznymi. Wracając jednak do konkretnych przykładów, to należy zauważyć, że autorzy zdecydowanie nie rozumieją współczesnego procesu wytwarzania oprogramowania. Na określenie tego procesu używają oni określenia „praktyka zwinnego i szczupłego programowania” (Agile i Lean), ale w sposób niepoprawny, tak jakby to była jednolita praktyka, podczas gdy w ramach Agile funkcjonuje co najmniej kilka tzw. frameworków (metodyk). Nie wspominając o tym, że Agile nie stosuje się do wytwarzania oprogramowania, a Lean jest pojęciem z zakresu zarządzania (za twórcę tej koncepcji uważa się firmę Toyota) – oczywiście może to być efektem tłumaczenia, ale o tym za chwilę. Można domyśleć się, że autorom zależało na zbliżeniu się do realiów biznesowych, jednak osiągnęli skutek odwrotny, gdyż niedostatecznie przedstawili swoje propozycje poprawek do procesu wytwarzania oprogramowania. Wyraźnie też niepoprawnie zrozumieli przyczyny używania i konstruowania prototypów (MVP – minimum viable product). Wobec powyższego problemu punkt wyjścia do proponowania zmian nie był optymalny. Autorzy zaproponowali na przykład dołożenie do przeglądu każdego przebiegu (prawdopodobnie chodziło o sprint review) analizy wpływu produktu na społeczeństwo. Być może brzmi to sensownie, ale sprint review jest jedną z tzw. ceremonii Scrumowych, której celem nie jest rozległa dyskusja nad produktem, ale szybka ocena i prezentacja tego, czy udało się osiągnąć pożądany przez odbiorcę efekt w danym przebiegu (sprincie), występowanie ewentualnych problemów procesowych i ocena, które z wymagań dobrać do kolejnego przyrostu. Całość sprint review jest ograniczona czasowo przez podręcznik metodyki (Scrum guide) i trwa nie więcej niż 4 godziny (w zależności od tego ile trwa pojedynczy przebieg – poleca się stosowanie przebiegów o długości od tygodnia do czterech tygodni. Każdy przebieg musi zakończyć się dostarczeniem konkretnego wyniku). Już pomijając te zawiłości, klienci nie są też reprezentowani bezpośrednio, tylko przez swoich przedstawicieli. Łatwo wyobrazić sobie, że zaproponowane podejście weszłoby w głęboki konflikt z całym modelem funkcjonowania firmy. Autorzy zaproponowali również dołączenie dodatkowych specjalistów do zespołu pracującego nad sztuczną inteligencją, ale w żaden sposób nie starali się znaleźć biznesowego uzasadnienia ich obecności, jedynie zauważyli, że część stanowisk i procesów można narzucić za pomocą regulacji (co jest bardzo życzeniowym postulatem) oraz nagród za przestrzeganie tych regulacji, co w realnym świecie generowałoby, moim zdaniem, olbrzymią pokusę korupcji – wystarczy choćby porównać takie rozwiązanie do systemu handlu prawami do emisji gazów cieplarnianych na poziomie państw. Tym, co dodatkowo utrudnia zrozumienie postulatów jest przekład – tłumacze zdecydowali się na przełożenie dosłowne pojęć z zakresu zarządzania i branży technologicznej, co ogranicza czytelność myśli wyrażonych przez autorów, ponieważ wprowadzenie pojęć takich jak „metodyki zwinne” i „szczupłe” (być może takie brzmienie w języku polskim jest wynikiem dosłownego przekładu), zamiast zwyczajowych angielskich określeń, powoduje chaos i zaciemnia kontekst – przykładowo możemy jedynie domyślać się, że niektóre zmiany są proponowane w odniesieniu do Scruma. Nie powinno także tłumaczyć się nazw stanowisk, takich jak Product Owner czy stakeholders (interesariusze), gdyż są to nazwy, które nawet w polskich firmach stosuje się na porządku dziennym w ich oryginalnym brzmieniu. Dosłowność może nawet powodować niezamierzony efekt komiczny – na przykład kiedy rozmawiając na temat pracy programistów mógłby pojawić się niespodziewanie mistrz młyna (Scrum master). Takie pozostawienie terminologii mogłoby znaleźć dodatkowe uzasadnienie w postaci tytułu, gdzie zastosowano angielski skrót AI (artificial intelligence) i uważam, że wydźwięk zwłaszcza ostatniego rozdziału mógłby być lepszy, gdyby takie określenia pozostawiono.

Moralność sztucznej inteligencji jest zagadnieniem ważnym i należy o nim dyskutować. Uważam, że Moralna AI stanowić może punkt wyjścia dla szerszej społeczności do dyskusji i rozumienia realnych zagrożeń i prawdziwych szans związanych z pojawieniem się sztucznej inteligencji oraz roli etyki i moralności w codziennym życiu, których rozwój został porzucony na rzecz rozwoju technologicznego, ale coraz mocniej domaga się zauważenia i uporządkowania.

Kategorie wiekowe:
Wydawnictwo:
Format:
wartość merytoryczna
poziom edytorski
atrakcyjność treści
OVERALL
Moralność sztucznej inteligencji jest zagadnieniem ważnym i należy o nim dyskutować. Uważam, że “Moralna AI” stanowić może punkt wyjścia dla szerszej społeczności do dyskusji i rozumienia realnych zagrożeń i prawdziwych szans związanych z pojawieniem się sztucznej inteligencji oraz roli etyki i moralności w codziennym życiu, których rozwój został porzucony na rzecz rozwoju technologicznego, ale coraz mocniej domaga się zauważenia i uporządkowania.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Skip to content