Naszą rozmowę rozpoczynamy od wymiany zdań o tym, jak każdy z nas korzysta z narzędzi AI. Przy okazji odpowiadamy sobie na pytania: Czy AI myśli? Czy AI rozumie? oraz na kilka innych powiązanych z tymi dwoma głównymi pytaniami.
Najwięcej czasu poświęcamy omówieniu noty Dykasterii ds. Kultury i Edukacji na temat relacji pomiędzy sztuczną inteligencją a inteligencją ludzką pt. Antiqua et Nova. Przedstawiamy jej treść oraz wskazujemy na to, czego w tym dokumencie zabrakło. Owo wskazywanie braków jest owocem wcześniejszej pracy ks. Grzegorza Strzelczyka: wnikliwej, krytycznej lektury tekstu noty.
Pod koniec rozmowy krótko komentujemy artykuł Ilii Delio pt. Too little, too late: The church's inadequate response to AI-human evolution. Ten artykuł jest krytyką przedstawionego w Antiqua et Nova paradygmatu relacji człowiek-AI. My zaś dość zgodnie krytykujemy ten artykuł.
W tej naszej rozmowie jest wyjątkowo dużo dygresji i raz po raz ujawniają się mniejsze lub większe różnice zdań. Ale jesteśmy zgodni w kwestii zasadniczej: AI jest tylko narzędziem i co najwyżej symuluje ludzkie myślenie i rozumienie.
Nie próbujemy zatem tutaj referować wszystkich wątków i szczegółowych tematów naszej rozmowy. Zapraszamy do jej wysłuchania.
Literatura:
DYKASTERIA DS. KULTURY I EDUKACJI, ANTIQUA ET NOVA. Nota na temat relacji pomiędzy sztuczną inteligencją a inteligencją ludzką. https://www.ekai.pl/wp-content/uploads/2025/04/PL_Nota-Antiqua-et-nova.pdf
Ilia Delio, Too little, too late: The church's inadequate response to AI-human evolution. https://www.ncronline.org/opinion/guest-voices/too-little-too-late-churchs-inadequate-response-ai-human-evolution
Poniżej zamieszczamy pełną transkrypcję podkastu.
[Słomka]
Szczęść Boże! Witam Państwa serdecznie na naszej kolejnej rozmowie w podcaście Teologia z Katowic. Dzisiaj rozmawiamy: ksiądz Grzegorz Strzelczyk i ja, Jan Słomka.
Obaj pracujemy na Wydziale Teologicznym Uniwersytetu Śląskiego. Powtarzam to, bo mam nadzieję, że za każdym razem jest kilku nowych słuchaczy, którzy jeszcze nas nie znają. Taka jest moja nadzieja, a jak jest, to my nie wiemy.
Dzisiaj temat taki, o którym mówią wszyscy od nie tak dawna, od niecałych trzech lat. Sztuczna inteligencja. Ale oczywiście, jako teologowie, sztuczna inteligencja z perspektywy teologicznej, która w tym wypadku jest ściśle perspektywą antropologiczną.
[Strzelczyk]
Albo etyczną, bo to troszkę zależy od tego, jak zaczniemy się głęboko przyglądać pewnym praktycznym wymiarom stosowania sztucznej inteligencji.
[Słomka]
Ale zacznijmy od takich kilku prostych pytań, które pokażą nam — bo nie wiem, czy my mamy to ustalone — i naszym słuchaczom, nasz osobisty stosunek, czy relacje do sztucznej inteligencji. Korzystasz z tych narzędzi?
[Strzelczyk]
Tak, zdecydowanie i od samego początku właściwie.
[Słomka]
Jakiś jeden przykład, żeby nie zagadać.
[Strzelczyk]
Korekta tekstów, przepisywanie notatek odręcznych do tekstu normalnego, optymalizacja tekstów, żeby były tłucze.
[Słomka]
Takie rzeczy mechaniczne w gruncie rzeczy.
[Strzelczyk]
Tak, zasadniczo tak, bo do takich zastosowań duże modele językowe zwłaszcza świetnie się nadają.
[Słomka]
To jest bezdyskusyjne. A ja opowiem o tym, jak nie korzystam. Mianowicie korzystam — to chyba większość z nas — ciągle z wyszukiwarki Googla i od jakiegoś czasu ta wyszukiwarka wpycha na samym początku odpowiedź: tekst wygenerowany przez AI, co bardzo royalnie zaznacza.
Otóż ja bardzo starannie omijam ten tekst i idę do klasycznych wyszukiwań, w których się czuję dobrze. Czy robisz tak samo, czy robisz inaczej?
[Strzelczyk]
Jeżeli chodzi o wyszukiwania, to zależy, czego szukam. Bo jeżeli to są rzeczy, które wymagają prostych definicji, które są encyklopedyczne, w związku z tym AI ma do nich bezpośredni dostęp, to te streszczenia, które potrafi zrobić Gemini — bo tak naprawdę w Googlach to narzędzie — są zupełnie przyzwoite. Więc jeżeli trzeba sobie znaleźć szybkie znaczenie jakiegoś słowa, którego się z jakiegoś powodu nie zna, to to jest całkiem przyzwoita rzecz.
Jeżeli chodzi już o poszukiwanie stron, o które mi chodzi merytorycznie, to jest w ogóle w Googlach już od jakiegoś czasu bardzo skomplikowane, bo trzeba jeszcze ominąć sponsorowane.
[Słomka]
To są inne rzeczy, tylko mi chodzi o to, że dostaję raz po raz podsuwany mi przed oczy tekst wygenerowany przez AI i nie wnikam w to, który to jest z modeli i wiem, że wielu ludzi te teksty czyta. Niektórzy się z nich śmieją, inni biorą je mniej lub bardziej poważnie, ale te teksty mnie nawet nie śmieszą. Śmieszyć mnie może coś, co jest tekstem ludzkim.
[Strzelczyk]
Jeżeli się w miarę rozumie technologię, która generuje ten tekst, to jasne jest, że ona generuje tekst nie rozumiejąc tekstu. Bo to są tak naprawdę metody statystyczne, które są zastosowane na uczeniu maszynowym i przeróbce gigantycznej ilości danych.
[Słomka]
I tutaj udzieliłeś odpowiedzi na pytanie, które zamierzałem zadać i odpowiedzi, którą teraz tylko powtórzę. Otóż AI nie rozumie.
[Strzelczyk]
Znaczy, określenie „sztuczna inteligencja” w ogóle jest określeniem, które jest do pewnego stopnia wygodnym, ale jest mylącym z punktu wyjścia.
[Słomka]
Ale wracam do takiej bardzo precyzyjnej. Istnieje kategoria rozumienia i ta kategoria jest kategorią bardzo ludzką. I sztuczna inteligencja, AI, niezależnie od poziomu skomplikowania, nie zbliża się do czegoś, co jest rozumieniem ludzkim.
[Strzelczyk]
Ja bym powiedział tak. Może się zbliżać do wyników ludzkiego rozumienia w tym sensie, że może podawać rozwiązania problemów, które my jako ludzie też byśmy potrafili rozwiązać, ale zajęłoby to nam na przykład o wiele więcej czasu. Natomiast ona nie dokonuje tego na drodze rozumowania refleksyjnego.
To znaczy, że my jak rozumujemy, to wiemy o tym, że rozumujemy. Jesteśmy tam w stanie zastosować kryteria prawdziwości itd. w trakcie.
Jeszcze do tego dochodzą nasze emocje itd. I to jest proces, którego my w nauce w ogóle jeszcze za bardzo dobrze nie rozumiemy. Rozumiemy pewne jego elementy, ale samego procesu rozumienia i rozumowania to my nie mamy rozpisanego u ludzi.
[Słomka]
No oczywiście, mówimy tylko o ludziach.
[Strzelczyk]
W związku z tym, tym bardziej nie jesteśmy w stanie go zasymulować komputerowo. Co więcej, my nie jesteśmy w stanie nawet zasymulować działania o wiele prostszych układów nerwowych, składających się z setek tysięcy neuronów, powiedzmy.
[Słomka]
Tak, ale zatrzymajmy się przy tej różnicy, podobieństwach tego, co robi AI, a ludzkiego myślenia, rozumienia, decydowania. Dla mnie tutaj słowem klucz, który to opisuje, jest symulacja.
[Strzelczyk]
Tak, można użyć tego słowa, aczkolwiek to jest chyba nawet mniej niż symulacja w tym sensie, że jak ja myślę o symulacji, to myślę o odwzorowaniu całego procesu. Jeżeli ktoś ma doświadczenie gier na symulatorach albo symulatora jazdy, teraz jak się uczy człowiek jeździć samochodem, to bardzo często zaczyna od symulatora właśnie, to my mamy próbę odtworzenia jak najdokładniej całego procesu i wszystkich elementów, które wpływają na to, co tam się dzieje pośrodku. W przypadku dużych modeli językowych my raczej chcemy odwzorować tylko końcówkę.
To znaczy nam nie zależy na tym, jak to jest generowane, chcemy uzyskać efekt jak najbardziej zbliżony do ludzkiego rozumowania. Im bardziej język, który jest przetwarzany przez maszynę, jest językiem formalnym, tym lepiej się to udaje.
[Słomka]
No tak, tylko w tym momencie punkt wyjścia, czyli język coraz bardziej sformalizowany, jest językiem coraz mniej ludzkim.
[Strzelczyk]
Tak, w związku z tym kłopot się pojawia w drugą stronę, to znaczy kiedy zaczynamy wchodzić w rzeczy, które są bardziej związane z humanistyką szeroko pojętą i tam zaczynamy grzebać, to robi się trudniej, dlatego że jeżeli mamy model, który tak na dobrą sprawę przewiduje prawdopodobieństwo wystąpienia następnego słowa na podstawie miliona innych tekstów, które przeżył, to on jest po pierwsze taki mądry jak te teksty, które przeżył. Po drugie jest taki mądry jak parametry, które mu zostały włożone, jeżeli chodzi o preferencje, a na to wszystko jest jeszcze włożona funkcja losowa, która na końcu odpowiada za to, żeby nie były generowane takie same odpowiedzi za każdym razem na to samo pytanie. I tam ze względu na to, że chodzi o prawdopodobieństwo wystąpienia słowa, a nie o rozumienie frazy, mogą się zdarzać rzeczy przedziwne zupełnie i model nie będzie wiedział, że opowiada głupoty, bo on w ogóle nie wie też, że opowiada mądre rzeczy.
[Słomka]
No tak, bo już językowo zantropomorfizowałeś model.
[Strzelczyk]
Tak, bo my go antropomorfizujemy i generalnie tak to jest sprzedawane.
[Słomka]
Wiem, tylko to pokazuje też, że my językowo nie bardzo mamy inne sposoby — niby mamy inne sposoby opisu, jest nie AI, tylko wielki model językowy, nie myślenie tylko algorytmy, nie rozumienie tylko statystyki — ale ciążymy ku mówieniu antropomorfizującemu.
[Strzelczyk]
No wiesz, my antropomorfizujemy Boga, to dlaczego nie mielibyśmy antropomorfizować dużych modeli językowych?
[Słomka]
Ja tylko stwierdzam pewien proces, bo ty dorzuciłeś coś, co jest częścią drugą, ale mocno opartą na części pierwszej, że dla producentów, sprzedawców tych modeli antropomorfizacja jest językowym procesem bardzo pożądanym.
[Strzelczyk]
To znaczy, to się lepiej sprzedaje.
[Słomka]
Dokładnie o tym mówię.
[Strzelczyk]
Bo my jednak lubimy kontakt z ludźmi, jeżeli maszyna nam zasymuluje do pewnego stopnia — i tu właśnie wchodzi element symulacji — to znaczy maszyna próbuje zasymulować kontakt z człowiekiem, ale nie symuluje rozumienia, bo tego nie potrafi.
[Słomka]
Tak, ale również całe bogactwo relacji międzyludzkich tutaj jest wyłącznie symulowane albo aż symulowane, ale nic poza tym.
[Strzelczyk]
Ale aż symulowane, ja bym powiedział, bo jeżeli my model byśmy wyuczyli na naprawdę bardzo dobrej literaturze, to dostajemy odpowiedzi z poziomu tej bardzo dobrej literatury. Więc wiesz, masz wrażenie, że po drugiej stronie jest ktoś — bo to jest wrażenie podmiotu czy osoby — kto naprawdę rozumie poważne rzeczy.
[Słomka]
Czyli stary, poczciwy tekst Turinga już dawno przestał być przydatny.
[Strzelczyk]
Tekst Turinga już wysiadł jakiś czas temu i to było do przewidzenia, że on wysiądzie, dlatego że jednak to była tylko kwestia mocy obliczeniowej. Kiedy Turing pracował, to obecne moce obliczeniowe komputerów były w ogóle niewyobrażalne. W związku z tym on nie mógł wziąć pod uwagę efektu skali, bo tu ilość przechodzi w jakość.
[Słomka]
Więc ilość przechodzi w pozór jakości.
[Strzelczyk]
Nie, przechodzi w jakość. To jednak jest trochę tak, że gdybyśmy byli w stanie zapakować do dużych modeli językowych rzeczywiście całą wartościową wiedzę, którą posiadamy, to uzyskalibyśmy lepsze odpowiedzi niż teraz. Tylko kłopot jest taki, że tam koszty rosną już potem wykładniczo wraz z bardzo niewielkim postępem jakości.
[Słomka]
Tak, ale według mnie najważniejsze w tym wszystkim jest to, że te lepsze odpowiedzi nadal pozostają odpowiedziami, które są efektem pracy algorytmów. I nie przysługuje im kategoria prawdziwości rozumienia w sensie ludzkim.
[Strzelczyk]
Tak, bo tam nie ma autorefleksji ani świadomości, ani tych wszystkich elementów, które się składają na nasze myślenie.
[Słomka]
Natomiast wróciłbym do wątku tego, że ci, którzy sprzedają i tworzą AI, lubią antropomorfizować i że to się lepiej sprzedaje. Otóż zastanawiam się, wiedzę mam tylko z publicystyki, czy tam nie ma czegoś więcej, ponieważ tak zwana Dolina Krzemowa, czyli to środowisko, gdzie to najbardziej jawnie buzuje, bo co dzieje się w Chinach, to my tego nie wiemy w ogóle, ale gdzie jest wielki rozwój, jawność myślenia, ona ma tendencję do takiego antropomorfizowania i niemal demonizowania, a i to idzie symetrycznie w dwóch kierunkach. Z jednej strony są ci, którzy właśnie w duchu takiego antropomorfizowania demonizują AI, że przejmie władzę nad nami, to są wielkie umysły, a z drugiej strony są ci, którzy widzą, że zantropomorfizowana AI połączy się i będzie niemal świetlaną przyszłością.
Jedną i drugą postawę łączy coś, co przypisuje AI własności, według mnie i według naszej rozmowy, zupełnie jej nieprzysługujące.
[Strzelczyk]
Na ten moment na pewno nie, to znaczy tu jest pytanie, które jest pytaniem ciągle otwartym i na ten moment raczej ja bym był sceptyczny co do pozytywnej odpowiedzi, to znaczy, czy uda się stworzyć tak zwaną sztuczną inteligencję ogólnego zastosowania, czyli taki model, który już nie będzie wycinkowy, czyli na przykład albo generatywny, albo językowy, tylko będzie potrafił rzeczywiście rozwiązywać wszystkie problemy stawiane czy to z języków formalnych, czy to z języka zwyczajnego, rozwiązywać problemy związane z generowaniem obrazów itd.
I będzie to na poziomie, powiedzmy, generowania błędów zbliżonego do ludzkiego, łącznie z umiejętnością samouczenia się, samokorygowania itd. Tam jest ileś rzeczy, które by fajnie było zrobić. Na razie nie potrafimy tego zrobić kompletnie.
[Słomka]
Tu chyba się trochę różnimy, bo ja bym się zgodził z całą twoją wypowiedzią, tylko wyciąłbym z niej wersy pod tytułem „na razie”. Po prostu ja jestem przekonany, że żaden rozwój, w tym wypadku znowu ilościowy, nie przełoży się na taką przemianę jakościową, żeby przeskoczyć te granice.
[Strzelczyk]
No i tu jest spór, tu są zdania podzielone. Ale tu się chyba między sobą troszeczkę różnimy. Wiesz co, ja po prostu nie wiem tego w sensie technologicznym, a nie chcę powiedzieć, że to jest niemożliwe, dlatego że może się okazać, że jednak możliwe jest.
[Słomka]
A ja wychodzę z takiego punktu antropologicznego i z takiego przekonania wziętego spoza wiedzy technologicznej, że człowieczeństwo jest czymś ontologicznie innym.
[Strzelczyk]
Ale to wiesz, ja nie mówię, że my jesteśmy w stanie ludzką inteligencję wygenerować. Mi chodzi o to, że my być może jesteśmy w stanie stworzyć taki zespół algorytmów i takie maszyny, które będą w stanie przeprowadzać procesy, które na wyjściu nie będą się poważnie różnić od tego, czym jest rozumowanie człowieka.
[Słomka]
Tak, ale nadal pozostanie to, że one nie będą wynikiem rozumienia w sensie ludzkim i nie będą spełniały głębszego kryterium prawdziwości w sensie ludzkim.
[Strzelczyk]
Tu jest kłopot taki, że ja bym ci musiał w tym momencie powiedzieć, ale my do końca nie wiemy, co to znaczy rozumienie w sensie ludzkim, dlatego że nie mamy dokładnie poznanych tych procesów. Dlatego ja się wstrzymuję przed takimi jednoznacznymi stwierdzeniami, bo gdybyśmy mieli jasno rozpisane, w jaki sposób na przykład w ludzkim mózgu generują się procesy, które się składają na naszą świadomość potem, to wtedy bym mógł powiedzieć, że jesteśmy albo nie jesteśmy w stanie coś takiego zasymulować albo stworzyć podobnego itd. Natomiast my tu bardzo wielu rzeczy po prostu jeszcze nie rozumiemy.
[Słomka]
Tak, a ja wychodzę z takiego założenia, wracamy, antropologicznego, które jest tak naprawdę poparte na teologii, na wierze człowieka, który jest transcendentny wobec wszelkiej fizyki i przyjmuje, że nasza ludzka świadomość, nasze myślenie ludzkie, którym się wyraża nasze człowieczeństwo, jest ontycznie transcendentne wobec tego wszystkiego, co jest zmierzalne.
[Strzelczyk]
Ale wciąż myślę, że nie rozumiemy się w jednym punkcie. Ja ciągle nie mówię o tym, że tak zwana sztuczna inteligencja będzie lustrzanym odbiciem człowieka. Ona będzie zespołem algorytmów, metod obliczeniowych, pamięci maszynowej, uczenia się maszynowego i ich wyników.
Ale efekty na poziomie także komunikacji i być może także komunikacji emocjonalnej będą zbliżone albo nieodróżnialne od tego, jak się komunikują ludzkie osoby. Więc tu ontyczna różnica cały czas pozostaje. To, co mnie interesuje, to jest kwestia tego, że może zaniknąć różnica funkcjonalna.
I to jest gigantyczny problem już tu.
[Słomka]
Tak, różnica funkcjonalna. I tu przechodzimy do tych pytań etycznych, które są ważne. Myślę, że w tym miejscu przejdźmy do dwóch tekstów, które przygotowaliśmy sobie na naszą rozmowę.
Pierwszy, nota dykasterii do spraw kultury i edukacji, *Antiqua novae*, na temat relacji między sztuczną inteligencją a inteligencją ludzką. Ten tekst właściwie mówi o tym, o czym do tej pory rozmawialiśmy. W dużej mierze.
Przypomnę pewną sekwencję wydarzeń. W czerwcu zeszłego roku papież Franciszek uczestniczył w zjeździe przywódców G7. To był precedens.
I on miał tam dwa cele: rozmowy pokojowe i zrobienie wykładu czy temat sztucznej inteligencji. A więc widać, że Franciszek od razu widział powagę sytuacji.
Przypomnę jeszcze coś, o czym mówiłem na początku. To wszystko dzieje się niesłychanie szybko. OpenAI uruchomiło czata GPT niecałe trzy lata temu.
[Strzelczyk]
Tak, ale praca nad sztuczną inteligencją w sensie algorytmów myślenia maszynowego to naprawdę sięga Turinga, czyli 80 lat.
[Słomka]
Bez tego by się to nie uruchomiło. Ja patrzę z perspektywy mojej, który czytam publicystykę, nie jestem specjalistą, że świadomość powszechna zaczęła być atakowana kolejnymi informacjami na ten temat mniej niż trzy lata temu. A więc jak na papieżstwo i Watykan, zorientowanie się, że jest coś takiego, i próba reakcji w ciągu niecałych dwóch lat, to to jest ekspres.
[Strzelczyk]
Tak, to jest ekspres. To przyznasz. Są inne tematy, którymi się Watykan jeszcze nie zajął od dziesięciu lat.
[Słomka]
Ale w ogóle, nawet jeżeli to stara praktyka Kościoła, zwłaszcza kręgów decyzyjnych, jest: poczekajmy.
[Strzelczyk]
Ale tu nie można czekać.
[Słomka]
W wielu wypadkach, kiedy nie można czekać, Watykan też to stosuje. Więc tak podkreślam, że tutaj — i to ewidentnie Franciszek — od razu jakby uruchomił w Watykanie myślenie wokół tego tematu. A więc mamy czerwiec 2024, Franciszek na G7 i styczeń 2025 — ewidentnie z polecenia, z inspiracji polecenia Franciszka — dykasteria ds. kultury i edukacji wydaje notę. Nota — to jest jaka ranga tekstu? Niska dosyć.
[Strzelczyk]
Stosunkowo niska, ale ma recognizio, czyli jest „klepnięta” jednak przez papieża.
[Słomka]
Tak, zdecydowanie.
[Strzelczyk]
W drabince magisterialnej to jest nisko i to jest raczej taki tekst, który ma wskazywać pewne kierunki i uwrażliwiać, niż na twardo regulować doktrynalnie pewne rzeczy i to bardzo widać w tym dokumencie. To jest takie rozpoznanie bojem trochę. No tak, ale przed chwilą mówiliśmy, jakie to są wyzwania.
[Słomka]
Powiedzmy, wrócę jeszcze do tego, że nawet jeżeli już Watykan zajmie się jakimś tematem i stwierdzi, że trzeba wydać tekst na ten temat, to redagowanie tekstów zawsze trwa latami. Także tutaj, skoro oni musieli to zrobić w kilka miesięcy, to widać w tekście oczywiście, ale coś tam zrobili.
[Strzelczyk]
No i nie, to co zrobili, to jest nawet całkiem spójne, ale też jest tam zastosowany moim zdaniem pewien wybieg. To znaczy bardzo dużo w tym dokumencie jest takiej recepcji wcześniejszego nauczania w ogóle o ludzkim rozwoju i o wytworach ludzkiego rozwoju, więc dużo tej treści jakby troszkę ucieka od problemu. To znaczy nie zajmuje się samą sztuczną inteligencją, tylko traktuje ją jako jeden z ludzkich wytworów związanych z postępem technologicznym.
[Słomka]
Tak, i to jest też, a akurat to według mnie jest absolutnie dominującym sposobem pisania tego typu dokumentów przez Watykan, że zaczynamy od historii, przypomnienia i umieszczamy zagadnienie wewnątrz tradycji i pokazujemy je na tle. Natomiast ja tutaj mam otwarty punkt 12 i tutaj przeczytam jedno zdanie. Zaawansowane możliwości sztucznej inteligencji pozwalają jej wykonywać skomplikowane zadania, lecz nie czynią jej zdolną do myślenia.
To wałkowaliśmy przez parę minut. To rozróżnienie ma kluczowe znaczenie, ponieważ sposób definiowania inteligencji nieuchronnie wytycza granicę rozumieniu relacji i międzyludzkim myśleniem o tą teologią. Według mnie te dwa zdania streszczają pewien paradygmat ustalający, czym jest to, co nazywamy AI, czyli czym jest ten zestaw algorytmów bardzo szybko się rozwijających.
Potem znowu robią autorzy tego dokumentu w kolejnych punktach — i jak mówisz — dają krótki przegląd filozoficznych refleksji na temat, czym jest ludzkie myślenie. Tu chyba najbardziej widać pośpiech.
[Strzelczyk]
Ja się zdziwiłem w ogóle, że oni w to poszli, dlatego że po pierwsze, my ciągle mamy jednak na gruncie teologicznym dość mocno rozgrzebaną antropologię, także ze względu na to, że po stronie nauk dotyczących właśnie poznania sposobów ludzkiego myślenia i tak dalej, my ciągle nie mamy na przykład spójnej teorii umysłu, aby była w jakikolwiek sposób powszechnie przyjmowana.
[Słomka]
A czy nam, teologom, jest potrzebna spójna teoria umysłu?
[Strzelczyk]
Wiesz co, jeżeli zaczynamy mówić o ludzkim myśleniu, to tak. Wiesz, jeżeli ja mówię o człowieku jako o takiej mojego relacji z Bogiem, to mogę się tym nie przejmować. Natomiast jeżeli ja mówię o ludzkim myśleniu jako o pewnym fenomenie, no to teraz — czy objawienie mi to oświetla?
[Słomka]
Tak.
[Strzelczyk]
Co do celu.
[Słomka]
Przepraszam bardzo, bo słuchałem ciebie i słuchacze widzieli, że tutaj przechodziłem do spisu treści tego dokumentu, żeby mieć takie spojrzenie z góry. Ale mogę zakończyć?
[Strzelczyk]
Tak, kończ oczywiście.
To objawienie nam wskazuje cel ludzkiego myślenia, bo ono jest narzędziowe w stosunku do zjednoczenia z Bogiem itd. To jest jasne. Natomiast jak przechodzimy do tego, czym jest myślenie, nie w sensie celu, ale w sensie pewnego fenomenu, który opisujemy wychodząc od doświadczenia, no to jednak po doświadczenie nam przenikają bardziej nauki szczegółowe niż objawienie.
[Słomka]
Tak, tylko tutaj przechodzimy i chyba ustalimy znowu pewną różnicę na poziomie tradycji filozoficznej. Otóż dla mnie, jesteśmy w filozofii, w pytaniu o myślenie, jedyne istotne rzeczy odpowiadające na pytanie, czym jest myślenie, mówią filozofowie. I to filozofowie z tradycji europejskiej.
Natomiast to, co mówią nauki, co coraz bardziej precyzyjnie pokazuje cielesne, neuralne, chemiczne, biochemiczne, elektryczne podstawy myślenia, to właściwie mnie w ogóle nie ciekawi. Mam mocne poczucie, że to mi nic o moim ludzkim myśleniu ciekawego nie mówi.
[Strzelczyk]
No to tu się znowu nie będziemy zgadzać zdecydowanie. Na przykład klasyczne rozróżnienie pomiędzy rozumem i intelektem, które tutaj się zresztą pojawia w dokumencie, ono jest problematyczne z punktu widzenia tak naprawdę opisu tego, jak działa ludzki mózg i ludzkie myślenie.
[Słomka]
Ale mnie też to rozróżnienie — ono jest Arystotelesowe, Tomaszowe, u Tomasza jest mocne — ale mnie ono w ogóle nie jest do niczego potrzebne, żeby zrozumieć myślenie człowieka.
[Strzelczyk]
To znaczy inaczej, nie możesz go odgarnąć tak po prostu z filozofii chrześcijańskiej, bo ono tam siedzi bardzo mocno w wielu elementach i wraca w magisterium do dzisiaj.
[Słomka]
Wiem, ale jest to jako pewne instrumentarium filozoficzne, które podlega krytyce, reinterpretacji, minimalizacji.
[Strzelczyk]
No wiesz, ale mówimy o tym, że w tym kontekście pojawia się, w tym dokumencie pojawia się fragment dotyczący ludzkiego myślenia i to jest pytanie, czy on tam w ogóle powinien być.
[Słomka]
No nie wiem, ale jest. Natomiast tutaj już nie będę wracał i cytował. W tych pierwszych punktach pokazujących, że AI nie myśli w odniesieniu do ludzkiego myślenia, został zacytowany Heidegger, jego *List o humanizmie*.
Jest też kolejne dzieło Heideggera, które tytuł muszę powiedzieć po niemiecku, *Was heißt Denken?*, a to dlatego, że ten niemiecki tekst umożliwia dwa uprawnione polskie przekłady: „Co to znaczy myśleć” i „Co przyzywa myślenie”. W każdym razie jest to tekst filozofa dokładnie o tym problemie, o którym rozmawiamy.
[Strzelczyk]
Ale napisany zanim zaczęliśmy wiedzieć to, co wiemy o mózgu.
[Słomka]
Tak, ale ja go czytam i on mi w ogóle nie brzmi przestarzale.
[Strzelczyk]
Ok, tylko pytanie, czy Heidegger by to tak napisał, wiedząc to, co wiemy dzisiaj.
[Słomka]
Tego to ja nie wiem, ja mam tekst, który czytam i dzisiaj czytając go mam poczucie, że ten tekst daje mi lepsze zrozumienie siebie jako istoty myślącej, tego, czym jest moje myślenie.
[Strzelczyk]
Ok. Przerwałem cię. Właściwie domknąłem tekst.
W tym, co jest w dokumencie, to właściwie trudno się do czegoś przyczepić. W tym sensie, że on idzie taką bardzo bezpieczną ścieżką pt. to jest narzędzie, w związku z tym my musimy się tym narzędziem posługiwać odpowiedzialnie i wtedy ono nam za bardzo nie zrobi krzywdy i tu są pewne aspekty, które trzeba brać pod uwagę itd.
Natomiast mnie bardziej zmartwiło to, czego nie ma w tym dokumencie. Są aspekty, które zostały moim zdaniem przegapione, a trochę się prosiło, żeby były.
[Słomka]
Czyli np.?
[Strzelczyk]
No bo tu jest cały zakres kwestii etycznych, które są ewidentnie pominięte. Niektóre są zasygnalizowane, ale np. kwestia etyczności pozyskiwania danych do trenowania modeli.
Bo to jest jedna z rzeczy, które są dość mocno debatowane także w tej dyskusji etycznej wokół sztucznej inteligencji. Pytanie jest takie, czy te gigantyczne firmy, które pobierają dane, pobierają je zawsze legalnie? Czy mają prawo do wykorzystywania komercyjnego tych danych?
Bo to są często wytwory, kultury, sztuki itd. I to jest wykorzystywane bez wiedzy, zgody itd. twórców, którzy np.
mają jeszcze prawa autorskie do tego. Albo wykorzystywane są prawdopodobnie do trenowania sztucznej inteligencji prywatne dane przechowywane np. na kontach Gmailu itd.
I to rodzi poważne problemy etyczne. Następna sprawa...
[Słomka]
Pozwól, że skomentuję to. Zgadzam się. Tylko jako teolog tutaj nie muszę zabierać głosu, bo od strony teologicznej i takiej moralnej sprawa jest jasna.
To wszystko, co opisałeś, jest nieetyczne, niemoralne i przestępstwem i to trzeba ścigać.
[Strzelczyk]
No okej, tylko że wiesz, inne aspekty są wyliczone, a tego nie ma.
[Słomka]
No wiem, tylko że to nie jest robota dla teologów.
[Strzelczyk]
Nie, no trochę jest.
Bo wiesz, jednak jak my się zajmujemy etyką, moralnością itd. i proponujemy pewne zasady, to to nie jest oczywiście robota dla dogmatyków.
[Słomka]
Tak, ale zasada...
[Strzelczyk]
Ale już dla moralistów, tak.
[Słomka]
Ale zasada, że cudza własność intelektualna jest własnością, za którą trzeba zapłacić, jest zasadą moralnie, teologiczną.
[Strzelczyk]
Okej, tylko wiesz, tam wchodzi mnóstwo niuansów, nad którymi wcześniej żeśmy się nie zastanawiali, bo nie było takiej technologii.
[Słomka]
Zgadza się.
[Strzelczyk]
Więc tam naprawdę jest przestrzeń do pracy.
Tak, to jest racja. Druga rzecz. Druga rzecz to jest kwestia etyczności wykorzystywania ludzi do trenowania sztucznej inteligencji.
Czy oni są opłacani odpowiednio, czy pracują w odpowiednich warunkach, czy wiedzą, co robią itd. Tam też jest mnóstwo pytań, które są do poruszenia. Natomiast najbardziej delikatną sprawą jest kwestia tego, jakie modele etyczne my wbudowujemy do wnętrza algorytmów.
I to jest moim zdaniem największy brak tego dokumentu. Bo tu dochodzimy do sytuacji, w której złożoność tych algorytmów jest już taka, że można, i to się dzieje, do parametrów dużych modeli językowych spinać pewne zasady etyczne. Stąd np.
na niektóre pytania sztuczna inteligencja mówi, że nie odpowie, bo nie.
[Słomka]
Ja wzmocnię twoją wypowiedź. Ty powiedziałeś „można”, a ja twierdzę, że oczywiście można robić to świadomie, ale również na poziomie przedzamierzonym, przedświadomym, przy tak wielkich ilościach danych różnego typu preferencje, opcje etyczno-moralne się wpisują i to się potem okazuje w trakcie korzystania.
[Strzelczyk]
To się dzieje samo, bez ingerencji twórców. Jeżeli szkolimy na jakichkolwiek danych te modele, bo tam już będzie jakaś średnia etyczna w tych tekstach, które wrzucimy. Natomiast mamy też możliwość ingerowania wprost, czyli zadawania parametrów.
Teraz jest pytanie takie, jaki my system etyczny wkładamy do wnętrza? Jakie on ma zasady?
[Słomka]
Akurat tu się w pełni z tobą zgodzę i znowu nie wiem, czy wzmocnię, czy potwierdzę. Powyżej pewnego poziomu wielkich modeli językowych ideał neutralności etycznej jest niemożliwy.
[Strzelczyk]
Nie, nie da się tego zrobić.
[Słomka]
Czyli zgadzasz się ze mną?
[Strzelczyk]
Tak, poza tym sama idea neutralności etycznej też jest pewnym ideałem etycznym. To już jest pewna etyka. Więc tu nawet neutralność jest pewną opcją etyczną.
[Słomka]
Tak, oczywiście.
[Strzelczyk]
I teraz to jest strasznie delikatna sprawa, dlatego że żyjemy w świecie, który jest zróżnicowany światopoglądowo.
[Słomka]
Tak, natomiast ja wrócę jeszcze, trochę usprawiedliwię swoje pytanie, bo gdzieś w tle miałem systemy czysto matematyczne, które znają tylko prawdę i fałsz w sensie logicznym i ktoś może myśleć, że to jest podstawa, którą da się utrzymać w wielkich modelach językowych.
[Strzelczyk]
Znaczy wiesz, jeżeli my mamy model, który jest nastawiony głównie na przetwarzanie języków formalnych, to nie ma problemu.
[Słomka]
Że wtedy to nie jest to, o czym my rozmawiamy tutaj.
[Strzelczyk]
Dokładnie, znaczy to też jest to, tylko że jakby tam możemy to położyć za nawias, bo jeżeli mamy model, którego zadaniem jest rozwiązywanie jakichś równań na liczbach zespolonych powiedzmy, to naprawdę tam etyka nie ma gdzie wskoczyć.
[Słomka]
Otóż to, ale natychmiast bardzo szybko, gdy przechodzimy do pracy nad językiem ludzkim, naturalnym, to okazuje się, że w ten język na każdym poziomie jest wpisana etyka, cokolwiek byśmy pod tym względem rozumieli.
[Strzelczyk]
Jakiś rodzaj hierarchii wartości i tak dalej. I ten brak w tym dokumencie jest dla mnie bolesny.
[Słomka]
Wieść gminna, plotka, głosi, że pierwszy dokument Leona XIV będzie w dużej mierze poświęcony AI. Jeżeli by tak było, to to, co mówisz, okazuje się, że to są tematy, że jest co mówić o AI z poziomu nauczania Kościoła.
[Strzelczyk]
Wiesz co, tu jest w ogóle moment, który moim zdaniem jest bardzo ciekawy z teologicznego punktu widzenia. No bo jeżeli my mówimy sobie tak, chcemy tam wbudowywać jakąś etykę, no to jednak ideałem etycznym jest Jezus, który wydaje życie za innych.
[Słomka]
Tak.
[Strzelczyk]
No i z punktu widzenia chrześcijańskiego to fajnie by było, żebyśmy poszli w tę stronę. To znaczy, żeby tym ideałem, który my wbudowujemy — a możemy go sobie wbudować — był ideał ewangeliczny.
[Słomka]
I tu jesteśmy w samym środku teologii i myślenia teologicznego. Postawiłeś wyborny teologicznie problem. Przepraszam, że słowo „wyborny” troszeczkę trywializuje, ale poważny.
Czy to, co jest sercem Ewangelii, jest w stanie…
[Strzelczyk]
Da się wyparametryzować do modelu.
[Słomka]
Da się wpisać do modelu.
[Strzelczyk]
Wiesz co, jeżeli rozmawiamy o tym, że te zdania, które są generowane przez system, mają jakąś wartość etyczną na wyjściu. Ona nie jest zrozumiała przez całą maszynę, natomiast na wyjściu ten tekst… Człowiek, który go czyta, czyta go już zawsze…
[Słomka]
Dokładnie, w odniesieniu do swojego świata wartości.
[Strzelczyk]
To moim zdaniem jest możliwe, bo w pewnym sensie Ewangelia jest czymś takim, to znaczy jest takim tekstem sama w sobie, który mnie prowokuje do zmierzenia się z wyzwaniem, który mnie pozostawił. Teraz, jeżeli będziemy mieli model powiedzmy duży, językowy, który ma poustawiane priorytety zgodnie z nauczaniem Jezusa, to on, jak go zapytam, czy lepiej jest się odchudzać, czy się nie odchudzać, to on mnie zapyta najpierw, a ile ważę i w ogóle w jakim jestem stanie zdrowia, i zrobi tam ileś rzeczy, a nie będzie mi wpychał od razu jakiegoś produktu, który jest założony przez jakiś inny algorytm, bo akurat właścicielowi modelu się tak spodobało.
[Słomka]
Tak, tak. Wiesz, tutaj robią nam się tematy, do których być może wrócimy kiedyś później, bo przekraczają dzisiejszą rozmowę. Zasygnalizuję, że mam dyskomfort i o tym opowiadasz, że coś mi tu nie pasuje, tylko jeszcze nie potrafię powiedzieć co.
A jeżeli bym miał odpowiadać, to wracam do początku naszej rozmowy. Mianowicie to, co w cudzysłowie nazwę tekstem, a jest wygenerowane przez AI, dla mnie nie jest tekstem w sensie ludzkim. Jest to produkt maszynowy, a tekst dla mnie jest rozmową z autorem tekstu.
[Strzelczyk]
Ok, to teraz czekaj, czekaj. Przeprowadźmy eksperyment myślowy. Święty Łukasz ma do dyspozycji narzędzia porównywalne do dzisiejszych modeli językowych.
[Słomka]
To jest *modus irrealis*.
[Strzelczyk]
No ok, ale wiesz, przeprowadzamy eksperyment myślowy.
[Słomka]
Tak, tak, o to mi chodzi.
[Strzelczyk]
W związku z tym, jako że jest na przykład trochę leniwy albo trochę słabo pisze, generuje tekst swojej Ewangelii zadając po prostu prompty z sztucznej inteligencji. W związku z tym ten tekst Ewangelii jest tekstem wygenerowanym przez sztuczną inteligencję. My potem nie mamy możliwości zweryfikowania tego i odróżnienia takiego tekstu od tekstu ludzkiego.
[Słomka]
Zgadzam się. Mogę zostać oszukany. Mogę dostać przed oczy tekst, który w sposób kłamliwy zostanie podpisany przez człowieka, a de facto jest efektem generacji.
Ja mogę się nie połapać, ale to będzie tylko to, że człowieka można oszukać.
[Strzelczyk]
I tu dochodzimy do zasadniczej różnicy, prawdopodobnie, która też będzie różnicą pokoleniową, bo ja ją już wyczuwam w rozmowach z młodszym pokoleniem, że dla nich właśnie użycie sztucznej inteligencji do generowania tekstu, o który im chodzi, to jest wsparcie się narzędziem, a nie oszustwo.
[Słomka]
Tak, tu jest różnica i ona według mnie jest więcej niż pokoleniowa, ale to jest dla mnie tekst jako pewna integralna całość językowa właśnie stworzony w tej strukturze tekstowej. Jest z założenia wart czytania tylko pod warunkiem, że tę strukturę językową stworzył człowiek. A to, co ty mi mówisz, to dla wielu młodszych to w ogóle nie jest istotne.
[Strzelczyk]
Dla mnie jest warte czytania nie dlatego, że strukturę językową stworzył człowiek, tylko że treść stworzył człowiek.
[Słomka]
A ja właśnie tutaj jestem taki, że ta treść, struktura językowa jest pewną jednością i nie jestem w stanie myśleć osobno, że przeczytam strukturę językową i poprzez nią dotrę do treści, która jest poza nią.
[Strzelczyk]
To jak sobie radzisz z listami Pawła, które były dyktowane Skrybie i Skryba tak naprawdę nadawał formę?
[Strzelczyk]
Jakiś rodzaj hierarchii wartości i tak dalej. I ten brak w tym dokumencie jest dla mnie bolesny.
[Słomka]
Wieść gminna, plotka, głosi, że pierwszy dokument Leona XIV będzie w dużej mierze poświęcony AI. Jeżeli by tak było, to to, co mówisz, okazuje się, że to są tematy, że jest co mówić o AI z poziomu nauczania Kościoła.
[Strzelczyk]
Wiesz co, tu jest w ogóle moment, który moim zdaniem jest bardzo ciekawy z teologicznego punktu widzenia. No bo jeżeli my mówimy sobie tak, chcemy tam wbudowywać jakąś etykę, no to jednak ideałem etycznym jest Jezus, który wydaje życie za innych.
[Słomka]
Tak.
[Strzelczyk]
No i z punktu widzenia chrześcijańskiego to fajnie by było, żebyśmy poszli w tę stronę. To znaczy, żeby tym ideałem, który my wbudowujemy — a możemy go sobie wbudować — był ideał ewangeliczny.
[Słomka]
I tu jesteśmy w samym środku teologii i myślenia teologicznego. Postawiłeś wyborny teologicznie problem. Przepraszam, że słowo „wyborny” troszeczkę trywializuje, ale poważny.
Czy to, co jest sercem Ewangelii, jest w stanie…
[Strzelczyk]
Da się wyparametryzować do modelu.
[Słomka]
Da się wpisać do modelu.
[Strzelczyk]
Wiesz co, jeżeli rozmawiamy o tym, że te zdania, które są generowane przez system, mają jakąś wartość etyczną na wyjściu. Ona nie jest zrozumiała przez całą maszynę, natomiast na wyjściu ten tekst… Człowiek, który go czyta, czyta go już zawsze…
[Słomka]
Dokładnie, w odniesieniu do swojego świata wartości.
[Strzelczyk]
To moim zdaniem jest możliwe, bo w pewnym sensie Ewangelia jest czymś takim, to znaczy jest takim tekstem sama w sobie, który mnie prowokuje do zmierzenia się z wyzwaniem, który mnie pozostawił. Teraz, jeżeli będziemy mieli model powiedzmy duży, językowy, który ma poustawiane priorytety zgodnie z nauczaniem Jezusa, to on, jak go zapytam, czy lepiej jest się odchudzać, czy się nie odchudzać, to on mnie zapyta najpierw, a ile ważę i w ogóle w jakim jestem stanie zdrowia, i zrobi tam ileś rzeczy, a nie będzie mi wpychał od razu jakiegoś produktu, który jest założony przez jakiś inny algorytm, bo akurat właścicielowi modelu się tak spodobało.
[Słomka]
Tak, tak. Wiesz, tutaj robią nam się tematy, do których być może wrócimy kiedyś później, bo przekraczają dzisiejszą rozmowę. Zasygnalizuję, że mam dyskomfort i o tym opowiadasz, że coś mi tu nie pasuje, tylko jeszcze nie potrafię powiedzieć co.
A jeżeli bym miał odpowiadać, to wracam do początku naszej rozmowy. Mianowicie to, co w cudzysłowie nazwę tekstem, a jest wygenerowane przez AI, dla mnie nie jest tekstem w sensie ludzkim. Jest to produkt maszynowy, a tekst dla mnie jest rozmową z autorem tekstu.
[Strzelczyk]
Ok, to teraz czekaj, czekaj. Przeprowadźmy eksperyment myślowy. Święty Łukasz ma do dyspozycji narzędzia porównywalne do dzisiejszych modeli językowych.
[Słomka]
To jest *modus irrealis*.
[Strzelczyk]
No ok, ale wiesz, przeprowadzamy eksperyment myślowy.
[Słomka]
Tak, tak, o to mi chodzi.
[Strzelczyk]
W związku z tym, jako że jest na przykład trochę leniwy albo trochę słabo pisze, generuje tekst swojej Ewangelii zadając po prostu prompty z sztucznej inteligencji. W związku z tym ten tekst Ewangelii jest tekstem wygenerowanym przez sztuczną inteligencję. My potem nie mamy możliwości zweryfikowania tego i odróżnienia takiego tekstu od tekstu ludzkiego.
[Słomka]
Zgadzam się. Mogę zostać oszukany. Mogę dostać przed oczy tekst, który w sposób kłamliwy zostanie podpisany przez człowieka, a de facto jest efektem generacji.
Ja mogę się nie połapać, ale to będzie tylko to, że człowieka można oszukać.
[Strzelczyk]
I tu dochodzimy do zasadniczej różnicy, prawdopodobnie, która też będzie różnicą pokoleniową, bo ja ją już wyczuwam w rozmowach z młodszym pokoleniem, że dla nich właśnie użycie sztucznej inteligencji do generowania tekstu, o który im chodzi, to jest wsparcie się narzędziem, a nie oszustwo.
[Słomka]
Tak, tu jest różnica i ona według mnie jest więcej niż pokoleniowa, ale to jest dla mnie tekst jako pewna integralna całość językowa właśnie stworzony w tej strukturze tekstowej. Jest z założenia wart czytania tylko pod warunkiem, że tę strukturę językową stworzył człowiek. A to, co ty mi mówisz, to dla wielu młodszych to w ogóle nie jest istotne.
[Strzelczyk]
Dla mnie jest warte czytania nie dlatego, że strukturę językową stworzył człowiek, tylko że treść stworzył człowiek.
[Słomka]
A ja właśnie tutaj jestem taki, że ta treść, struktura językowa jest pewną jednością i nie jestem w stanie myśleć osobno, że przeczytam strukturę językową i poprzez nią dotrę do treści, która jest poza nią.
[Strzelczyk]
To jak sobie radzisz z listami Pawła, które były dyktowane Skrybie i Skryba tak naprawdę nadawał formę?
[Słomka]
Skryba był człowiekiem.
[Strzelczyk]
Ale to w takim razie powinniśmy mówić, że to są teksty nie świętego Pawła, tylko Skryby, który to spisał.
[Słomka]
Ale ja to wiem, gdy z jakiegoś względu jest to potrzebne, tej wiedzy używam, wyjaśniam, ale ponieważ i tak nie mamy żadnego dostępu do czegoś, co jest między tekstem a Pawłem i tak musimy się tego tekstu trzymać, przyjmując takie założenie, znając jego słabość, jest to tekst oryginalny Pawła.
[Strzelczyk]
Okej, ale wiesz, mnóstwo ludzi już teraz — i trochę idzie w tę stronę też ten dokument watykański — będzie traktować i ja tu będę zawsze i konsekwentnie mówił nie.
[Słomka]
Mamy dobrze ustawioną pewną kwestię i dzięki temu ja mogę jasno na nią odpowiedzieć, nie.
[Strzelczyk]
Dobra, to mogę do następnej rzeczy, bo ja mam całą listę tych rzeczy, których mi tam brakuje jeszcze. Może wszystkich nie omówimy, ale nie został poruszony — i to mnie zaskoczyło akurat, bo to jest trochę kwestia równego dostępu do sztucznej inteligencji. Dlatego, że my mamy już w tej chwili sytuację, w której pogłębia nam się wykluczenie cyfrowe w sposób radykalny właśnie na skutek tego, że część osób ma dostęp — i ze względów ekonomicznych, i ze względów edukacyjnych, i z różnych innych względów — do wsparcia przez różnego typu modele sztucznej inteligencji, a część ludzi jest wręcz skupiona systemowo, ze względu albo na ubóstwo, albo ze względu na wykluczenie, wcześniejsze wykluczenie cyfrowe, które teraz się pogłębia.
[Słomka]
Tak, tak, to się zgadzam. Wiesz co, już rozmawiamy. Może jeszcze nie godzinę, ale blisko godziny.
Tematu nie wyczerpiemy. Natomiast chciałbym na koniec, w formie — zobaczymy, co nam z tego wyjdzie — parę zdań rozmowy poświęcić drugiemu tekstowi.
To jest zupełnie inna ranga. Jest to tekst, esej, taki popularnonaukowy, ale autor jest istotny. To jest Ilia Delio, franciszkanka, teolożka katolicka, która napisała sporo książek.
Sprawdziłem, nawet jedna jej książka została wydana po polsku. To jest książka *Ewolucja a Chrystus*, Salwatorianie wydali w 2009 roku. A więc jest to postać z absolutnego wnętrza teologii katolickiej i ona w sierpniu tego roku napisała i opublikowała w katolickim magazynie w Stanach komentarz do *Antiqua et nova*, i tytuł tego komentarza — ja go już po polsku przeczytam — *Za mało, za późno. Nieadekwatna odpowiedź Kościoła na ewolucję relacji AI–człowiek*. Tytuł jest nieadekwatny, ponieważ cała treść jej komentarza nie mówi, że to jest za mało i za późno, tylko mówi, że to idzie nie w tym kierunku.
[Strzelczyk]
Że to jest nie na temat trochę.
[Słomka]
Nie, że to idzie nie w tym kierunku. Jej teza — i ona się odwołuje do Teilharda de Chardin — jest tezą, że ten rozwój pójdzie w kierunku coraz bardziej równościowych relacji, współpracy między człowiekiem a sztuczną inteligencją, i to jest bardzo teilhardowskie: w kosmicznym procesie ukompleksowienia i zastania jednej świadomości. Czyli ona podaje perspektywę, w której rozwój AI tworzy coś transhumanistycznego — tego, czego też się nie boi — w której powstaje zupełnie nowy poziom świadomości i wszystkie konsekwencje.
Czyli tutaj przeczytam jeszcze jedno zdanie: *Internet fundamentalnie zmienił relacje ludzkości z technologią*. Cała jej droga naukowa jest konsekwentna.
Ona pisała o ewolucji, zajmowała się Teilhardem de Chardin i postrzega człowieka wewnątrz procesu ewolucyjnego i sztuczną inteligencję jako ciąg dalszy tegoż samego procesu, i widzi absolutną ciągłość. Otóż to ja powiem swoje zdanie, a potem ty będziesz komentował. Według mnie to jest herezja.
Przywołuję to tutaj tylko dlatego, że z drugiej strony wiem, że podobna logika — i ta autorka jest poświadczeniem — że teologia katolicka funkcjonuje dosyć mocno w katolickiej przestrzeni myślenia, rozumienia.
[Strzelczyk]
Nie, nie wydaje mi się. Żeby funkcjonowała szeroko — nie sądzę, bo jednak nie poszliśmy mocno Teilhardem. To jest generalnie kwestia tego, czy ktoś jest teilhardowski, czy nie.
[Słomka]
Tak, zgadzam się.
[Strzelczyk]
Nie wydaje mi się, żeby teologia katolicka była mocno teilhardowska dzisiaj. Po czym innym jest przejęcie się tym, że rozumiemy pewne mechanizmy ewolucyjne i ich wpływ na zmiany w człowieku, i wiemy też, że częścią ewolucji człowieka jest istotne samoświadome wytwarzanie narzędzi, bo to był istotny czynnik, zdaje się, jeżeli chodzi o *homo sapiens* i przyspieszenie jego rozwoju społecznego zwłaszcza.
I to wpłynęło na język, na wszystkie inne rzeczy. Okej, to jest prawda. Natomiast kwestia hybrydyzacji to jest trochę inna opowieść.
[Słomka]
Oczywiście, tylko ja wychodzę z takiego prostego punktu wyjścia. Jest katolicka teolożka, która wydała kilkanaście książek, publikowanych, tłumaczonych, która komentuje sztuczną inteligencję właśnie w duchu ściśle ewolucyjnym. I to istnieje, czyli to jest czytane, czyli to jest w obiegu i wobec tego...
[Strzelczyk]
Współkształtuje świadomość.
[Słomka]
Tak, w trakcie tej rozmowy uznałem za stosowne. Danie miejsca tego typu myśleniu jest jednocześnie z moim jasnym powiedzeniem, że to w ogóle jest herezja.
[Strzelczyk]
Bo tu kłopot, myślę, który mamy, jest taki, że nie za bardzo żeśmy się zaczęli przejmować pewnymi rzeczami, które się działy o wiele wcześniej, które wskazują na to, że my mamy pewną zdolność do hybrydyzacji jednak, to znaczy do łączenia człowieka z wytworami jego rąk.
No bo czym są protezy na przykład?
[Słomka]
No tak.
[Strzelczyk]
Zwłaszcza te wszczepiane do wnętrza. Jeżeli ktoś ma rozrusznik serca, no to ewidentnie jest człowiekiem.
[Słomka]
Tak, oczywiście.
[Strzelczyk]
Ale jedna z jego funkcji jest wspierana, a czasami nawet zastępowana przez maszynę. Jeżeli mamy człowieka, który jest na OIOM-ie i oddychają za niego maszyny — nie przestaje być człowiekiem, ale jest do pewnego stopnia zhybrydyzowany.
[Słomka]
No właśnie się zastanawiamy, czy to słowo „zhybrydyzowany” — każde słowo ma swoje takie potencjały — nie jest na wyrost.
[Strzelczyk]
Znaczy wiesz, ja zakładam tak, że o hybrydyzacji mówimy wtedy, kiedy jakaś z funkcji, które normalnie są funkcjami człowieka — czy jego ciała najprościej mówiąc — zostaje trwale lub czasowo przejęta przez wytwór technologiczny. Tak by to można było powiedzieć.
[Słomka]
Tutaj myślę znowu, po raz kolejny — ale zaraz zrobię dygresję — moja wrażliwość językowa jest inna i na tym trzeba pozostać. Teraz dygresja, ponieważ w tej naszej rozmowie kilka razy pojawia się różnica poglądów, z której zostajemy.
Otóż jeden mój znajomy, który czasem słucha naszych podcastów, wyraził pewien niepokój, niesmak — jakby to było jakimś brakiem — że my w tych rozmowach czasem kłócimy się, nie mamy jednego stanowiska. Ja mu odpowiedziałem: no ale przecież na tym polega rozmowa teologów. Natomiast mnie zdumiało, w ogóle potrzebowałem chwili, żeby zrozumieć, o co mu chodzi.
Czy on oczekuje rozmów, w których za każdym razem dwóch rozmówców-teologów bez przerwy mówi jednym głosem? Nie wiem, skąd on to wziął.
[Strzelczyk]
Wiesz co, bo chyba niektórzy oczekują od nas podcastu popularno-rockowego. To znaczy tego, że my będziemy popularnie wykładać to, co jest ustaloną wiedzą. To trochę nie jest ten rodzaj, od początku komunikowaliśmy, że to nie jest ten rodzaj podcastu.
A jako że takich rzeczy jest stosunkowo mało, to ludzie są przyzwyczajeni do tego, że dostają stabilnie coś ułożonego.
[Słomka]
To mi się bardzo podoba — że dostają stabilnie — a u nas tego nie ma.
[Strzelczyk]
U nas próbujemy stabilnie zmuszać się do myślenia indywidualnie i samodzielnie.
[Słomka]
Przynajmniej odrobinę, to jest już bardzo takie odważne przypuszczenie, zakłócamy spokój niektórych.
[Strzelczyk]
Natomiast wracając do kwestii hybrydyzacji. My mamy dość dużą dozę refleksji na gruncie teologii moralnej nad przeszczepami i tak dalej. Natomiast myśmy się antropologicznie — w zasadzie w głównym nurcie antropologii — nie zajęli za bardzo.
Czyli nie podjęliśmy tej kwestii. I teraz się pojawia perspektywa ewentualnego interfejsu mózg–maszyna. To jest pieśń przyszłości.
Okej, pojedyncze drobne rzeczy jesteśmy w stanie w ten sposób uzyskiwać. Czyli ta hybrydyzacja przechodzi z prostych funkcji typu poruszanie się do funkcji znacznie bardziej złożonych, jak na przykład kierowanie przez centralny ośrodek nerwowy, świadome kierowanie pewnymi procesami związanymi z przetwarzaniem informacji. Jesteśmy w innym miejscu.
No i tu się zaczyna: ojej, ojej.
[Słomka]
Tak, tak, to jest racja, przy czym to jest naprawdę tylko zapowiedź kiedyś kolejnego podcastu.
[Strzelczyk]
Tak. Natomiast wiesz, dlatego to jest moim zdaniem przestrzelone to, co ona tutaj pisze, bo jednak hybrydyzacja to jest coś, co się już po prostu dzieje, to znaczy my to mamy oswojone i teraz jeżeli bardziej złożone funkcje będą wspomagane maszynowo, to my ciągle nie zmieniamy tożsamości.
[Słomka]
Otóż to. I teraz to nie jest część naszej ewolucji.
[Strzelczyk]
O tyle to może być, że to jest sprzężenie zwrotne. To znaczy: my używamy narzędzi, ale używanie tych narzędzi na nas wpływa i w związku z tym następne pokolenie jest trochę inne — i w tym sensie to jest proces ewolucyjny.
[Słomka]
Tak, ale wpisywanie tego na narzędne to jest — wrócę do tego…
[Strzelczyk]
Ale wiesz, bo tu dochodzimy do chyba podstawowego błędu Teilharda, że u niego ten postęp w zasadzie jest liniowy. To znaczy, i tam postęp — to cały czas jest tylko lepiej, a wcale tak w ewolucji nie jest.
[Słomka]
Znaczy Teilhard był pierwszym, który zaczął ze wszystkich sił o tym myśleć wychodząc poza stare schematy. Wobec tego to jest ten pierwszy impuls, natomiast oczekiwać, że on osiągnie dojrzałość — no to bez przesady.
I faktycznie dlatego dzisiaj pozostawanie przy Teilhardzie jest już więcej niż anachronizmem, już jest kontrskuteczne teologicznie.
[Strzelczyk]
W każdym razie wydaje mi się, że podzielam pewne zastrzeżenia co do samego dokumentu, o którym mówiliśmy, no bo rzeczywiście są tam moim zdaniem istotne luki. Ale takie powiedzenie, że on zupełnie nie trafia, jest przestrzelone.
[Słomka]
To jest błędne. To jest zarzut, z którym się nie zgadzam, bo zgadzam się z podstawową tezą tego dokumentu. Zresztą rozmawiając na początku, dokładnie — tu byliśmy zgodni — dokładnie tak na to spojrzeliśmy.
[Strzelczyk]
Trochę mi brakuje w jednym tekście i w drugim kategorii interfejsu. To jest coś, co w naukach o informacji jest kategorią istotną i trochę moim zdaniem pomaga na rozumienie. Bo to jest tak, że pomiędzy moją świadomością a światem poznawanym jest zawsze jakaś przestrzeń pośrednicząca.
To są zmysły, to jest książka, to jest ileś rzeczy, które jakby pośredniczą pomiędzy rzeczywistością a świadomym moim poznaniem. I to najczęściej potem określane — jak wyjdziemy już z informatyki — to powiemy, że to jest interfejs.
[Słomka]
No to jest w języku informatyki tego świata, to jest interfejs, a ja tego słowa oczywiście nie lubię.
[Strzelczyk]
Ok, ale on jest bardzo użyteczny, bo wtedy możemy sobie trochę spokojniej pooddzielać rzeczywistość, tę przestrzeń, w której dane są przetwarzane, i podmiot, który ostatecznie te dane rozumie. I sztuczna inteligencja jest częścią interfejsu.
[Słomka]
Tak, ja wszystko to, co mówisz, opisuję zupełnie innymi słowami i tam, gdzie ty wkładasz słowo „interfejs”, ja wkładam słowo „język” i sięgam do całej dwudziestowiecznej tradycji, filozofii, semiologii wychodzącej od de Saussure’a, która postrzega język w sposób, który mi odpowiada, który mi pokazuje, czym jest ten język. Jego się nie da nazwać interfejsem, on jest czymś nieporównywalnym z czymkolwiek innym.
[Strzelczyk]
Znaczy w tym ujęciu interfejs jest jeszcze czymś szerszym niż język.
[Słomka]
No tak, ale dla mnie właśnie język — dlatego nie odróżniam języka i treści. I język, słowo jest czymś najbardziej podstawowym.
[Strzelczyk]
Dlatego będziesz miał straszny problem z AI, dlatego że jedną z podstawowych rzeczy, którą muszą robić te systemy, to jest odróżnianie znaczeń od słów.
[Słomka]
Tak, i dlatego nie czytam tego, co wygenerowała sztuczna inteligencja.
[Strzelczyk]
Nawet tego nie wiesz?
[Słomka]
No, bo wiem, że tak jest. Myślę, że teraz na tym zakończymy, bo już rozmawiamy o godzinę z malutkim haczykiem. Bardzo Państwu dziękujemy za uwagę.
Ksiądz dr Grzegorz Strzelczyk i ja, Jan Słomka.
[Strzelczyk]
Szczęść Boże.