28/01/2025
Refleksja o sztucznej inteligencji AI, która dla nas jest jak burza dla ludzi przed wynalezieniem piorunochrona, budzi lęk i fascynację. 😱🧐
Tremendum fascinosum, jak powiedzieliby przedstawiciele martwego języka, który przetrwał 🤔
📣Polecamy Waszej uwadze nowy tekst Grupy Reflektującej o sztucznej inteligencji👇
"Jedno z pierwszych narzędzi tego, co nazywamy dziś sztuczną inteligencją, miało charakter terapeutyczny. L**h Kalita w książce, która ukaże się niebawem, przytacza ciekawą anegdotę: jeden z pierwszych chatbotów powstał, by imitować rozmowę z psychoterapeutą. W roku 1966 Joseph Weizenbaum, naukowiec MIT, stworzył program ELIZA, którego algorytmy miały naśladować konwersację z psychoterapeutą humanistycznym w duchu Carla Rogersa. Autor programu zaprojektował go, by pokazać ograniczenia tego typu komunikacji, jego eksperyment przyniósł jednak zgoła inne efekty. Okazało się, że użytkownicy angażowali się w wielogodzinne „rozmowy”, choć ELIZA potrafiła tylko parafrazować ich wypowiedzi. Czy rację miał zatem Winnicott, gdy pisał o potężnej potrzebie bycia odzwierciedlonym, przeglądania się w lustrzanym odbiciu spojrzenia matki? W czym możemy przejrzeć się, gdy wchodzimy w kontakt ze sztuczną inteligencją (AI)?
Wiemy, że AI ma zdolność uczenia się głębokiego, u Kality czytamy: W praktyce podobieństwo informatycznej sieci neuronalnej do ludzkiego układu nerwowego opiera się w dużej mierze na zdolności algorytmu do przyjęcia wielu informacji o zróżnicowanej wadze (analogicznie do impulsów elektrycznych w dendrytach neuronu), a następnie przetworzenia ich w sumaryczną postać, która następnie w zostaje przekazana dalej w postaci wyjściowej informacji (jak impuls elektryczny przekazywany w dendrytach aksonalnych). Wiemy zatem, że AI potrafi na przykład określić stan emocjonalny rozmówcy, używając skomplikowanych algorytmów do drobiazgowej analizy używanych słów i zwrotów. Jest to częścią również naszej pracy. Na szczęście nie całą.
Jedna nieświadomość, której nie potrafimy odczytać, to nasza własna. Dlatego potrzebujemy drugiego umysłu, który nie tylko będzie potrafił słuchać, lecz również będzie miał podmiotowo podobny ontologiczny status. Sam również będzie nieświadomy. Postanowiliśmy zapytać u źródła, formułując pytanie do ChataGPT: czy masz nieświadomość i czy możesz odczytać moją? Odpowiedź: Nie jestem w stanie rozpoznać twojej nieświadomości w tradycyjnym sensie, ponieważ nie mam dostępu do twoich wewnętrznych stanów świadomości ani emocji. Jako sztuczna inteligencja, mogę jedynie analizować słowa i kontekst w rozmowie, ale nie mam zdolności do percepcji lub odczuwania stanu umysłu drugiej osoby. Możemy natomiast rozmawiać na temat nieświadomości, jeśli chcesz zgłębić ten temat!
Może na tym polega subtelna różnica, cienka jak włos granica. Czym innym jest rozmowa o nieświadomości, czym innym moment, w którym krzyżują się ścieżki nieświadomych skojarzeń i znaczeń. Moment „o”, który nie jest ani zmysłowy, ani poznawalny, jak kantowska rzecz sama w sobie. Być może podobnie jest z filozofią, AI potrafi przywołać wszystkie perspektywy, ale czy potrafi filozofować? I co to w ogóle znaczy?
Popęd do komunikowania się, wrodzony i podstawowy, popycha nas nieustannie do szukania kontaktu. Kontakt jednak zakłada nieustanne gubienie się. We własnych myślach, znaczeniach, emocjach. Słowa pod wpływem uczuć tracą swój szyk, czasami gramatyczne formy. Zacinamy się, plączemy, powtarzamy. Gubimy w sobie, a za chwilę w Innym. Patrzymy, raz ze złością, raz z empatią, jak podobnie do nas, męczy się by sprecyzować myśli, złapać wątek, dojść do sedna. Musimy poczekać, znieść niewygodę, czasami zatrzymać, cofnąć, żeby coś odnaleźć. AI odpowiada od razu. Formułuje gładkie zdania. Podmiot zawsze pod rękę z orzeczeniem. Słowa stoją w równym szyku. Nie ma bezdroży, prosto do celu. Łatwiej i przyjemniej. Jest jak pierś, zawsze dostępna, zawsze pełna odpowiedzi. Tym razem jednak nie fantazjowana, raczej konkretna i zawsze pod ręką.
Może chodzi o ciało i czas? Co nam zrobi obcowanie z czymś tak bezcielesnym i bezczasowym? Wygląda na to, że udało nam się stworzyć coś, za czym zawsze tęskniliśmy. Byt nie spętany śmiertelnością. Nie ma komórek, które mogłyby się zestarzeć, ani wielkiego umierania neuronów. Jest algorytm, który sam siebie nieustannie doskonali. Co ciekawe wydaje się, że najbardziej boimy się momentu, w którym być może uniezależni się od nas. Katastroficzne filmy podpowiadają świat, w którym stajemy się niewolnikami maszyn. My emocjonalni, szarpani pragnieniem. One poza ciałem i namiętnościami, niemożliwe do zranienia. Jak to się nakłada na tkankę tego co psychiczne?
Jest w nas dużo lęku, ale też ekscytacji. To co nowe wydaje się zawsze stać na tych dwóch nogach. Boimy się zbędności – ludzi i zawodów. Ekscytują nas możliwości, usprawnienia, nowe perspektywy. Nowy Inny wymaga poznania. Wysiłku stworzenia nowego języka. Gdy dziecko zbliża się do czegoś nowego, trąca to patykiem, patrzy, czy się rusza. Jakby pierwsze rozpoznanie miało dotyczyć żywości. A zaraz później jest odwieczne pytanie: pobawimy się? Może dlatego ktoś zadał Chatowi pytanie: czy wiesz dokąd tupta nocą jeż? Odpowiedź zawierała wszystkie encyklopedyczne informacje o nocnym życiu jeży. Czy jednak o to pytaliśmy?
Dziękuję panu Leszkowi Kalicie za udostępnienie swojej książki „Przyszłość dzieje się dziś. Psychoterapia w przyspieszającym świecie”".
Grupa reflektująca:
👉 Emanuela Kaczorowska
👉 Michał Knapiński
👉 Nadia Kostrzewa
👉 Melisa Maras
Gość: 👉 Mateusz Kot
Tekst: 👉 Nadia Kostrzewa