Zaczęło się od pytania o Agile.

Chciałem zrozumieć, co poszło nie tak — nie narzekanie, ale mechanizm pod spodem. Zrobiłem to, co robię na warsztatach: zbudowałem panel. Perspektywa badacza złożoności przeciwko perspektywie stratega. Pragmatyk przeciwko filozofowi. I ktoś, kto widzi dynamikę relacji, przecinający to wszystko.

Tyle że nikt z nich nie siedział w pokoju. Dyskusja była prowadzona z AI — modelami językowymi zasilanymi dorobkiem konkretnych myślicieli, prowadzonymi przez moderatora (też AI) i reżyserowanymi przeze mnie.

Wynik mnie zaskoczył. To nie były generyczne odpowiedzi — perspektywy naprawdę się spierały, broniły swoich pozycji, odsłaniały luki w argumentach drugiej strony. Czytało się to jak rozmowę. Pod wieloma względami — działało jak rozmowa.

Więc poszedłem dalej. Zaprosiłem Lema, Herberta, Asimova i Butler, żeby popatrzyli na te same pytania z dystansu — jak cywilizacje przetwarzają idee, które je przerastają. Potem Lem-jako-Trurl, razem z Adamsem, Pratchettem i Vonnegutem, napisali o tym opowiadanie.

Każda warstwa pogłębiała myślenie. Każda warstwa pogłębiała też niepokój.

Bo ci myśliciele nie wyrazili zgody na to, żeby tak skorzystać z ich głosu.

Użyłem ich dorobku — książek, artykułów, wykładów — żeby AI mogło generować perspektywy, które brzmią jak ich perspektywy. Nikt mi na to nie zezwolił. Zrobiłem to starannie, z szacunkiem dla ich pracy. Ale staranność nie czyni tego automatycznie właściwym.

I tu jest sedno: kiedy AI mówi „głosem” konkretnej osoby, czytelnik przetwarza to inaczej niż cytat. Symulacja głosu tworzy wrażenie obecności. A obecność sugeruje, że ktoś się zgodził tu być.

Typowa reakcja na to pytanie wpada w jeden z dwóch odruchów. Albo: „AI potrafi niesamowite rzeczy, nie hamuj!” Albo: „Nie wolno wkładać słów w czyjeś usta.” Żadna nie wystarczy. Pierwsza ignoruje problem. Druga zamyka rozmowę.

Mimo że chciałem się tym odkryciem podzielić, uznałem, że muszę to przemyśleć. To pozwoliło mi dojść do pewnej praktyki, której nie miałem na początku.

Kiedy tworzę dyskusję, używam prawdziwych nazwisk i prac. To ma znaczenie — AI zasilone dorobkiem konkretnego myśliciela produkuje coś istotnie różnego od AI poproszonego, żeby było „badaczem złożoności”. Specyficzność źródła daje odrębność głosu.

Ale kiedy publikuję, nazwiska zamieniam na persony. Badacz Złożoności. Strateg Produktowy. Filozof Przywództwa. Perspektywy zostają żywe — niosą kształt tego, skąd pochodzą. Ale czytelnik spotyka rolę, nie występ konkretnej osoby.

Skąd wiadomo, czyje idee zasilały dyskusję? Z atrybucji. Każda rozmowa wymienia prawdziwych myślicieli, ich prace, i mówi: idź, znajdź oryginały. Jeśli dyskusja zastępuje źródło zamiast do niego prowadzić — poniosłem porażkę.

I coś, czego nie przewidziałem: ten system tworzy zaproszenie. Symulacja czyjegoś głosu to narzucenie, marna kalka. Ale dyskusja czerpiąca z twoich idei, przypisująca je uczciwie i prezentująca przez anonimową personę — to coś innego. Na to można odpowiedzieć. Z tym można polemizować.

Jest jeden wyjątek, i oświetla zasadę pod spodem.

Kiedy Lem-jako-Trurl mówi „Zbudowałem maszynę, która potrafiła stworzyć wszystko zaczynające się na N” — od razu widać, że to nie jest prawdziwa osoba. Czytelnik może rozpoznać i cieszyć się literackim odniesieniem. Zamień Lema na „Satyryka Cybernetycznego” i aluzja staje się zagadką, albo przynajmniej staje się płaska.

Dlatego w dyskusjach literackich nazwiska zostają. Adams, Pratchett, Vonnegut — czytelnik rozpoznaje świat, nie ocenia kompetencji.

Przy czym ta sama osoba może znaleźć się po obu stronach. Lem-powieściopisarz, cytujący Cyberiadę? Nazwisko zostaje. Lem-cybernetyk, wygłaszający tezy o degradacji informacji? Persona — bo to pożyczanie autorytetu.

Test sprowadza się do jednego pytania: Czy przywołuję tę osobę, żeby czytelnik zaufał ekspertowi — czy żeby ucieszył się z odniesienia? Pierwsze wymaga ochrony. Drugie wymaga nazwiska.


Każda dyskusja na Innomadzie jest oznaczona jako prowadzona z AI — nie w przypisie, a podkreślone przed tekstem. To ja podpisuję się pod tą pracą, a jeśli ktoś, z czyjego dorobku korzystałem, uzna, że źle przedstawiłem jego idee — chcę o tym usłyszeć. I jestem gotowy zmienić lub usunąć treść.

Metodę nazywam Writing Lab. Ale żadne ramy etyczne, które twierdzą, że są skończone, nie nadążyły za tym, co właśnie się zmienia. Dlatego ciągle rozwijam tę praktykę — jeszcze nie wiem, czy moje rozumowanie idzie w dobrym kierunku. Jeżeli uważasz, że się mylę — daj znać!

Ten artykuł to tylko otwarcie rozmowy.