Czy rynek pracy stanie się wyścigiem, w którym jako ludzie zmierzymy się z AI?
A może przyszłość to raczej współpraca?
Jakie kompetencje warto budować już dziś?
Jak uniknąć zagrożenia deskillingiem? I wreszcie, jaka w tym wszystkim rola HR?
W drugim odcinku cyklu Firma, która wspiera, prowadzonym przez dr Ewę Hartman, kulisy przyszłości odsłoni przed nami dr Iwo Zmyślony. Wykładowca akademicki, specjalista nieautomatyzowalnych kompetencji przyszłości, doświadczony kurator i krytyk sztuki. Doktoryzował się pracą na temat kreatywności w naukach empirycznych. Autor kilkunastu prac naukowych na temat psychologii poznania i wiedzy eksperckiej.
00:00:00 Wprowadzenie
00:04:48 Zawody odporne na AI
00:07:42 Przewagi człowieka nad AI
00:14:28 Problem deskillingu
00:29:50 Kompetencje przyszłości
00:43:05 O potrzebie uczenia
00:49:15 Kiedy ekspert się myli
01:01:42 Wsparcie pracownika w dobie AI
01:13:15 Nowe wyzwania dla HR w dobie AI
Transkrypcja
Dr EwaHartman: Studiowaładministrację, filozofię umysłu i historię sztuki na uniwersytetach w Polsce, wBelgii i w Niemczech. Doktoryzował się pracą na temat kreatywności w naukachempirycznych. Autor kilkunastu prac naukowych na temat psychologii poznania iwiedzy eksperckiej, know-how, tacit knowledge. Laureat szeregu grantów istypendium.
W latach 2012-2016 aktywny jako krytyk i kurator sztukieksperymentalnej. Od przeszło dekady zrealizował dziesiątki szkoleń, wystąpieńi projektów transformacyjnych dla organizacji biznesowych i non-profit.Wykładowca akademicki, specjalista nieautomatyzowalnych kompetencjiprzyszłości. To osoba, która nie boi się pytać, jak będzie i nie przyjmujeodpowiedzi, że „jakoś”. Witaj.
Dr Iwo Zmyślony: Cześć, dzień dobry. Dzień dobry,Państwu.
Dr EwaHartman: Iwo,witam Cię bardzo serdecznie w naszym cyklu „Firma, która wspiera”. I mampytanie, zupełnie z innej beczki – cytując „Monty Pythona” – Zmyślony czy „Niezmyślony”?
Dr Iwo Zmyślony: Pytasz o nazwisko. Jak ktoś jestZmyślony, to jest rodzina. Ostatnio policzyliśmy, że w Polsce jest gdzieśjakieś, dane GUS-u, 847 Zmyślonych. Wszyscy wywodzą się z jednego gniazda,wszyscy są spokrewnieni, tak kilka pokoleń wstecz. Więc możemy to raz na zawszerozstrzygnąć. To pytanie do mnie przychodzi, czy ja się naprawdę tak nazywam.Jak ktoś jest Zmyślony, to rodzina. I jest tych Zmyślonych trochę w Polsce.
Dr EwaHartman: Tojuż mamy to za sobą. Dobrze, to było trudne, ale teraz będzie pewnietrudniejsze. Bo ja chcę Cię zapytać od razu, od razu o coś takiego – co będziez ludźmi na rynku pracy?
Dr Iwo Zmyślony: Zależy od konkretnej firmy i jej modelubiznesowego. I to trzeba sobie jasno powiedzieć. Obiecuje nam się, że AI niezabiera pracy – i tak, faktem jest, że AI nie zabiera pracy. AI automatyzujeniektóre zadania i procesy, natomiast to, czy w Twojej firmie, w Twojejorganizacji zadania i procesy zostaną zautomatyzowane – i które zadania iprocesy zostaną zautomatyzowane – zależy od strategii i decyzji biznesowych tejkonkretnej firmy, jej modelu biznesowego, tego, jak firma chce się rozwijać,tego, co jest dla niej ważne, w jakim horyzoncie czasowym, jakie są warunkikonkurencji. Więc trudno – i to musimysobie jasno powiedzieć – to zależy od konkretnej firmy. Choć oczywiście wiemy,w których branżach ta automatyzacja będzie postępować najprawdopodobniejszybciej, i w których branżach, w jakich sektorach warto automatyzować zadaniai procesy typowe czy kluczowe dla modeli biznesowych, a w jakich sektorach, wjakich branżach przy dzisiejszych technologiach – bo to jest to zastrzeżenie,że my oczywiście nie wiemy, jak będzie się AI zmieniać w najbliższych latach,dekadach, jakie skoki jeszcze przed nami – natomiast przy tych technologiach,które dzisiaj mamy, wiemy i to bardzo dobrze już od dobrych paru lat i tawiedza tylko w tej chwili się pogłębia, w jakich sektorach, powiedzmy, ludzkapraca ciągle daje więcej niż perspektywy automatyzacji.
Dr EwaHartman: Topodaj mi kilka przykładów proszę, czyli tych przykładów właśnie tychautomatyzowalnych kompetencji i też biznesów, branż, no i tych, o którychwspomniałeś jako ostatnie, gdzie jeszcze, jeszcze nie.
Dr Iwo Zmyślony: Tak, to może kompetencje zostawmy sobiena potem, bo kompetencje to są, powiedzmy, umiejętności, postawy… jak jedefiniować to jest osobna sprawa. Natomiast branża, to znaczy, takie raportysię na ten temat pojawiały od kilku lat, m. in. przez Światowe ForumEkonomiczne. Ostatnio też bardzo szczegółowy raport, opracowany przez PawłaGmerka przy takiej agendzie ONZ, to się nazywa International Labor Institute,zdaje się.
Dr EwaHartman: Wszystkobędziemy linkować.
Dr Iwo Zmyślony: Tak, to będziemy linkować Państwu. Tamsą, potwierdzają się prognozy, które były stawiane przed dekadą. To znaczy,generalnie, maszyny robią od nas coraz lepiej zadania i procesy powtarzalne wstabilnym środowisku. Powtarzalne w stabilnym środowisku. Więc jeżeli pracujeszw biznesie, gdzie codziennie wykonujesz mniej więcej te same czynności i cowięcej pracujesz na powtarzalnych danych, w ogóle na danych ustrukturyzowanych,takich gdzie jest tekst, gdzie są liczby i środowisko, w którym pracujesz, teżto ważne, kontekst Twoich projektów, jest stabilny, czyli warunki konkurencjisą stabilne na przykład, no to to są obszary które są do automatyzacji i jużdzisiaj są automatyzowane.
I od lat wiemy, że takim sektorem, takim obszarem są przedewszystkim usługi IT szeroko pojęte, kodowanie, tworzenie programów, dalej wkolejności to jest bankowość, finanse, ubezpieczenia, gdzieś e-commerce zachwilę, ale w tym obszarze obsługi klienta, automatyzacji procesów, usług.
Natomiast po drugiej stronie tego spektrum są takie obszary,jak np. rolnictwo rybołówstwo, leśnictwo – wszelkie zawody związane z tym,gdzie jest dużo rękodzieła. Ostatnio się tak figurą hydraulika znowuposługujemy, że to jest zawód przyszłości. Kucharz to jest zawód przyszłości,fryzjer. Oczywiście, to wszystko przy założeniu, że na to będzie popyt, bopamiętajmy, że to nie istnieje tak w izolacji. Co z tego, że będę umiał strzycwłosy czy świetnie gotować, jak nie będzie na to klientów? Zakładamy, że raczejbędą na to klienci.
Z drugiej strony, anegdotycznie, ale żeby pokazać tękontekstowość, kto wie, może kompetencje przyszłości to są kompetencjesurvivalowe. Ja wiem, że już tutaj idziemy w stronę kompetencji, nie sektorów,ale to zależy po prostu od tego, na co będzie popyt w gospodarce, w kulturze,na jakie umiejętności, czego od nas będzie potrzebować społeczeństwo, no ijakie sektory powstaną.
Póki co – tak dla higieny raz jeszcze – wiemy, że przydzisiejszych technologiach, przy tym, co potrafią dzisiaj rozwijane systemyuczenia maszynowego, czy to oparte na tych głębokich sieciach neuronowych,najbardziej popularne modele typu LLM-y czy LRM-y (reasoningowe modele językowe),to są obszary związane głównie z generowaniem tekstu, generowaniem kodu,generowaniem audio, generowaniem wideo, generowaniem obrazu. Tam, gdzie jest nato popyt. I to jest ważne, bo znowu idziemy w drugą stronę, bo może popyt jestwłaśnie na to, co ludzkie? I dzisiaj jesteśmy już na takiej górce rozczarowań,że biznes zaczyna widzieć, że „OK, to jest wygenerowane AI-em – ale co z tego,że tanio i szybko, jak to nie ma tej jakości, którą robi człowiek?”, żepróbujemy się dodzwonić i załatwić sprawę z obsługą klienta, no to ja rozumiem,że można zautomatyzować, wszyscy rozumiemy…
Dr EwaHartman: Ale się frustrujemy,prawda?
Dr Iwo Zmyślony: No tak, ale, właśnie, my nie chcemyrozmawiać. Na końcu jest to, czy biznesowi zależy na tych klientach, którzymachną ręką na tą obsługę i będą sobie załatwiać sprawy z chatbotem czy z voicebotem,czy może jest tak, że jednak kluczowi dla biznesu, konkretnej organizacji,konkretnej firmy są ci, którzy chcą porozmawiać z człowiekiem.
Dr EwaHartman: Właśnie, itutaj co mi przyszło do głowy – ale skoryguj mnie od razu – mieliśmy paradoksMoraveca, tak? Czyli było takie przekonanie, że to, co jest takie intelektualne,będzie bardzo trudne do zautomatyzowania. A teraz zobacz – jest dokładnieodwrotnie, prawda? Czyli to, co jest czysto intelektualne, jest dużo łatwiejautomatyzowalne, a tam, gdzie wchodzą elementy zmienności, manualności, czytego typowego ludzkiego też elementu przetrwania – bo mówisz rolnictwo, rybołówstwo, poruszanie sięw przestrzeni – tutajnapotykamy już na pewne wyzwania. Ale co będzie?
Dr Iwo Zmyślony: Tu możemy wejść w obszar kompetencji,tak. Znaczy, ja w rozmowach o AI i o ograniczeniach AI, podkreślam, żepamiętajcie, póki co, my w odróżnieniu od maszyn mamy tzw. inteligencję ogólną.My mamy inteligencję ogólną – my, ludzie. To, czy z niej korzystamy, to jestinna sprawa, tak? Nie wszyscy korzystają, nie w każdej chwili. Nasze umysły – co wiesz doskonale – ewolucyjnie są zaprogramowanedo tego, żeby generalnie jechać na automacie, żeby korzystać z tych nawykowych,utrwalonych przez powtarzanie, tej podbudowy, powiedzmy neuronalnej. Natomiast,w odróżnieniu od maszyn, potrafimy uczyć się na bardzo niewielu pojedynczychdoświadczeniach, przykładach. I to jest to, bo znowu za chwilę będziemy słyszeć,że maszyny robią „inteligencję ogólną” i nam będzie sprzedawane bardzo dużorozwiązań nazywanych „inteligencją ogólną”. Dlaczego? Dlatego, że przemysł, big-techy,obrazowo, czyli firmy, takie jak OpenAI czy Anthropic, obiecują nam, że zachwilę będzie AGI, tzw. syntetyczna czy sztuczna inteligencja ogólna.
To co one będą nazywać w ten sposób, to zobaczymy, tak? Bo jaobstawiam, że to będzie multimodalne, tradycyjne to, co teraz mamy, czyli takzwane ANI, czyli Artificial Narrow Intelligence, czyli taka inteligencjasztuczna, czy takie właściwie uczenie maszynowe, generatywne, które umiewykonywać te zadania, do których było trenowane w ogromnej skali.
Ja się opieram tutaj na koncepcji inteligencji ogólnej, którąrozwija znakomity autor, którego Wam serdecznie polecam wszystkim do śledzenia.Nazywa się Francois Chollet. On jest inżynierem, to jeden z prekursorówgłębokich sieci neuronowych i głębokiego uczenia maszynowego, związany przezlata z Google’em, doceniany międzynarodowo za swoje osiągnięcia w obszarzeuczenia maszynowego, głębokiego uczenia i właśnie sztucznej inteligencji.
Od roku, w grudniu odszedł z Google’a, założył start-up, którysię nazywa Ndea. I w tym start-upie wierzy, założył ten start-up, ponieważwierzy, że możliwe jest stworzenie syntetycznej inteligencji ogólnej, ale wodróżnieniu od obietnic deklarowanych przez chociażby Sama Altmana, bardzo ostro definiuje inteligencjęogólną, właśnie i wprost się odwołując do Kahnemana, czyli do tego, co Kahnemannazywa „systemem drugim”. Czyli, wracając do początku tego wątku, do tego, żemy w odróżnieniu od maszyn, nasze umysły, potrafimy adaptować się w sytuacjach,w których mamy bardzo niewiele doświadczeń, bardzo niewiele słabych informacji,z którymi wcześniej nie mieliśmy do czynienia i na podstawie tych kilkumarginalnych, brzegowych, nietypowych informacji, adaptować się do kontekstu.
Tego na dziś dzień, maszyny, które mamy, sztuczna inteligencjanajbardziej zaawansowana, nie potrafią. Chollet był znany, stał się znany ztego, że pokazał czy skonstruował test, który ma właśnie mierzyć inteligencjęogólną i sobie możecie Państwo wygooglować, zalinkujemy, tak. Test nazywa sięARC, to jest skrót od Analogy Reasoning Corpus. Chodzi o to, że to jest test,który mierzy właśnie zdolność do wyciągania wniosków, wnioskowania, czyli „Reasoning”i myślenia analogicznego, stąd to „A” w tym teście, na podstawie dwóch, trzech,czterech obrazków, co, jak macie dzieci…
Dr EwaHartman: Czylito takie, „który trójkąt będzie następny”, tak?
Dr Iwo Zmyślony: Coś takiego, i teraz, co jest ważne –te obrazki są zrobione w taki sposób, że dziecko, jak macie 4-lata, 5-latka – jamam 4-latka i 8-latka – to…
Dr EwaHartman: Umnie podobnie.
Dr Iwo Zmyślony: No właśnie, oni przechodzą, onipotrafią przejść zadania, czyli na podstawie dwóch, trzech obrazków wnioskują,jakie ma właściwości kolejny. I maszyny tego nie potrafią. To znaczy, że w tymteście dzieci radzą sobie dużo, dużo lepiej od najbardziej zaawansowanychdzisiaj systemów, to znaczy, po prostu, od LLM-ów czy LRM-ów.
I dopóki właśnie człowiek, to jest jedno z takich ustaleń,dopóki człowiek będzie w stanie tworzyć testy, które są bardzo proste dlaczłowieka, a nie do przejścia de facto dla maszyn, dopóty my będziemy moglimówić o tym, że mamy tzw. inteligencję ogólną, czyli – jeszcze raz – zdolnośćdo adaptacji w nowych, nietypowych sytuacjach, do których nie byliśmytrenowani.
Dr EwaHartman: A otym powiedziałaś przed chwilą, czyli możemy automatyzować tam, gdzie teżkontekst zewnętrzny jest względnie stabilny.
Dr Iwo Zmyślony: Dokładnie.
Dr EwaHartman: Czyli wsytuacji, w której jest jakakolwiek niestabilność na zewnątrz, póki co, możeto, mówiąc tak bardzo potocznie, ogarnąć tylko człowiek?
Dr Iwo Zmyślony: Jasne. I popatrzcie, w biznesie terazniestabilności to są warunki konkurencji.
Dr Ewa Hartman: Na przykład. Co się wydarzy na zewnątrz,tak.
Dr Iwo Zmyślony: Na zewnątrz są łańcuchy dostaw, to jestdystrybucja, to są zasoby, to jest dostępność zasobów, to jest koszt produkcji.Są różnego rodzaju awarie, kryzysy. Więc to są te okoliczności, któredestabilizują procesy i zadania. I teraz, jeżeli myślimy o tym, co jestspecyficznie ludzkie w biznesie, to jest właśnie zdolność do amortyzowania tychwstrząsów.
I my znowu mówimy o czymś, co na gruncie praktyki zarządzania iteorii zarządzania jest znane od dekad. To znaczy, mówimy o czymś, co sięnazywa kaizen, co się nazywa lean management, co się nazywa agile, co sięnazywa kulturą organizacyjną, co się nazywa czasami holakracją. To sąoczywiście różne terminy, różne tradycje, ale na końcu jest pytanie: „Czy Ty,jako firma, czy Ty, jako zespół, czy Ty, jako organizacja, czy Ty, jakojednostka, masz zasoby do amortyzowania wstrząsów, do przechodzenia przezkryzysy?”.
Dr EwaHartman: Itutaj dotknąłeś czegoś, co jest bardzo, akurat dla mnie, ale zakładam, że teżdla osób, które nas oglądają, bardzo interesujące. Czy jest jakieś zagrożenie, Twoimzdaniem, dla człowieka, które sprawi, albo sytuacje, albo ciąg sytuacji, któresprawią, że my stracimy zdolność amortyzowania wstrząsów?
Dr Iwo Zmyślony: Znaczy, ogólnie pytasz, czy w biznesie?
Dr EwaHartman: Tak,ogólnie, najpierw ogólnie, a później przejdźmy do biznesu.
Dr Iwo Zmyślony: Ogólnie to bym powiedział, że sytuacjetraumatyczne, to tak najbardziej ogólnie.
Dr EwaHartman: Czyli tobędzie nas osłabiało…
Dr Iwo Zmyślony: Tak, znaczy, czyli co, czyli przerwaniekomunikacji neuronalnej w niektórych obszarach, pozrywanie połączeń,demilinizacja itd. Znaczy, trauma, jak wiesz jest argumentem na to, że mózgjest neuroplastyczny, no ale to są skrajne sytuacje, nie? Natomiast, w takim,znaczy, dobra, to ja bym powiedział, że w drugą stronę takim realnym ryzykiem,które widzę, i którym trzeba zarządzać, to jest to, co nazywamy deskillingiem,nazywamy to offloading. To nie jest to samo, ale chodzi o to, że takimzagrożeniem realnym jest to, że my będziemy się uzależniać, mówiąc obrazowo,coraz bardziej od maszyn, które wykonują zadania powtarzalne – i wykonują jelepiej od nas.
Pamiętajmy – i jeszcze raz tutaj – to jest wiedza, którą mamyod co najmniej dekady. Maszyny wykonują dużo lepiej od nas zadania typowepowtarzalne, mówimy teraz typowe, także jeśli chodzi o klasę generatywną –czyli jeśli chodzi o pewną klasę podobieństw do tego, co już było – czyli mogątworzyć teksty, mogą tworzyć obrazy, które są podobne do tych, które już znamy.
I teraz, problem polega na tym, taki praktyczny, że wwiększości zadań, czy to w życiu codziennym, czy to w biznesie, my potrzebujemytakiego „good enough”, to znaczy efektu, który jest wystarczająco dobry, niemusi być wybitny. Nie zależy nam na jakości, którą właśnie zawdzięczamyinteligencji ogólnej czy myśleniu wolnemu Kahnemana, czyli temu zasobożernemu,czasochłonnemu, wysiłkowemu procesowi uwzględniania nowych informacji spozatreningu, spoza naszej dotychczasowej wiedzy.
I jak pytasz o zagrożenia, które mogą rzeczywiście zaburzyćnaszą efektywność, to w skali takiej – poza, abstrahując już od tego, żezaczęliśmy od traumy – to w skali takiej praktycznej, codziennej, to jest to,że my odzwyczaimy się od wysiłku i nie będziemy umieli wykonywać tych zadań,które, mówiąc obrazowo, przerzucimy na maszyny.
Nazywamy ten proces deskillingiem. Obrazowo, to jest sytuacja –to jest już z biznesu konkretny przypadek – że firma produkująca grafiki,zespół projektantów graficznych, używa od roku ponad wtyczkę AI do swojego Photoshopa,a w wyniku aktualizacji wtyczka przestaje działać i nagle ten zespół nie jest wstanie wykonywać pracy, którą wykonywał wcześniej „na piechotę”, czyli bezużycia AI.
Dlaczego? Dlatego, że przyspieszyli przez ten rok wiele zadań iprocesów, które wcześniej wykonywali ręcznie i teraz wykonują przy pomocy AI.Ale jak nie ma AI, nie działa wtyczka, nie działa dostawca, czy tam tatechnologia, z której korzystamy, to nagle nie umiemy – nazywamy coś takiegodeskilingiem.
Więc to jest to, co ja bym wskazywał jako ryzyko. Realneryzyko, które sprawi, że będziemy coraz mniej zdolni do korzystania zinteligencji ogólnej, do korzystania z „systemu drugiego”.
Dr EwaHartman: I tojest realne, bo wiemy, że mózg działa w oszczędności energetycznej. Czyli, zjednej strony, mamy to wyposażenie do adaptacji do zmieniających się warunków,bo taki jest człowiek – na bardzo niewielkiej ilości danych jest w stanie sięfantastycznie odnaleźć. Pamiętam kiedyś, podczas jednego warsztatu właśnie zpodobnego tematu, gdzie bardzo się zachwycano tym, jak szybko sztucznainteligencja się uczy.
Oczywiście wiemy, że tak, że uczy się i się zmienia, cały czasjest postęp. I ja zadałam takie pytanie: „A przypomnij sobie swoje dziecko.Pokazałeś mu pewnie, bądź pokazałaś, kiedyś obrazek kotka. Prawdopodobnie tenkotek był narysowany w jakiejś książeczce, być może był różowy, a nawet mógłbyć niebieski w kwiatki. I to był jedyny kotek, które widziało Twoje dziecko.Co by się stało, gdyby twoje dziecko zobaczyło prawdziwego kota? Czy byłoby wstanie rozpoznać, że to jest prawdziwy kot, mając tylko taki mały narysowanyobrazek?”. I w większości przypadków – tak.
Dr Iwo Zmyślony: Oczywiście, to jest uogólnianie,właśnie to jest to, co bada Chollet tym testem. Maszyny tymczasem muszą dostaćsetki tysięcy oczyszczonych przez człowieka zdjęć kotów, i to też z kontroląkontekstu, z kontrolą tła. Kiedyś jeszcze było tak, że one muszą, te maszyny, mieć,tzw. AI, to tradycyjne, tzw. klasyczne, jeszcze przed wprowadzeniem głębokichsieci do uczenia – to jeszcze Chollet musiał to dokładnie wszystko otagować,wszystkie te elementy: puszystość, wąsatość, odróżnianie od nie-kotów.
I dzisiaj, znaczy na dziś dzień, to jest korzystanie z tego tzw.głębokiego uczenia samonadzorowanego, gdzie maszyna sama sobie klasyfikuje tepowtarzalne cechy odkrywane w danych. W dalszym ciągu potrzebuje człowieka,który będzie to kontrolował – i to jest taka ogólna zasada, tzw. man in theloop. To znaczy, jak już korzystamy potem z takiej wytrenowanej maszyny, żebynie popełniała nam błędów, żeby nie klasyfikowała kotopodobnych nie-kotów jakokoty, to my potrzebujemy człowieka który będzie właśnie kontrolował iinformował maszynę: „Uwaga, to nie jest kot”.
I tutaj za tym wszystkim stoi, jeśli chodzi o głębokie siecineuronowe, tzw. głębokie, pamiętajmy w ogóle, że my używamy języka, którybardzo dużo po prostu przesądza, w sposób opłacalny dla dostawców tychtechnologii. Tam nie ma neuronów – to jest model sieci neuronowej, abstrakcyjnymodel sieci neuronowej. To są algorytmy. I nazywamy to sieciami neuronowymi,zapominając, że to koło sieci neuronowej to bardzo daleko stało w ogóle.
Dr EwaHartman: Tak, jestwiele takiego nazewnictwa.
Dr Iwo Zmyślony: Ale my się uczymy inaczej, bo od tegozaczęłaś, że my się nie uczymy mechanizmem propagacji wstecznej. Maszynapotrzebuje specjalnego algorytmu, który pozwoli jej uczyć się na tysiącach,mówiąc w uproszczeniu, na tysiącach przykładów i wychwytywać błędy, którepozwalają następnie skutecznie działać na podstawie tego treningu.
My, dzieci, właśnie mamy to, co nazywamy inteligencją ogólną,czyli tajemniczą zdolność, tajemniczą z punktu widzenia nauki, z punktuwidzenia modeli umysłu, z punktu widzenia także modeli, jakimi są tzw. siecineuronowe, że wystarczy, że zobaczymy jeden, dwa i potrafimy uogólnić na jakąśklasę. I jak to jest możliwe, to jest wielka tajemnica umysłu, której jeszczedzisiaj nie znamy, nie potrafimy wyjaśnić. To jest, wiecie, od początku – jakzaczęto robić naukę, od starożytnej Grecji, próbowano wyjaśnić, jak to jestmożliwe, że my poznajemy naszą tą tkanką pod czaszką, skończoną jakąś tampapką, ogólne prawa wszechświata, nie?
Czy te właśnie gatunki, rozpoznając pojedyncze jeden, dwa, trzyprzypadki, rozpoznajemy cechy całego gatunku, rozpoznając jakieś właściwościmatematyczne, zaczynamy mówić o ogólnych własnościach rzeczy i poznajemy kosmosdzięki matematyce. To są tajemnice. I ja generalnie stoję na takim stanowisku,wspomniałaś, że studiowałem filozofię umysłu. Znaczy, wszystkie te tematydzisiaj, które są odgrzewane w debacie publicznej przez osoby, które promujączęsto właśnie w interesie bardzo konkretnego biznesu big-techowego AI, to sątematy, które filozofia umysłu zna od lat 50. co najmniej, a tak naprawdęjeszcze od lat 30. I takie przekonanie, które stoi u podstawy takiegoparadygmatu, który dzisiaj jest dominujący, to się nazywa koneksjonizm, czylitakie przekonanie, że wystarczy stworzyć właśnie taki model umysłu i to jestkwestia, ile dostanie danych, ile dostanie mocy obliczeniowej i z niegonastępnie się wyłonią wszystkie właściwości umysłu, tak?
Czyli prędzej, czy później, świadomość, samoświadomość, możejakaś tzw. wolna wola, oczywiście, z drugiej strony, mówimy, że nie istnieje,zdolność do rozpoznawania ogólnych własności rzeczy, że to wszystko wyłoni sięemergentnie z tego, no to to jest jedna z tradycji raczej, dominująca długo whistorii filozofii umysłu i inspirująca twórców pierwszych modeli komputacyjnychumysłu, czyli tych maszyn liczących, które symulują umysł. Natomiast ona nie jest jedyna, tak, gdzie np.w tej chwili to, co widzimy, to, co ja obserwuję śledząc, powiedzmy, tę debatę,ten paradygmat się załamuje, do głosu dochodzi tzw. symboliczne podejście, czyneurosymboliczne. To jest spotykanie innej tradycji, gdzie potrzebna jestinterwencja człowieka, który wprowadzi meta-algorytmy, które pozwolą maszyniewłaśnie tworzyć ogólne kategorie.
I to jest nieprzyjemna perspektywa, bo pytanie, skąd tealgorytmy są w naszym myśleniu? Ewolucja je wpisała, ale skąd są w ewolucji?Więc to są takie pytania, na które znowu nie mamy odpowiedzi.
Dr EwaHartman: Może todobrze? Może to być bezpiecznik, który…
Dr Iwo Zmyślony: Ale jest przyszłość nauki, ja zmierzamdo tego, że ja uważam, że my po prostu jeszcze dużo... Pamiętajcie, żeuprawiamy naukę bardzo krótko – to jest 4 tysiące lat od, powiedzmy, czasówegipskich i pierwszej matematyki. To jest zdanie prof. Michała Hellera. Pamiętajmy,że nasza matematyka jest jeszcze bardzo prymitywna, bo my uprawiamy ją dopiero4 tysiące lat. Nie wiemy, jaka będzie matematyka za 4 tysiące lat, za 10tysięcy lat, jeżeli ludzkość dożyje.
Po prostu wiele rzeczy na temat tego, czym jest umysł, siędopiero okaże, tak? Więc taką arogancją jest to twierdzenie, że my dzisiaj,ponieważ potrafimy zbudować model umysłu, który coś tam imituje, np. imitujezachowania językowe, czyli to, co robią LLM-y, że to jest wszystko, conajważniejsze, co musimy wiedzieć na temat umysłu, nie?
Dr EwaHartman: Właśnie,i to mnie tutaj, w dwie rzeczy, wiesz, w dwa różne kierunki to, co powiedziałeś,mnie popycha, że jednak umysł ludzki, język, to jest rzecz późna, a najpierwbyła cała wiedza proceduralna, prawda? Ta wiedza deklaratywna, nawet dlaczłowieka, to jest późno. Nadal maszyna nie jest w stanie odtworzyć wiedzyproceduralnej, bo my nie umiemy jej nawet wyrazić. „Jak to jest jechać narowerze?”, prawda?
Dr Iwo Zmyślony: To jest wyzwanie takie, które stoiprzed robotyzacją, to znaczy chyba najbliżej, z tego, co widzę, tejproceduralnej wiedzy na poziomie takich umiejętności kinestetycznych, bo tutajczasami przydaje się taka szeroka koncepcja inteligencji zaproponowana przez prof. Howarda Gardnera z Harvarda,gdzie on – obok inteligencji językowej, poznawczej, matematycznej, muzycznej – wskazujegraficzną, społeczną, emocjonalną, kinestetyczną, przestrzenną, czyli tewszystkie wymiary inteligencji, które dla nas są obszarem wzrostu – relacjespołeczne, introspekcja, mądrość życiowa, ale też inteligencja przestrzenna czywłaśnie kinestetyczna, zręczność. I w tym modelu okazuje się, że maszyny, pókico, są od nas dużo lepsze, i coraz lepsze, ale tylko w niektórych obszarachinteligencji.
Powiedziałaś o inteligencji proceduralnej. To jest oczywiścieszeroki termin, bo to są też np. umiejętności intelektualne i zaraz przejdziemydo kompetencji. Ale zręczność – nie ma jeszcze maszyny, która by jeździła narowerze, to znaczy zaraz ktoś pokaże, że są żyroskopowe, samojezdne np. roweryczy motory, ale one jeżdżą w pewnych optymalnych warunkach. Nie ma maszyny,która potrafi skutecznie zawiązać sznurowadła czy krawat. I znowu, jak ktośpogoogluje, możemy tutaj zalinkować to, co robi DeepMind, czyli taki startupGoogle’a, tworzący taki projekt, to się nazywa „Aloha”, gdzie rzeczywiściepróbują tworzyć takie humanoidalne maszyny, które wykonują coraz to bardziejzręczne funkcje – typu potrafią zgniatać bez naruszania tkanek na przykład,czyli wyczuwają sprężystość, potrafią manipulować przestrzennie – ale to jestciągle jeszcze bardzo w powijakach i nieopłacalne kompletnie w skalowaniu.
Więc jeżeli wracamy do tematu: „Wiecie, kiedy będzie sięopłacało automatyzować np. pracę ludzką, taką manualną?”, to znaczy, na mojewyczucie tego tematu, to jest po prostu na razie kompletnie nieopłacalne. Toznaczy, te scenariusze, że w ciągu dekady, to mi się po prostu wydają bardzo,nawet nie tyle optymistyczne, co naiwne i – ostatecznie – elementem pewnegomarketingu.
Dr EwaHartman: Wieszco, mówisz o opłacalności i ja chciałam właśnie Ciebie – jako osobę z tymgłębokim filozoficznym tłem – zapytać: a gdzie w tym wszystkim jest etyka? Toznaczy, co mamy z tyłu głowy? Z jednej strony, tak, automatyzujemy pewnerzeczy, które da się zautomatyzować – i dobrze, możemy powiedzieć, że AI niezabiera pracy. Ale AI zabiera pracę –automatyzuje zadanie i procesy, które sięopłacają biznesowi. Czy gdzieś tu jest jeszcze miejsce na etykę? Jak myślisz?
Dr Iwo Zmyślony: Jest, tylko wiesz, możemy sobie na tematetyki podyskutować i bardzo szybko mam wrażenie, że dyskusja na temat etykiprzenosi nas w politykę. To znaczy w to, jakimi mechanizmami bronić interesówpewnych grup społecznych, czy też, inaczej, przed krzywdą. Ja się kiedyśpasjonowałem etyką – tylko żeby było jasne, to jest tak, że moglibyśmy gadać isię gryzę w język po prostu, żeby nie gadać o etyce – ale z czasem narastał teżmój sceptycyzm do etyki – taki, że to są systemy, które racjonalizują często dopoziomu bardzo takich nieintuicyjnych wniosków, to znaczy, że systemy etyczne,tak?
I na końcu ja proponuję, i sam wyznaję, bo mamy odkrycie Kanta,tzw. imperatyw kategoryczny, czyli my taką mamy tajemniczą właściwość właśniegdzieś naszej inteligencji – i znowu pytanie, czy to nie jest cechainteligencji specyficznie ludzkiej – że rozpoznajemy, co powinniśmy robić wkażdej sytuacji. Kant twierdził, że każdy to ma. Nie tylko Kant zresztą, wfilozofii średniowiecznej była koncepcjasynderezy, którą mało kto zna, która była dokładnie o tym, że jarozpoznaję zasady moralności na zasadzie: „Ja wiem, co powinienem” i skąd sięto bierze, że mamy samą tą zdolność. To nawet nie chodzi o to, że myrozpoznajemy normy, tylko tą zdolność do odróżniania dobra od zła – że my tomamy. I „Ja wiem, co ja powinienem uczynić” – to było odkrycie Kanta.
I to jest jedna rzecz, którą ja generalnie przyjmuję z takiegokorpusu historii etyki, a druga rzecz to jest, że granicą tego, co można, tojest krzywda drugiego człowieka. Oczywiście, jak rozumiemy krzywdę? Jeżeli jaidę z dzieckiem, szczepimy się przeciwko kleszczom na przykład, to ja tamkrzywdzę to dziecko, czy nie krzywdzę? Jeżeli idziemy leczyć zęba, to jakrzywdzę, czy nie krzywdzę? Ale krzywda.
I teraz wracamy do tego. Wiadomo, że automatyzacja oznaczakrzywdę dla wielu osób. Oznacza krzywdę, bo ktoś traci perspektywę dochodu. Aleja, z drugiej strony, zastanawiam się, czy większą krzywdę nie wyrządzamyludziom, nie uprzedzając o tym, że dzisiaj, i to jest taka praktyczna, jeżeli Tyoczekujesz – i to jest naprawdę nieprzyjemne – że Ty będziesz miał pracę przezcałe życie i będziesz robił to, co robisz i będziesz pracował dzień po dniu,tak jak nasi rodzice jeszcze pracowali, wykonując mniej więcej to samo. No topytanie: czy będziesz potrzebny gospodarce, czy będziesz potrzebnyspołeczeństwu?
Dr EwaHartman: Iwłaśnie, i to jest to, prawda? Czyli, co możemy dla siebie zrobić? Najpierwzacznijmy od siebie, ale też bym chciała Cię zapytać, co można zrobić napoziomie biznesu, żeby tej krzywdy było mniej – to znaczy już nie wchodźmy ażtak bardzo moralnie – czyli, żeby jednak było nam łatwiej, tak? Czyli, żebyśmynadal byli na tyle potrzebni, na ile możemy być. Tak indywidualnie najpierw –co Ty uważasz? Ja jako ja, jako Ewa, Ty jako Ty, jako Iwo – co my mamy zrobić?Czego my się mamy uczyć?
Dr Iwo Zmyślony: Ja stawiam to tak: co ja muszę umieć,żeby być potrzebny społeczeństwu, innym, gospodarce, biznesowi? Ale to nie musibyć tylko biznes. Czego będą potrzebować od nas, za co będą gotowi nam wprzyszłości płacić, tudzież się i w inny sposób jakiś odwzajemniać? Czyli, wtym sensie, praca – czym ma być ta praca przyszłości, co ja muszę umieć? Nowięc najprostsza odpowiedź jest taka – musimy umieć to, czego nie potrafiąmaszyny. Musimy umieć robić to, czego nie potrafią robić maszyny i tutaj ta inteligencjaogólna, o której gadaliśmy, jest jakąś podpowiedzią.
Kahneman, myśleniewolne Kahnemana, jest podpowiedzią. Czyli musimy umieć robić rzeczy, którepozwalają się adaptować w sytuacjach nieprzewidywalnych, w sytuacjachnietypowych, w sytuacjach skrajnie kontekstowych. Czyli to są umiejętności,które wiemy, że nie będą automatyzowane, czy nie są automatyzowane dzisiaj, idopóki nie powstanie syntetyczna inteligencja ogólna – w tym rozumieniu Cholleta,czy takim ostrym rozumieniu, czyli de facto w rozumieniu Kahnemana „modeludrugiego”, „systemu drugiego” – czyli nie powstanie syntetyczna zdolność doadaptacji systemu maszynowego w sytuacjach, do których nie było trenowany, i októrych, Chollet podkreśla, że nie mogli sobie pomyśleć nawet twórcy tegosystemu. I on to tak podaje, że my potrzebujemy syntetycznej inteligencjiogólnej, ponieważ np. chcemy odkrywać kosmos i chcemy stworzyć maszyny, którepolecą gdzieś, w jakieś odmęty kosmosu, do obszarów, których my nie potrafimysobie nawet pomyśleć, i będą umiały tam się adaptować i robić coś, co nam jestpotrzebne, żeby potem przynosiły jakieś odkrycia.
Więc dopóki nie ma tej technologii – Chollet twierdzi, że onajest możliwa, zobaczymy, ale na razie nie ma na to widoków – są tylko obietnicei już mówiłem o tym, że raczej będzie nam sprzedawane coś innego pod tą nazwą,nie? To możemy przewidywać, że my, ludzie, musimy umieć robić rzeczy, którychnie potrafią maszyny. Wiemy, co to są za rzeczy. To jest zdolność do adaptacjiw nowych, nietypowych sytuacjach. To nie znaczy, że nie mamy mieć umiejętnościreagowania w sytuacjach typowych, bo tutaj, jeśli byśmy mieli to sprowadzić dotakiego żargonu, powiedzmy, zarządzeniowego, czy takiego HR-owego, to mamy do rozróżnieniakompetencje miękkie i twarde.
I kompetencje twarde, to jest takie – przy całejnieszczęśliwości tej terminologii – mamy kompetencje twarde, to są te, którepozwalają nam działać skutecznie w powtarzalnych sytuacjach, w stabilnymśrodowisku, tak? Obsługiwać narzędzia, wypełniać, robić tabele przestawne wExcelu, używać jakichś maszyn, interfejsów, robić dzień po dniu mniej więcej tosamo.
Ale mamy właśnie po drugiej stronie te tzw. kompetencjemiękkie, które – dzisiaj odchodzimy od tego terminu, mówimy „poznawcze”,„człowiecze”, „emocjonalne”, „społeczne”, już zaczynamy dzielić – ale to sągeneralnie te, które pozwalają nam się adaptować właśnie do sytuacjinietypowych, do tych niestabilnych środowisk. To są kompetencje, i mówię teraznaprawdę puentami, bez których nie ma agile’a, bez których nie maeksperymentowania, bez których nie ma przechodzenia przez procesy innowacji,przez procesy zmiany, przez kryzysy, przez różnego rodzaju załamania rynku,niespodziewane wstrząsy.
Jeżeli nie masz kompetencji miękkich, to po prostu nie maszzasobu, żeby przejść przez sytuacje, do których nie byłeś trenowany – jakojednostka czy organizacja. Problem z nimi jest taki, to znaczy ja tutaj stawiamznak równości między systemem – to nie jest znak równości, ale dla uproszczenia– między „systemem drugim” Kahnemana, inteligencją ogólną, a tzw. kompetencjamimiękkimi. Problem z tymi kompetencjami jest taki – po pierwsze, bardzo ciężkojest je trenować, bo myślenie krytyczne jest kompetencją miękką, kreatywnośćjest kompetencją miękką, rezyliencja jest kompetencją miękką, aktywne słuchaniejest kompetencją itd. Empatia, ciekawość, zdolność do radzenia sobie zpoczuciem dezorientacji, z dyskomfortem społecznym – to są wszystko kompetencjemiękkie.
Jak to ćwiczyć? Ja ćwiczę, robimy szkolenia z tego. Problemjest taki, że jeżeli mam na szkoleniach ludzi, którzy nie chcą, to jak możnabyć empatycznym, jak Ty nie chcesz być empatycznym? Jak można braćodpowiedzialność i być liderem, czyli pracować na zaufanie zespołu, pracować nazaangażowanie zespołu, pracować nad sobą, żeby nie być gołosłownym, żeby byćdla ludzi, dla dzieci, dla pracowników punktem odniesienia, jak Ty nie chcesz?
Więc one są trudne, dlatego, że rozwój – jeszcze raz, mówimy otym, że rozwój tej inteligencji ogólnej, rozwój zdolności do adaptacji – wymagazasobu, jakim jest zaangażowanie, chcenie, czyli też, wiesz, dopamina, zasobydopaminy. Ale jest jeszcze problem taki, że OK, dobra, chcemy, ale jest pytanie:„Czy Ty masz możliwość w firmie korzystania z tych kompetencji?”.
I ja tutaj teraz streszczam coś, co badam od wielu, wielu lat.Wniosek jest taki: Ty nie kupisz na rynku pracy kompetencji miękkich, firmo,nie kupisz, nawet nie zatrudnisz ludzi, bo Ty możesz zatrudnić ludzioczywiście, którzy potrafią myśleć krytycznie, potrafią zadawać pytania,potrafią eksperymentować, potrafią podejmować decyzje w warunkach ryzyka, ale pytanie:„Czy Ty masz kulturę i procesy, które to wspierają?”. I lądujemy w takiejpuencie, że kluczem do robienia tego, czego nie potrafią maszyny, na dziś dzieńjest kultura organizacyjna.
Są krytyczne zasoby strategiczne w firmie, które już trzebaprodukować – i które niektóre firmy produkują. Zasoby zaufania, lojalności,dobrostanu, wdzięczności pracowników, zaufania biznesowego, wiarygodności,tego, że ludzie ufają swoim przełożonym, że ci przełożeni mają lojalnośćpracowników, czyli zapracowali sobie na to zaufanie. I to jest coś, czegoabsolutnie, i to jest naprawdę gruba sprawa strategicznie – tego nie kupisz,tego nie wyprodukujesz w pięć minut, a to jest to, co musisz mieć, żebyprzechodzić przez zadania i procesy, do których maszyny najwyżej Ciępodprowadzą.
Dr EwaHartman: Co mnie,od razu, wiesz, ja chcę to sprowadzić do takiego bardzo praktycznego punktu. „Rybajest zepsuta od głowy, psuje się od głowy i jest zdrowa od głowy” – czyli to,co powiedziałeś – jeżeli na górze organizacji nie ma świadomości wartościnieautomatyzowalnych kompetencji, to taka kultura organizacyjna będzie się sama,tak naprawdę, skazywała na porażkę.
Dr IwoZmyślony: Znaczy,porażkę, wiesz – i tutaj właśnie trochę diabła pobronię – powiedzmy, że to jestdiabeł, to jest to, że ja totalnie kupuję od czego zaczęliśmy, że są sektory,modele biznesowe, które można zautomatyzować w całości. Są, bez pokazywaniapalcem. Totalnie sobie wyobrażam np. w pełni zautomatyzowane jakieś leasingi,usługi finansowe, jakieś jednoosobowe software house’y, takie rzeczy, nie?Natomiast pytanie, czy akurat ci, co nas słuchają, pracują w tego typu firmach,czy raczej w firmach, które będą budować przewagi na innowacyjności,adaptacyjności, długim trwaniu, zwinności. Więc to zależy na końcu odkonkretnego modelu biznesowego, tak?
Dr EwaHartman: Zakładamy,że jednak naszym słuchaczom zależy na tym, żeby być na rynku zwinnym, żeby sięadaptować, żeby się rozwijać, a nie wszystko zautomatyzować i przerzucić wmaszyny. To liderstwo to jest od góry temat. Czyli uświadamianie. Nadal ja towidzę podczas swoich warsztatów, gdzie kompetencje miękkie często nazywa sięnawet „niemerytorycznymi”. I to już deprecjonuje sam fakt kompetencji miękkich– „Bo pani to prowadzi takie szkolenia niemerytoryczne, a my takie wolimymerytoryczne”.
Dr Iwo Zmyślony: To wolicie to, co można bardzo łatwozautomatyzować.
Dr EwaHartman: A znowujak mamy te „niemerytoryczne”, to musimy wejść, tak jak wspomniałeś, w kulturęorganizacji i tutaj jednak tych odnóg mamy dużo, prawda? I mamy dobrostan, boniezadbana głowa nie będzie w stanie zaufać chociażby, prawda? Nie będzie wstanie zaufać, bo będziemy w trybie przetrwania. Niezadbana głowa nie będzieelastyczna poznawczo, bo wiemy, jak wiele wysiłku potrzebujemy dla „systemudrugiego”, tak? Niezadbana głowa nie będzie zadawała pytań, a jeszcze dodatkowo,jeżeli zadawanie pytań, czy iteracja, szukanie odpowiedzi, to jest „niemerytoryczne”,w sensie, wiesz, szukanie, takie drążenie jest „niemerytoryczne”, bo przecieżlepiej by to było powiedzieć „Tak/ Nie” w Excelu, to troszeczkę się możemy,znaczy, możemy się skazać, prawda, na odsunięcie?
Dr Iwo Zmyślony: To, wiesz, to czym się zajmujesz, czylineuroprzywództwo, czyli wiedza o mózgu, wchodzi jako, bo to jest tak, że są organizacje,które to rozumieją i od wielu lat, od dwóch dekad się na to przygotowują, czyliwłaśnie inwestują np. w dobrostan. W takim szerokim rozumieniu słowa „dobrostan”,czyli w to, żeby ludzie przychodząc do firmy, na końcu, wiecie, tak obrazowo –chodzi o to, żebyśmy podpinali do siebie swoje mózgi. Allan Schore, ja ostatniopodpieram się jego koncepcją neurosynchronii, my wiemy, że nasze mózgi potrafiąwytwarzać jakości, są dużo bardziej produktywne, jeżeli właśnie podłączymy siędo siebie przez te oczy, które są kawałkiem mózgu na wierzchu i stworzymy wspólnietaką meta-sieć z naszych połączeń neuronalnych i tam te mózgi zaczynają inaczejpracować. Tyle że to się nie zadzieje, co wspomniałaś, bez tego, że wygasimy tewszystkie „poziomy małpie” i „gadzie”.
Dr EwaHartman: Tak,strachu, lęku, braku zaufania, stresu.
Dr Iwo Zmyślony: I to jest zasób, ja mówię, to jestzasób strategiczny. Słuchajcie, to wychodzi na końcu bardzo konkretnie, albojeśli masz kryzys w organizacji, to albo ludzie wierzą swoim przełożonym, czylimają kapitał zaufania, albo wszystkie komunikaty są traktowane jako ściema iludzie sobie produkują własne wersje rzeczywistości. Albo przyjeżdżają – ostatniomiałem na warsztacie faceta, który opowiadał, że firmę, gdzieś tam koło Kłodzka,zalewało im park maszynowy, w środku nocy, w weekend, jak szła ta rok temupowódź – ludzie sami przyjechali, nikt im niczego nie kazał, nie było poleceń,przyjechali do firmy ratować majątek firmy. Są takie firmy, ostatnio, nie wiem,historia nap. firmy, która produkuje paluszki, zdaje się...
Dr EwaHartman: …a tak, tak,to znaczy, też nie pamiętam dobrze nazwy, ale była dosyć duża akcja, tak.
Dr Iwo Zmyślony: Wiecie co, w ICAN mam od latprzyjemność, że pracuję z dziesiątkami organizacji – i takich organizacji wPolsce przybywa, jest ich dużo, gdzie właśnie właściciele, decydenci rozumieją,że to są krytyczne, strategiczne zasoby: zaufanie, lojalność, wdzięczność,transparentność, przewidywalność, bezpieczeństwo psychologiczne. I oni w toinwestują, bo tego nie kupisz, a jeszcze raz, my o tym gadamy dlatego, że tegodokładnie potrzebujesz, jako „obiektywnego złota” w organizacji, jeżeli chceszrobić rzeczy, których nie potrafią maszyny. Tak, jeżeli chcesz przechodzićprzez sytuacje typu kryzysy, konflikty, ale też innowacje. Bo innowacjegłębokie są rozumiane, nawet te płytkie, takie inkrementalne, to jestkwestionowanie status quo, to jest szukanie błędów, to jest szukanie, copoprawić, głębokie no to już jest eksperymentowanie, tak, czyli radzenie sobiez porażką, radzenie sobie z niepewnością.
I albo mamy zasoby w organizacji, które pozwalają to robićefektywnie, albo tych zasobów nie mamy, a ich nie kupisz. Raz jeszcze – niekupisz tego na rynku pracy, nie wyprodukujesz tego w pięć minut. Więc na dziśdzień, i pamiętajcie Państwo, że to jest przede wszystkim przy zastrzeżeniu, żenie ma syntetycznej inteligencji ogólnej w tym głębokim rozumieniu, czylitakim, jak sobie zdefiniowaliśmy. Jeszcze tylko podkreślę, że to nie oznacza, żenie trzeba mieć kompetencji twardych. To nie o to chodzi. Nie, nie kompetencjetwarde. Właśnie paradoksalnie, Ty musisz uważać, żeby Ci to, co powiedzieliśmyna początku rozmowy, żeby Ci maszyna nie zdemilinizowała mózgu, nie?
Dr EwaHartman: No właśnie,czyli nadal potrzebujemy absolutnie policzyć, wiedzieć, co nam wypluje Excel,chociażby, żeby odeprzeć halucynacje, prawda, żeby móc je wyłapać?
Dr Iwo Zmyślony: Tak, więc o to chodzi, że teraz Typotrzebujesz ludzi, którzy mają kompetencje twarde, nie zgłupieli od tego, żete zadania i procesy, do których są potrzebne kompetencje twarde, wykonująmaszyny – czyli nie zdeskillowali się maszynami, nie zdeskillowali maszynamitych kompetencji twardych – i potrafią ich używać do wyłapywania błędów, donadzorowania maszyny, a jednocześnie mają ten zasób tzw. miękki. I to jestpodpowiedź najlepsza, jaką mamy na dziś dzień, żeby przygotowywać się na światautomatów.
Dr EwaHartman: Natomiastdla mnie tu jeszcze wybrzmiewają dwa elementy. One cały czas się przewijały wTwojej wypowiedzi. Jedno to jest uczenie się, czyli „Ja chcę się uczyć” – sampodkreślałeś ten element „Ja chcę” – czyli tu jest właśnie moja wola. A dwa, jachcę świadomie wystawiać się na dyskomfort. I teraz, zobacz, jakie to jesttrudne właśnie z punktu widzenia naszego mózgu, który jednak woli oszczędzaćenergię. Pierwszym jego odruchem jest automat, ale jak najbardziej my mamy „systemdrugi”. Mamy ten system, czyli po coś nam natura ten system dała. Masz jakąśpodpowiedź?
Dr Iwo Zmyślony: To znaczy, natura wyeliminowała tych,którzy tego nie mają.
Dr EwaHartman: Wieszco? Jeszcze chyba są takie jednostki, które mogą mieć „system drugi”.
Dr Iwo Zmyślony: Ale to jest paradoks właśnie, żecywilizacja nam dała, że jest tak dobrze, że my głupiejemy.
Dr EwaHartman: Takzwany kryzys, comfort crisis, jest nawet taka książka.
Dr Iwo Zmyślony: Nasze ciało jest przystosowane doświata wybrakowanego, gdzie nie mamy przyjemności. Więc tutaj, też dziękinaszym rozmowom, rozmowom z Tobą, ja też zrozumiałem ten związek międzydopaminą a zaangażowaniem, że jednym z bardzo istotnych ryzyk jest to, że jeślimy będziemy za dużo procesów i zadań automatyzować na co dzień, to jest teżpozbawianie się sprawczości i też pozbawianie się nagrody za wysiłek.
To znaczy, my sprowadzamy, korzystając z AI, proces do wyniku.A jak nam daje wynik, oszczędza nam procesu. I to jest taki meta-deskilling,odzwyczajanie się od wysiłku. I ja, wiecie, Państwu opowiadam od lat historięmojej siostrzeniczki, która – no bo to jest takie pytanie, wiecie, jakprzygotowywać też nasze dzieci na ten rynek pracy za 10-15 lat, na rok 2035,czy 2040 – jak je uczyć?
I moja siostrzeniczka, która w 2019 roku miała 12 lat,wymyśliła sobie w środku pandemii, że ona chce do szkoły Elona Muska. To jesttaka szkoła – to jest oczywiście skrót myślowy – którą stworzyliwspółpracownicy Elona Muska ze SpaceX i Tesli. Którzy zadawali sobie pytanie,jak przygotować nasze dzieci na świat przyszłości, czego je uczyć, i doszli downiosku, że żadna szkoła tego nie robi dobrze, więc stworzyli własną. Ta szkoła się nazywa „Ad Astra”.
Dr EwaHartman: „Dogwiazd”.
Dr Iwo Zmyślony: Tak, pierwotnie działała gdzieś tam wKalifornii, teraz do Teksasu się przenieśli. I oni ruszyli w 2020 roku zprogramem online, który się nazywa „Synthesis”. I Tosia, która wymyśliła sobie,że chce, przystąpiła do tego programu. Tam był dosyć zawiły proces rekrutacji,ale dostała się, była jednym z 80 dzieci, które w pierwszej edycji uczyły się wtej szkole. I ja się pytam „Dobra, to pokaż mi, Tosiu, czego Wy się tamuczycie?”. A ona mówi: „A wiesz, nikt nam w sumie niczego nie tłumaczy, niczegonie pokazuje, tylko każą grać w grę”. W grę. I teraz, gra polega na tym, żenikt niczego nie tłumaczy, ale z czasem okazuje się, że ich tam dzielą ich nadrużyny i te drużyny rywalizują ze sobą, ale nikt nie wie, w co grają.
Nie wiemy, w co gramy. Gra polega na tym, że nikt niczego nietłumaczy, ale z czasem okazuje się, że gra polega na tym, żeby odkrywać zasadygry, odkrywać, co jest zasobem i kumulować te zasoby. To jest kapitalne.Zastanówcie się Państwo, co to jest za gra, której zasad nikt nie tłumaczy, alew którą wszyscy musimy grać, odkrywać, co jest zasadą, co jest zasobem i jakkumulować te zasoby do dalszej gry.
No i jak zadaję to pytanie na różnych warsztatach, to ludziemówią, że albo to jest życie, albo to jest biznes. I obie te gry są właśnietakie, ale co im tam mówiono? I wiesz, jeszcze raz, ta sytuacja – grasz w grę,w której nie wiesz, co jest zasadą, co działa, a co nie działa. Nie wiesz o cograsz.
Dr EwaHartman: Cały czas iterujesz.
Dr Iwo Zmyślony: Iterujesz i odkrywasz. I co impodkreślano? Dwa komunikaty były. „Przytul poczucie dezorientacji” – „Embracechaos”, czyli „Przytul poczucie dezorientacji, chaosu”. I „Learn to cooperate”.Dwie podstawowe cechy, dwie podstawowe skille przyszłości, umiejętności. Albodajesz sobie radę w sytuacjach, wiesz co robić. Albo umiesz sobie radzić zpoczuciem silnego stresu, dyskomfortu, dezorientacji i podejmować decyzje wwarunkach niepewności. Albo nie. I czekasz, aż ktoś Ci powie, co robić. A druga– albo potrafisz tworzyć z ludźmi zespoły, właśnie te takie amortyzujące siatkipołączeń neuronalnych, czyli takie, że my się czujemy ze sobą bezpiecznie. Tutajcały John Lynch, Amy Edmondson, właśnieneuroleadership nam wchodzi. Albo nie, albo nie potrafisz tworzyć zespołów,tylko wydajesz polecenia i oczekujesz, żeby inni robili to, co Ty każesz. I tojest, mówię tak anegdotycznie, ale dokładnie nas wprowadza w centrum tego, comy wiemy na dziś dzień, że musimy umieć, żeby sobie radzić w tym świeciepostępującej automatyzacji.
Dr EwaHartman: Izobacz, znowu, my mamy absolutnie zdolność do kooperacji, bo tylko ludzie są wstanie stworzyć, byli w stanie stworzyć tak duże plemiona funkcjonujące. Tak,jednak w żadnej grupie innej, pozaludzkiej nie mamy tak dużych stad, nazwijmyto już tak w uproszczeniu. A jednocześnie mamy mechanizmy, które nam wchodzą wkolizję, wiesz, gry statusowe, będziemy się przepychać.
Dr Iwo Zmyślony: Ja mówię „małpi mózg” na to. Terytorialność.
Dr EwaHartman: Tak,właśnie tym „małpim mózgiem” będziemy się przepychać, terytorialnie będziemysię przepychać. To musi być – „Moja racja jest lepsza, niż Twoja”. I znów jestta dualność. Z jednej strony, jesteśmy wyposażeni w to, żeby tworzyć,współpracować, bo to jest zdecydowanie przewaga ludzka, a wchodzi nam tutaj...
Dr Iwo Zmyślony: Ale jeszcze masz Kahnemana, wiesz, biasy.Wiesz Kahneman, znowu, cała koncepcja, za którą został nagrodę Nobla zabadanie, które prowadził z AmosemTversky’m, no biasy. Czym są „biasy”? Znaczy, na język polski, to się tłumaczyjako „błędy”, ale to nie chodzi o „błędy”, to chodzi o „obciążenia”, ja tłumaczę„biasy” jako „obciążenia”.
Dr EwaHartman: Właśnie, tosię źle to tłumaczy.
Dr Iwo Zmyślony: Tak, a tu chodzi właśnie o to, że tojest super, ale w sytuacji stabilnej, powtarzalnej. Wiedza ekspercka, twardekompetencje są super, jeżeli Ty masz przyszłość podobną do przeszłości. Jeżeliwynik, który się powtarza z przeszłości, można zagwarantować w przyszłości.Natomiast to staje się Twoją kulą u nogi, obciążeniem nawykowym, które powodujetakie właśnie tunelowanie, ignorowanie sygnałów zmiany. I dlatego, mówię „paradokseksperta” – eksperci mają predyspozycje do podejmowania złych decyzji wniestabilnym systemie, czego dowodem są wszystkie bankructwa, wszystkie porażkibiznesowe. „Bo ekspert wie lepiej”. Popatrzcie Państwo, kto zmienił w każdymobszarze gospodarki reguły gry? To były tzw. start-upy, w większości robioneprzez nie-ekspertów, przez nastolatków, którzy nie byli obciążeni właśnieperspektywą, że się da…
Dr EwaHartman: ….da,bądź się nie da.
Dr Iwo Zmyślony: Więc tu nie tylko chodzi o „gadzi”/„małpi”,ale też jest ten „system pierwszy”, „leniwy”, czyli: „Ja wiem lepiej. Ja wiem,ponieważ robię to od 10-15 lat”. I teraz, początkiem zarządzania tymi właśniezasobami ludzkimi – ja mówię na to z premedytacją „Nowe zasoby ludzkie” –wdzięcznośćlojalność, zaangażowanie, poczucie bezpieczeństwa, kompetencje społeczne, kompetencjeemocjonalne – to są Twoje „nowe zasoby ludzkie”. Początkiem do tego jest wewszystkich programach rozwoju organizacji samoświadomość – świadomość tychwłaśnie mechanizmów, świadomość tego, co mózg z nami robi, co nas obciąża, jakwpływa na nas AI, właśnie na czym polegają te obciążenia poznawcze. I to jestpoczątek, a potem ciężka praca nad tym, żeby umieć ciężko pracować.
Dr EwaHartman: Ja teżdosyć często podaję na warsztacie taki przykład, że w obecnym świecie biznesudwie rzeczy są bardzo ważne – i to jest świeże oko i doświadczenie, ale one zreguły nie idą w jednej osobie. Więc właśnie dlatego musimy się nauczyć słuchaći kooperować, bo będziemy mieć te dwie ogromne wartości, czyli wartośćdoświadczenia i wartość świeżego oka, które mogą wybrzmieć, bo jeśli one niemogą wybrzmieć właśnie na skutek obciążeń, tak o których powiedziałeś „Bo jarobię to od 15 lat, to ja wiem lepiej”…
Dr Iwo Zmyślony: Jeszcze do tego status, ten „małpi mózg”,„moje terytorium”.
Dr EwaHartman: To już jest droga,prawda, równia…
Dr Iwo Zmyślony: …równia pochyła do tego, co było. Mówię, to działa w systemiestabilnym, więc ja, wiecie, to jest złożona dyskusja, dlatego, że to działałoprzez historię naszego gatunku, bo świat był powtarzalny. My żyjemy w świecieniestabilnym, dopiero teraz zaczyna ten świat przyspieszać, dopiero naszepokolenia są pierwszymi, które doświadczają takiego tempa zmian. Jeszcze nasirodzice mieli pracę przez całe życie, nie? Jeszcze pokolenie naszych dziadków.
Dr EwaHartman: Mój tata wykonywałswój zawód przez 50 lat. Bo odszedł też bardzo późno na emeryturę, ale to byłoto samo miejsce pracy, ten sam pracodawca. Jedyna zmiana, jaka nastąpiła, to poprostu była zmiana lokalizacji na skutek przeniesienia budynku. Może niebudynku, ale adresu, w inne miejsce. Natomiast tak, to jest ten model.
Dr Iwo Zmyślony: Znaczy, i teraz ja mówię o tym, bo myto mamy ciągle w głowach. I my myślimy w tych kategoriach, a tutaj myrozmawiamy o czymś do czego, gdzie zaczyna się ta historia w momencie, kiedy mysobie uświadamiamy, że to już jest przeszłość. Ja myślę, że masz podobnie imyślę, że tak naprawdę każdy z nas, kto jeszcze słucha i ogląda tą nasząrozmowę, wie dobrze, że większość zadań, które będzie robił jutro, czy pojutrze,będą trochę inne od tych, które robi dzisiaj. Każdy projekt jest troszeczkę inny.Nawet jak robię dwa razy to samo szkolenie, to za każdym razem jest inna grupa,inny kontekst, właśnie zmienia się wiedza, dezaktualizuje.
Więc my jesteśmy obciążeni masą rzeczy, tutaj Kahneman jesttakim pomostem, metafory „gadziego”/„małpiego” mózgu, ale to, co ja chcępowtarzać, z tą anegdotą, powiedzmy, o Tosi, z tym, co wiemy o inteligencjiogólnej, że my dzisiaj musimy umieć robić rzeczy, których nie umiemy – umiećrobić rzeczy, których nie robiliśmy.
Jak to usprawnić? No właśnie – tworząc zespoły. Ja mam takiepowiedzenie od jakiegoś czasu, co mi się sprawdza w życiu, co rzeczywiściedziała, co ćwiczy jakoś, kształtuje tą dyspozycję – to jest: „Rób bardzo trudnerzeczy z bardzo ciekawymi ludźmi”. „Bardzo trudne rzeczy z bardzo ciekawymiludźmi”. I to działa od, jak myślę teraz, nie wiem, mam dzieci, no to z nimi topracuję, tak? Unikaj łatwych rzeczy, unikaj tego, żeby mózg Twój sięprzyzwyczajał, znaczy unikaj przyzwyczajania mózgu do przyjemności łatwych. Tojest naprawdę bardzo trudne, nie? No a to jest to, żeby mózg się nieprzyzwyczajał do tego, że bezwysiłkowo ma przyjemność, że bezwysiłkowo mawynik.
Dr EwaHartman: Czylicały czas mówimy o tym, żebyśmy my, jako ludzie, pielęgnowali proces.
Dr Iwo Zmyślony: W ramach „systemu drugiego” Kahnemana.
Dr EwaHartman: Tak,proces. Nie tylko szukając natychmiast rozwiązania, które w wielu obszarachbędzie nam dawała sztuczna inteligencja, pomijając proces. A właśnie ta całasiła jest w tym wysiłku, prawda?
Dr Iwo Zmyślony: W przyzwyczajeniu głowy do wytwarzanianowych połączeń neuronalnych, no bo o to chodzi. Dzisiaj nawet dzieciom wszkole mówią: nie uczyć się wierszyków, nie uczyć się pisania, uczyć siępromptować. To jest bardzo dużo, może nie ze złą wolą, ale to są bardzokrzywdzące narracje. Pomyślcie sobie Państwo, macie w domu sługę alboniewolnika, który za Was pisze wypracowania i za Was wszystko pamięta, nie? Nobo to jest coś takiego.
I teraz, znaczy, kogo my w takim razie wytwarzamy w takimsystemie edukacji, gdzie wszystkie prace, cały ciężar pracy mózgu, tego „systemudrugiego”, jest outsourcowany na właśnie tego sługę czy niewolnika? No teraz tojest maszyna, nie? Ale to jest jeszcze jeden poziom, słuchajcie Państwo, bo tojest pytanie, kto ma potem te kompetencje? To znaczy, maszyny to nie spływają,to jest tak, że za tym stoi wielki kapitał, za tym stoją bardzo konkretnekorporacje.
Dzisiaj nie tknęliśmy tego w tej rozmowie, ale to też jesteksplorowane. Na końcu to jest pytanie, OK, my sobie przyspieszamy naszezadania w miejscu pracy, nasze zadania i procesy jakimś tam dostawcą AI,powiedzmy „x”, żeby nie pokazywać na żadnego konkretnego. OK, no to terazprzyspieszyliśmy 10-krotnie, super, robimy w konsekwencji 10 razy szybciej ibierzemy 3 razy tyle, powiedzmy, zleceń i tam ludzie potem mają, oczywiście, odrazu więcej pracy tej trudnej, no bo AI robi, powiedzmy, tą łatwą, ale potempojawia pytanie: „Dobra, to na końcu kto ma te kompetencje? Jeżeli Tykorzystasz z maszyn, które wykonują zadania ekspertów, to kto ma Twoją wiedzęekspercką, kto ma informacje przetwarzane przez te systemy wiedzy eksperckiej?”.
I gdzieś tam na końcu pojawia się pytanie, czy aby to nie jestjednym z celów tej całej rewolucji, o której słyszymy, żeby bardzo konkretnegrupy kapitału przejęły wszystkie krytyczne procesy gospodarcze i kontrolowałykluczowe procesy przetwarzania danych. W ogóle abstrahujemy teraz od kwestiideskillingu, ale gdzieś są też takie ryzyka strategiczne na końcu – kto ma Twojedane i kto ma Twoje kompetencje, i na ile dyktuje Ci warunki potem, np. koszty.A co, jeżeli firma podniesie 10-krotnie subskrypcję, nie? To co, zrezygnujesz zwiedzy?
Dr Ewa Hartman: A już Twoi pracownicy nie potrafią tegorobić.
Dr Iwo Zmyślony: A już Twoi pracownicy się zdeskillowali,tak?
Dr EwaHartman: A jużnie wrócisz do tego, żeby ponownie coś robili ludzie.
Dr Iwo Zmyślony: No więc, weźcie, to jest takie strategiczne,że dlatego my chociażby musimy dbać, wymyślić sposób w naszych firmach, jakdbać o to, żeby wiedza ekspercka naszych pracowników…
Dr EwaHartman: …zostałafirmie.
Dr Iwo Zmyślony: Dokładnie, nie?
Dr EwaHartman: No tojest duży temat.
Dr Iwo Zmyślony: No duży.
Dr EwaHartman: Tojest duży temat, jednocześnie tutaj mamy nadal cały czas wysiłek, cały czasmamy biznes, który chce przyspieszać, prawda? Który jak najszybciej chcelikwidować „wąskie gardła”…
Dr Iwo Zmyślony: …jak najniższym kosztem.
Dr EwaHartman: Tak,jak najniższym kosztem likwidować „wąskie gardła”. I znowu nam tu wchodzi tenmózg ludzki – on umie, ale musi być w odpowiednich warunkach, żeby mu sięchciało, prawda? Bo inaczej mu się nie będzie chciało, bądź nie będzie wstanie, w braku zaufania, w przemęczeniu, w trybie przetrwania i mu się niebędzie chciało. I to, co mówisz, bardzo mi przypomina pewną taką japońską… niejapońską, tylko łacińską sentencję, która została mi jeszcze po studiach, nawiązującdo szkoły, w której była Twoja siostrzeniczka. I pełna sentencja jest taka: „Per aspera ad astra”.
Dr IwoZmyślony: Czyli„Przez cierpienie do gwiazd”.
Dr EwaHartman: Tak,prawda?
Dr Iwo Zmyślony: Oczywiście, to jest stare jak mądrość Zachodu,czy w ogóle mądrość ludzka, że nie ma „There is no free lunch”. To znaczy,kompetencja to nie jest to, że coś robisz, tylko to, że umiesz. To jest to, żety próbowałeś, próbowałaś, próbowałaś, próbowałaś, próbowałeś, nie wychodziło,nie wychodziło, nie wychodziło, potem zaczęło wychodzić, a potem doskonalić. Iprzeszedłeś tą drogę 100 razy, utrwaliłeś te połączenia neuronalne i to jestkompetencja, a nie to, że Ty masz wynik, nie? Dlatego wcześniej uciekłem od tegopytania o kompetencje, że my mamy bardzo uproszczony obraz, bo myślimy, że kompetencjeto jest to, co daje wynik.
Dr Ewa Hartman: Finalnie tak.
Dr Iwo Zmyślony: Tak, tylko, że ja dlatego mówię, że tosą zadania i procesy, albo Ty masz kompetencje do robienia tych zadań iprocesów, albo Ty przerzuciłeś te zadania i procesy na maszyny i sam traciszokazję, żeby te kompetencje kształtować, utrwalać. I jak, zacytuję terazCiebie, jeśli nie używasz jakiegoś kawałka mózgu, to te neurony sąnieodżywiane, tak? Tam informacje…
Dr EwaHartman: Tak,tak, metabolicznie są niezasilane.
Dr Iwo Zmyślony: Więc z czasem rdzewieją, tak? OK,łatwiej wrócić, tak? Ale ten powrót też wymaga wysiłku. Więc naprawdę takabardzo praktyczna… Uważam, że mówimy o rzeczach, które są bardzo dobrzeuzasadnione naukowo na gruncie wielu różnych tradycji. To nie tylko psychologiapoznawcza, to są neuronauki, ale też sama inżynieria danych i właśnie to, co Chollet,który wychodzi z pozycji inżyniera systemów uczenia maszynowego i dochodzi dotych wniosków, że naprawdę wiemy, co dzisiaj robić, żeby zabezpieczyć się imieć zasoby do rozwoju w świecie postępującej automatyzacji. W świecie, gdziecoraz więcej zadań i procesów wykonują maszyny. I mamy firmy, organizacje,które to robią od dawna, bo ja naprawdę, jak ja robię warsztaty na ten temat,czy jakieś wystąpienia, to ja pokazuję teksty, które ja poznałem 10 lat temu – itam ciągle to jest.
Zobaczcie sobie Państwo, możemy zalinkować oczywiście,wystąpienie pana, który stworzył takąspołeczność Kaggle, czyli konkurs dla twórców uczenia maszynowego z 2016roku. I on tam już wtedy to mówi. Myśmy wtedy już wiedzieli, że przyszłośćgłębokiego uczenia to jest przyspieszanie zadań i procesów, skalowanie zadań iprocesów, powtarzalnych, typowych, w typowych kontekstach, w stabilnychśrodowiskach, natomiast to, co człowiek umie, to jest zrobienie rzeczy nowychkontekstowo, specyficznych, adaptacja do nowych okoliczności, zdolność do,mówimy obrazowo, łączenia kropek, czyli wyszukiwania informacji, którychmaszyna nie ma w bazie danych, nie ma w bazie treningowej.
Mówienia nawet maszynie, bo to ktoś powie, że „OK, ale tomaszyna wykryje”, no ale tak, ktoś musi zaprojektować sensory dla tej maszyny.Znaczy, maszyna skądś musi brać informacje, które potem będzie przetwarzać wtym systemie. Więc ona jest ślepa i głucha, to człowiek jej podaje – poprzeztakie czy inne dane wejściowe, poprzez informacje w bazie treningowej, czypoprzez jakieś sensory, które to potem baza treningowa przetwarza.
Więc cały czas tylko, owszem, zawężamy, ale jednocześniepogłębiamy ten obszar gdzie to człowiek będzie robił przewagi i – jeszcze raz –przynajmniej dopóki nie powstanie inteligencja ogólna syntetyczna w tymgłębokim rozumieniu, nie w tym znaczeniu komercyjnym. Nie jest w tym znaczeniu,że nazywamy coś inteligencją ogólną, tylko tak, jak to zdefiniował Chollet.
Dr EwaHartman: Aleczłowiek musi mieć do tego warunki.
Dr Iwo Zmyślony: Warunki – i takie osobiste – czyli,podsumowując, to jest, że „Ja chcę”, ja mam ten zasób też ten dopaminowy, czyliutrwaloną zdolność do robienia rzeczy trudnych, i że mam warunki środowiskowe,czyli to, co nazywamy dobrostanem, mówiąc ogólnie – bezpieczeństwopsychologiczne i procesy w organizacji, które na to pozwalają.
Dr EwaHartman: Iteraz chciałabym Ci zadać takie pytanie na koniec. Wyobraź sobie, że zasiadaszw jury konkursu „Firma, która wspiera” – „Firma, która wspiera pracownika wdobie AI”. I Ty, jako juror, jakie byś kryteria oceny wstawił do takiegokonkursu? Co chciałbyś widzieć, że „Firma która wspiera pracownika w dobie AI”robi? Co ona takiego robi?
Dr Iwo Zmyślony: Ale wspiera pracownika w dobie AI?
Dr EwaHartman: Tak.
Dr Iwo Zmyślony: To jest dobre pytanie, ale nie mamjakoś przemyślanej odpowiedzi. Pierwsze, co myślę, to jest, czy ta firmapotrafi tworzyć przestrzeń do eksperymentu.
Dr EwaHartman: OK, czylipierwsze, to przestrzeń do eksperymentu.
Dr Iwo Zmyślony: Czy, właśnie, bo to jest trudnomierzyć, znaczy, czy tworzy też warunki do eksperymentu, bo ta przestrzeń tojest to, czy właśnie przełożeni w tej firmie, procesy, bo to trzeba by w takimkonkursie umieć mierzyć. Jak mierzyć to, czy, po pierwsze, organizacja rozumie,jakie zadania i procesy wymagają eksperymentu.
Ja się posługujętutaj, może Państwu podpowiem, kapitalnym modelem na to jest tzw. CynefinFramework. Dave Snowden z IBM opracował taki framework, niektórzy na tomówią macierz, ja wolę, która pozwala określić, jakie zadania i procesywymagają eksperymentowania, takiego zwinnego podejścia, iterowania takiego,gdzie my rozpoznajemy bojem, mówiąc o branży.
I to jest dla mnie to kryterium. Czyli firma, która wspiera AI,bo całą resztę automatyzuje, bo to jest drugie kryterium w tym konkursie. Pokażmi, ile swoich zadań i procesów w modelu biznesowym efektywnie zautomatyzowałaś.Tylko, wiesz, problem z tym konkursem jest taki, że co model biznesowy, to sąinne kryteria.
Bo jedni będą, bo choć to zależy od tego, kto tam kupuje, jakta firma chce rosnąć, więc mam kłopot z takim konkursem, bo co z czymporównywać, nie? Ale myślę, że to te dwa czynniki – to znaczy, na ileosiągnąłeś sukces w automatyzacji, jakoś tam mierzonej w kontekście twojegomodelu biznesowego. Efektywność automatyzacji, ale znowu – jak mierzona?Kosztami? Skalowalnością? Poniesionymi kosztami? Ciężko tak rozstrzygać.
A z drugiej strony, wspieranie człowieka oznacza, czy tworzymywarunki do rozwoju tych kompetencji nieautomatyzowalnych i do robienia tychrzeczy, których automaty nie potrafią, natomiast mogą nas wspiera, tzw.augmentacja. Maszyny też mogą nas wspierać w eksperymentach, modelowaniu,przyspieszać te zadania i procesy, ale na końcu to jest to – właśnie tylko mypotrafimy robić to, co robi ogólna inteligencja, czyli pozyskiwać zupełnie nowejednostkowe dane i interpretować całą naszą wiedzę w kontekście tych nowychdanych, stawiać hipotezy, zadawać pytania, projektować eksperymenty, a potemwyciągać wnioski i podejmować decyzję, czy dalej idziemy, czy piwotujemy.
Dr EwaHartman: A pamiętasz,Ty, ze swojego życia – teraz odchodzimy na chwilę od AI – taką sytuację, wswojej karierze, że faktycznie dostałeś, ze strony firmy, bądź pracodawcy,wsparcie, i to z Tobą zostało? I co to było?
Dr Iwo Zmyślony: Tak. Znaczy, pamiętam wszystkie tesytuacje, kiedy tego zabrakło i to jest wbrew pozorom bardzo ważnedoświadczenie, bo wszyscy mamy doświadczenia ze złymi przełożonymi, z po prostuludźmi, którzy tego nie rozumieją strategicznie, i można się bardzo dużonauczyć od złych przełożonych i złych organizacji. I to jest naprawdę bezcienia kokieterii tutaj. Natomiast tak, ja mam to szczęście właśnie, że jamówię o rzeczach, które nie tylko rozumiem i badam, ale też doświadczyłem tegow środowisku akademickim, czyli przestrzeń eksperymentu w środowisku eksperckim,w ramach pewnego obszaru, gdzie, z jednej strony, Ty musisz się wykazać bardzowysokimi kwalifikacjami merytorycznymi, żeby, powiedzmy, wejść do pewnej grupy,ale z drugiej strony, jak już masz te kwalifikacje, to w tej grupie jest przestrzeńdo eksperymentu, do zadawania pytań, do sformułowania hipotez, do dywagowania,wchodzenia właśnie w różne procesy, które są niepewne i nawet na końcu jestporażka, informacja o tym, że coś się nie udało.
Ale ta porażka jest zawsze źródłem, po pierwsze, wiedzy o tym,co nie działa –tutaj, powiedzmy, Popper się kłania, falsyfikacjonizm – alboźródłem nowej wiedzy, którą z procesu właśnie robienia rzeczy trudnychwynosimy. To jest też tak, że robiąc coś, ja podaję przykład, kurczę, zobaczciesobie Państwo historię SpaceX, właśnie, Muska. Oni pierwsze trzy starty mieliporażki, ale to było po to, żeby się nauczyć, co działa, co nie działa. No więctakie firmy są.
Też pracowałem z artystami, o czym wspomniałaś, i akurat tu niepowiem, bo to jest środowisko, które często deklaruje różnego rodzaju rzeczy,ale akurat ta przestrzeń do eksperymentu to nie zawsze funkcjonowała poprawnie.Raczej tam była często presja na to, żeby zrobić coś, co się dobrze sprzeda, poprostu, kuratorsko, gdzieś tam publiczności. Natomiast poznałem artystów czyprojektantów, bo też pracowałem przez wiele lat z designerami, projektantami,wiele osób, które wchodziły w procesy eksperymentu niesione takim właśniesubiektywnym drive’em, osobistym drive’em, poszukując. Nie wiem, artysta robipracę pół roku, szuka jakiegoś rozwiązania formalnego, robi prototypy jeden zadrugim, inwestuje w to mnóstwo kasy, bo to wszystko kosztuje, żeby produkować,a na końcu podejmuje decyzję, że jednak nie ma tego efektu, na którym mu zależało.
I tak, sąartyści, są uczeni, naukowcy, są środowiska, gdzie to jest oczywiste. I to jesttak, że Ty musisz mieć ten drive wewnętrzny, Sinek mówi „O why, dlaczego torobisz, w tym napędzie?”, ale ja dodaję do tego to, co nam podpowiada,nie wiem, chociażby David Rock, czy Amy Edmondson, czy Carol Dweck dzisiaj, badania nad growth mindsetem, żejeśli chcesz mieć to w biznesie, to nie możesz liczyć na to, że wszyscy będąjak takie falochrony i nie potrzebują wsparcia.
Nie, takich ludzi w populacji prawie nie ma, tych wybitnychjednostek, które nie potrzebują wsparcia. Większość z nas potrzebuje wsparciaśrodowiska do wchodzenia w takie procesy. I powiem tak, że teraz szkoląc ispotykając na warsztatach ludzi z biznesu od kilku lat już, bo to takintensywnie od, powiedzmy, tam pięciu, sześciu lat mam grupy z bardzo różnychorganizacji.
Tak, to jestnaprawdę wielu, poznałem prawdziwych liderów biznesu, którzy, chociażby podamprzykład, zobaczcie sobie Państwo historię Krzysztofa Folty, twórcy firmy TIM.Jego wywiady, znaczy z nim, jakie on ryzyka podejmował, i czym ryzykował, i jakmu to się opłaciło na końcu – i zadać sobie pytanie, co trzeba mieć, umieć, żebyosiągnąć taki sukces, umieć podejmować decyzje w warunkach skrajnejniepewności.
Znaczy, jak liczysz, że zrobisz innowacje w oparciu opowtarzalne praktyki, to nierozumiesz, czym jest innowacja. Nawet jak kopiujesz rozwiązania to podejmujeszryzyko. Przykłady, takie jeszcze z rynku, no to, nie wiem, marka Oshee. Jakpowstała marka Oshee, to było skopiowanie jakiegoś tam pomysłu ze Stanów, aletwórcy marki podjęli ogromne ryzyko.
Takie więcej przykładów, nie wiem, historia na przykład Fritz-koli, też jest podobna.Więc po produktach można pokazać że takie firmy istnieją, które potrafią torobić. Natomiast jak pracuję z biznesem, to albo pracuję z ludźmi, którzy tomają i potrzebują jakiegoś tam wsparcia, albo wchodzę do firmy, która, pojakimś czasie okazuje się, że oczekuje, że ktoś to jej zrobi, i ludzie niebiorą odpowiedzialności. I wiem, że ta różnica jest bardzo trudna dowytworzenia – różnica motywacji właśnie. Dzisiaj mówię, że tego potrzebujesz,bo bez tego nie będziesz umiał robić rzeczy, których nie potrafią automaty. Jeżeli chcesz się rozwijać, jeżelipotrzebujesz długiego trwania jako organizacja, trzeba w to inwestować.
Dr EwaHartman: Czylijest miejsce dla firm, które wspierają?
Dr Iwo Zmyślony: Jest miejsce, ale bym powiedział, żeczas pokaże, które biznesy pójdą w tę stronę pełnej automatyzacji – na pewnotakie będą – a które pójdą w stronę rozwoju tego, co nieautomatyzowalne. Ale tojest wszystko, co możemy powiedzieć, bo ze względu na niestabilność otoczenia mynie wiemy, w którą stronę konteksty się potoczą, w jaką stronę potoczą sięokoliczności makros, to znaczy technologie – technologie na razie wiszą naprzykład na metalach ziem rzadkich, o czym mało się mówi, na technologiachenergetycznych. Teraz to, co korkuje rozwój dzisiaj tak naprawdę technologii,to dostępność metali ziem rzadkich, które są konieczne do budowania tego całegożelastwa. Dostępność energii. No i przepraszam, o co są wojny na świecie? Dzisiajto jest generalnie jedna z odpowiedzi na pytanie, też po co jest eksploracjakosmosu.
Więc dziś, jak to będzie skalować, to zależy od tego, gdziebędziemy mieli te skoki, powiedzmy, na zewnątrz systemów, w których działamy,na zewnątrz systemów naszej organizacji. Póki co, ja wiem, widzimy, wszyscywidzimy, to nie jest tak, że my teraz wymyślamy dyskusję o kulturzeorganizacyjnej, o bezpieczeństwie psychologicznym. Są firmy, które w toinwestowały od lat – i to od lat co najmniej 10 czy 15, nie? Dzisiaj tylko sklejamyto, że to jest dokładnie to, co musisz mieć, zasób strategiczny, bez któregonie ruszysz kompetencji nieautomatyzowalnych, nie?
Dr EwaHartman: Nowłaśnie. To co? Trochę pracy jeszcze przed nami, żeby nam się chciało chciećgłównie.
Dr Iwo Zmyślony: Żeby nam się chciało chcieć, tak. Iżeby organizacje to rozumiały.
Dr EwaHartman: Czylimamy robić trudne rzeczy….
Dr Iwo Zmyślony: …z ciekawymi ludźmi.
Dr EwaHartman: Zciekawymi ludźmi. No i tego sobie życzymy. I tego życzymy naszym słuchaczom.Róbcie trudne rzeczy z ciekawymi ludźmi. Dziękuję.





.jpg)