Marketing i Biznes IT „Staniemy przed koniecznością budowy nowego systemu społecznego. Rozwiązaniem będzie minimum income”

„Staniemy przed koniecznością budowy nowego systemu społecznego. Rozwiązaniem będzie minimum income”

„Staniemy przed koniecznością budowy nowego systemu społecznego. Rozwiązaniem będzie minimum income”

Prowadzisz firmę? Dołącz do Founders Mind, najlepszej konferencji dla biznesu w Polsce

Sprawdź szczegóły wydarzenia
Ewelina Wołoszyn jest CEO w Lonsley – software house, który zajmuje się budową i rozwojem rozwiązań z zakresu Machine Learning. Zaangażowana w organizację wydarzeń wspierających przedsiębiorczość i innowacje. Stworzyła Tech Leaders – program mentorski dla kobiet w IT – ogólnopolską platformę wymiany wiedzy, skierowaną do kobiet, które chcą założyć własną firmę/startup, oraz do tych wspinających się po szczeblach kariery jako zatrudnione osoby.

Ukończyłaś socjologię na UJ. Jak to się stało, że stałaś się ekspertką od AI?

W bardzo podobny sposób, jak Steve Jobs czy Mark Zuckerberg, gdy zakładali oni kolejno Apple i Facebooka. Moje zainteresowania wielowymiarową analizą danych, która to jest powszechnie używana przez naukowców zajmujących się uczeniem maszynowym i sztuczną inteligencją, przerodziło się w pasję. Konsekwentny rozwój przedmiotu zainteresowań zaprowadził mnie tu, gdzie jestem.

W jaki sposób zostałaś CEO Lonsley?

Założenie firmy i objęcie pozycji CEO były następstwem rozwoju moich zainteresowań w temacie ML i AI. Był to kolejny, naturalny krok w rozwoju.

Zajmujesz się sztuczną inteligencją. Już od początków jej powstania w latach 50-tych twierdzono, że za kilka lat dorówna ona człowiekowi. Jak wiadomo ówczesne przewidywania się nie spełniły. Kiedy Twoim zdaniem AI dorówna człowiekowi?

Generalnie, wszyscy dążymy do zbudowania systemu zwanego Full AI, General AI lub też często The Singularity, czyli systemu, który w kwestii kompetencji, pod każdym względem przewyższy człowieka. Zapewne poczekamy na to jeszcze kilka, bądź kilkanaście lat.

Jeżeli mówimy zaś o systemach, które w pewnych określonych aktywnościach realizują dane zadania wyraźnie lepiej niż człowiek, istnieją już takowe i w wielu branżach są aktywnie wykorzystywane.

Chińczycy zamierzają wprowadzić korzystający z BIG Data i sztucznej inteligencji Social Credit System, który będzie monitorował i oceniał zachowania Chińczyków. Czy możliwe jest, żeby niedoskonałości współczesnego AI skazały ten projekt na zgubę i ocaliły miliard ludzi przed Wielkim Bratem?

Odpowiedź jest bardzo prosta: to zależy.

Klasyfikacja, czy system ten jest odgórnie nacechowany negatywnie, czy też pozytywnie, nie jest prostym problemem – wszak wszystko zależy od sposobu jego użytkowania i planowanego wykorzystania. Może się on przyczynić do wzrostu bezpieczeństwa, wykrywania zachowań pejoratywnych, czy wręcz niebezpiecznych dla życia i zdrowia obywateli. Myślę, że potrzeba budowy nowych, lepszych systemów bezpieczeństwa jest również obecna w Europie – popatrzmy na przykład na zamachy w Wielkiej Brytanii, Niemczech, Francji, Hiszpanii. Dlaczego nie rozwijać i nie wprowadzać do użytku systemów, które mają szansę ratować życie ludzkie i minimalizować zachowania niebezpieczne?

Czyli wyobrażasz sobie sytuację, w której taki system nie byłby wykorzystywany głównie do celów politycznych? Mi się wydaje, że oferowane obietnice bezpieczeństwa są tylko pretekstem służącym do zwiększenia kontroli nad obywatelami. Zachowania niepożądane społecznie mogą być bardzo różnie interpretowane.

Każdą innowację można wykorzystać dla dobra ludzkości, lub wręcz przeciwnie. Zwykły nóż kuchenny może służyć do przyrządzenia posiłku, stworzenia dzieła artystycznego, ale równie dobrze może być narzędziem do obrony lub ataku. Spoglądając na szersze spektrum przypadków – podobnie jest z każdą inną innowacyjną usługą lub produktem. Dlatego też, kwestie dotyczące wykorzystania systemów AI będą zależeć od tego, w jaki sposób i w jakim celu je zastosujemy. Podsumowując, obecny system nie jest idealny, stoimy przed wieloma wyzwaniami. Kwestie aplikacji systemów AI będą głównie zależeć od osób wprowadzających zmiany, ale i od reszty obywateli.

Stephen Hawking uważa AI za potencjalne zagrożenie dla ludzkości. Jaka jest Twoja opinia na ten temat?

Każdy postęp niesie ze sobą zarówno nadzieje i rozwiązania globalnych problemów, jak i również zagrożenia. Ważnym jest, by popularyzować wiedzę na temat AI, a także kierować rozwój tej technologii w stronę rozwiązywania nękających nas, jako ludzkość, fundamentalnych problemów. Konsekwencją tego być może stworzenie zupełnie nowego, lepszego systemu, w którym panują nowe zasady i reguły, w którym wszystkim nam będzie żyło się lepiej. Każdy wynalazek, taki jak na przykład samochód, czy pociąg, również przez wiele lat budził kontrowersje – mimo upływu lat, nic się w przypadku postępu i reakcji na niego, w naszym – ludzkim odbiorze, nie zmieniło.

Jakie według Ciebie kroki powinno się podjąć, żeby zminimalizować te zagrożenia i jak ma wyglądać system społeczny dostosowany do nowej sytuacji? Wiem, że jesteś zwolenniczką dochodu podstawowego, ale co jeszcze powinno się zmodyfikować/wprowadzić w przyszłości, żeby rzeczywistość odpowiadała wyzwaniom jakie stawia AI ?

Uważam, że dostęp do wiedzy na temat AI powinien być możliwie najszerszy. Zmiany, które ona wprowadza, dotkną absolutnie wszystkich. Popularyzacja dydaktyki na ten temat, podjęcie debaty, jak i budowanie ustaleń zmierzających do zbudowania harmonii na linii człowiek-maszyna, będą tutaj kluczowe. Aby zabrać głos i wypowiedzieć się w danej sprawie – trzeba temat ten zrozumieć, by widzieć szanse i zagrożenia. W takim przypadku, można być aktywnym uczestnikiem zmian, a nie tylko ich pasywnym odbiorcą.

Mówi się, że AI zależne jest od opinii osoby, która je zaprogramowała. Dane, którymi jest karmiona nigdy nie są dobrane w sposób w 100% bezstronny, co sprawia, że sztuczna inteligencja także nie jest bezstronna. Czy widzisz jakiś sposób na rozwiązanie tego problemu?

Prawda jest taka, że żadna informacja w naszym świecie nie jest w stu procentach obiektywna. W przypadku danych treningowych i testowych, dobór danych jest zazwyczaj kontekstowy – i zależy m.in. od rodzaju rozwiązania, które chcemy zbudować, jak i potrzeb i problemów, które rozwiązuje. Na tak generalnie postawione pytanie, mogę odpowiedzieć, że w skonstruowaniu bardziej obiektywnego systemu pomoże dostęp do większej ilości różnorodnych danych. Można również podejść do tematu w inny sposób – dać AI pełną możliwość decydowania, które dane i parametry są dla niej istotne, a następnie pozwolić jej nauczyć inny system AI. Takie podejście zastosowali naukowcy z DeepMind podczas pracy nad systemem AutoML. Wraz z czasem, tego typu systemy będą działać bardziej optymalnie, będą również coraz mniej zależne od czynnika ludzkiego.

Jak wyobrażasz sobie przyszłość, w której AI swoimi umiejętnościami przegoni człowieka? Nie będzie wtedy pracy, której robot nie będzie w stanie wykonywać lepiej niż homo sapiens.

Jeżeli ten scenariusz się sprawdzi, to staniemy przed koniecznością budowy nowego systemu społecznego, którego rozwiązaniem być może będzie minimum global income. Ludzie wtedy prawdopodobnie będą poświęcać się pracy twórczej i innym działaniom kreatywnym, acz w innych sferach, niezwiązanych z egzystencją, a wyznaczonych indywidualnie przez siebie. Długotrwałe problemy finansowe, bądź też sam brak odpowiednich środków materialnych, często są czynnikami hamującymi, bądź nawet powodującymi zanikanie określonych działań w społeczeństwie. Pamiętajmy również, że nadal na świecie istnieją ludzie pozbawieni pracy, dzieci zmuszane do niej, etc. Ten system nie jest łaskawy, nie daje wszystkim równych szans. Nawet kształcenie się i możliwość rozwoju to swego rodzaju komfort, na który nie każdy może sobie pozwolić. Wraz z rozwojem AI staniemy przed kolejnymi wyborami, które będą związane z rozwojem, modyfikacją i przystosowaniem AI do zmian społecznych, które zostaną wywołane.

W jaki sposób według Ciebie nowy system wejdzie w życie? Tego typu zmiany wymagają olbrzymiej woli politycznej.

W mojej opinii, to nie jest kwestia woli, tylko konieczności. Postęp i związane z nim nadchodzące zmiany wymuszą stworzenie nowego systemu. To nie jest kwestia tego, czy się to komuś podoba, czy nie. Wprowadzanie zmian będzie następstwem rzeczywistości, z jaką przyjdzie się nam zmierzyć. Wystarczy spojrzeć na regulacje prawne w temacie pojazdów autonomicznych – tak, one zostaną wprowadzone. Identycznie będzie również z kolejnymi regulacjami prawnymi i systemowymi, związanymi z innowacjami.

W jaki sposób można harmonijnie wkomponować sztuczną inteligencję we świat człowieka?

Logicznym jest, aby w przypadku nas samych, kształcić się i rozwijać w stronę dziedziny, która rewolucjonizuje każdy aspekt naszego życia. Niemniej, musimy zdać sobie sprawę, że to, co dziś nazywamy sztuczną inteligencją, w rzeczywistości jest – ni mniej, ni więcej – tylko inteligentnym podejściem do obliczeń. Budowane systemy już w tej chwili są wsparciem dla wyzwań, przed którymi stoimy. Bezkolizyjne wkomponowanie systemów AI wiąże się z koniecznością dostosowania etyki, prawa, oraz wielu innych standardów związanych z wprowadzaniem i ulepszaniem systemów. Świadomość konsekwencji, jakie niesie za sobą rozwój AI, zarówno zagrożeń, jak i aspektów pozytywnych, jest czynnikiem kluczowym do budowania płaszczyzny do współpracy, która z biegiem czasu powinna być harmonijnym współdziałaniem na linii maszyna-człowiek.

Jak według Ciebie ma wyglądać etyka robotów? Rozumiem, że ma to być coś bardziej rozbudowanego niż prawa Asimowa?

To zbudowanie systemu, w którym występuje koegzystencja maszyn i ludzi obok siebie, włącznie z systemem praw i zachowań. Jest to stworzenie świata, w którym zapewniony będzie rozwój zarówno ludziom, jak i maszynom. Innymi słowy, będzie to znacznie bardziej rozbudowany system praw, nakazów i uprawnień, niż aktualnie – system, który ma objąć nie tylko ludzi, ale i maszyny.

Na którą zmianę techniczną czekasz z największym utęsknieniem? Jaka fascynująca funkcjonalność AI według Ciebie niedługo stanie się rzeczywistością?

Najbardziej czekam na rewolucje na rynku medycyny. Wszystkie systemy, które pomogą w eliminacji określonych chorób, rozwiązywania problemów medycznych, czy też optymalizacji procesu leczenia, są dla mnie jak najbardziej godne uwagi. Mimo to, rozwój każdej dziedziny i jej transformacja będzie fascynującym procesem – począwszy od transportu, edukacji, healthcare, sprzedaży, aż po sztukę.

 

Co potrafiła zrobić stworzona przez Ciebie sztuczna inteligencja? Jakie było najbardziej zaawansowane AI, które dzięki Tobie powstało?

W odniesieniu do rozwiązań komercyjnych, które tworzymy w Lonsley, to jesteśmy objęci klauzulami poufności, na mocy umów z klientami. Często tworzymy asystentów wspierających m.in. działy sprzedaży, systemy rekomendacyjne, systemy analityki biznesowej i inżynierii wiedzy. Pracujemy również nad projektami związanymi z nowymi interfejsami człowiek-komputer. Część projektów, w których uczestniczymy, to projekty ściśle badawcze, ale będziemy o nich informować w odpowiednim czasie.

A nad jakim projektem najbardziej chciałabyś pracować, gdybyś mogła wybrać dowolny projekt bez patrzenia na jego wartość komercyjną?

Jak już wspomniałam, jesteśmy zaangażowani w kilka projektów badawczych, wobec tego mamy swobodę doboru tematów projektów, jak i partnerów. Sam wybór tematów do rozwoju jest bardzo ciekawym doświadczeniem – selekcję przechodzą tylko i wyłącznie rozwiązania generujące benefity w stopniu znaczącym zmieniające świat, jak i również zasadne pod kątem biznesowym.

Jakiś czas temu naukowcy próbowali nauczyć 2 AI komunikować się między sobą. Szybko doprowadziło to do wypracowania przez roboty własnego języka. Eksperyment przerwano. Czy uważasz sytuację, kiedy komunikacja między sztuczną inteligencją jest niezrozumiała dla postronnego obserwatora za potencjalnie niebezpieczną?

Myślę, że wiele nieporozumień w tym temacie bierze się stąd, iż przypisujemy sztucznej inteligencji cechy ludzkie, jak np. skłonność do konfliktów. Temat ten jest bardzo rozległy, a został przez nas zbadany w niewielkim procencie.

Uważam również, że wiele osób nie jest świadomych tego, że coś takiego jak języki naturalne, którymi się na co dzień porozumiewamy, to zjawisko analogiczne – dla wielu z nas, konwersacje prowadzone przez inne osoby w niektórych językach są kompletnie niezrozumiałe, a mimo to nie klasyfikujemy każdej takiej sytuacji jako potencjalnie niebezpieczną. Owszem, w tym przypadku mamy do czynienia z niezrozumieniem na linii człowiek-komputer, aczkolwiek kluczem do rozwiązania tego problemu jest praca nad narzędziami i technikami, które pozwolą nam lepiej to zrozumieć.

W przyszłości, gdy systemy typu Full AI/General AI staną się faktem, z pewnością bardzo szybko dojdzie do stworzenia interfejsu komunikacyjnego między systemami i urządzeniami, nad którym człowiek nie będzie miał jakiejkolwiek kontroli. Na dodatek, będzie się on dość szybko rozwijał, w związku z czym jego opanowanie będzie dla człowieka bardzo trudne, a w pewnym momencie może stać się nawet niemożliwe. Jest to wręcz nieuniknione, ale mamy wystarczająco dużo czasu, by się na to przygotować.

Warto jednak zwrócić uwagę, że wiele niejednoznacznych informacji na temat AI pojawia się ze strony dużych korporacji, jak i liderów opinii, takich jak np. Elon Musk. Elon z jednej strony ostrzega przed AI, zaś z drugiej bardzo intensywnie rozwija projekty mające na celu rozpowszechnienie AI, jak i przyspieszenie jej rozwoju – takie, jak np. OpenAI, czy NeuraLink.

Skąd pojawiają się te niejednoznaczności, o których mówisz? Czy ludzie tacy jak Musk czują, że nadejście AI jest nieuniknione, więc nawet jeżeli się jej obawiają, to wolą sami być odpowiedzialni za jej rozwój? Czy może ostrzeganie przed AI jest bardziej zabiegiem PR mającym zwrócić uwagę opinii społecznej na daną osobę?

Każdy z przypadków jest tutaj indywidualny, a i nie mi jednocznanie oceniać kto i dlaczego postępuje w taki właśnie sposób, w jaki postępuje. Uważam, że aktywny udział w tworzeniu AI jest zasadny z punktu widzenia społecznego i biznesowego. Jednocześnie, uważam, że kierowanie pejoratywnych skojarzeń w obrębie tej tematyki może być w wielu przypadkach świadomym i skutecznym zabiegiem marketingowym.

Artykuł powstał dzięki:

Coders Lab

Łącząc doświadczenie edukacyjne ze znajomością rynku pracy IT, Coders Lab umożliwia szybkie i efektywne zdobycie pożądanych kompetencji związanych z nowymi technologiami. Skupia się się na przekazywaniu praktycznych umiejętności, które w pierwszej kolejności są przydatne u pracodawców.

Wszystkie kursy odbywają się na bazie autorskich materiałów, takich samych niezależnie od miejsca kursu. Dzięki dbałości o jakość kursów oraz uczestnictwie w programie Career Lab, 82% z absolwentów znajduje zatrudnienie w nowym zawodzie w ciągu 3 miesięcy od zakończenia kursu.


 

Podziel się

Zostaw komentarz

Najnowsze

Powered by: unstudio.pl