Czy AI jest zagrożeniem dla ludzkości jak przewiduje Stephen Hawking?

15.12.2017 AUTOR: Radek Borzym

Stephen Hawking uważa, że stworzenie sztucznej inteligencji będzie „albo najlepszą, albo najgorszą rzeczą jaka przytrafiła się ludzkości”. W ciągu ostatnich kilku lat słynny astrofizyk wielokrotnie wyrażał swój niepokój względem konsekwencji ewentualnego powstania AI przewyższającej intelektualne możliwości człowieka. Czy jest więc czego się obawiać?

Sam problem jest wysoce hipotetyczny, ale warto mu się przyjrzeć. Sztuczna inteligencja, która obecnie powstaje zawsze przeznaczona jest do wykonywania ściśle określonych czynności. Jeżeli jakaś firma, lub rząd potrzebuje pomocy AI, to zamawia lub tworzy program, który wyspecjalizowany będzie do wykonywania sprecyzowanej listy czynności, które się od niego oczekuje.

Nie ma potrzeby, żeby potrafił wykonywać inne funkcje, jest wręcz wprost przeciwnie. Sztuczna inteligencja powinna możliwie najlepiej wykonywać zdefiniowaną serię obowiązków, których się od niej wymaga, jednocześnie pożerając przy tym jak najmniej zasobów systemowych i będąc możliwie tanią w stworzeniu i utrzymaniu. Generalna sztuczna inteligencja, która naśladowałaby ludzką świadomość nie spełnia tej definicji i raczej w większości przypadków użycie wyspecjalizowanej AI byłoby bardziej optymalnym rozwiązaniem.

Stworzenie robotów nadających się do wszystkiego z jednej strony byłoby zadaniem niesamowicie trudnym, z drugiej zaś byłoby czymś nieopłacalnym ekonomicznie. Firmom produkującym roboty bardziej opłacałoby się sprzedawanie osobnych urządzeń lub programów wyspecjalizowanych do wykonywania ścisłe zdefiniowanych funkcji niż jednego robota odpowiedzialnego za wszystkie zdania. Nie chodzi tutaj bynajmniej tylko o ilość sprzedanych produktów, sam serwis takich robotów byłby niesamowitym wyzwaniem.

 

Z drugiej jednak strony jest możliwe, żeby sztuczna inteligencja stworzona w celu prowadzenia cyber lub konwencjonalnej wojny okazała się bardziej skuteczna niż przewidzieli to twórcy i doprowadzi do zniszczeń na większą skalę niż tego od niej oczekiwano. Każdy program może działać inaczej niż planowano i w ten sposób wyrządzić pewne szkody, nie doprowadzi jednak raczej do powstania zagrożenia dla istnienia ludzkości.

Innym problemem ze stworzeniem AI przewyższającym człowieka jest to, że ludzka świadomość jest czymś do tej pory niezdefiniowanym i słabo zrozumiałym. Jeżeli teoretycznie możliwe jest, żeby w przyszłości programiści tworzący naśladujące pracę mózgu sieci neuronowe stworzyli sztuczną świadomość poprzez czyste naśladownictwo, to w praktyce pewnie okaże się, że na ich drodze staną całe masy nieprzewidywalnych trudność, jak to zwykle bywa z tak ambitnymi projektami. Część ekspertów zapytanych w nieformalnej sondzie uważa, że AI na poziomie człowieka nigdy nie powstanie, większość daje 50% szansy, że pojawi się dopiero gdzieś przed 2050 rokiem.

Jest więc trochę czasu, żeby dokładnie przemyśleć rolę jaką sztuczna inteligencja przewyższająca możliwościami człowieka będzie odgrywała w przyszłości.

Artykuł powstał dzięki:

Coders Lab

Łącząc doświadczenie edukacyjne ze znajomością rynku pracy IT, Coders Lab umożliwia szybkie i efektywne zdobycie pożądanych kompetencji związanych z nowymi technologiami. Skupia się się na przekazywaniu praktycznych umiejętności, które w pierwszej kolejności są przydatne u pracodawców.

Wszystkie kursy odbywają się na bazie autorskich materiałów, takich samych niezależnie od miejsca kursu. Dzięki dbałości o jakość kursów oraz uczestnictwie w programie Career Lab, 82% z absolwentów znajduje zatrudnienie w nowym zawodzie w ciągu 3 miesięcy od zakończenia kursu.


Do góry!

Polecane artykuły

22.09.2020

Comarch e-Sale, jako e-commerce na dobry ...