Marketing i Biznes Luźne Elon Musk: AI może stanowić poważne zagrożenie dla społeczeństwa i ludzkości

Elon Musk: AI może stanowić poważne zagrożenie dla społeczeństwa i ludzkości

Czy jesteśmy na ostatniej prostej, aby zmienić bieg historii? Okazuje się, że rozwój sztucznej inteligencji może nieść ze sobą szereg nieodwracalnych konsekwencji. „Zaawansowana sztuczna inteligencja może oznaczać głęboką zmianę w historii życia na Ziemi, dlatego powinna być planowana oraz zarządzana z odpowiednią troską i zasobami” — czytamy w otwartym liście podpisanym m.in. przez Elona Muska oraz innych technologicznych liderów, opublikowanym przez Future of Life Institute, w którym nawołują do wstrzymania działań związanych z rozwojem systemów AI potężniejszych niż GPT-4.

Elon Musk: AI może stanowić poważne zagrożenie dla społeczeństwa i ludzkości
Eksperci ds. sztucznej inteligencji są coraz bardziej zaniepokojeni ryzykiem, związanym z rozwojem sztucznej inteligencji. Z racji szerokiej skali potencjalnych zagrożeń liderzy nawołują do wstrzymania działań związanych z rozwojem systemów potężniejszych niż ChatGPT-4 na 6 miesięcy. Narzędzia AI nasuwają również pytania związane z tym, czy AI pozbawi nas pracy, wywracając rynek do góry nogami oraz nasze dotychczasowe relacje z technologią.

Prowadzisz firmę? Dołącz do Founders Mind, najlepszej konferencji dla biznesu w Polsce

Sprawdź szczegóły wydarzenia

Liderzy technologiczni, w tym Elon Musk, obecny CEO Twittera oraz Steve Wozniak, współzałożyciel Apple, nawołują do zaprzestania wyścigu, którego jesteśmy świadkami, dotyczącego gwałtownego i niekontrolowanego rozwoju sztucznej inteligencji. Oświadczenie pojawiło się na stronie Future of Life Institute, organizacji non-profit, wspieranej przez Muska, zaledwie dwa tygodnie po tym, jak OpenAI wypuściło GPT-4, potężniejszą wersję technologii, która leży u podstaw wiralowego chatbota ChatGPT.

Systemy sztucznej inteligencji ze współzawodniczącą ludzką inteligencją mogą stanowić poważne zagrożenie dla społeczeństwa i ludzkości, jak wykazały przeprowadzone na szeroką skalę badania, potwierdzone przez czołowe laboratoria sztucznej inteligencji. (..) Zaawansowana sztuczna inteligencja może stanowić głęboką zmianę w historii życia na Ziemi i powinna być planowana i zarządzana z odpowiednią troską i zasobami. Niestety, ten poziom planowania i zarządzania nie ma miejsca. W ostatnich miesiącach laboratoria sztucznej inteligencji utknęły w wymykającym się spod kontroli wyścigu, aby rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidywać lub niezawodnie kontrolować – czytamy w opublikowanym oświadczeniu Future of Life Institute.

Prowadzisz biznes? Wyjedź w gronie 30 innych fonderów i pogłębiaj branżowy networking w otoczeniu malowniczych krajobrazów. Wypełnij niezobowiązujący formularz.

Z racji szerokiej skali potencjalnych zagrożeń liderzy nawołują do wstrzymania działań związanych z rozwojem systemów potężniejszych niż ChatGPT-4 na okres 6 miesięcy. W otwartym liście stwierdzono również, że niezależni eksperci powinni wykorzystać proponowaną przerwę, aby wspólnie opracować i wdrożyć zestaw wspólnych protokołów dla narzędzi AI, które są bezpieczne. Jeśli pauza w działaniach nie zostanie wkrótce wprowadzona, oświadczenie głosi, że w takiej sytuacji powinny wkroczyć rządy i wprowadzić moratorium.

Współczesne systemy sztucznej inteligencji stają się obecnie konkurencyjne dla ludzi w powszechnych zadaniach i musimy zadać sobie pytanie: (…) Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć nas liczebnie, przechytrzyć i zastąpić? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją? – podkreślają skalę problemu liderzy. 

Zważając na skalę skupienia uwagi w ostatnim czasie wokół ChatuGPT, nie jest zaskoczeniem, że tempo wyścigu w rozwoju i wykorzystania narzędzi AI w produktach firm technologicznych nabrało na prędkości. Szczególnie przodują pod tym względem tacy giganci jak OpenAI, Microsoft oraz Google. Startupy również konkurują na tym polu z nie mniejszym zaangażowaniem, opracowując asystentów pisania AI oraz generatory obrazów. Pytanie, gdzie leży granica, za którą nie ma już odwrotu.

Potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a związane z nimi ryzyko będzie możliwe do opanowania – głosi oświadczenie.

Eksperci ds. sztucznej inteligencji są coraz bardziej zaniepokojeni ryzykiem, związanym z rozwojem AI, możliwością rozpowszechniania dezinformacji czy też wpływem na prywatność konsumentów. Narzędzia AI nasuwają również pytania związane z tym, czy AI pozbawi nas pracy, wywracając rynek do góry nogami oraz nasze dotychczasowe relacje z technologią. Być może jesteśmy na skraju jutra; być może to jedyny moment, aby zrobić krok w tył i zastanowić się, dokąd w istocie zmierzamy.

Podziel się

Zostaw komentarz

Najnowsze

Powered by: unstudio.pl