Marketing i Biznes IT Sztuczna inteligencja w marketingu: czy to już ten moment, kiedy warto dołączyć do wyścigu?

Sztuczna inteligencja w marketingu: czy to już ten moment, kiedy warto dołączyć do wyścigu?

Co przemawia za tym, by dać Sztucznej Inteligencji szansę? Tworzenie treści Sztuczną Inteligencją — co trzeba wiedzieć? Sztuczna Inteligencja w tworzeniu powtarzalnych (a jednocześnie unikalnych) tekstów. Czy to się może udać? Czy Sztucznej Inteligencji można już zaufać? Na jakie wydarzenia w świecie SI powinni czekać marketingowcy?

Prowadzisz firmę? Dołącz do Founders Mind, najlepszej konferencji dla biznesu w Polsce

Sprawdź szczegóły wydarzenia

Jeszcze kilka lat temu dyskusje nad użytecznością Sztucznej Inteligencji w codziennych, powtarzalnych czynnościach, miały charakter czysto teoretyczny. Po lekturze kilku zdań wygenerowanego przez GPT-2 tekstu w języku polskim, można było wysnuć prosty wniosek: to jeszcze nie teraz. Czy dziś, w 2022 roku, można już z całą odpowiedzialnością stwierdzić, że można zaufać SI? 

 

Co przemawia za tym, by dać Sztucznej Inteligencji szansę?

 

Przede wszystkim fundacja OpenAI i model GPT-3, który od kilku miesięcy jest wreszcie udostępniany na szerszą skalę. Dlaczego to tak ważne wydarzenie? Odpowiedź na to pytanie jest szczególnie ważna dla użytkowników z takich państw, jak Polska. 

 

W teorii mogliśmy przecież korzystać z GPT-2 czy GPT-2 Large, bo poprzednie generacje modelu od OpenAI wspierały nasz rodzimy język. Model GPT-3 przyniósł tu zupełnie nową jakość. Co warto podkreślić, moduł odpowiedzialny za generowanie tekstu – WebText2 – obsługuje aż 19 miliardów połączeń. Oznacza to, że jest on niemal 13 razy większy, niż cały GPT-2. A to tylko 22% tego narzędzia, które — łącznie — ma ponad sto razy więcej połączeń NPU, niż poprzednik.

 

Warto zwrócić też uwagę na to, że „wsad”, czyli pliki, na których GPT-3 był trenowany, to niemal 600 GB, które zostały wyselekcjonowane z łącznej puli 45 TB danych. Na efekty nie trzeba było długo czekać. 

 

Osoby, które obserwują rozwój Sztucznej Inteligencji w Polsce, szybko zdały sobie sprawę z tego, że tak zaawansowane technicznie rozwiązanie pozwala na tworzenie dobrej jakości publikacji w naszym ojczystym języku. Nie są to już teksty, które są pozbawione sensu i logiki. 

 

SI ewoluowała, a za sprawą rozbudowanej sieci parametrów i wyciąganiu logicznych wniosków narzędzie ostało znacznie poprawione względem poprzednika. Duża w tym zasługa tokenowania wiązkowego, które nie obciąża zbyt mocno serwera, dzięki czemu, gdy korzystamy z usługi webowej, jak Rytr czy WriteSonic, na wygenerowanie tekstu potrzebujemy zaledwie kilkudziesięciu sekund. 

 

Tworzenie treści Sztuczną Inteligencją — co trzeba wiedzieć?

 

Moja praktyka pokazuje, że często są to publikacje, które wymagają tylko kosmetycznej obróbki. Na dziś dzień Sztuczna Inteligencja, podobnie, jak zawodowy copywriter, ma swoje „ulubione” tematy, w których sprawdza się zaskakująco dobrze. Wskazałbym tu na artykuły ze świata:

 

  • mody,
  • nowoczesnych technologii,
  • popkultury,
  • sportu,
  • medycyny,
  • zdrowego trybu życia. 

 

Czy to oznacza, że SI nie poradzi sobie na przykład z wygenerowaniem treści dotyczących rynku finansowego czy kryptowalut? Niekoniecznie. Po prostu przy takich artykułach zawsze rekomenduję zachowanie większej czujności i dokładną analizę wpisu. 

 

Model GPT-3 ma tendencje do tworzenia czegoś, co można określić mianem rzeczywistości częściowo alternatywnej. Wielokrotnie spotykałem się z sytuacją, kiedy np. historia powstania Bitcoina mieszała się z początkami Ethereum czy DogeCoinem, a jednocześnie same informacje dotyczące zasad kopania czy wolumenu kryptowaluty były już zgodne ze stanem faktycznym. 

 

Można było na przykład dowiedzieć się, że Bictoin powstał w 2013 roku, dzięki Vitalikowi Buterinowi oraz że system jest ograniczony do 21 milionów bitmonet. Tylko druga część zdania jest prawdziwa. Trzeba więc zachować czujność i postawić na choćby częściową weryfikację danych.

Tryb parafrazowania tekstu w SonicWriter – do ideału trochę brakuje, ale jest zaskakująco dobrze!

 

Kluczowe obszary ryzyka dla pracowników contentu, na które zwróciłbym szczególną uwagę, to:

 

  • treści lokalne (inwestycje drogowe w Wodzisławiu Śląskim, nowe mieszkania w Raciborzu w 2022 roku itp.),
  • artykuły odnoszące się tylko do wąskiego kręgu (np. wpis o pizzerii w Rybniku),
  • publikacje o nowościach (np. o smartfonie, który dopiero wchodzi do sprzedaży).

 

Jest dość prawdopodobne, że — na dziś dzień — nie poradzi sobie z nimi żaden komercyjny model, jak GPT-3, AI21, Gopher czy Jurassic-1. Problemem są pliki wsadowe. Jeśli na etapie trenowania model nie otrzymał choćby podstawowej wiedzy o wybranym urządzeniu, to trudno będzie mu wygenerować artykuł na ten temat. Nie jest to niemożliwe, jednak takie teksty mogą nie spełnić oczekiwań: czy to agencji, czy klienta. 

 

Nie wierzysz? Spróbuj wygenerować dobrej jakości tekst o długości 5K ZZS dla takich tematów, jak:

 

  • najlepsze polskie książki w 2022 roku,
  • TOP-5 popularnych zespołów punkowych w Polsce, które wciąż grają,
  • Gdzie zjeść dobrą pizzę w Rybniku.

 

Efekty raczej nie będą zachwycające. Nawet jeśli szczęśliwym trafem uda się stworzyć niezłej jakości tekst, to SI nie zapewni nam na tym polu powtarzalności. A przecież właśnie po tym można stwierdzić, czy model jest dla nas użyteczny, czy nie. Można odwołać się tutaj do starego powiedzenia: nawet zepsuty zegar dwa razy na dobę pokazuje właściwą godzinę. My zaś chcemy ją widzieć zawsze. 

 

Sztuczna Inteligencja w tworzeniu powtarzalnych (a jednocześnie unikalnych) tekstów. Czy to się może udać?

 

Praca w branży SEO czy digital marketingu jest związana z koniecznością tworzenia tekstów pod wybrane frazy kluczowe i słowa. Bez trudu można znaleźć firmy, które, na przykład ze względu na swój model działania, mają dość wąskie portfolio produktów lub usług, które chcą promować. 

 

Trudno będzie zastąpić taką frazę główną, jak np. kąpielówki męskie czy radio z Androidem. W praktyce oznacza to konieczność przeznaczenia określonej liczby roboczogodzin na tworzenie tekstów, które — w pewnym uproszczeniu — można uznać za powtarzalne.

Mimo tego, że potencjał SI wciąż rośnie, to (jeszcze) nie można go uznać za wystarczający

 

Jeśli tworzymy je samodzielnie lub w zaufanym gronie, to mamy gwarancję tego, że takie publikacje będą unikalne. Nie można jednak wykluczyć sytuacji, kiedy podwykonawca postanowi pójść na skróty, w wyniku czego jakość takiego artykułu będzie po prostu kiepska: zarówno w ujęciu PR-owym, jak i pod kątem SEO. 

 

Alternatywą, która może kupić nam nieco spokoju, jest tryb parafrazowania publikacji, który odnajdziemy na przykład we WriteSonicu. To świetne rozwiązanie, które działa naprawdę dobrze. W moim modelu pracy udało się wypracować proces, który jeszcze bardziej zmniejsza ryzyko powielania treści. 

 

Na potrzeby tego artykułu przeprowadziłem kilka eksperymentów, generując parafrazę tekstu dla pięciu niezwiązanych ze sobą tematów. Kolejnym krokiem było nasycenie artykułów odpowiednimi frazami i słowami zależnymi. Na samym końcu, zostały one sprawdzone w Plagiarism Detector i Any Text Editor (w module porównywania treści). 

 

Wyniki, jakie udało się osiągnąć, stosując się do dokładnie rozpisanego procesu, są naprawdę dobre. Zanim jednak przejdę do ich omówienia, muszę wskazać kluczowe cechy, na jakie zwracałem szczególną uwagę. Były to:

 

  • jakość tekstu,
  • wysokie nasycenie fraz i słów zależnych,
  • zgodność z wytycznymi. 

 

Oba narzędzia wskazały na około 17% elementów wspólnych. Po lekkiej edycji tekstu oraz zmodyfikowaniu procesu, bez trudu można było osiągnąć wynik zbliżony do 10-15%. Oznacza to, że dedykowane oprogramowanie traktowało parafrazę stworzoną przez Sztuczną Inteligencję jako samodzielną, nową publikację.

 

Dlaczego to tak dobry wynik? Można odwołać się tutaj do wykładni akademickiej, dla której plagiatem jest tekst, którego stopień powtarzalności przekracza 40%. Prace magisterskie czy licencjackie różnią się jednak od typowych publikacji dostępnych online, dlatego też na potrzeby eksperymentu założyłem, że maksymalny próg nie powinien przekraczać 20%. 

 

Widać więc dość wyraźnie, że nawet prosta usługa webowa, jaką jest WrtiteSonic, po wdrożeniu odpowiedniego procesu, daje spory poziom komfortu. Z dużą dozą prawdopodobieństwa można założyć, że samodzielnie trenowany model z poprawnie wytypowanymi danymi wsadowymi uzyskałby porównywalny lub nieco lepszy rezultat.

 

Czy Sztucznej Inteligencji można już zaufać?

 

Niekoniecznie. Mimo tego, że jest to rozwiązanie, które stopniowo zyskuje naszą sympatię, to w branży marketingu, czy w działaniach contentowych, wciąż warto zastosować regułę ograniczonego zaufania. SI to świetne, coraz bardziej uniwersalne narzędzia, jednak kluczową rolę wciąż odgrywa czynnik kontrolny. 

 

O tym, że opinia o Sztucznej Inteligencji powoli się zmienia, świadczą m.in. badania przeprowadzone przez p. dr. Justynę Łapińską z Uniwersytetu Mikołaja Kopernika w Toruniu. Przeanalizowano w nich stopień zaufania do SI wśród pracowników sektora chemicznego. 

 

Już dziś, mimo tego, że tego typu narzędzia są dostępne na rynku zaledwie od kilku lat, poziom zaufania do SI został oszacowany na 6,34 w skali od 1 do 10. To bardzo dobry rezultat. Tym bardziej że w tym samym badaniu ogólne zaufanie technologiczne wyniosło „tylko” 5,59/10. 

 

O tym, że nie jest to odosobniony przypadek, świadczy też badanie przeprowadzone przez agencję Accencure. Ponad 40% respondentów uważa, że Sztuczna Inteligencja może usprawnić pracę firm działających w sektorze usług marketingowych. 

AI jeszcze nie odbierze marketingowcom pracy, ale bez wątpienia może ją ułatwić

 

Na jakie wydarzenia w świecie SI powinni czekać marketingowcy?

 

Rosnąca popularność GPT-3 to niejedyna ciekawostka ze świata SI. Wiele wskazuje na to, że najlepsze lata Sztuczna Inteligencja ma wciąż przed sobą. Ruszył istny wyścig zbrojeń, na którym w ostatecznym rozrachunku zyskają m.in. pracownicy działów marketingu.

 

Coraz więcej plotek mówi o szybkim debiucie GPT-4, który może obsługiwać nawet do 500 miliardów połączeń (choć nie brakuje też opinii, jakoby OpenAI miała skupić się raczej na rozbudowie modułu tekstowego i optymalizacji tokenizowania). 

 

Prawdziwym zwycięzcą mogą być jednak Chińczycy. Naukowcy z Państwa Środka po cichu, bez zbędnego rozgłosu, tworzyli swój własny model: Wu-Dao 2. Już dziś, mimo tego, że prace nad narzędziem wciąż trwają, propozycja od Chińczyków obsługuje aż dziesięć razy więcej połączeń, niż GPT-3! Co więcej, model był też trenowany na ponad 4,9 TB danych, z czego 1,2 TB stanowiły publikacje tekstowe w języku angielskim. Oznacza to, że było ich ponad dwa razy więcej, niż wynosił cały „wsad” do GPT-3. 

 

Jeśli Chińczycy udostępnią swój model online i dodają do niego wsparcie dla języka polskiego, jest więcej niż prawdopodobnym, że narzędzie pozwoli tworzyć jeszcze lepsze teksty. Kto wie, być może już za rok, zdecydowana większość zarzutów stawianych w tym artykule będzie już nieaktualna? To całkiem prawdopodobne.

O autorze:
Krzysztof Swoboda, Senior Content Specialist w Takaoto, AI Content Designer & Editor.

 

 

 

Podziel się

Zostaw komentarz

Najnowsze

Powered by: unstudio.pl