Marketing i Biznes AI Meta prezentuje Muse Spark. Nowy model AI ma być fundamentem „osobistej superinteligencji”

Meta prezentuje Muse Spark. Nowy model AI ma być fundamentem „osobistej superinteligencji”

Meta ogłosiła Muse Spark, pierwszy model z nowej serii rozwijanej przez Meta Superintelligence Labs. Firma przekonuje, że to kolejny krok w stronę „osobistej superinteligencji” - asystenta AI, który ma lepiej rozumieć potrzeby użytkownika, pomagać w codziennych zadaniach i odpowiadać nie tylko na proste pytania, ale też na złożone problemy wymagające rozumowania. Nowy model zasila już Meta AI w aplikacji Meta AI oraz na meta.ai. W praktyce oznacza to szybsze odpowiedzi, lepsze radzenie sobie z trudniejszymi zapytaniami i wsparcie dla zadań multimodalnych, czyli takich, które łączą tekst, obraz i inne typy danych.

Meta prezentuje Muse Spark. Nowy model AI ma być fundamentem „osobistej superinteligencji”

Prowadzisz firmę? Ucz się od najlepszych w branży i wyjedź w gronie innych przedsiębiorców na Founders Camp

Wypełnij niezobowiązujący formularz już teraz

Meta AI z nowym podejściem do rozumowania

Według Meta ostatnie dziewięć miesięcy przyniosło pełne przebudowanie jej stosu AI. Firma podkreśla, że Muse Spark powstał jako pierwszy, celowo mniejszy i szybszy model z nowej linii Muse, rozwijanej w sposób bardziej uporządkowany i naukowy. Każda kolejna generacja ma potwierdzać możliwości poprzedniej, zanim Meta przejdzie do większej skali.

To oznacza, że Muse Spark nie jest pokazem siły w stylu „największy model świata”, ale raczej fundamentem pod dalszy rozwój. Meta twierdzi, że mimo kompaktowej konstrukcji model potrafi już dobrze radzić sobie z pytaniami z obszaru nauki, matematyki i zdrowia.

Nowe funkcje w Meta AI

Wraz z Muse Spark Meta odświeża także aplikację Meta AI i serwis meta.ai. Użytkownicy mają otrzymać prostszy dostęp zarówno do szybkich odpowiedzi, jak i do bardziej zaawansowanego trybu rozumowania. Meta zapowiada też możliwość przełączania się między trybami w zależności od zadania.

Jedną z nowości ma być wykorzystanie kilku podagentów działających równolegle. W praktyce Meta AI może dzielić jedno pytanie na kilka części i rozwiązywać je równocześnie. Taki model działania ma przyspieszyć odpowiedzi i poprawić ich jakość, zwłaszcza przy bardziej złożonych zadaniach, takich jak planowanie podróży czy porównywanie opcji zakupowych.

AI, która „widzi” więcej niż tekst

Meta mocno stawia też na multimodalność. Muse Spark ma umożliwiać Meta AI lepsze rozumienie obrazów, zdjęć i innych materiałów wizualnych, a nie tylko tekstu wpisywanego przez użytkownika. To ważny element strategii firmy, bo – jak podkreśla Meta – wiele codziennych sytuacji wymaga właśnie analizy obrazu, a nie samego opisu.

Przykładowo użytkownik może zrobić zdjęcie półki z produktami, a Meta AI pomoże mu wybrać opcję o wyższej zawartości białka albo porównać konkretne produkty. Tego typu funkcje mają sprawić, że AI będzie bardziej praktyczna w realnych sytuacjach, zamiast ograniczać się do rozmowy tekstowej.

Meta zapowiada również, że ta technologia trafi do jej okularów AI, co ma jeszcze mocniej rozszerzyć możliwości rozpoznawania otoczenia i kontekstu.

AI w zdrowiu, zakupach i codziennych decyzjach

Jednym z obszarów, na które Meta zwraca szczególną uwagę, jest zdrowie. Firma twierdzi, że Muse Spark ma lepiej wspierać użytkowników w pytaniach dotyczących zdrowia, w tym także w analizie obrazów i wykresów. Meta zaznacza, że rozwijała ten obszar we współpracy z lekarzami, aby odpowiedzi były bardziej użyteczne przy popularnych pytaniach zdrowotnych.

Nowe możliwości obejmują też zakupy i inspiracje stylizacyjne. Meta AI ma pomagać w wyborze ubrań, aranżacji wnętrz czy kupowaniu prezentów, a także korzystać z treści tworzonych przez społeczność i marki w aplikacjach Meta. Dodatkowo użytkownik ma dostawać bardziej kontekstowe rekomendacje dotyczące miejsc, trendów i tematów, które są aktualnie popularne.

Meta AI wychodzi poza sam czat

Meta chce, by jej asystent był mocniej osadzony w ekosystemie społecznościowym. W kolejnych aktualizacjach odpowiedzi Meta AI mają zawierać więcej kontekstu z Instagrama, Facebooka, Messengera, WhatsAppa i okularów AI. Firma zapowiada też bogatsze odpowiedzi, wzbogacone o Reelsy, zdjęcia i posty społeczności, z odpowiednim przypisaniem twórcom.

Na razie nowe funkcje startują w USA, ale Meta planuje rozszerzać je na kolejne rynki w najbliższych tygodniach. Część technologii ma być też udostępniana partnerom w ramach prywatnego podglądu API, a w przyszłości kolejne wersje modelu mają trafić do otwartego udostępniania.

Co to oznacza dla rynku AI?

Muse Spark pokazuje, że Meta nie chce już być tylko jednym z graczy w wyścigu modeli AI, ale budować własną, długoterminową wizję produktu opartego na relacjach, kontekście i codziennym użyciu. Zamiast kolejnego „większego modelu”, firma stawia na AI, która ma być bliżej życia użytkownika i lepiej rozumieć jego świat.

Dla rynku to ważny sygnał: konkurencja w AI coraz bardziej przesuwa się z samej mocy modelu na użyteczność, multimodalność i integrację z ekosystemem aplikacji. Jeśli Meta dowiezie te funkcje w praktyce, Meta AI może stać się jednym z najważniejszych asystentów AI dla użytkowników masowych.

Podziel się

Zostaw komentarz

Najnowsze

Powered by: unstudio.pl