Twój koszyk jest obecnie pusty!
Loading the Elevenlabs Text to Speech AudioNative Player…
Modele LLM robią bardzo dobrze to, do czego zostały stworzone. Na podstawie całej zawartości okna kontekstu, duże modele językowe wyliczają prawdopodobieństwo dla każdego z setek tysięcy możliwych tokenów obsługiwanego słownika. Wyłącznie w oparciu o prawdopodobieństwa ostatecznie podjęta jest decyzja i wskazany jeden token z wszystkich możliwych, ten który przekazany będzie na wyjście oraz doklejony do całego dotychczasowego kontekstu. W rezultacie kontekst się powiększył i można powtórzyć proces i wygenerować kolejny token.
Póki modelu nie użyjemy do czegoś konkretnego, co ma wynik poddający się weryfikacji, nie ma w tym procesie w zasadzie nic, co można krytykować.









