Transformer – jak działa rewolucyjna architektura?

Na co warto zwrócić w tego typu modelach uwagę, i dlaczego przede wszystkim na mechanizm uwagi?

Ten artykuł jest częścią serii „Tłumaczymy! Naukowe klasyki”, do której zapraszamy ekspertów, by dla nas objaśniali najważniejsze, klasyczne już, publikacje naukowe z dziedziny sztucznej inteligencji.

Nie wiem, jak to świadczy o moim życiu prywatnym, ale gdyby ktoś zapytał mnie o trzy najbardziej sexy słowa roku 2023, to byłyby to: generatywny, pretrenowany i transformer, które razem składają się na GPT, jak w ChatGPT. (ang. Generative Pretrained Transformer, GPT). GPT gościł na wielkich salach konferencyjnych i w małych gabinetach, najpierw naukowych, potem biznesowych, a na końcu zawitał w naszych salonach i kuchni. O GPT rozmawiano, GPT używano, ale nie dla wszystkich jasne było, czym ten twór właściwie jest? Sięgnijmy zatem do źródeł i przyjrzyjmy się, jak działa ta rewolucyjna architektura.

Ten artykuł jest częścią drukowanej edycji hAI Magazine. Aby go przeczytać w całości, wykup dostęp on-line

25 zł miesięcznie

Wykup dostęp

Zuza Kwiatkowska

Od prawie 10 lat po technicznej stronie mocy w branży AI. Od 2 lat pomaga tłumaczyć z naukowego na ludzki. Kreatywnie napędzana przez ADHD

Podziel się

Może Cię zainteresować