🔒 Jak rozsupłać neurony? Czyli co się kryje w dużych modelach językowych

Rozpracowanie dużych modeli językowych (LLM) to jedno z największych wyzwań w AI. A gdyby zamiast biernie analizować ich wewnętrzną logikę, spróbować aktywnie wpływać na ich działanie? Tu z pomocą wkraczają rzadkie enkodery, które pozwalają na kontrolowane modyfikowanie zachowania modelu. Tylko jak to zrobić?

Loading the Elevenlabs Text to Speech AudioNative Player…

Na łamach „hAI Magazine” (nr 3/2024) Michał Karpowicz wyjaśniał hipotezę superpozycji w sieciach neuronowych. W uproszczeniu zakłada ona, że neurony w takich modelach są często polisemantyczne (wieloznaczne) – nie odpowiadają za jeden konkretny koncept, lecz za wiele jednocześnie. Dlaczego tak się dzieje? Liczba konceptów, które model musi „zrozumieć” podczas realizacji zadania, znacznie przewyższa liczbę dostępnych neuronów. W efekcie neurony odgrywają rolę „wielozadaniowych” jednostek, co sprawia, że ich interpretacja staje się wyjątkowo trudna. Każdy neuron bierze udział w przetwarzaniu wielu nakładających się na siebie wątków, tworząc swoistą „sieć splątania” konceptów i znaczeń.

Badacze opracowali metodę umożliwiającą rozplątywanie tych ukrytych w neuronach zależności. Wykorzystali do tego rzadkie autoenkodery (sparse autoencoders, SAE). Co ciekawe, takie modele nie są nowe – pojawiły się w świecie uczenia maszynowego już znacznie wcześniej, ale wówczas nie zyskały większej popularności. Dopiero niedawno, po tym, jak wykorzystano je do analizy modeli językowych, badacze znów się nimi zainteresowali. To doskonały przykład na to, że stare metody mogą powrócić do łask, jeśli znajdzie się dla nich nowe, praktyczne zastosowanie. 

Ten artykuł jest częścią drukowanej edycji hAI Magazine. Aby go przeczytać w całości, wykup dostęp on-line

29,99 zł miesięcznie

Wykup dostęp

Senior Research Scientist w Samsung AI Center, doktorantka na Politechnice Warszawskiej, należy do grupy badawczej MI2.ai.

Podziel się

Może Cię zainteresować