Regularyzacja to technika stosowana w uczeniu maszynowym w celu zapobiegania nadmiernemu dopasowaniu, które występuje, gdy model jest zbyt złożony i zbyt dobrze pasuje do danych treningowych, co prowadzi do słabego uogólnienia na nowe, niewidoczne dane. Regularyzacja wprowadza termin karny do funkcji celu optymalizowanej podczas uczenia, zachęcając model do tego, aby był mniej złożony i unikał nadmiernego dopasowania. Zazwyczaj stosowane są dwa rodzaje regularyzacji: regularyzacja L1 (znana również jako regularyzacja Lasso) i regularyzacja L2 (znana również jako regularyzacja Ridge), z których każdy ma swój własny okres karny. Regularyzacja L1 zachęca model do posiadania rzadkich współczynników, podczas gdy regularyzacja L2 zachęca do małych wartości współczynników. Obie techniki można stosować niezależnie lub łączyć w tym samym modelu.
Data publikacji: