Regularizarea este o tehnică folosită în învățarea automată pentru a preveni supraadaptarea, care apare atunci când modelul este prea complex și se potrivește prea mult cu datele de antrenament, ceea ce duce la o generalizare slabă la date noi, nevăzute. Regularizarea introduce un termen de penalizare la funcția obiectiv fiind optimizată în timpul antrenamentului, încurajând modelul să fie mai puțin complex și evitând supraadaptarea. În mod obișnuit, sunt utilizate două tipuri de regularizare: regularizarea L1 (cunoscută și ca regularizare Lasso) și regularizarea L2 (cunoscută și ca regularizare Ridge), fiecare cu propriul termen de penalizare. Regularizarea L1 încurajează modelul să aibă coeficienți rari, în timp ce regularizarea L2 încurajează valori mici ale coeficienților. Ambele tehnici pot fi utilizate independent sau combinate în același model.
Data publicării: