Dropout er en regulariseringsteknik, der bruges i deep learning-modeller for at forhindre overfitting. Det involverer tilfældigt udvælgelse af neuroner i netværket, der skal ignoreres eller "faldes ud" under træning, hvilket reducerer deres bidrag til aktiveringen af nedstrøms neuroner. Dette hjælper med at forhindre komplekse co-tilpasninger mellem neuroner, hvilket gør modellen mere modstandsdygtig og mindre tilbøjelig til at overfitte træningsdataene. Under testning eller inferens aktiveres alle neuroner til at lave forudsigelser. Frafald har vist sig at være effektivt til at forbedre ydeevnen af deep learning-modeller, især med store og komplekse datasæt, og er meget udbredt i praksis.
Udgivelsesdato: