Dropout is een regularisatietechniek die wordt gebruikt in deep learning-modellen om overfitting te voorkomen. Het omvat het willekeurig selecteren van neuronen in het netwerk die tijdens de training moeten worden genegeerd of "uitgevallen", waardoor hun bijdrage aan de activering van stroomafwaartse neuronen wordt verminderd. Dit helpt om complexe co-aanpassingen tussen neuronen te voorkomen, waardoor het model veerkrachtiger wordt en minder snel op de trainingsgegevens past. Tijdens testen of inferentie worden alle neuronen geactiveerd om voorspellingen te doen. Uitval blijkt effectief te zijn bij het verbeteren van de prestaties van deep learning-modellen, met name bij grote en complexe datasets, en wordt in de praktijk veel gebruikt.
Publicatie datum: