Dubbel nedstigning

Inom statistik och maskininlärning är dubbel descent fenomenet där en statistisk modell med ett litet antal parametrar och en modell med ett extremt stort antal parametrar har ett litet fel, men en modell vars antal parametrar är ungefär detsamma som antalet av datapunkter som används för att träna modellen kommer att ha ett stort fel. Detta fenomen verkar motsäga bias-varians-avvägningen i klassisk statistik, som säger att att ha för många parametrar kommer att ge ett extremt stort fel.

Se även

externa länkar