Input Decay: Simple and Effective Soft Variable Selection
Pour tenir compte des problèmes de sur-entraînement qui apparaissent quand il n'y a pas assez d'exemples comparativement au nombre de variables d'entrées durant l'apprentissage supervisé, les approches traditionnelles sont la pénalisation de la norme des paramètres (weight decay) et la sélection de variables vorace. Une alternative qui est apparue tout récemment est de garder toutes les variables, mais de mettre plus d'emphase sur celles qui sont le plus utiles. Nous introduisons une nouvelle méthode de régularisation, appelé "pénalisation sur la norme des entrées"" (input decay), qui applique une plus grande penalité relative sur les paramètres associés aux entrées qui contribuent le moins à la fonction apprise. Cette méthode, comme la pénalisation de la norme des paramètres (weight decay) et la sélection de variables, demande tout de même d'appliquer une sorte de sélection de modèle. Une série d'expériences comparatives avec cette nouvelle méthode ont été appliquées à deux taches de régression, une qui était simulée et l'autre à partir d'une vrai problème financier."
[ - ]