Discrepance and dispersion : optimum criterion in machine learning ?
Discrépance et dispersion : des critères optimaux en apprentissage ?
Résumé
Nous souhaitons générer des bases d'apprentissage adaptées à la classification. Nous montrons d'abord que les résultats théoriques privilégiant les suites à discrépance faible pour les problèmes de régression sont inadaptés à la classification. Puis nous donnons des arguments théoriques et des résultats de simulation montrant que c'est la dispersion des points d'apprentissage qui est le critère pertinent à minimiser pour optimiser les performances en classification.