Skip to Main content Skip to Navigation
Conference papers

Les suites à discrépance faible : un moyen de réduire le nombre de vecteurs supports des SVMs

Résumé : L'apprentissage statistique consiste à déterminer une fonction mathématique à partir d'exemples supposés indépendants et identiquement distribués. Dans le cadre de l'apprentissage actif, nous pouvons choisir ces exemples. Des travaux théoriques dans le cas de la régression, ont prouvé que l'utilisation d'une base d'apprentissage issue de suites à discrépance faible permettait d'améliorer la vitesse de convergence des algorithmes d'apprentissage. Des expériences numériques, réalisées en classification avec des réseaux de neurones, ont montré que l'utilisation de ces suites augmente la qualité d'apprentissage. Ce papier reprend les résultats théoriques connus en régression et explique pourquoi ceux-ci ne se transposent pas en classification. Il présente également des tests numériques sur l'algorithme de classification des SVMs (Support Vector Machine ou Séparateur à Vaste Marge) avec des bases d'apprentissage issues de suites à discrépance faible. Les résultats obtenus ne montrent pas une amélioration de la performance, mais les SVMs obtenus sont plus compacts : ce qui peut engendrer un gain de vitesse de prédiction dans des applications de ces derniers.
Document type :
Conference papers
Complete list of metadata

https://hal.inrae.fr/hal-02590882
Contributor : Migration Irstea Publications <>
Submitted on : Friday, May 15, 2020 - 2:37:39 PM
Last modification on : Tuesday, March 23, 2021 - 5:22:03 PM

Identifiers

  • HAL Id : hal-02590882, version 1
  • IRSTEA : PUB00024705

Collections

Citation

Benoît Gandar, Guillaume Deffuant, G. Loosli. Les suites à discrépance faible : un moyen de réduire le nombre de vecteurs supports des SVMs. 12ème Journée Scientifique de l'Ecole Doctorale Sciences Pour l'Ingénieur Apprentisage Statistique Apprentissage Symbolique, Jun 2008, Clermont Ferrand, France. pp.9. ⟨hal-02590882⟩

Share

Metrics

Record views

20