Machine à vecteur du support (SVM)
dc.contributor.author | Ibrahim, Boussad | |
dc.contributor.author | Ameziane, Boussad | |
dc.date.accessioned | 2024-11-14T09:33:48Z | |
dc.date.available | 2024-11-14T09:33:48Z | |
dc.date.issued | 2022 | |
dc.description | 21f.:ill.,30cm | |
dc.description.abstract | Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais support-vector machine, SVM) sont un ensemble de techniques d'apprentissage supervisé destinées à résoudre des problèmes de discriminationet de régression. Les SVM sont une généralisation des classifieurs linéaires. Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis.Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique. Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance…). Les séparateurs à vastes marges sont des classificateurs qui reposent sur deux idées clés, qui permettent de traiter des problèmes de discrimination non linéaire, et de reformuler le problème de classement comme un problème d'optimisation quadratique. La première idée clé est la notion de marge maximale. La marge est la distance entre la frontière de séparation et les échantillons les plus proches. Ces derniers sont appelés vecteurs supports. Dans les SVM, la frontière de séparation est choisie comme celle qui maximise la marge. Le problème est de trouver cette frontière séparatrice optimale, à partir d'un ensemble d'apprentissage. Ceci est fait en formulant le problème comme un problème d'optimisation quadratique, pour lequel il existe des algorithmes connus. Afin de pouvoir traiter des cas où les données ne sont pas linéairement séparables, la deuxième idée clé des SVM est de transformer l'espace de représentation des données d'entrées en un espace de plus grande dimension (possiblement de dimension infinie), dans lequel il est probable qu'il existe une séparation linéaire. Ceci est réalisé grâce à une fonction noyau, qui doit respecter les conditions du théorème de Mercer, et qui a l'avantage de ne pas nécessiter la connaissance explicite de la transformation à appliquer pour le changement d'espace. | |
dc.identifier.citation | Mathématiques appliquées à la gestion | |
dc.identifier.uri | https://dspace.ummto.dz/handle/ummto/25427 | |
dc.language.iso | fr | |
dc.publisher | ummto | |
dc.subject | Théorème de Mercer | |
dc.subject | Théorie de Vapnik | |
dc.subject | Hyper plan | |
dc.subject | Marges souples | |
dc.title | Machine à vecteur du support (SVM) | |
dc.type | Thesis |