Résumé:
En apprentissage automatique (Machine Learning, ML), une méthode ensembliste consiste à
combiner plusieurs algorithmes d'apprentissage automatique en réduisant la variance et le biais
des modèles de base pour obtenir des prédictions de meilleure qualité.
Dans ce contexte, Il existe deux grandes classes de méthodes ensemblistes : les méthodes
séquentielles telles que le Boosting et les méthodes parallèles telles que le Bagging. D’un autre
côté, le « Stacking » peut être considéré comme étant une généralisation du Bagging.
L’objectif de ce projet est d’étudier le principe du Boosting et présenter quelques algorithmes
de « Boosting ».