- Introduction: régression et problèmes de multicolinéarité, p>n, valeurs manquantes.
- Régularisation: réduction de la dimensionnalité (PCR, PLS), pénalisation (Ridge, Lasso, Elastic net), régularisation et biais.
- Méthode Power, NIPALS, PCA et valeurs manquantes, géométrie de NIPALS, sparse PCA.
- PLS1-NIPALS, PLS2-NIPALS, SIMPLS
- Validation du modèle, détermination du nombre de composantes, intervalles de confiance bootstrap pour les coefficients, critère d’information AIC/BIC, nombre de degrés de liberté,
- PLS1 et les méthodes de Lanczos, PLS1 et les sous-espaces de Krylov.
- Géométrie de PLS1
- PLS1 et optimisation d’un critère: critère de Tucker
- PLS et sélection de variables: sparse PLS
- OPLS
- PLS discriminante: PLS DA, approche de Barker & Rayens
- PLS et très grande dimension: Kernel PLS , PLS non linéaire.
- PLS généralisée : PLS logistique, PLS poisson, PLS Cox, PLSDR
- Applications, Softs