Skip to main content

Introduction

Dans différents articles, certaines tâches effectuées en Machine Learning ont été abordées rapidement. Ici, nous allons essayer de donner une vue d’ensemble rapide sur les différents type d’algorithmes que nous utilisons pour analyser les données RH et trouver des informations clés. Il s’agit ici de donner un bref aperçu ; plusieurs articles expliciteront les éléments apportés ci-dessous et expliciterons comment ces type d’algorithme s’appliquent aux données de sondage mesurant l’expérience-employé.

1.Types d’apprentissage

1. Apprentissage supervisé :
Dans l’apprentissage supervisé, les données d’entraînement sont étiquetées, c’est-à-dire qu’elles sont associées à des étiquettes ou des catégories prédéfinies. Le modèle est entraîné à partir de ces données étiquetées, ce qui lui permet d’apprendre à prédire les étiquettes correspondantes pour de nouvelles données non étiquetées. Les exemples courants d’apprentissage supervisé comprennent la régression et la classification. Dans la régression, le modèle prédit des valeurs continues, tandis que dans la classification, il prédit des étiquettes discrètes ou des catégories.

2. Apprentissage non supervisé :
À l’inverse, dans l’apprentissage non supervisé, les données d’entraînement ne sont pas étiquetées. Le modèle est chargé de trouver des structures ou des patterns intrinsèques aux données sans être guidé par des étiquettes prédéfinies. Les techniques d’apprentissage non supervisé comprennent le clustering, la réduction de dimensionnalité et la détection d’anomalies. Le clustering consiste à regrouper des données similaires dans des clusters, la réduction de dimensionnalité vise à réduire la complexité des données en préservant leurs informations essentielles, et la détection d’anomalies vise à identifier des observations qui se comportent de manière anormale par rapport au reste des données.

En résumé, l’apprentissage supervisé utilise des données étiquetées pour entraîner des modèles à prédire des étiquettes ou des catégories, tandis que l’apprentissage non supervisé explore des données non étiquetées pour découvrir des structures ou des patterns intrinsèques.

2. Classification

La classification est une tâche d’apprentissage supervisé où l’objectif est de prédire la classe (ou l’étiquette) d’une observation en fonction de ses caractéristiques (ou attributs). Contrairement à la régression qui prédit des valeurs continues, la classification prédit des étiquettes discrètes ou des catégories.

Il existe différents algorithmes de classification, chacun adapté à des types de données et des problèmes spécifiques. Parmi les algorithmes les plus couramment utilisés, on trouve les arbres de décision, les méthodes ensemblistes comme les forêts aléatoires et les méthodes de boosting (comme le boosting adaptatif par gradient), les machines à vecteurs de support (SVM), les k-plus proches voisins (k-NN), et les réseaux de neurones artificiels.

La classification est utilisée dans de nombreux domaines, notamment la médecine pour diagnostiquer les maladies, la finance pour la détection de fraudes, la reconnaissance de texte pour la catégorisation de documents, la détection de spam dans les e-mails, la reconnaissance d’images pour la classification d’objets, et bien d’autres applications.

En résumé, la classification est une méthode puissante d’apprentissage supervisé qui permet de prédire les classes ou les catégories des observations en fonction de leurs caractéristiques. Elle est largement utilisée dans de nombreux domaines pour automatiser des tâches de prise de décision et de catégorisation.

3. Régression

La régression est une méthode d’apprentissage supervisé utilisée pour modéliser la relation entre une variable dépendante et une ou plusieurs variables indépendantes. L’objectif de la régression est de trouver la meilleure approximation de la relation entre les variables, généralement sous la forme d’une fonction mathématique, afin de faire des prédictions ou d’expliquer le comportement de la variable dépendante en fonction des variables indépendantes.

Il existe différents types de régression, notamment la régression linéaire, la régression logistique, la régression polynomiale, la régression Ridge, la régression Lasso, et d’autres. Chaque type de régression est adapté à des situations spécifiques en fonction de la nature des données et de la relation entre les variables.

La régression est largement utilisée dans de nombreux domaines tels que l’économie, la finance, la biostatistique, l’ingénierie, les sciences sociales, et bien d’autres. Par exemple, en économie, la régression peut être utilisée pour modéliser la relation entre le revenu et la consommation des ménages. En biostatistique, elle peut être utilisée pour prédire la progression d’une maladie en fonction de divers facteurs de risque.

En résumé, la régression est une technique d’analyse statistique puissante qui permet de modéliser et d’analyser les relations entre les variables, ce qui permet de faire des prédictions et de prendre des décisions éclairées dans de nombreux domaines d’application.

4. Regroupement (Clustering)

Le clustering, ou regroupement, est une technique d’apprentissage automatique non supervisée visant à regrouper des observations similaires dans un ensemble de données en clusters ou en groupes homogènes. Cette méthode est largement utilisée dans divers domaines tels que l’analyse des données, la segmentation de la clientèle, la biologie, la recherche d’information et bien d’autres.

Le processus de clustering consiste à partitionner les données en groupes de sorte que les observations au sein d’un même groupe soient similaires les unes aux autres, tandis que les observations de différents groupes soient différentes. Il existe plusieurs algorithmes de clustering, parmi lesquels les plus couramment utilisés sont le K-means, l’agglomération hiérarchique, le DBSCAN et le clustering spectral.

Le clustering est utilisé dans une variété de scénarios, tels que la segmentation de la clientèle pour le marketing ciblé, la détection de communautés dans les réseaux sociaux, la segmentation des images médicales pour la classification des tissus, et la segmentation du marché pour l’analyse concurrentielle. En identifiant les similarités entre les observations, le clustering permet d’identifier des structures ou des motifs sous-jacents dans les données, ce qui peut aider les organisations à prendre des décisions éclairées et à extraire des informations significatives à partir de leurs données.

5. Détection d’anomalies

La détection d’anomalies, également connue sous le nom de détection d’outliers, est un processus qui vise à identifier les observations qui se comportent de manière différente ou inhabituelle par rapport au reste des données. Cette technique est largement utilisée dans de nombreux domaines, tels que la finance, la cybersécurité, la surveillance industrielle et la santé, pour détecter des événements ou des comportements anormaux qui pourraient indiquer des problèmes ou des fraudes.

La détection d’anomalies repose sur l’utilisation de modèles statistiques ou d’algorithmes d’apprentissage automatique pour identifier les points de données qui s’écartent significativement de la normale. Ces méthodes comprennent les méthodes basées sur la distance, telles que la détection des voisins les plus proches et les méthodes basées sur la densité, telles que les méthodes de clustering. Les méthodes d’apprentissage automatique, comme les réseaux de neurones et les machines à vecteurs de support (SVM), sont également utilisées pour détecter les anomalies en apprenant à partir des données.

La détection d’anomalies est utilisée dans une variété de scénarios, tels que la détection de fraudes par carte de crédit, la surveillance des réseaux informatiques pour détecter les intrusions, la détection de défaillances dans les systèmes industriels, et la détection de maladies ou de troubles médicaux basée sur des données de santé. En identifiant rapidement les observations anormales, la détection d’anomalies permet aux organisations de prendre des mesures correctives ou préventives pour minimiser les risques et protéger leurs actifs ou leurs opérations.

6. Réduction de dimensionnalité

La réduction de dimensionnalité est une technique essentielle en analyse de données qui vise à simplifier la représentation d’un ensemble de données en réduisant le nombre de variables ou de caractéristiques, tout en préservant autant que possible les informations essentielles. Cette approche est souvent utilisée dans plusieurs contextes, tels que la visualisation des données, la compression des données pour économiser de l’espace de stockage, ou encore pour améliorer les performances des modèles en réduisant la dimension de l’espace des caractéristiques.

En réduisant le nombre de dimensions, la réduction de dimensionnalité permet de simplifier la complexité des données tout en préservant les relations et les structures importantes entre les variables. Les méthodes de réduction de dimensionnalité les plus couramment utilisées incluent l’analyse en composantes principales (PCA), la méthode t-SNE (t-distributed stochastic neighbor embedding), et la réduction de dimension par sélection de caractéristiques. Ces techniques jouent un rôle crucial dans l’exploration et l’analyse de grands ensembles de données en fournissant des représentations plus gérables et interprétables.

7. Explicabilité des algorithmes : XAI (eXplainable Artificial Intelligence)

L’explicabilité en machine learning désigne la capacité à comprendre et expliquer les prédictions ou les décisions prises par un modèle de machine learning. Dans de nombreux cas, les modèles de machine learning, tels que les réseaux de neurones profonds ou les forêts aléatoires, peuvent être considérés comme des boîtes noires, ce qui signifie que leur fonctionnement interne est difficile à interpréter. Cela pose un défi majeur dans les domaines où la transparence et la compréhension des décisions sont cruciales, comme la santé, la finance ou la justice.

La librairie SHAP (SHapley Additive exPlanations) est un des outils de XAI puissant pour expliquer les prédictions des modèles de machine learning. Elle repose sur la théorie des jeux et les valeurs de Shapley, qui sont utilisées pour attribuer une importance à chaque fonctionnalité (feature) dans la prédiction d’un modèle. SHAP fournit des explications individuelles pour chaque prédiction, permettant ainsi aux utilisateurs de comprendre comment chaque fonctionnalité a contribué à la prédiction finale.

Concrètement, SHAP fournit des graphiques et des tableaux qui mettent en évidence l’impact de chaque fonctionnalité sur la prédiction, en montrant à quel point chaque attribut a contribué à augmenter ou diminuer la valeur de la prédiction par rapport à une valeur de base. Cela permet aux utilisateurs de mieux comprendre les prédictions du modèle et d’identifier les fonctionnalités les plus influentes dans le processus de prise de décision.

L’utilisation de SHAP offre de nombreux avantages, notamment une meilleure confiance dans les prédictions des modèles, la détection des biais potentiels, l’identification des fonctionnalités les plus importantes pour la tâche à accomplir, et une meilleure compréhension du problème à résoudre. En résumé, SHAP est un outil essentiel pour rendre les modèles de machine learning plus transparents et explicables, ce qui est crucial pour favoriser la confiance des utilisateurs et assurer une adoption plus large de ces technologies.

Conclusion

Dans cet article, nous avons brièvement et de façon non exhaustive présenter les tâches effectuées en Machine Learning. Dans de futurs articles, nous aurons l’occasion de montrer plus précisément comment les différents algorithmes mentionnés ci-dessus sont utilisables pour dégager des insights importants dans les données mesurant l’expérience-employé.