Quels sont les algorithmes d'apprentissage supervisé les plus répandus en ML ?
C'est un réel plaisir de vous retrouver la team #TheDayInfo 😎pour un nouvel article.
Nous allons découvrir aujourd'hui les algorithmes d'apprentissage supervisé en ML(Machine Learning).
Pour tout savoir sur la méthode d'apprentissage supervisé, je vous invite à lire
mon article là dessus.
|
Exemple d'un algorithme |
Le SVM (Support Vector Machine)
En apprentissage supervisé, lorsqu'on veut résoudre des problèmes de régression, de classification ou détecter des valeurs abbérantes avec moins de puissance de calcul, SVM est l'algorithme de choix.
Le principe ici avec le SVM est de trouver un hyperplan dans un espace à N-dimensions (avec N = au nombre de caractéristiques) qui classe distinctivement les points de données.
Arbre de décision(Decision tree)
Comme son nom l'indique, c'est un arbre qui aide à la prise de décision.
Pour faire simple, vous avez des données sur le prix des maisons. le prix d'une maison dépend des caractéristiques tel que: le nombre de chambre à coucher, le nombre de salle de bain, la superficie du terrain, présence de garage ou pas...etc
Ainsi, à chaque fois que nous avons certaines caractéristiques, nous avons un prix. Cet ensemble constitue une feuille de l'arbre et au fur et à mesure qu'on divise la variable cible(la maison), nous aurons une feuille qui est une valeur de la variable cible.
Régression Linéaire(Linear Regression)
La régression linéaire dans le cas de l'apprentissage supervisé est de trouver une variable dépendante Y à l'aide d'une variable indépendante X.
En cas pratique, nous pouvons avec la régression linéaire, chercher à prédire la pression artérielle(Y) en fonction de l'âge (X) du patient.
K-NN(K-Nearest Neighbour)
L'algorithme du plus proche voisin est un algorithme particulier car il utilise la totalité des données sans les diviser en données d'entrainement et de test.
Ensuite, lorsque de nouvelles données apparaissent, il parcourt l'ensemble des données à la recherche du K-instance similaire au nouveau k-instance et renvoi la moyenne des résultats. Le calcul de similarité se fait soit avec la distance Euclidienne ou la distance de Hamming.
Voilà, c'est tout pour aujourd'hui et j'espère avoir vos retours sur cet article.
Commentaires
Enregistrer un commentaire
Merci cher(ère) ami(e), tout le plaisir est pour moi.