5  Rappels sur le \(k\)-means et la CAH

Ces méthodes sont certainement les deux algorithmes les plus utilisés en apprentissage non supervisé.

L’algorithme des \(k\)-means propose de trouver un représentant pour chaque classe, appelé centroïde, en minimisant :

\[ \frac{1}{n}\sum_{i=1}^n\min_{j=1,\dots,K}\|x_i- c_j\|^2. \]

Plusieurs types d’algorithmes peuvent être utiliser pour trouver des solutions (locales) à ce problème. Une fois la solution obtenue, les clusters s’obtiennent en affectant chaque observation à son centroïde le plus proche.

Une CAH va quant à elle définir des clusters de façon récursive en agrégeant à chaqué étape les deux clusters les plus proches au sens d’une mesure de proximité à définir.

Exercice 5.1 (kmeans et CAH sur R) On considère les données

tbl <- read_delim("data/donclassif.txt",delim = ";")
ggplot(tbl)+aes(x=V1,y=V2)+geom_point()

  1. Discuter du nombre de clusters pour ce jeu de données.

    Le choix du nombre de groupes est toujours une question difficile. On peut dire à minima qu’il y a 4 groupes : un dans chaque coin. Ensuite, il semble éventuellement possible de scinder les groupes de droite en sous-groupes pour arriver au total à 9-10 groupes.

  2. Tester différents algorithmes \(k\)-means, visualiser les résultats et discuter de la capacité de cet algorithme à identifier les différentes structures géométriques des données.

    Commençons par un \(k\)-means à 4 groupes :

    On passe à plus de groupes

    On visualise les résultats :

    Sans surprise, le \(k\)-means ne parvient pas à scinder les spirales en bas à droite et les cercles concentriques en haut à droite.

  3. Sélectionner le nombre de classes à l’aide du coefficient de silhouette. On pourra utiliser la fonction fviz_nbclust du package factoextra. Visualiser les clusters avec fviz_cluster.

    On choisit 4 groupes que l’on visualise :

  4. Faire le même travail avec la classification ascendente hiérarchique. On commencera par comparer les différentes méthodes d’agglomération en fonction du nombre de clusters, afin d’en déduire une stratégie efficace permettant notamment d’identifier les spirales et les cercles concentriques.

    On commence par calculer la matrice de distances et on visualise les dendrogrammes

    On regarde maintenant ce qu’il se passe pour un nombre de classes fixé, par exemple 8.

    Ici encore il est difficile d’identifier les cercles concentriques et la spirale. Pour y parvenir, on propose de regarder un peu plus en détails le lien simple :

    La silouhette augmente à nouveau quand on passe à 17 groupes : cela correspond à la division des groupes du bas :

    On a également une cassure lorsqu’on passe à 35 groupes avec ici une baisse de la silouhette :

    Elle provient de la séparation des spirales. L’identification des spirales produit donc une baisse de la silouhette. Cela s’explique par le fait que ce coefficient n’est pas adapté à ce type de structures géométriques (il va privilégier des clusters à géométrie sphérique). On termine en visualisant la classification à 35 groupes, en ne conservant que les “gros” groupes :

Exercice 5.2 (CAH sur un gros jeu de données) On reprend le même jeu de données mais avec plus d’individus :

tbl <- read_delim("data/donclassif2.txt",delim = ";")
dim(tbl)
[1] 70000     2
  1. Que se passe t-il lorsque vous faites une CAH ?

    Le nombre d’individus est trop important pour calculer la matrice des distances. Il est bien connu qu’on ne peut pas faire une CAH lorsque \(n\) est (trop) grand.

  2. Proposer une solution pour faire quand même la CAH.

    La solution classique consiste à faire une classification mixte :

    • Faire un \(k\)-means avec un nombre de groupes conséquent ;
    • Faire le CAH sur les centroïdes du \(k\)-means (en prenant en compte la taille des clusters). Sur

    Sur R on peut faire cela avec la fonction HCPC du package FactoMineR.