Cyprien Doz

NUS

cyprien.doz [at] centralesupelec.fr

Résumé :

  • Les questionnements soulevés par l'apprentissage en grande dimension ont récemment mis en lumière des méthodes complexes sans explications mathématiques au détriment de méthodes plus simples analysables mathématiquement.
  • A l’aide de la théorie des matrices aléatoires, ces méthodes simples peuvent être théoriquement analysées et possiblement améliorées. Ceci avec l'intention d'explorer les progrès récents de cette théorie appliquée à l’apprentissage statistique (parmi lesquels la classification spectrale, l’apprentissage semi-supervisé, le regroupement sur graphe, ainsi que des méthodes simples de réseaux de neurones) pour proposer des méthodes de partitionnement améliorées et en déduire leurs performances chaque fois qu’elles sont accessibles.

Mots clés :

  • Matrices aléatoires, grande dimension, transfer learning