Cyprien Doz

NUS

cyprien.doz [at] centralesupelec.fr

Résumé :

  • Les questionnements soulevés par l'apprentissage en grande dimension ont récemment mis en lumière des méthodes complexes sans explications mathématiques au détriment de méthodes plus simples analysables mathématiquement.
  • A laide de la théorie des matrices aléatoires, ces méthodes simples peuvent être théoriquement analysées et possiblement améliorées. Ceci avec l'intention d'explorer les progrès récents de cette théorie appliquée à lapprentissage statistique (parmi lesquels la classification spectrale, lapprentissage semi-supervisé, le regroupement sur graphe, ainsi que des méthodes simples de réseaux de neurones) pour proposer des méthodes de partitionnement améliorées et en déduire leurs performances chaque fois quelles sont accessibles.

Mots clés :

  • Matrices aléatoires, grande dimension, transfer learning