ECTS
30
Établissement
INP - ENSEEIHT
Liste des enseignements
Conférences
Infra. Systèmes et réseau virtualisées pour le Big-Data
Plateformes Middleware pour big data
Calcul Haure performance et applications
Algorithmes d'optimisation numérique pour l'apprentissage
Optimisation combinatoire et apprentissage
Apprentissage Machine
Technologies pour l'analyse de données massives
Learning par étude de cas
Projet transverse
Infra. Systèmes et réseau virtualisées pour le Big-Data
Établissement
INP - ENSEEIHT
Infra.Syst.R-V Big-data
Établissement
INP - ENSEEIHT
Plateformes Middleware pour big data
Établissement
INP - ENSEEIHT
Infrastructure Big data
Établissement
INP - ENSEEIHT
Projet Infrastructure
Établissement
INP - ENSEEIHT
Calcul Haure performance et applications
Établissement
INP - ENSEEIHT
Calcul Parallèle
Établissement
INP - ENSEEIHT
- Architecture des supercalculateurs modernes (processeurs multi-coeurs, multiprocesseurs ou noeuds SMP et NUMA, accélérateurs GPU, réseaux d’interconnexion).
- Classification de Flynn.
- Hiérarchie desmémoires caches.
- Principes de localité spatiale et temporelle.
- Programmation parallèle en MPI : communications point a point et collectives, opérations de réduction
et éventuellement optimisations. - Introduction à la programmation des GPU
Algorithmes pour le calcul à Hautes Performances
Établissement
INP - ENSEEIHT
Ce cours présente des notions de base pour l'analyse des
performances et de la scalabilité des algorithmes séquentiels et
parallèles pour le calcul à haute performance. Les arguments
traités sont:
- localité des données dans les mémoires cache: fonctionnement des
mémoires cache, "roofline model", "blocking" des algorithmes,
opérations BLAS de niveau 1, 2 et 3, algorithmes de
factorisation de matrices par blocs.
- scalabilité des algorithmes parallèles: surtout dans les
algorithmes parallèles et concept de scalabilité forte et
faible. Lois de Amdahl et Gustafsson
- algorithmes parallèles pour architectures à mémoire partagée:
parallélisme par tâche et analyse du chemin critique
- algorithmes parallèles pour architectures à mémoire distribuée:
modèle de Hockney, communications collectives, modélisation et
analyse d'algorithmes parallèles d'algèbre linéaire numérique
(produit et factorisation de matrices denses et creuses)
- analyse de la consommation de mémoire dans des graphes de
tâches: modèles d'analyse et minimisation de la consommation de
mémoire dans des algorithmes parallèles exprimés sous forme de
graphes de tâches
Algorithmes d'optimisation numérique pour l'apprentissage
Établissement
INP - ENSEEIHT
Assimilation de données
Établissement
INP - ENSEEIHT
Le cours rappelle les bases de l'assimilation de données pour les systèmes dynamiques de dimension finie, basées sur le formalisme bayésien afin d'introduire le filtrage non-linéaire et son implémentation particulaire. Le filtre de Kalman est présenté comme une solution particulière, et il est comparé au filtre particulaire en considérant l'interprétation géométrique de la malédiction de la dimensionnalité. La connexion entre l'AD bayésienne et le réseau récurrent sera présentée.
Optimisation combinatoire et apprentissage
Établissement
INP - ENSEEIHT
Optimisation Combi. et Apprentissage
Établissement
INP - ENSEEIHT
Apprentissage Machine
Établissement
INP - ENSEEIHT
Apprentissage machine
Établissement
INP - ENSEEIHT
Technologies pour l'analyse de données massives
Établissement
INP - ENSEEIHT
Technologies pour analyse de données massives
Établissement
INP - ENSEEIHT
Learning par étude de cas
Établissement
INP - ENSEEIHT
Apprentissage profond
Établissement
INP - ENSEEIHT

