Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente | ||
cours_de_l_ed:start [2022/06/21 10:37] sonia |
cours_de_l_ed:start [2024/11/29 11:53] (Version actuelle) sonia |
||
---|---|---|---|
Ligne 3: | Ligne 3: | ||
**COURS DE l'ED** | **COURS DE l'ED** | ||
- | Trois cours de 24h chacun vous seront proposés prochainement. Les inscriptions sont dès à présent possible sur l'adum. | + | Cinq cours de 24h chacun vous seront proposés prochainement. Les inscriptions se feront sur l'adum ultérieurement. |
---------------------------- | ---------------------------- | ||
- | Pr Thierry ARTIERES | ||
- | Deep Learning | + | ==Propositions de cours ED 2024-2025== |
- | Lieu : Salle 019 dans le bâtiment La Jetée à l’école Centrale Marseille {{ :cours_de_l_ed:plan_ecm.pdf |}} | ||
- | Lundi 27 Juin 9h-12h 14h-17h | + | Christophe Pittet/Michael Puschnigg : Fibrés et classes caractéristiques |
- | + | ||
- | Mardi 28 Juin 9h-12h 14h-17h | + | |
- | Mercredi 29 Juin 9h-12h 14h-17h | + | Ravi Kunjwal LIS cours 1 : Quantum in pictures |
- | Jeudi 30 Juin 9h-12h 14h-17h | + | Oscar Defrain : Algorithmes d’énumération : tester efficacement ses algorithmes et conjectures. |
- | Vendredi 1er juillet 9h-12h 14h-16h | + | Dimitri Ara : Introduction à la théorie des quasi-catégories |
- | Programme : | + | Bruno Schapira : Intersections de marches aléatoires |
- | 1.Perceptron et perceptron multicouches | + | Raphael Beuzart-Pleussis : Introduction aux D-modules |
- | 2.Architectures denses et convolutionnelles | + | |
- | 3.Architectures profondes classiques | + | |
- | 4.Conception de systèmes, réutilisation de l’existant et transfert learning | + | |
- | 5.Réseaux récurrents, mécanismes d’attention et Transformers | + | |
- | 6.Apprentissage de représentations et embeddings | + | |
- | 7.Génération de données et Adversarial Learning Ressources | + | |
- | ----------------------------- | + | {{ :cours_de_l_ed:recap_cours_definitif_ed184_2024-2025.pdf |}} |
- | Pr Chu-min LI | + | |
- | A partir du **lundi 22 novembre 2021** sur le campus de St Jérôme | ||
- | **Planning** : 8 séances de 2,5H (1H cours, 1,5H TD) réparties sur quatre semaines. | ||
- | Deux séances par semaine le mardi et le jeudi de 9h30 à 12h00. | ||
- | + | **Tous les doctorants qui souhaitent suivre ces cours devront impérativement s'enregistrer dans l'adum.** | |
- | + | ||
- | Programme : | + | |
- | + | ||
- | Les problèmes NP-difficiles se trouvent dans beaucoup d'applications industrielles et académiques et il faut apporter des solutions à ces problèmes malgré la NP-difficulté. Il y actuellement deux types d'algorithmes dans la résolution pratique de ces problèmes: algorithmes heuristiques ou méta-heuristiques et algorithmes complets ou exacts. Un point en common de ces algorithmes est qu'ils ont en général besoin de prendre des décisions à chaque étape de la résolution. Beaucoup d'effort ont été faits dans la littérature pour améliorer la pertinence de ces décisions qui est cruciale pour la performance pratique de ces algorithmes. Mais assurer les meilleures décisions à chaque étape de la résolution pourrait être aussi difficile que le problème lui-même. | + | |
- | + | ||
- | L'apprentissage automatique est un outil puissant de l'intelligence artificielle qui a fait ses preuves dans beaucoup de domaines, permettant par exemple à un programme de battre les meilleurs joueurs du jeu de GO humains. Une tendance apparaît ainsi dans la littérature pour utiliser l'apprentissage automatique pour aider les algorithmes des problèmes NP-difficiles à prendre et améliorer des décisions à chaque étape de la résolution. | + | |
- | + | ||
- | L'objectif de ce cour est d'enseigner le principe d'application de l'apprentissage automatique pour améliorer les algorithmes des problèmes NP-difficile. Le contenu du cours est le suivant: | + | |
- | + | ||
- | - Problèmes NP-difficiles et leur application | + | |
- | - Algorithmes existants des problèmes NP-difficiles | + | |
- | - Principe de l'apprentissage automatique et de l'apprentissage par renforcement en particulier | + | |
- | - Intégration de l'apprentissage automatique dans les algorithmes des problèmes NP-difficiles | + | |
- | - Etude de cas | + | |
- | + | ||
- | --------------------------- | + | |
- | + | ||
- | Pr Hachem KADRI/Giuseppe DI MOLFETTA | + | |
- | + | ||
- | A partir du **17 janvier sur le campus de St Charles, Frumam 2ème étage dans la salle de séminaire** | + | |
- | + | ||
- | **Planning** : | + | |
- | + | ||
- | 17 janvier : de 10h à 11h30 et de 13h30 à 15h30 (HK) | + | |
- | 18 janvier : de 10h à 11h30 et de 13h30 à 15h30 (GM) | + | |
- | 19 janvier : de 10h à 11h30 et de 13h30 à 15h30 (GM) | + | |
- | 24 janvier : de 10h à 11h30 et de 13h30 à 15h30 (HK) | + | |
- | 25 janvier : de 10h à 11h30 et de 13h30 à 15h30 (HK) | + | |
- | 26 janvier : de 10h à 11h30 et de 13h30 à 15h30 (GM) | + | |
- | + | ||
- | Les séances du matin sont des séances de CM et celles de l'après-midi sont des TD/TP. Les inscrits aux cours doivent apporter leurs machines. | + | |
- | + | ||
- | Programme : | + | |
- | + | ||
- | Data Science & ML: an introduction (HK) [TD/TP | + | |
- | Basics of Python programming and Scikit-learn] | + | |
- | Quantum information theory : fundamentals | + | |
- | (DMG) [TD/TP Density matrix and separability] | + | |
- | Gate model, Quantum Amplitude Amplification, | + | |
- | Variational circuits (DMG) [TD/TP Searching] | + | |
- | Quantum machine learning: an overview (HK) | + | |
- | [TD/TP Quantum perceptron] | + | |
- | Classical-Quantum Hybrid Learning Algorithms | + | |
- | (HK) [TD/TP Quantum Kernels and SVM] | + | |
- | Quantum Assisted Learning and beyond (GDM) | + | |
- | [TD/TP Quantum Bandit] | + | |
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | **Tous les doctorants qui souhaitent suivre ces cours doivent impérativement s'enregistrer dans l'adum, la formation est en ligne.** | + |