Cours et Atelier de travail



Cours :

  • Cours 1: Bassem Ben Hamed, Professeur de l’Université Ecole Nationale d'Electronique et des Télécommunications de Sfax : « Machine Learning and Deep Learning ». Ce cours complet offre une base solide dans les domaines de l'apprentissage automatique et de l'apprentissage profond. Il couvre les concepts essentiels, les algorithmes et les techniques utilisés pour développer des systèmes intelligents capables d'apprendre à partir des données. Les participants approfondiront les principes de l'apprentissage supervisé et non supervisé, l'ingénierie des caractéristiques, l'évaluation des modèles et l'optimisation. De plus, le cours explore le domaine passionnant de l'apprentissage profond, en se concentrant sur les réseaux neuronaux et leurs applications dans la reconnaissance d'images, le traitement du langage naturel, et bien plus encore.
  • Cours 2: Sinda Ben Salem, InstaDeep's Product Lead for DeepPack : « Reinforcement Learning for decision-making problems». L'apprentissage par renforcement (RL) est un paradigme en intelligence artificielle qui aborde les problèmes de prise de décision dans divers domaines. Le RL implique un cadre où un agent interagit avec un environnement pour apprendre des stratégies optimales par essais et erreurs. L'agent vise à maximiser une récompense en adoptant un comportement adaptatif en prenant une série de décisions séquentielles. Le RL a trouvé des applications dans la robotique, la logistique et les jeux, entre autres. Dans cet atelier, nous présenterons certains des scénarios réels dans lesquels nos ingénieurs de recherche utilisent des modèles RL pour améliorer et rationaliser nos produits et solutions.
  • Cours 3: Angelo Iollo, Professeur de l'Institut de Mathématiques de Bordeaux: «Introduction to Model Reduction and Projection-Based Techniques». Le cours aborde les techniques de réduction de modèles et basées sur la projection dans six classes. Les thèmes incluent une introduction à la réduction de modèles et ses applications, les méthodes de réduction basées sur la projection comme la décomposition orthogonale propre (POD) et la projection de Galerkin, les quadratures empiriques et leur intégration, ainsi que des techniques d'interpolation et de mapping non linéaires. Le cours se conclut avec des applications aux équations des eaux peu profondes et aux équations d'Euler compressibles. Les séances pratiques et les exemples numériques sont intégrés pour renforcer l'apprentissage.
  • Cours 4: Clement Royer, Professeur de l'Université de Paris Dauphine : «optimisation for Machine Learning». L'avènement des réseaux neuronaux profonds a suscité un certain nombre de problèmes importants dans l'apprentissage automatique, qui ont un impact direct sur les problèmes et les méthodes d'optimisation associés.
    Ce cours vise à présenter les développements récents dans ce domaine, en mettant l'accent sur les techniques avec des bases théoriques applicables à un contexte d'apprentissage automatique. Dans cette conférence, nous nous concentrerons sur les méthodes de premier ordre, qui constituent l'épine dorsale des techniques modernes d'optimisation en science des données. La première partie du cours passera en revue les techniques de descente de gradient, en présentant les avancées récentes dans l'application de ces méthodes aux problèmes convexes et non convexes.
    L'algorithme de descente de gradient de base ainsi que plusieurs extensions (proximal, accéléré, sur variété,...) seront présentés, ainsi que les problèmes typiques d'intérêt. Dans la deuxième partie du cours, nous plongerons dans les méthodes de gradient stochastique et leur pertinence pour les problèmes de science des données. En nous appuyant sur la première partie, nous examinerons les principales caractéristiques des méthodes de gradient stochastique, telles que l'inclusion de l'élan et le mini-lot. Nous étudierons également les variantes populaires qui ont été largement utilisées dans les applications d'apprentissage profond. Enfin, si le temps le permet, nous explorerons le développement d'algorithmes distribués dans le contexte de grandes quantités de données, et les défis algorithmiques posés par ce contexte.
  • Cours 5: Enrique ZUAZUA , professeur de l'université de Friedrich Alexander. « Control and Machine Learning », Dans ce cours, nous présenterons quelques résultats récents sur l'interaction entre le contrôle et l'apprentissage automatique, et plus précisément, l'apprentissage supervisé et l'approximation universelle. Nous adopterons la perspective du contrôle simultané ou en ensemble de systèmes de réseaux neuronaux résiduels (ResNets). Grossièrement, chaque élément à classer correspond à un point de départ différent pour le problème de Cauchy des ResNets, menant à un ensemble de solutions à piloter vers les cibles correspondantes, associées aux étiquettes, au moyen du même contrôle. Nous présentons une méthode véritablement non linéaire et constructive, permettant de montrer qu'un objectif aussi ambitieux peut être atteint, en estimant la complexité des stratégies de contrôle. Cette propriété est rarement remplie par les systèmes dynamiques classiques en mécanique et la nature très non linéaire de la fonction d'activation régissant la dynamique des ResNet joue un rôle déterminant. Elle permet de déformer la moitié de l'espace des phases tandis que l'autre moitié reste invariante, une propriété que les modèles classiques en mécanique ne remplissent pas.
    La propriété de l'autoroute (turnpike) est également analysée dans ce contexte, montrant qu'un choix approprié de la fonction de coût utilisée pour entraîner le ResNet conduit à des dynamiques plus stables et robustes.
  • Cours 6: Hachem Kadri, professeur de l’Université Marseille. « From Classical to Quantum Machine Learning », Ce cours est une introduction au domaine de l'apprentissage automatique quantique. Le cours commence par un aperçu général des notions fondamentales et des applications pratiques de l'apprentissage automatique classique, avec un accent particulier sur les algorithmes d'apprentissage automatique les plus courants. Il présente ensuite les concepts principaux de l'apprentissage automatique quantique et donne une vue d'ensemble du domaine. Pour illustrer ces concepts avec des exemples concrets, les versions quantiques du perceptron et des algorithmes de régression linéaire sont examinées.


Atelier de travail :


  • Atelier 1: Marwa Hasni, professeur de L'ENIT. « Sequence-to-sequence Deep Learning Models for Time Series Forcasting »


  • Atelier 2: Ikram Chairi, professeur de L'Université Mohammed VI Polytechnique « Sample selection theory »,     Le programme comprend quatre journées consacrées à l'exploration des biais de sélection d'échantillons et des techniques pour les surmonter dans les ensembles de données déséquilibrées. La première journée couvre la théorie de la sélection d'échantillons, les différents biais et une application sur la distribution déséquilibrée. La deuxième journée se concentre sur les techniques de rééchantillonnage et une approche sensible au coût pour gérer les biais. La troisième journée est dédiée à l'application de techniques sensibles au coût pour les données déséquilibrées. La quatrième journée met en avant les techniques d'apprentissage actif et basées sur les noyaux pour ces données.