Les méthodes d’intelligence artificielle et notamment d’apprentissage profond ont bouleversé l’analyse d’images. Aujourd’hui l’apprentissage profond représente la méthode la plus puissante pour la segmentation d’images, la classification de patterns, voire la résolution de certains problèmes inverses. Les algorithmes de deep learning sont largement accessibles via des sites de partages de codes (Github par exemple) mais leur prise en main nécessite une initiation pour une utilisation en routine sur des plateformes de microscopie ou pour les adapter à de nouvelles techniques de microscopie ou types de données. Il est aussi important de connaitre les limites et les écueils de ces techniques. Les méthodes d’intelligence artificielle ont aussi un fort potentiel dans l’automatisation intelligente des acquisitions. Ces récents développements constituent des pistes intéressantes, mais pour lesquelles une formation est nécessaire afin d’en permettre l’implémentation efficace en microscopie. Les constructeurs, ainsi que certaines entreprises indépendantes, proposent des outils intégrant les codes de deep learning. Pour comprendre la pertinence de ces outils et les limites de leur intégration il est nécessaire de disposer d’un bagage suffisant dans le domaine.
Cette action nationale de formation du CNRS s’adresse aux ingénieurs de plateformes de microscopies et aux biologistes amenés à analyser des images ou interagir avec des traiteurs d’images.
Posséder des bases d’analyse d’images classique. La pratique d’un langage de programmation (quel qu’il soit) est conseillée mais pas indispensable
Modalités de l’épisode 1 Enseignement de cours, discussions, travaux pratiques en ligne selon le planning ci-dessous.
A l'issue de la formation vous aurez les connaissances de base pour comprendre le fonctionnement des réseaux de neurones profonds et serez à même de démarrer vos propres projets d’analyse d’image par ces méthodes. Un accompagnement sera proposé dans l’épisode 2 (en présentiel) de cette ANF pour un niveau avancé. Une comparaison (en présentiel) des outils commerciaux sera enfin réalisée dans l’épisode 3.
Lundi 13 juin | Mardi 14 juin | Mercredi 15 juin | |
---|---|---|---|
9h - 10h30 | [Matin ou en cours asynchrone en ligne : Principes](#jour-1-les-principes-du-deep-learning) | [Matin ou en cours asynchrone en ligne : Annotation d’images](#jour-2-annotations-dimages) | [Matin ou en cours asynchrone en ligne : “Kind of Easy” deep learning](#jour-3-kind-of-easy-deep) |
10h30 - 12h | Discussion en ligne en présence de biologistes ayant récemment utilisé avec succès les méthodes de deep learning pour leurs propres questions. | Discussion en ligne en présence d’acteurs public et privé de l’annotation de donnée. | Discussion en ligne en présence d’ingénieurs de plateformes de microscopies qui utilisent des outils de deep learning au quotidien. |
13h - 17h | TP en ligne : Mon premier TP les mains dans le moteurs 1/3 • CNN par la pratique avec MNIST puis adaptation de MNIST vers un exemple de classification en microscopie | TP en ligne : Mon premier TP les mains dans le moteurs 2/3 • Transfer learning on CNN example • Data augmentation on CNN example • Optimize code with early stopping | TP en ligne : Mon premier TP les mains dans le moteurs 3/3 • Segmentation d’images avec UNet via ZeroCostDL4Mic. • Bilan de la formation sur le choix des outils |
- Télécharger et installer iLastik que vous trouverez ici.
- Créer un compte Google spécifique pour l’utilisation de Collaboratory. Certains workflow que nous allons utiliser nécessitent d’utiliser les ressources en-ligne mises à disposition par Google. En amont de la formation, il vous est demandé de créer un compte spécifique via ce lien. A vrai dire, les ressources de calcul disponibles pouvant être limitées par Google, il pourra être utile de créer plusieurs comptes dédiés.
- Shift from model driven to data driven (25:50)
- Introduction to ML and DL : Partie 1 (15:57)
- Introduction to ML and DL : Partie 2 (17:12)
- Introduction to ML and DL : Partie 3 (23:02)
- Introduction to ML and DL : Partie 4 (16:11)
- CNN principles (20:16)
- Basic architecture in deep learning (29:26)
- PlaygroundTensorFlow demo (15:36)
- Data augmentation : Partie 1 (14:01)
- Data augmentation : Partie 2 (13:30)
- Data augmentation : Partie 3 (9:21)
- Data augmentation : Partie 4 (11:45)
- Speeding up image annotation (11:59)
- Introduction to Ilastik : sur la playlist Easy annotation with ilastik (16:05)
Discussion en ligne en présence de biologistes ayant récemment utilisé avec succès les méthodes de deep learning pour leurs propres questions.
-
Questions & Réponses E-learning "Les principes du Deep Learning" (33:50)
-
TP en ligne :
- Mon premier TP les mains dans le moteurs 1/3
- Regarder la vidéo : How to get started with Jupyter and Colab.
- CNN par la pratique avec MNIST puis adaptation de MNIST vers un exemple de classification en microscopie
Discussion en ligne jour 1
Discussion en ligne en présence d’acteurs public et privé de l’annotation de donnée.
-
TP en ligne :
- Mon premier TP les mains dans le moteurs 2/3
- Transfer learning on CNN example
- Data augmentation on CNN example
- Optimize code with early stopping
Discussion en ligne jour 2
-
Discussion en ligne en présence d’ingénieurs de plateformes de microscopies qui utilisent des outils de deep learning au quotidien.
-
TP en ligne :
- Mon premier TP les mains dans le moteurs 3/3
- Segmentation d’images avec UNet via ZeroCostDL4Mic.
- Bilan de la formation sur le choix des outils
Discussion en ligne
Wiki et FAQ
Adnane Aitoussaye, Université d’Angers
Anaïs Badoual, INRIA Rennes
Marine Breuilly, Université Claude Bernard Lyon1
Nima Hatami, CREATIS, Lyon
Valentin Gilet, Université d’Angers
Felicia Marianne INRAe Toulouse
Félix Mercier, Université d’Angers
Herearii Metuarea, Université d’Angers
Juliette Moreau, CREATIS, Lyon
Guillaume Mougeot, UCA Clermont-Ferrand
Thierry Pecot, Université Rennes 1
Sylvain Prigent, INRIA Rennes
Pejman Rasti, Université d’Angers
David Rousseau, Université d'Angers
Daniel Sage, EPFL Lausanne
Hervé Turlier, Collège de France
Bertrand Vernay, INSERM