des notebooks à ouvrir avec colab de préférence ou avec les notebooks de la suite anaconda :
Logique classique
DP et DPPLL : implémentez et optimiser les algorithmes classiques de résolution. Voir ici le sujet.
Réseaux de neurones
Eléments de définition
petits exemples pour comprendre les réseaux simples
TestET.ipynb : importance du neurone “BIAS” pour l’apprentissage : exemple du ET logique appris par un réseau de neurones avec tensorflow (notebook python).
TestOUX.ipynb : importance d’une couche intermédiaire pour l’apprentissage : exemple du OU eXclusif logique appris par un réseau de neurones avec tensorflow (notebook python).
Petits réseaux de démos
DetectionSignes.ipynb : petit notebook python montrant la définition d’un réseau de neurones avec tensorflow pour l’apprentissage de détection de signes arithmétiques.
DetectionAlertes.ipynb : petit exercice en notebook python de la détection très simple de messages douteux par réseaux de neurones
SolutionDetectionAlertes.ipynb : solution au petit exercice en notebook python de la détection très simple de messages douteux par réseaux de neurones
ClasserMail.ipynb : petit exercice en notebook python de la classification très simple de mails par réseaux de neurones
SolutionClasserMail.ipynb : solution au petit exercice en notebook python de la classification très simple de mails par réseaux de neurones
PredireReussite.ipynb : Exercice de prédiction de réussite scolaire selon le contexte personnel et social
PredireReussiteSolution.ipynb : Solution à l’exercice de prédiction de réussite scolaire selon le contexte personnel et social. Solution où le réseau donne 1 seule valeur de sortie, à multiplier pour estimer la note à l’examen
PredireReussiteSolutionBis.ipynb : Un autre solution à l’exercice de prédiction de réussite scolaire selon le contexte personnel et social. Solution où le réseau donne 8 valeurs de sortie, estimant les probabilité d’obtenir des notes entre Echec (neurone 0) et AA (neurone 7)
logique_floue.ipynb : notebook python montrant l’utilisation de la logique floue pour prendre une décision sur l’urgence de freiner en fonction de la position et de la taille d’un piéton sur le trottoir. Les règles semblent peut complètes; proposer une amélioration…
choixSejourLogiqueFloue.ipynb : notebook python montrant l’utilisation de la logique floue pour prendre une décision sur la longueur de congés
IntrusionLogiqueFloueToDO.ipynb : Petit exercice en notebook python montrant l’utilisation de la logique floue pour la détection d’intrusion
choixClimLogiqueFloue.ipynb : TP en notebook python sur l’aide à la décision pour la régulation d’un climatiseur.
choixActiviteLogiqueFloue.ipynb : TP en notebook python sur l’aide à la décision pour le choix de la durée d’une activité physique extérieure.
PerformanceLogiqueFloue.ipynb : TP en notebook python sur l’aide à la prédiction sur la compétence d’une personne selon ses résultats et son comportement social.
recuitSimule01.ipynb : notebook python sur l’utilisation de l’algorithme du recuit simulé pour le problème du voyageur de commerce.
Particles Swarm Optimization (PSO)
PSO.ipynb : notebook python sur l’utilisation de l’algorithme de Particles Swam Optimisation (PSO) pour la recherche de la valeur minimale d’une fonction comportant de nombreux minima locaux.
Algorithmes génétiques
MLGymGALunar.ipynb : sujet sur la réalisation d’un algo génétique pour l’environnement Lunar Lander.
MLGymGAMoutainCar.ipynb : sujet sur la réalisation d’un algo génétique pour l’environnement MoutainCar.
vérifier la performance du simple QLearning vs le Double QLearning
implémentez le Delayed QLearning
vérifier la performance du simple QLearning vs le Double QLearning vs le Delayed Q-Learning, et le Delayed Double QLearning
Reprenez ces algorithmes que vous avez développés et appliquez-les sur l’environnement CliffWalking-v0 (point
de départ en x, arrivée en T, coût de -1 par action sur o, -100 par action sur C).
attention, aucune récompense (reward) en arrivant sur le but….
L’environnement frozenlake permet de montrer la performance du QLearning dans un environnement non déterministe, le
l’environnement CLiffWalking permet de montrer que le QLearning fonctionne même s’il n’y a aucune récompense,
l’environnement taxi montre la performance du QLearning pour construire des solutions.
—
Donnez la forme de la matrice Q s’il fallait appliquer le Q-Learning à l’environnement CartPole-v1. Expliquez
ce qu’est le Deep Q-Learning.
Expliquez comment le QLearning mixé à un algorithme de MCTS peut être utilisé dans le monde du gaming. Donnez des
exemples.
Citez des exemples réels d’applications industrielles, commerciales du Q-Learning