Université Lyon 1
Arqus
Accueil  >>  Intelligent agents
  • Unité d'enseignement : Intelligent agents
Nombre de crédits de l'UE : 3
Code APOGEE : INF2512M
    Type d'enseignement
Nb heures *
Cours Magistraux (CM)
10.5 h
Travaux Dirigés (TD)
4.5 h
Travaux Pratiques (TP)
15 h

* Ces horaires sont donnés à titre indicatif.

    Pré-requis :

Le contenu de cette UE est accessible après validation d'un M1 en Informatique ou équivalent.

Pré requis (souhaitables) :
- programmation (python, Java)
- algorithme de recherche de chemins
- réseaux de neurones (PyTorch)

    Compétences attestées (transversales, spécifiques) :

Le contenu de cet enseignement permet d’acquérir des connaissances relatives au domaine de la prise de décision pour des agents autonomes. 

Les compétences acquises sont :

- savoir modéliser un problème de décision séquentielle sous forme de processus décisionnel de Markov
- savoir résoudre une problème posé sous forme de  processus décisionnel de Markov avec des méthodes de planification (itération sur les valeurs, itération sur les politiques) et d’apprentissage par renforcement (approches monte-carlo, q-learning tabulaire)
- connaître les limitations des approches tabulaires en apprentissage par renforcement, et les algorithmes qui passent à l’échelle (approximation linéaire avec le Q-Learning approximé, approximation non linéaire )
- connaître les approches récentes en apprentissage profond par renforcement qui utilisent les réseaux de neurones ( Deep Q-Network, Policy gradient).
- connaître les principales différences entre les grandes classes d’algorithmes d’apprentissage par renforcement
- Implémenter et entraîner certains algorithmes d’apprentissage par renforcement
- connaître et appliquer l’approche BDI (Belief-Desire-Intention)

    Programme de l'UE / Thématiques abordées :

Ce cours aborde différentes approches de prise de décision pour des agents autonomes. Les approches basées sur les modèles de décision markoviens (MDP)  seront tout d’abord  présentées, avec les principes et algorithmes de base en planification sous incertitudes (itération sur les valeurs et sur les politiques), puis l’apprentissage par renforcement tabulaire (Q-Learning, Monte-carlo) et avec approximation linéaire. Ensuite, on s’intéressera aux approches récentes en apprentissage profond par renforcement qui utilisent les réseaux de neurones (Deep Q-Network, Policy gradient). En TP, les différents algorithmes seront implémentés en Python/PyTorch et évalués en utilisant la librairie de Gymnasium. Enfin, l’approche BDI (Belief-Desire-Intention) sera étudiée.

L’UE se découpe 4 parties :

- Présentation des processus décisionnels de Markov et résolution lorsque le modèle est connu
- Apprentissage par renforcement : approches tabulaires et passage à l’échelle (fonction d’approximation)
- Apprentissage profond par renforcement
- Approche BDI (Belief-Desire-Intention)

    Parcours / Spécialité / Filière / Option utilisant cette UE :
Date de la dernière mise-à-jour : 04/12/2024
SELECT MEN_ID, `MEN_DIP_ABREVIATION`, `MEN_TITLE`, `PAR_TITLE`, `PAR_ID` FROM parcours INNER JOIN ue_parcours ON PAR_ID_FK=PAR_ID INNER JOIN mention ON MEN_ID = PAR_MENTION_FK WHERE PAR_ACTIVATE = 0 AND UE_ID_FK='31014' ORDER BY `MEN_DIP_ABREVIATION`, `MEN_TITLE`, `PAR_TITLE`