BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//ILCB - ECPv6.15.20//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:ILCB
X-ORIGINAL-URL:https://www.ilcb.fr
X-WR-CALDESC:Events for ILCB
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:Europe/Paris
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20120325T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20121028T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20130331T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20131027T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20140330T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20141026T010000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20131205T080000
DTEND;TZID=Europe/Paris:20131205T170000
DTSTAMP:20260425T172641
CREATED:20190213T081652Z
LAST-MODIFIED:20190213T081655Z
UID:2319-1386230400-1386262800@www.ilcb.fr
SUMMARY:Apprentissage par renforcement : de la modélisation des processus neuraux aux applications robotiques by Medhi Khamassi
DESCRIPTION:Apprentissage par renforcement : de la modélisation des processus neuraux aux applications robotiques by Medhi Khamassi (l’Institut des Systèmes Intelligents et de Robotique (UPMC))\nL'activité phasique des neurones dopaminergiques est considérée depuis une quinzaine d'années comme le substrat neural de signaux d'erreur de prédiction de la récompense (RPE). Ces signaux se sont avérés très proches des signaux d'erreurs générés par les algorithmes d'apprentissage par renforcement (RL). De plus\, de nombreuses études ont montré que les algorithmes RL permettaient de bien décrire l'apprentissage animal et humain pendant des tâches de conditionnement pavlovien. Ceci a conduit au développement d'un nombre croissant de modèles computationnels d'apprentissage par renforcement pour décrire les processus neuraux sous-jacents à ces apprentissages. La première partie de l'intervention présentera une introduction à ces modèles\, à leur formalisme\, et aux données montrant qu'ils permettent de bien décrire certaines activités cérébrales liées à l'apprentissage. \nToutefois\, ces modèles d'apprentissage par renforcement commencent à montrer leurs limites\, dont l'une est celle du passage à l'échelle\, dans le monde réel. Lorsque l'on sort du cadre des simulations parfaites et simplifiées des tâches de laboratoire et que l'on se place dans le cadre de l'interaction réaliste d'un robot avec son environnement\, on se rend compte que ces algorithmes ont beaucoup de mal à faire face au bruit\, à l'incertitude\, aux délais. L'application de ces modèles d'apprentissage au contrôle d'un robot montre que pour réussir à obtenir une bonne performance du robot\, il faut faire en plus des hypothèses sur l'interaction de ces modèles avec d'autres systèmes d'apprentissage et avec d'autres processus cognitifs tels que la perception\, la cartographie\, la navigation. Je montrerai en particulier comment des algorithmes combinant deux types d'apprentissage\, dits model-free et model-based\, permettent de donner une meilleure performance comportementale au robot et d'expliquer également un plus grand nombre de données expérimentales\, en particulier dans des tâches de navigation.
URL:https://www.ilcb.fr/event/apprentissage-par-renforcement-de-la-modelisation-des-processus-neuraux-aux-applications-robotiques-by-medhi-khamassi/
LOCATION:LIA\, chemin des Meinajariès\, Avignon\, 84911\, France
CATEGORIES:Seminars
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20131205T100000
DTEND;TZID=Europe/Paris:20131205T120000
DTSTAMP:20260425T172641
CREATED:20190213T081923Z
LAST-MODIFIED:20190213T081926Z
UID:2321-1386237600-1386244800@www.ilcb.fr
SUMMARY:Apprentissage par renforcement (direct et inverse) pour les systèmes interactifs by Olivier Pietquin
DESCRIPTION:Apprentissage par renforcement (direct et inverse) pour les systèmes interactifs by Olivier Pietquin (SequeL team\, University Lille 1\, LIFL CNRS UMR 8022\, INRIA Lille)\nL'apprentissage par renforcement est une catégorie d'apprentissage automatique qui se différencie des autres par le fait qu'elle a pour objectif l'optimisation d'une séquence de décisions\, prenant en compte l'aspect temporel et surtout dirigé par un but du comportement. Cette méthode\, d'inspiration biologique\, est fondée sur l'accumulation par la machine de récompenses numériques distribuées après chaque décision. Le comportement appris est celui qui maximise\, sur le long terme\, l'accumulation de récompenses\, menant à une séquence de décisions optimale. Ce paradigme d'apprentissage a été introduit dans le domaine des systèmes de dialogue parlé il y a une quinzaine d'année afin d'optimiser les stratégies d'interaction. En effet\, ce type de système doit prendre des décisions sur les actes dialogiques à produire à chaque tour d'interaction avec un utilisateur. Ces décisions doivent mener à une interaction la plus naturelle et efficace possible alors que les informations recueillies sont entachées d'erreurs (due à la reconnaissance et la compréhension imparfaites du langage parlé). Il est difficile de définir formellement ce que serait une interaction parfaite\, en revanche un utilisateur peut fournir une évaluation a posteriori de cette interaction servant de signal de récompense. Toutefois\, un certain nombre de problèmes subsistent encore aujourd'hui pour faire un usage performant de ces méthodes dans le cadre de l'interaction homme-machine. Un de ces problèmes est la définition de la récompense à fournir à la machine pour la voir se comporter de manière naturelle. En effet\, l'utilisation de la satisfaction de l'utilisateur a montré quelques limites et est difficile à prédire automatiquement. Dans cet exposé\, nous présenterons le paradigme de l'apprentissage par renforcement inverse\, visant à estimer la fonction de récompense optimisée par un opérateur humain (supposé optimal) et à la transférer à la machine pour obtenir un comportement similaire dans une tâche d'interaction.
URL:https://www.ilcb.fr/event/apprentissage-par-renforcement-direct-et-inverse-pour-les-systemes-interactifs-by-olivier-pietquin/
LOCATION:LIA\, chemin des Meinajariès\, Avignon\, 84911\, France
CATEGORIES:Seminars
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20131220T140000
DTEND;TZID=Europe/Paris:20131220T170000
DTSTAMP:20260425T172641
CREATED:20190213T081426Z
LAST-MODIFIED:20190321T164244Z
UID:2317-1387548000-1387558800@www.ilcb.fr
SUMMARY:La Poesie des synapses ou comment les mots nous font plaisir ou peur ? by Arthur Jacobs
DESCRIPTION:La Poesie des synapses ou comment les mots nous font plaisir ou peur ? by Arthur Jacobs (Freie Universität Berlin\, Dahlem Institute for Neuroimaging of Emotion (D.I.N.E.))\nLa lecture n'est pas seulement un processus de traitement d'information\, mais elle comporte des réponses affectives et esthétiques qui vont bien au-delà de ce que les modèles actuels de la lecture décrivent. Des mots peuvent nous plaire ou faire mal\, des textes nous rendre heureux ou faire pleurer. Mais comment des stimuli ""symboliques"" peuvent-ils évoquer des réponses émotionelles? Quels sont les processus neurocognitifs qui les sous-tendent\, et comment les réactions émotionelles à des narrations fictives se distinguent-elles de celles à des narrations factuelles? Dans ce séminaire\, j'aborde ces questions dans le cadre d'un modèle neuropoétique de la lecture littéraire qui intègre des éléments de rhétorique\, d'esthétique et de poétique cognitive avec des concepts de neurolinguistique et de psychonarrotologie (Jacobs\, 2011; 2013). Ces prédictions sont discutées à la lumière des données venant d'études empiriques sur la reconnaissance des mots\, la réception de la poésie\, et de la compréhension des phrases et textes.
URL:https://www.ilcb.fr/event/la-poesie-des-synapses-ou-comment-les-mots-nous-font-plaisir-ou-peur-by-arthur-jacobs/
LOCATION:Salle des voûtes\, St Charles\, 3 place Victor Hugo\, Marseille\, 13001\, France
CATEGORIES:Seminars
END:VEVENT
END:VCALENDAR