Vous voulez être sûr que vos cadeaux seront sous le sapin de Noël à temps? Nos magasins vous accueillent à bras ouverts. La plupart de nos magasins sont ouverts également les dimanches, vous pouvez vérifier les heures d'ouvertures sur notre site.
  •  Retrait gratuit dans votre magasin Club
  •  7.000.000 titres dans notre catalogue
  •  Payer en toute sécurité
  •  Toujours un magasin près de chez vous     
Vous voulez être sûr que vos cadeaux seront sous le sapin de Noël à temps? Nos magasins vous accueillent à bras ouverts. La plupart de nos magasins sont ouverts également les dimanches, vous pouvez vérifier les heures d'ouvertures sur notre site.
  •  Retrait gratuit dans votre magasin Club
  •  7.000.0000 titres dans notre catalogue
  •  Payer en toute sécurité
  •  Toujours un magasin près de chez vous
  1. Accueil
  2. Livres
  3. Savoirs
  4. Informatique
  5. Sciences informatiques
  6. Intelligence artificielle
  7. A Tutorial on Linear Function Approximators for Dynamic Programming and Reinforcement Learning

A Tutorial on Linear Function Approximators for Dynamic Programming and Reinforcement Learning

Alborz Geramifard, Thomas J Walsh, Tellex Stefanie, Girish Chowdhary, Nicholas Roy, Jonathan P How
Livre broché | Anglais | Foundations and Trends(r) in Machine Learning | n° 20
60,45 €
+ 120 points
Livraison sous 1 à 4 semaines
Passer une commande en un clic
Payer en toute sécurité
Livraison en Belgique: 3,99 €
Livraison en magasin gratuite

Description

A Markov Decision Process (MDP) is a natural framework for formulating sequential decision-making problems under uncertainty. In recent years, researchers have greatly advanced algorithms for learning and acting in MDPs. This book reviews such algorithms, beginning with well-known dynamic programming methods for solving MDPs such as policy iteration and value iteration, then describes approximate dynamic programming methods such as trajectory based value iteration, and finally moves to reinforcement learning methods such as Q-Learning, SARSA, and least-squares policy iteration. It describes algorithms in a unified framework, giving pseudocode together with memory and iteration complexity analysis for each. Empirical evaluations of these techniques, with four representations across four domains, provide insight into how these algorithms perform with various feature sets in terms of running time and performance. This tutorial provides practical guidance for researchers seeking to extend DP and RL techniques to larger domains through linear value function approximation. The practical algorithms and empirical successes outlined also form a guide for practitioners trying to weigh computational costs, accuracy requirements, and representational concerns. Decision making in large domains will always be challenging, but with the tools presented here this challenge is not insurmountable.

Spécifications

Parties prenantes

Auteur(s) :
Editeur:

Contenu

Nombre de pages :
92
Langue:
Anglais
Collection :
Tome:
n° 20

Caractéristiques

EAN:
9781601987600
Date de parution :
19-12-13
Format:
Livre broché
Format numérique:
Trade paperback (VS)
Dimensions :
156 mm x 234 mm
Poids :
140 g

Les avis