• Afhalen na 1 uur in een winkel met voorraad
  • Gratis thuislevering in België vanaf € 30
  • Ruim aanbod met 7 miljoen producten
  • Afhalen na 1 uur in een winkel met voorraad
  • Gratis thuislevering in België vanaf € 30
  • Ruim aanbod met 7 miljoen producten
  1. Boeken
  2. Non-fictie
  3. Informatica
  4. Computerwetenschappen
  5. Regret Analysis of Stochastic and Nonstochastic Multi-Armed Bandit Problems

Regret Analysis of Stochastic and Nonstochastic Multi-Armed Bandit Problems

S Bastian Bubeck, Nicolo Cesa-Bianchi, Sebastien Bubeck
Paperback | Engels | Foundations and Trends(r) in Machine Learning | nr. 15
€ 122,45
+ 244 punten
Levering 2 à 3 weken
Eenvoudig bestellen
Veilig betalen
Gratis thuislevering vanaf € 30 (via bpost)
Gratis levering in je Standaard Boekhandel

Omschrijving

A multi-armed bandit problem - or, simply, a bandit problem - is a sequential allocation problem defined by a set of actions. At each time step, a unit resource is allocated to an action and some observable payoff is obtained. The goal is to maximize the total payoff obtained in a sequence of allocations. The name bandit refers to the colloquial term for a slot machine (a "one-armed bandit" in American slang). In a casino, a sequential allocation problem is obtained when the player is facing many slot machines at once (a "multi-armed bandit"), and must repeatedly choose where to insert the next coin. Multi-armed bandit problems are the most basic examples of sequential decision problems with an exploration-exploitation trade-off. This is the balance between staying with the option that gave highest payoffs in the past and exploring new options that might give higher payoffs in the future. Although the study of bandit problems dates back to the 1930s, exploration-exploitation trade-offs arise in several modern applications, such as ad placement, website optimization, and packet routing. Mathematically, a multi-armed bandit is defined by the payoff process associated with each option. In this book, the focus is on two extreme cases in which the analysis of regret is particularly simple and elegant: independent and identically distributed payoffs and adversarial payoffs. Besides the basic setting of finitely many actions, it also analyzes some of the most important variants and extensions, such as the contextual bandit model. This monograph is an ideal reference for students and researchers with an interest in bandit problems.

Specificaties

Betrokkenen

Auteur(s):
Uitgeverij:

Inhoud

Aantal bladzijden:
138
Taal:
Engels
Reeks:
Reeksnummer:
nr. 15

Eigenschappen

Productcode (EAN):
9781601986269
Verschijningsdatum:
12/12/2012
Uitvoering:
Paperback
Bestandsformaat:
Trade paperback (VS)
Afmetingen:
156 mm x 234 mm
Gewicht:
204 g
Standaard Boekhandel

Alleen bij Standaard Boekhandel

+ 244 punten op je klantenkaart van Standaard Boekhandel
MUST-HAVES

Hier bloeit iets

Nu dubbele punten op onze selectie nieuwe titels
MUST-HAVES
Hier bloeit iets
AANGERADEN

Onze cadeautips

voor Vaderdag
AANGERADEN
Onze cadeautips voor Vaderdag
VADERDAG ACTIE

Alleen in onze winkels: kortingsbon van € 10 voor e-books

bij een Vivlio e-reader
VADERDAG ACTIE
Vivlio e-reader + € 10 aan e-books
Standaard Boekhandel

Beoordelingen

We publiceren alleen reviews die voldoen aan de voorwaarden voor reviews. Bekijk onze voorwaarden voor reviews.