Personnaliser

OK

COUNTEREXAMPLES IN MARKOV DECISION PROCESSES - Piunovskiy Alexey

Note : 0

0 avis
  • Soyez le premier à donner un avis

Vous en avez un à vendre ?

Vendez-le-vôtre

216,56 €

Produit Neuf

  • Ou 54,14 € /mois

    • Livraison à 0,01 €
    • Livré entre le 13 et le 20 mai
    Voir les modes de livraison

    RiaChristie

    PRO Vendeur favori

    4,9/5 sur + de 1 000 ventes

    Brand new, In English, Fast shipping from London, UK; Tout neuf, en anglais, expédition rapide depuis Londres, Royaume-Uni;ria9781800616752_dbm

    Publicité
     
    Vous avez choisi le retrait chez le vendeur à
    • Payez directement sur Rakuten (CB, PayPal, 4xCB...)
    • Récupérez le produit directement chez le vendeur
    • Rakuten vous rembourse en cas de problème

    Gratuit et sans engagement

    Félicitations !

    Nous sommes heureux de vous compter parmi nos membres du Club Rakuten !

    En savoir plus

    Retour

    Horaires

        Note :


        Avis sur Counterexamples In Markov Decision Processes de Piunovskiy Alexey Format Relié  - Livre Beaux arts

        Note : 0 0 avis sur Counterexamples In Markov Decision Processes de Piunovskiy Alexey Format Relié  - Livre Beaux arts

        Les avis publiés font l'objet d'un contrôle automatisé de Rakuten.


        Présentation Counterexamples In Markov Decision Processes de Piunovskiy Alexey Format Relié

         - Livre Beaux arts

        Livre Beaux arts - Piunovskiy Alexey - 01/03/2025 - Relié - Langue : Anglais

        . .

      • Auteur(s) : Piunovskiy Alexey
      • Editeur : Wspc (Europe)
      • Langue : Anglais
      • Parution : 01/03/2025
      • Format : Moyen, de 350g à 1kg
      • Nombre de pages : 508.0
      • ISBN : 1800616759



      • Résumé :
        This remarkable and intriguing book is highly recommended. Some examples are aimed at undergraduate students, whilst others will be of interest to advanced undergraduates, graduates and research students in probability theory, optimal control and applied mathematics, looking for a better understanding of the theory...

        Sommaire:
        Markov Decision Processes (MDPs) form a cornerstone of applied probability, with over 50 years of rich research history. Throughout this time, numerous foundational books and thousands of journal articles have shaped the field. The central objective of MDP theory is to identify the optimal control strategy for Markov random processes with discrete time. Interestingly, the best control strategies often display unexpected or counterintuitive behaviors, as documented by a wide array of studies. This book gathers some of the most compelling examples of such phenomena while introducing new ones. By doing so, it serves as a valuable companion to existing textbooks. While many examples require little to no prior knowledge, others delve into advanced topics and will primarily interest specialists. In this second edition, extensive revisions have been made, correcting errors and refining the content, with a wealth of new examples added. The range of examples spans from elementary to advanced, requiring background knowledge in areas like measure theory, convex analysis, and advanced probability. A new chapter on continuous time jump processes has also been introduced. The entire text has been reworked for clarity and accessibility. This book is an essential resource for active researchers and graduate students in the field of Markov Decision Processes....

        Détails de conformité du produit

        Consulter les détails de conformité de ce produit (

        Personne responsable dans l'UE

        )
        Le choixNeuf et occasion
        Minimum5% remboursés
        La sécuritéSatisfait ou remboursé
        Le service clientsÀ votre écoute
        LinkedinFacebookTwitterInstagramYoutubePinterestTiktok
        visavisa
        mastercardmastercard
        klarnaklarna
        paypalpaypal
        floafloa
        americanexpressamericanexpress
        Rakuten Logo
        • Rakuten Kobo
        • Rakuten TV
        • Rakuten Viber
        • Rakuten Viki
        • Plus de services
        • À propos de Rakuten
        Rakuten.com