• No results found

Bij Markov beslissingsketens hebben we niet te maken met ´e´en Markov keten, maar met een aantal Markov ketens. Er moet dan worden beslist welke keten de beste is voor een gegeven optimaliteitscriterium. Formeel is dit model, dat genoteerd wordt met (S, A, p, r), als volgt. S is weer een eindige toestandsruimte.

In iedere toestand i ∈ S wordt een actie uit een eindige actieverzameling A(i) gekozen.

Als het systeem zich op zeker moment in toestand i bevindt en actie a ∈ A(i) wordt gekozen, dan gebeurt het volgende:

(1) er is een directe opbrengst ri(a);

HOOFDSTUK 4. MARKOV (BESLISSINGS)KETENS 39 Als in toestand i de actie a = f (i) ∈ A(i) wordt gekozen, dan gedraagt het systeem zich als een Markov keten met overgangsmatrix P (f ), waarbij {P (f )}ij = pij(f (i)). Een regel die in iedere toestand voorschrijft welke actie wordt gekozen heet een strategie. Bij strategie f hoort ook een opbrengstvector r(f ), waarvan de i-de component ri(f (i)) is, i ∈ S.

Voorbeeld 4.2 Casinomodel

Een Casino-bezoeker gaat het Casino binnen met een bepaald bedrag en stelt zich ten doel om dat bedrag te vergroten tot precies N euro. Als hij dat bereikt heeft, dan stopt hij. Ook als hij niets meer heeft dan stopt hij. Welke strategie maximaliseert zijn kans om met N euro te stoppen?

Als hij een bepaald bedrag inzet, dan wint hij met kans p zijn inzet en met kans 1 − p verliest hij deze. Als hij op een gegeven moment i euro heeft dan kan hij 1, 2, . . . , i euro inzetten. Omdat hij niet meer wil bereiken dan N euro (wat een zelfbeheersing!) zal hij hoogstens min(i, N − i) inzetten.

Het bijbehorende Markov beslissingsmodel is (stoppen is gemodelleerd als gaan naar toestand 0 en daar niets krijgen):

S = {0, 1, . . . , N }.

A(0) = A(N ) = {0}, A(i) = {1, 2, . . . , min(i, n − i)}, i = 1, 2, . . . , N − 1. p0j(0) = ( 1, j = 0 0, j 6= 0 ; pN j(0) = ( 1, j = 0 0, j 6= 0 ; pij(a) =        p j = i + a 1 − p j = i − a a ∈ A(i), i 6= 0, N 0 j 6= i + a, i − a

ri(a) = 0 voor a ∈ A(i), i 6= N en rN(0) = 1.

Ook een Markov beslissingsketen is te visualiseren met een netwerk. Voor iedere toestand is er weer een knooppunt en voor iedere positieve overgangskans is er een pijl. Omdat deze kansen afhangen van de actie, zijn de pijlen dus ook afhankelijk van de actie en geven we dit aan met een enkele, dubbele of drievoudige ect. pijl voor de eerste, tweede, derde etc. actie. Bij een pijl (i, j) die behoort bij actie a zetten we twee getallen: (pij(a), ri(a)). Bij bovenstaand probleem met N = 4 hoort dus het volgende netwerk:

±° ²¯ 0 ±°²¯1 ±°²¯2 ±°²¯3 ±°²¯4 (1,0) (1,1) ¾ (1−p,0) (1−p,0)¾ (1−p,0)¾ 3 7 (p,0) +/(1−p,0) -(p,0) (p,0)- (p,0)

HOOFDSTUK 4. MARKOV (BESLISSINGS)KETENS 40 We hebben nog niet gesproken over het optimalitetscriterium dat gehanteerd wordt. We zullen er enkele bespreken.

1. Oneindige horizon en verdisconteerde opbrengst

Veronderstel dat het rentepercentage r is per periode, bijvoorbeeld per jaar. Een bedrag B op tijdstip 0 is dus ´e´en jaar later (1+r)·B waard, na twee jaar (1+r)2·B en na t jaar (1+r)t·B. Indien we opbrengsten in de toekomst in het heden willen waarderen, dan gebruiken we verdiscontering, d.w.z. een bedrag dat wordt verkregen in periode t wordt voor de waardering in het heden vermenigvuldigd met (1 + r)−t, want nu (1 + r)−t · B is in jaar t een bedrag B waard. Laat α = (1 + r)−1, dan is α een getal tussen 0 en 1 (hoe dichter bij 1 hoe lager het rentepercentage) en α wordt de verdisconteringsfactor genoemd.

Verdiscontering stelt ons in staat de opbrengsten over een oneindige periode (we spreken dan over een oneindige horizon) bij elkaar op te tellen tot een eindig getal: zij |ri(a)| ≤ M voor alle toestanden i en acties a ∈ A(i), dan wordt de verdisconteerde opbrengst over de oneindige horizon begrensd door M + αM + α2M + · · · = (1 − α)−1M < ∞.

Beschouw een strategie f met overgangsmatrix P (f ) en opbrengstvector r(f ). De verwachte verdisconteerde opbrengst onder deze strategie f over een oneindige horizon, als we starten in toestand i, noteren we met vαi(f ). Dit geeft een vector vα(f ), waarvoor geldt:

vα(f ) = r(f ) + αP (f )r(f ) + α2P2(f )r(f ) + · · · + αtPt(f )r(f ) + · · · = {Pt=0αtPt(f )}r(f ) = {I − αP (f )}−1r(f ).

De laatste gelijkheid is een generalisatie van de meetkundige reeks van re¨ele getallen, waarvoor geldt datPt=0xt= (1 − x)−1 (deze som bestaat als |x| < 1, wat overeenkomt met |α| < 1). De waarde-vector vα is gedefinieerd door vα = maxfvα(f ). Een strategie f heet een optimale strategie als vα(f) = vα. Er kan worden aangetoond (dat gebeurt in het derdejaarscollege Besliskunde 3) dat in het verdisconteerde model de waarde-vector de unieke oplossing is van de zogenaamde optimaliteitsvergelijking, die de volgende gedaante heeft:

xi = maxa∈A(i) {ri(a) + αX

j

pij(a)xj}, i ∈ S (4.6)

Bovendien kan worden aangetoond dat een strategie f optimaal is als: vαi(f ) ≥ ri(a) + αX

j

pij(a)vαj(f ), i ∈ S, a ∈ A(i) (4.7)

Voorbeeld 4.3 Onderhoud

Veronderstel dat we een machine hebben die in drie mogelijke toestanden kan zijn: goed (toestand 0), middelmatig (toestand 1) of slecht (toestand 2). Aan een goede machine doen we niets (actie 0); aan een middelmatige machine kunnen we `ofwel niets doen (actie 0), `ofwel onderhoud plegen

HOOFDSTUK 4. MARKOV (BESLISSINGS)KETENS 41 (actie 1), `ofwel deze machine vervangen door een nieuwe (actie 2); een machine in slechte staat vervangen we altijd door een nieuwe (actie 2).

Er zijn de volgende kosten:

c1: (productie)verlies als we ontdekken dat de machine in toestand 1 is; c2: (productie)verlies als we ontdekken dat de machine in toestand 2 is; c3: kosten als besloten wordt tot onderhoud voor een machine in toestand 1; c4: kosten om een nieuwe machine aan te schaffen.

Voor de overgangskansen geldt:

Een machine in toestand 0 heeft een kans van 3

4 om op het volgende tijdstip nog steeds goed te zijn en een kans van 14 om dan middelmatig te zijn. Een middelmatige machine waar geen onderhoud aan wordt gepleegd heeft een kans van 78 om op het volgende tijdstip nog steeds middelmatig te zijn en een kans van 18 om dan slecht te zijn. Een middelmatige machine waar wel onderhoud aan wordt gepleegd heeft een kans van 12 om op het volgende tijdstip goed te zijn en een kans van

1

2 om dan middelmatig te zijn. Een nieuwe machine is op het volgende beslissingstijdstip altijd goed.

Het bijbehorende Markov beslissingsmodel is:

S = {0, 1, 2}; A(0) = {0}, A(1) = {0, 1, 2}, A(2) = {2}.

r0(0) = 0; r1(0) = −c1; r1(1) = −c1− c3; r1(2) = −c1− c4; r2(2) = −c2− c4. p0j(0) =        3 4 j = 0 1 4 j = 1 0 j = 2 ; p1j(0) =        0 j = 0 7 8 j = 1 1 8 j = 2 ; p1j(1) =        1 2 j = 0 1 2 j = 1 0 j = 2 p1j(2) =        1 j = 0 0 j = 1 0 j = 2 ; p2j(2) =        1 j = 0 0 j = 1 0 j = 2 Het bijbehorend netwerk is:

±° ²¯ 0 ±°²¯1 ±°²¯2 3/4 1/4 1/8 7/8 -1/2 ¾ 1/2 ¾¾ 1 ¾ ¾ 1

= actie 0, - = actie 1, -- = actie 2

De optimaliteitsvergelijking luidt: v0α = 0 + α(34v0α+14v1α). vα 1 = max{−c1+ α(7 8vα 1 +1 8vα 2), −c1− c3+ α(1 2vα 0 +1 2vα 1), −c1− c4+ αvα 0}. vα 2 = −c2− c4+ αvα 0.

HOOFDSTUK 4. MARKOV (BESLISSINGS)KETENS 42 Uit de eerste vergelijking volgt: vα

0 = α

4−3αvα

1. Vullen we deze waarde voor vα

0 in de derde vergelijking in, dan geeft dit: vα

2 = −c2− c4+4−3αα2 vα

1. Met deze uitdrukkingen voor vα

0 en vα

1 wordt de tweede vergelijking: vα 1 = max n − c1+α8{−c2− c4+ (7 +4−3αα2 )vα 1}, −c1− c3+α2(1 +4−3αα )vα 1, −c1− c4+4−3αα2 vα 1 o . In deze laatste vergelijking komt als onbekende alleen vα

1 voor. De vergelijking is nu oplosbaar door de drie mogelijkheden voor het maximum afzonderlijk na te gaan. We zullen dit laten zien voor het volgende getallenvoorbeeld met α = 0.9, c1 = 1, c2 = 2, c3= 6 en c4 = 10.

(1) Stel vα 1 = −c1+α 8{−c2− c4+ (7 + α2 4−3α)vα 1}. Dan is vα 1 = −16.50. (2) Stel vα 1 = −c1− c3+α 2(1 + α 4−3α)vα 1. Dan is vα 1 = −29.35. (3) Stel vα 1 = −c1− c4+ α2 4−3αvα 1. Dan is vα 1 = −29.18. Uit het bovenstaande volgt dat vα

1 = −16.50 en dat in toestand 1 actie 0 optimaal is (in de andere toestanden was er geen keuze). Hieruit volgt ook dat v0α= −11.42 en v2α= −22.28.

2. Oneindige horizon en totale opbrengst

Soms is het begrip ’de totale verwachte opbrengst’ ongedefinieerd (bijvoorbeeld als de opbrengsten op de tijdstippen t = 0, 1, 2, 3, · · · gelijk zijn aan +1, −1, +1, −1, · · · ), maar in andere gevallen is dit begrip wel zinvol. Dit zijn bijvoorbeeld modellen die kans 1 hebben om te stoppen, ofwel in een zogenaamde ’eindtoestand’ komen waar ze in blijven en waar geen opbrengsten meer zijn. In dat geval blijven de eigenschappen van het verdisconteerde model ook voor α = 1 geldig.

Noteer de totale opbrengst onder strategie f met v(f ) en de waarde-vector met v. Dan kan worden aangetoond dat de waarde-vector v weer de unieke oplossing is van een optimaliteitsvergelijking, namelijk van

xi = maxa∈A(i){ri(a) +X

j

pij(a)xj}, i ∈ S (4.8)

Ook geldt dat een strategie f optimaal is als vi(f ) ≥ ri(a) +X

j

pij(a)vj(f ) voor alle i ∈ S en a ∈ A(i) (4.9)

Voorbeeld 4.2 (vervolg)

Het doel van de Casino-bezoeker was een bepaald bedrag N te bereiken. Dit komt overeen met het maximaliseren van de kans om toestand N te bereiken. Dan is de i-de component vi van de waarde-vector v de kans zijn om, startend met beginbedrag i, het doel te bereiken door optimaal te spelen. De waarden vi, i ∈ S, worden gevonden als unieke oplossing van het stelsel

  

xi = maxa∈A(i) {pxi+a+ (1 − p)xi−a}, 1 ≤ i ≤ N − 1 x0 = 0; xN = 1

HOOFDSTUK 4. MARKOV (BESLISSINGS)KETENS 43 Beschouw allereerst de ’voorzichtige’ speler die als strategie heeft om steeds 1 euro in te zetten; noem deze strategie f1. De totale verwachte opbrengst onder deze strategie is de unieke oplossing van het volgende stelsel

   xi = pxi+1+ (1 − p)xi−1, 1 ≤ i ≤ N − 1 x0 = 0; xN = 1 (4.11) Het stelsel is als volgt te verklaren uitgaande van toestand i: er is een winstkans p en in dat geval wordt de nieuwe toestand i + 1; met kans 1 − p wordt verloren, wat de toestand i − 1 oplevert. Er geldt dus xi= pxi+1+ (1 − p)xi−1.

Het stelsel (4.11) is een stelsel homogene lineaire differentievergelijkingen. In het college Besliskunde 1 zal worden bewezen dat dit kan worden opgelost door allereerst voor xi de i-de macht van een variabele, zeg z, te nemen en dan te delen door de laagst voorkomende macht. In het boven-staande voorbeeld beschouwen we de vergelijking zi = pzi+1+ (1 − p)zi−1, waarna we deze delen door zi−1. Dit geeft de vergelijking

z = pz2+ (1 − p), (4.12)

wat een vierkantsvergelijking is met als wortels 1 en 1−pp (ga dit zelf na).

We zullen eerst het geval p = 12 bespreken. In dit geval heeft de vierkantsvergelijking twee samenvallende wortels 1 en het stelsel een unieke oplossing

vi(f1) = i

N, 0 ≤ i ≤ N (4.13)

Ga zelf na dat dit een oplossing is. We zullen vervolgens laten zien dat in dit geval iedere strategie optimaal is. Zij f een willekeurige strategie. Dan is v(f ) de unieke oplossing van het stelsel

vi(f ) = 1

2vi+f (i)(f ) + 1

2vi−f (i)(f ), 1 ≤ i ≤ N − 1; v0(f ) = 0 en vN(f ) = 1 (4.14) Dit stelsel is analoog aan stelsel (4.11) te verklaren. Het is direct in te zien (ga ook dit zelf na) dat de oplossing luidt:

vi(f ) = i

N, 0 ≤ i ≤ N (4.15)

Omdat i

N onafhankelijk is van f is iedere strategie dus optimaal.

Vervolgens beschouwen we het geval dat p 6= 12. Dan zijn er twee verschillende wortels 1 en 1−pp en kan worden aangetoond dat de oplossing luidt

vi(f1) = 1 − ri

1 − rN, 0 ≤ i ≤ N, (4.16)

HOOFDSTUK 4. MARKOV (BESLISSINGS)KETENS 44 We zullen laten zien dat als p > 1

2 de strategie f1 van voorzichtig spelen optimaal is. Hiervoor is het volgens (4.7) voldoende om aan te tonen dat

vi(f1) ≥ ri(a) + Σj pij(a)vj(f1) = pvi+a(f1) + (1 − p)vi−a(f1), i ∈ S, a ∈ A(i) (4.17) Omdat vi(f1) = 1−r1−rNi , 0 ≤ i ≤ N , moeten we dus aantonen dat

1 − ri ≥ p(1 − ri+a) + (1 − p)(1 − ri−a0 = 1 − {pri+a+ (1 − p)ri−a}, (4.18) d.w.z. dat we moeten aantonen dat 1 ≤ pra+ (1 − p)r−a.

Laat q = 1 − p en F (a) = pra+ qr−a. Er geldt: F (1) = ppq+ qpq = q + p = 1. Het is nu voldoende om aan te tonen dat F (a + 1) ≥ F (a) voor a = 1, 2, . . . .

F (a + 1) ≥ F (a) ⇔ pra+1+ qr−a−1≥ pra+ qr−a

⇔ pr2a+2+ q ≥ pr2a+1+ qr

⇔ pq2a+2+ qp2a+2 ≥ p2q2a+1+ q2p2a+1 ⇔ q2a+1+ p2a+1 ≥ pq2a+ qp2a

⇔ p2a(p − q) ≥ q2a(p − q) ⇔ p ≥ q.

Omdat p ≥ 12, geldt inderdaad dat p ≥ q, waarmee het bewijs compleet is. Opmerking

Er kan ook worden aangetoond (maar op een geheel andere wijze) dat als p < 12 de strategie ’stoutmoedig’ spelen, d.w.z. het maximale inzetten, optimaal is.

Voorbeeld 4.4 Optimaal stoppen van een Markov keten

Een ander voorbeeld van een model met totale opbrengsten over een oneindige periode is het optimaal stoppen van een Markov keten. Hierbij zijn in iedere toestand twee acties: 0 (stoppen) en 1 (doorgaan). Als in toestand i actie 0 wordt gekozen, dan krijgen we een directe opbrengst ri en stopt het proces (formeel te modelleren als pij(0) = 0 voor alle j ∈ S); als actie 1 wordt gekozen, dan gaat het proces verder met opbrengst si en overgangskansen pij, j ∈ S.

We willen de totale opbrengst maximaliseren en het gaat in iedere toestand om een keuze tussen stoppen of doorgaan. Laat S0 de deelverz. van de toestanden zijn waar stoppen optimaal is. Er kan worden aangetoond dat de resultaten van het verdisconteerde model ook voor dit model gelden, met verdisconteringsfactor α = 1, indien S0 minstens ´e´en element bevat en er voor iedere toestand die niet tot S0 behoort een positieve kans is om S0 te bereiken in de Markov keten met overgangskansen pij. In dat geval luidt de optimaliteitsvergelijking:

xi = max{ri, si+X

j

pijxj}, i ∈ S (4.19)

Laat S1= {i ∈ S | ri ≥ si+Pj pijrj}, d.w.z. de toestanden waarin direct stoppen niet slechter is dan nog ´e´en stap en dan stoppen. Merk op dat S1 direct uit de data van het model volgt en dat

HOOFDSTUK 4. MARKOV (BESLISSINGS)KETENS 45 het intu¨ıtief aannemelijk is dat in toestanden van S1 stoppen optimaal is. Dit is niet altijd het geval, maar wel als het stopprobleem monotoon is: een optimaal stopprobleem heet monotoon als pij = 0 voor alle i ∈ S1 en alle j /∈ S1. Er kan worden aangetoond dat voor een monotoon stopprobleem geldt dat S0 = S1: in dit geval is de optimale strategie dus direct te geven.

Verkoop van een huis

Iemand wil zijn huis verkopen en krijgt iedere week een bod op zijn huis. Laat pj de kans zijn op een bod ter grootte j, 0 ≤ j ≤ N . We nemen aan dat een bod dat niet onmiddellijk wordt geaccepteerd niet verloren gaat, maar ook later kan worden geaccepteerd. Wachten is echter wel nadelig: indien het huis niet wordt verkocht zijn er wekelijks kosten c. Wat is een optimale verkoopstrategie?

We modelleren dit probleem als het optimaal stoppen van een Markov keten. We moeten daarvoor eerst een keuze maken wat we als toestand nemen. Hierin moet de relevante informatie worden opgeslagen. Van de biedingen tot nu toe is alleen het hoogste bod relevant: vandaar dat we met toestand j aangeven dat j het hoogste bod tot nu toe is.

Het model is als volgt:

S = {0, 1, . . . , N }; A(i) = {0, 1}, i ∈ S; ri = i, i ∈ S; si = −c, i ∈ S; pij =        0 j < i Pi k=0 pk j = i pj j > i We zullen allereerst laten zien dat het probleem monotoon is.

S1 = {i ∈ S | ri ≥ si+Pj pijrj} = {i ∈ S | i ≥ −c +PNj=i+1 pj· j +Pij=0 pj· i}

= {i ∈ S | i + c ≥PNj=i+1 pj· j + (1 −Pj=i+1N )pj · i} = {i ∈ S | c ≥PNj=i+1 pj(j − i)}. Ga zelf na dat PNj=i+1 pj(j − i) = pi+1+ 2pi+2+ · · · + (N − i)pN monotoon dalend is in i. Zij i= min{i | c ≥PNj=i+1 pj(j − i)}, dan is S1= {i ∈ S | i ≥ i}. Omdat pij = 0, j < i, geldt dat het probleem monotoon is. Een optimale strategie accepteert dus het eerste bod dat minstens iis. Merk op dat i de interpretatie heeft van de minimale waarde waarvoor de verwachte kosten c in de komende periode bij niet-accepteren minstens zo groot zijn als de verwachte extra winst PN

j=i+1 pj(j − i) bij wel-accepteren. Op zich is dit een voor de hand liggend resultaat.

3. Oneindige horizon en gemiddelde opbrengst

Met name voor het geval dat de totale opbrengst niet (goed) gedefinieerd is of als de verdisconte-ringsfactor α erg dicht bij 1 ligt (in welk geval de totale verwachte verdisconteerde opbrengst erg groot wordt), is het criterium van gemiddelde opbrengst vaak een goed alternatief. Bij de gemid-delde opbrengst beschouwen we wat er gemiddeld over T perioden aan opbrengst is en laten T naar ∞ gaan: dit is dus de gemiddelde opbrengst over een oneindige horizon.

We nemen aan dat voor iedere strategie f de daarbij behorende Markov keten P (f ) irreducibel is. Omdat voor het begrip gemiddelde opbrengst over een oneindige horizon de opbrengst over een eindig aantal perioden, zeg 10 perioden, wegvalt (omdat T → ∞ en we de opbrengst over

HOOFDSTUK 4. MARKOV (BESLISSINGS)KETENS 46 deze 10 perioden door T delen), is in het irreducibele geval de gemiddelde opbrengst onder iedere strategie onafhankelijk van de toestand waarin gestart wordt.

Laat g(f ) de gemiddelde opbrengst zijn onder strategie f en laat g = maxf g(f ) de waarde zijn. De waarde is dus in dit geval geen vector, maar een scalair. Er kan worden aangetoond dat de scalair g en een bijbehorende vector h de oplossing zijn van de volgende optimaliteitsvergelijking:

x + hi= maxa∈A(i) {ri(a) +X

j

pij(a)hj}, i ∈ S, (4.20)

waarbij x uniek en gelijk aan g is, terwijl de h-vector op een additieve constante na bepaald is. Als we hN = 0 nemen, dan heeft het stelsel (4.20) een unieke oplossing (g, h).

Een interpretatie van g en h kan worden verkregen door bovenstaande vergelijking af te leiden uit de optimaliteitsvergelijking (4.6) voor de verdisconteerde opbrengst (we noteren nu x als xα

omdat we geen vaste, maar variabele α hebben): xα

i = maxa∈A(i) {ri(a) + αPj pij(a)xα

j}, i ∈ S.

Laat hαi = xαi − xαN, i ∈ S. Bovenstaande vergelijking is hiermee ook te schrijven als hα

i + xα

N = maxa∈A(i) {ri(a) + αPj pij(a)(hα j + xα

N)} = αxαN + maxa∈A(i) {ri(a) + αPj pij(a)hαj}, i ∈ S, ofwel

hαi + (1 − α)xαN = maxa∈A(i) {ri(a) + αX

j

pij(a)hαj}, i ∈ S. Laat hi = limα↑1hα

i, i ∈ S en g = limα↑1(1 − α)xα

N, dan gaat bovenstaande vergelijking bij het nemen van de limiet voor α ↑ 1 over in:

g + hi = maxa∈A(i) {ri(a) +Pj pij(a)hj}, i ∈ S.

Voorbeeld 4.5 Advertentiecampagne

Een fabrikant van een bepaald product overweegt om een advertentiecampagne te starten om zijn product succesvoller te maken. Hij heeft hiervoor marktonderzoek gedaan, waarbij hij is uitgegaan van twee mogelijke toestanden voor zijn product: winstgevend (toestand 1) of verliesgevend (toestand 2). Van week tot week wordt de situatie bekeken.

Zonder advertentiecampagne, wat in het model actie 1 wordt gemoend, zijn de toestandsover-gangskansen: p11(1) = 0, 5; p12(1) = 0, 5; p21(1) = 0, 4; p22(1) = 0, 6.

Voor de opbrengsten geldt: als een product uit toestand 1 aan het begin van volgende week nog in toestand 1 is, dan levert dat deze week een winst op van 9.000 euro; als een product uit toestand 2 aan het begin van volgende week weer in toestand 2 is, dan levert dat deze week een verlies van 7.000 euro op; als de toestand wel verandert (van 1 in 2 of omgekeerd), dan levert dat deze week een winst van 3.000 euro op.

HOOFDSTUK 4. MARKOV (BESLISSINGS)KETENS 47 Als de advertentiecampagne wel wordt gevoerd (wat in het model met actie 2 wordt aangeduid), dan zijn de overgangskansen: p11(2) = 0, 8; p12(2) = 0, 2; p21(2) = 0, 7; p22(2) = 0, 3.

In dit geval geldt voor de opbrengsten: als we in toestand 1 zitten, dan is de winst 4.000 euro (onafhankelijk van de toestand in de volgende week); in toestand 2 is de winst 1.000 euro als de toestand de volgende week 1 is; als de toestand de volgende week weer 2 is, dan is er een verlies van 19.000 euro.

De verwachte directe opbrengsten zijn:

r1(1) = 0.5 × 9.000 + 0.5 × 3.000 = 6.000; r2(1) = 0.4 × 3.000 + 0.6 × −7.000 = −3.000; r1(2) = 0.8 × 4.000 + 0.2 × 4.000 = 4.000; r2(2) = 0.7 × 1.000 + 0.3 × −19.000 = −5.000. We merken allereerst op dat dit model irreducibel is (alle overgangskansen zijn strict positief). De optimaliteitsvergelijking luidt:        g + h1 = max{6000 + 0.5h1+ 0.5h2, 4000 + 0.8h1+ 0.2h2} g + h2 = max{−3000 + 0.4h1+ 0.6h2, −5000 + 0.7h1+ 0.3h2} h2 = 0 Het invullen van h2 = 0 geeft:

  

g + h1 = max{6000 + 0.5h1, 4000 + 0.8h1} g = max{−3000 + 0.4h1, −5000 + 0.7h1} Hieruit is het volgende af te leiden:

g + h1 = max{6000 + 0.5h1, 4000 + 0.8h1} = 9000 + 0.1h1+ max{−3000 + 0.4h1, −5000 + 0.7h1} = 9000 + 0.1h1+ g,

d.w.z. h1= 10.000, g = 2.000 en h2 = 0.

4.3 Opgaven

Opgave 4.1

In een vaas zitten r rode en z zwarte knikkers. Na iedere trekking wordt de getrokken knikker weer in de vaas terug gedaan en wordt de vaas tevens aangevuld met een extra knikker van dezelfde kleur als de getrokken knikker.

Laat Xt= (

1 als de t-de trekking een zwarte knikker oplevert 0 als de t-de trekking een rode knikker oplevert

HOOFDSTUK 4. MARKOV (BESLISSINGS)KETENS 48 Opgave 4.2

Beschouw het volgende model (diffusiemodel van Ehrenfest). Twee vaten, A en B, bevatten samen N moleculen. Vlak voor tijdstip t (t = 1, 2, . . . ) wordt aselect ´e´en van deze moleculen gekozen en van het vat waarin het zich bevindt overgebracht naar het andere vat. Neem S = {0, 1, . . . , N }, waarbij i ∈ S correspondeert met i moleculen in vat A. Zij Xt het aantal moleculen in vat A op tijdstip t, t = 1, 2, . . . .

a. Laat zien dat Xt(t = 1, 2, . . . ), een stationaire irreducibele Markov keten is. b. Bepaal voor N = 4 de stationaire kansverdeling.

c. Bepaal voor N = 4 de eerste doorkomsttijden naar toestand 2.

Opgave 4.3

Beschouw een machine die in twee toestanden kan zijn: ’goed’ of ’slecht’. Een goede machine is met kans p de volgende dag weer goed en met kans 1 − p slecht. Een slechte machine kan wel of niet vervangen worden door een goede; als een slechte machine niet wordt vervangen, dan blijft hij slecht. Vervangen geschiedt onmiddellijk (zonder tijdverlies) en kost een bedrag K.

Iedere dag produceert de machine een artikel dat gekeurd wordt. De keuring kan opleveren: ’goedgekeurd’ of ’afgekeurd’. Als de machine goed is, dan is de kans op afkeuren p0; als de machine slecht is, dan is de kans op afkeuren p1. Als het artikel wordt afgekeurd, dan brengt dat kosten c met zich mee.

Welke strategie minimaliseert de verdisconteerde kosten over de oneindige horizon? a. Geef voor dit probleem het Markov beslissingsmodel.

b. Stel de optimaliteitsvergelijking op.

c. Los de optimaliteitsvergelijking op en bepaal een optimale strategie indien α = 0.8, p = 0.8, p0 = 0.2, p1= 0.8, c = 5 en K = 8.

Opgave 4.4

Een dief kan dageljks op dievenpad gaan en hij rooft dan met kans pj een bedrag j, 0 ≤ j ≤ N . Iedere dag dat hij op pad gaat heeft hij een pakkans p, in welk geval hij zijn totale buit, dus ook alles van de vorige dagen, kwijt is en ’het spel’ uit is.

Tot hoe lang moet de dief op dievenpad gaan?

a. Modelleer dit probleem als het optimaal stoppen van een Markov keten. b. Laat zien dat het model monotoon is.

c. Bepaal een optimale strategie, d.w.z. bij welk bedrag moet de dief stoppen, en laat zien dat dit het moment is waarop zijn verwachte extra buit niet groter is dan zijn verwacht verlies vanwege het ’gesnapt’ worden.

HOOFDSTUK 4. MARKOV (BESLISSINGS)KETENS 49 Opgave 4.5

Beschouw het volgende probleem van een taxichauffeur, die heen en weer rijdt tussen drie steden: A, B en C. Als hij in stad A of C is, dan heeft hij drie mogelijke acties: (i) hij kan rondrijden in de hoop een passagier op te kunnen pikken; (ii) hij kan naar de dichtstbijzijnde taxistandplaats rijden en daar wachten op een passagier; (iii) hij kan ter plekke blijven staan en wachten op een oproep van de centrale. In stad B heeft hij alleen de eerste twee opties. De overgangskansen en de directe opbrengsten worden gegeven door de volgende tabel:

van naar naar naar directe

stad actie stad A stad B stad C opbrengst

A 1 0.5 0.25 0.25 8 2 0.1 0.7 0.2 3 3 0.25 0.25 0.5 5 B 1 0.5 0 0.5 12 2 0.1 0.8 0.1 10 C 1 0.25 0.25 0.5 7 2 0.2 0.6 0.2 4 3 0.7 0.1 0.2 5

a. Laat zien dat dit model irreducibel is.

b. Bepaal de gemiddelde opbrengst voor de strategie die in iedere toestand de eerste actie kiest. c. Stel voor dit model de optimaliteitsvergelijking op.

GERELATEERDE DOCUMENTEN