Karush–Kuhn–Tucker-förhållanden
Inom matematisk optimering är Karush –Kuhn–Tucker (KKT) villkoren , även kända som Kuhn–Tucker villkoren , första derivata tester (ibland kallade första ordningens nödvändiga villkor ) för att en lösning i olinjär programmering ska vara optimal , förutsatt att vissa villkoren för regelbundenhet är uppfyllda.
Genom att tillåta ojämlikhetsbegränsningar generaliserar KKT:s tillvägagångssätt för icke-linjär programmering metoden med Lagrange-multiplikatorer , som endast tillåter jämlikhetsbegränsningar. I likhet med Lagrange-metoden skrivs problemet med begränsad maximering (minimering) om som en Lagrange-funktion vars optimala punkt är en sadelpunkt , dvs ett globalt maximum (minimum) över domänen för valvariablerna och ett globalt minimum (maximum) över multiplikatorer, vilket är anledningen till att Karush–Kuhn–Tuckers sats ibland kallas för sadelpunktssatsen.
KKT-villkoren var ursprungligen uppkallade efter Harold W. Kuhn och Albert W. Tucker , som först publicerade villkoren 1951. Senare forskare upptäckte att de nödvändiga förutsättningarna för detta problem hade angetts av William Karush i sin magisteravhandling 1939.
Icke-linjärt optimeringsproblem
Tänk på följande olinjära minimerings- eller maximeringsproblem :
- optimera
- med förbehåll för
där är optimeringsvariabeln vald från en konvex delmängd av f är objektivet eller hjälpfunktionen , \ olikhetsbegränsningsfunktionerna och är likhetsbegränsningsfunktionerna . Antalet olikheter och likheter betecknas med respektive . Motsvarande det begränsade optimeringsproblemet kan man bilda den lagrangska funktionen
där h . Karush –Kuhn–Tuckers sats säger sedan följande.
Sats. Om är en sadelpunkt för i , , då är en optimal vektor för ovanstående optimeringsproblem. Antag att och , , är konvexa i och att det finns så att . Sedan med en optimal vektor för ovanstående optimeringsproblem associeras en icke-negativ vektor så att är en sadelpunkt för .
Eftersom idén med detta tillvägagångssätt är att hitta ett stödjande hyperplan på den möjliga mängden Karush– Kuhn–Tuckers teorem använder sig av hyperplanseparationssatsen .
Systemet av ekvationer och ojämlikheter som motsvarar KKT-förhållandena löses vanligtvis inte direkt, förutom i de få speciella fall där en sluten lösning kan härledas analytiskt. I allmänhet kan många optimeringsalgoritmer tolkas som metoder för att numeriskt lösa KKT-systemet av ekvationer och ojämlikheter.
Nödvändiga förutsättningar
Antag att objektivfunktionen begränsningsfunktionerna och har underderivator i en punkt . Om är ett lokalt optimum och optimeringsproblemet uppfyller vissa regularitetsvillkor (se nedan), så finns det konstanter och , kallas KKT-multiplikatorer, så att följande fyra grupper av villkor gäller:
- Stationaritet
- För att minimera :
- ) :
- Primal genomförbarhet
- genomförbarhet
- slackness
Det sista villkoret skrivs ibland i ekvivalent form:
I det speciella fallet , dvs när det inte finns några olikhetsbegränsningar, förvandlas KKT-villkoren till Lagrange-villkor, och KKT-multiplikatorerna kallas Lagrange-multiplikatorer .
Anmärkning om underdifferentialer
Notera att även om är differentierbar, behöver dess subdifferential inte nödvändigtvis vara . Faktum är om är lägre avgränsad av sin linjära approximation vid , som
och annars, .
Bevis
Teorem — (tillräcklighet) Om det finns en lösning till det ursprungliga problemet, en lösning till det dubbla problemet, så att de tillsammans uppfyller KKT-villkoren, då har problemparet stark dualitet, och är ett lösningspar på prim- och dubbla problem.
(nödvändighet) Om problemparet har stark dualitet, då för valfri lösning till det primära problemet och vilken lösning som helst till det dubbla problemet måste paret uppfylla KKT villkor.
För det första, för för att uppfylla KKT-villkoren motsvarar de att de är en Nash-jämvikt .
Fixa , och variera : jämvikt är ekvivalent med primal stationaritet.
Fixa , och variera : jämvikt är ekvivalent med primal genomförbarhet och komplementär slapphet.
Tillräcklighet: lösningsparet uppfyller KKT-villkoren, alltså är en Nash-jämvikt, och stänger därför dualitetsgapet.
Nödvändighet: alla lösningspar måste stänga dualitetsgapet, så de måste utgöra en Nash jämvikt (eftersom ingen av sidorna kunde göra det bättre), så uppfyller de KKT-villkoren.
Tolkning: KKT-villkor som balanserande tvångskrafter i statens rum
Primalproblemet kan tolkas som att man flyttar en partikel i utrymmet , och utsätter den för tre typer av kraftfält:
- är ett potentiellt fält som partikeln minimerar. Kraften som genereras av är .
- är ensidiga begränsningsytor. Partikeln tillåts röra sig inuti , men när den nuddar skjuts den inåt.
- är tvåsidiga begränsningsytor. Partikeln tillåts endast röra sig på ytan .
Primal stationaritet anger att "kraften" för är exakt balanserad av en linjär summa av krafter och .
Dubbel genomförbarhet anger dessutom att alla krafter måste vara ensidiga och peka inåt i den möjliga uppsättningen för .
Dubbel slackness anger att om , då kraft måste vara noll, eftersom partikeln inte är på gränsen, kan den ensidiga tvångskraften inte aktiveras.
Matrisrepresentation
De nödvändiga villkoren kan skrivas med jakobianska matriser för begränsningsfunktionerna. Låt definieras som och låt definieras som . Låt och . Då kan de nödvändiga villkoren skrivas som:
- Stationaritet
- För att maximera :
- För att minimera :
- Primal genomförbarhet
- Dubbel genomförbarhet
- Komplementär slackness
Regelmässighetsvillkor (eller begränsningskvalifikationer)
Man kan fråga sig om en minimeringspunkt för det ursprungliga, begränsade optimeringsproblemet (förutsatt att ett sådant existerar) måste uppfylla ovanstående KKT-villkor. Detta liknar att fråga under vilka förhållanden minimeraren för en funktion i ett obegränsat problem måste uppfylla villkoret . För det begränsade fallet är situationen mer komplicerad, och man kan ange en mängd olika (allt mer komplicerade) "regelbundenhet"-förhållanden under vilka en begränsad minimerare också uppfyller KKT-villkoren. Några vanliga exempel på tillstånd som garanterar detta finns i tabellerna nedan, där LICQ är den mest använda:
Begränsning | Akronym | Påstående |
---|---|---|
Linjäritetsbegränsningskvalifikation | LCQ | Om och är affina funktioner behövs inget annat villkor. |
Linjär oberoende kvalifikation | LICQ | Gradienterna för de aktiva ojämlikhetsrestriktionerna och gradienterna för likhetsrestriktionerna är linjärt oberoende vid . |
Mangasarian-Fromovitz begränsningskvalifikation | MFCQ | Gradienterna för likhetsbegränsningarna är linjärt oberoende vid och det finns en vektor så att för alla aktiva ojämlikhetsbegränsningar och för alla likhetsbegränsningar. |
Konstant rangkvalificering | CRCQ | För varje delmängd av gradienterna för de aktiva ojämlikhetsbegränsningarna och gradienterna för likhetsbegränsningarna är rangordningen i närheten av konstant. |
Konstant positiv linjär beroendekvalifikation | CPLD | För varje delmängd av gradienter av aktiva olikhetsrestriktioner och gradienter av likhetsrestriktioner, om delmängden av vektorer är linjärt beroende vid med icke-negativa skalärer associerade med ojämlikhetsrestriktionerna, så förblir den linjärt beroende i en omgivning av . |
Kvasinormalitetskvalifikation | QNCQ | Om gradienterna för de aktiva ojämlikhetsrestriktionerna och gradienterna för likhetsrestriktionerna är linjärt beroende vid med tillhörande multiplikatorer för likheter och för olikheter, då finns det ingen sekvens så att och |
Slaters tillstånd | SC | För ett konvext problem (dvs. om man antar minimering, är konvexa och affin), finns det en punkt så att och |
De strikta konsekvenserna kan visas
- LICQ ⇒ MFCQ ⇒ CPLD ⇒ QNCQ
och
- LICQ ⇒ CRCQ ⇒ CPLD ⇒ QNCQ
I praktiken föredras kvalifikationer med svagare begränsningar eftersom de gäller ett bredare urval av problem.
Tillräckliga förutsättningar
I vissa fall är de nödvändiga förutsättningarna också tillräckliga för optimalitet. I allmänhet är de nödvändiga villkoren inte tillräckliga för optimalitet och ytterligare information krävs, såsom Second Order Sufficient Conditions (SOSC). För smidiga funktioner involverar SOSC andraderivatan, vilket förklarar dess namn.
De nödvändiga förutsättningarna är tillräckliga för optimalitet om objektivfunktionen för ett maximeringsproblem är en konkav funktion , olikhetsbegränsningarna är kontinuerligt differentierbara konvexa funktioner och likhetsbegränsningarna är affina funktioner . På liknande sätt, om objektivfunktionen för ett minimeringsproblem är en konvex funktion , är de nödvändiga villkoren också tillräckliga för optimalitet.
Det visades av Martin 1985 att den bredare klassen av funktioner där KKT-förhållanden garanterar global optimalitet är de så kallade Typ 1- invexfunktionerna .
Andra ordningens tillräckliga villkor
För jämna, icke-linjära optimeringsproblem ges ett andra ordningens tillräckligt villkor enligt följande.
Lösningen som finns i avsnittet ovan är ett begränsat lokalt minimum om för lagrangian,
sedan,
där är en vektor som uppfyller följande,
där endast de aktiva olikhetsbegränsningarna som motsvarar strikt komplementaritet (dvs där tillämpas. Lösningen är ett strikt begränsat lokalt minimum om ojämlikheten också är strikt.
Om , tredje ordningens Taylor-expansion av Lagrangian ska användas för att verifiera om är ett lokalt minimum. Minimeringen av är ett bra motexempel, se även Peano-yta .
Ekonomi
Ofta inom matematisk ekonomi används KKT-metoden i teoretiska modeller för att få kvalitativa resultat. Tänk till exempel på ett företag som maximerar sina försäljningsintäkter med en lägsta vinstbegränsning. Låter vara mängden producerad produktion (som ska väljas), är försäljningsintäkter med en positiv förstaderivata och med ett nollvärde vid noll produktion, vara produktionskostnader med en positiv förstaderivata och med ett icke-negativt värde vid noll utdata, och vara den positiva minsta acceptabla vinstnivån , då är problemet meningsfullt om intäktsfunktionen planar ut så att den till slut blir mindre brant än kostnadsfunktionen. Problemet uttryckt i den tidigare givna minimeringsformuläret är
- Minimera
- beroende av
och KKT-villkoren är
Eftersom skulle bryta mot minimivinstbegränsningen, har vi och det tredje villkoret innebär att det första villkoret gäller med likhet. Att lösa den jämställdheten ger
Eftersom det gavs att och är strikt positiva, denna ojämlikhet tillsammans med icke-negativitetsvillkoret på garanterar att är positiv och därför verkar det intäktsmaximerande företaget på en outputnivå vid vilken marginalintäkten är mindre än marginalkostnaden — ett resultat som är av intresse eftersom det står i kontrast till beteendet hos ett vinstmaximerande företag, som verkar på en nivå där de är lika.
Värdefunktion
Om vi omprövar optimeringsproblemet som ett maximeringsproblem med konstanta ojämlikhetsbegränsningar:
Värdefunktionen definieras som
så domänen för är
Givet denna definition är varje koefficient hastigheten med vilken värdefunktionen ökar när ökar. Således om varje tolkas som en resursrestriktion, talar koefficienterna om hur mycket ökning av en resurs kommer att öka det optimala värdet av vår funktion f {\ . Denna tolkning är särskilt viktig inom ekonomi och används till exempel i nyttomaximeringsproblem .
Generaliseringar
Med en extra multiplikator , som kan vara noll (så länge som ), framför blir KKTs stationaritetsförhållanden till
som kallas Fritz John-villkoren . Dessa optimalitetsvillkor gäller utan begränsningskvalifikationer och det motsvarar optimalitetsvillkoret KKT eller (ej-MFCQ) .
KKT-villkoren tillhör en bredare klass av första ordningens nödvändiga villkor (FONC), som tillåter icke-släta funktioner med hjälp av subderivator .
Se även
- Farkas lemma
- Lagrange multiplikator
- Big M-metoden , för linjära problem, som utökar simplexalgoritmen till problem som innehåller "större-än"-begränsningar.
- Interior-point-metod en metod för att lösa KKT-förhållandena.
- Slack variabel
Vidare läsning
- Andreani, R.; Martinez, JM; Schuverdt, ML (2005). "Om förhållandet mellan konstant positivt linjärt beroendetillstånd och kvasinormalitetskvalifikation". Journal of Optimization Theory and Applications . 125 (2): 473–485. doi : 10.1007/s10957-004-1861-9 . S2CID 122212394 .
- Avriel, Mordecai (2003). Icke-linjär programmering: analys och metoder . Dover. ISBN 0-486-43227-0 .
- Boltyanski, V.; Martini, H.; Soltan, V. (1998). "Kuhn-Tuckers sats" . Geometriska metoder och optimeringsproblem . New York: Springer. s. 78–92. ISBN 0-7923-5454-0 .
- Boyd, S.; Vandenberghe, L. (2004). "Optimalitetsförhållanden" (PDF) . Konvex optimering . Cambridge University Press. s. 241–249. ISBN 0-521-83378-7 .
- Kemp, Murray C.; Kimura, Yoshio (1978). Introduktion till matematisk ekonomi . New York: Springer. s. 38–73 . ISBN 0-387-90304-6 .
- Rau, Nicholas (1981). "Lagrange multiplikatorer". Matriser och matematisk programmering . London: Macmillan. s. 156–174. ISBN 0-333-27768-6 .
- Nocedal, J.; Wright, SJ (2006). Numerisk optimering . New York: Springer. ISBN 978-0-387-30303-1 .
- Sundaram, Rangarajan K. (1996). "Ojämlikhetsbegränsningar och Kuhns och Tuckers sats" . En första kurs i optimeringsteori . New York: Cambridge University Press. s. 145–171. ISBN 0-521-49770-1 .