Bregmans metod
Bregmanmetoden är en iterativ algoritm för att lösa vissa konvexa optimeringsproblem som involverar regularisering . Originalversionen beror på Lev M. Bregman , som publicerade den 1967.
Algoritmen är en radåtgärdsmetod som får åtkomst till begränsningsfunktioner en efter en och metoden är särskilt lämpad för stora optimeringsproblem där begränsningar effektivt kan räknas upp [ citat behövs ] . Algoritmen fungerar särskilt bra för regularizers som -normen, där den konvergerar mycket snabbt på grund av en felavbrytande effekt.
Algoritm
För att kunna använda Bregmanmetoden måste man formulera problemet av intresse som att hitta , där är en regulariserande funktion såsom .
Bregmanavståndet definieras som ) där tillhör subdifferentialen för J vid (som vi betecknade ). Man utför iterationen , med en konstant som ska väljas av användaren (och minimeringen som utförs av en vanlig konvex optimeringsalgoritm), eller , med vald varje gång för att vara medlem av .
Algoritmen börjar med ett par primala och dubbla variabler. Sedan, för varje begränsning , utförs en generaliserad projektion på dess möjliga uppsättning, som uppdaterar både begränsningens dubbla variabel och alla primala variabler för vilka det finns koefficienter som inte är noll i gradienten för begränsningsfunktioner. Om objektivet är strikt konvext och alla begränsningsfunktioner är konvexa, konvergerar gränsen för denna iterativa projektion till det optimala primala dubbelparet. [ citat behövs ]
I fallet med ett problem av typen base pursuit Bregman-metoden är ekvivalent med vanlig gradientnedstigning på det dubbla problemet . En exakt regulariseringsliknande effekt uppträder också i detta fall; om överskrider en viss tröskel, är det optimala värdet för exakt den optimala lösningen av .
Ansökningar
Bregmanmetoden eller dess generaliseringar kan tillämpas på:
- Bildsuddare eller försvagande av brus (inklusive total variationsnedsättning )
- MR-bild [ förtydligande behövs ] rekonstruktion
- Magnetisk resonanstomografi
- Radar
- Hyperspektral avbildning
- Komprimerad avkänning
- Minsta absoluta avvikelser eller -regulerad linjär regression
- Kovariansval (lära sig en gles kovariansmatris)
- Matriskomplettering
- Strukturell riskminimering
Generaliseringar och nackdelar
Metoden har kopplingar till metoden för multiplikatorer och dubbel uppstigningsmetoden (genom den så kallade Bregman alternerande riktningsmetoden för multiplikatorer , generalisering av den alternerande riktningsmetoden för multiplikatorer ) och det finns flera generaliseringar.
En nackdel med metoden är att den endast bevisligen är konvergent om den objektiva funktionen är strikt konvex. Om detta inte kan säkerställas, som för linjära program eller icke strikt konvexa kvadratiska program, har ytterligare metoder som proximala gradientmetoder utvecklats. [ citat behövs ] I fallet med Rudin-Osher-Fatemi-modellen av bildnedsättning [ förtydligande behövs ] , konvergerar Bregman-metoden bevisligen.
Några generaliseringar av Bregman-metoden inkluderar:
- Omvänd skala rymdmetod [ förtydligande behövs ]
- Linjäriserad Bregman
- Logistic Bregman
- Split Bregman
Linjäriserad Bregman
I den lineariserade Bregman-metoden linjäriserar man de mellanliggande objektivfunktionerna genom att ersätta andra termen med (som approximerar den andra termen nära ) och lägga till strafftermen för en konstant . Resultatet är mycket mer beräkningsmässigt hanteringsbart, särskilt i problem av typen basjakt . I fallet med ett generiskt efterföljande problem uttrycka iterationen som komponent , där vi definierar .
Ibland, när man kör Linearized Bregman-metoden, finns det perioder av "stagnation" där den återstående [ förtydligandet behövs ] är nästan konstant. För att lindra detta problem kan man använda den Lineariserade Bregman-metoden med kicking , där man i huvudsak upptäcker början av en stagnationsperiod, sedan förutsäger och hoppar till slutet av den.
Eftersom Linearized Bregman är matematiskt likvärdig med gradientnedstigning, kan den accelereras med metoder för att accelerera gradientnedstigning, såsom linjesökning, L-BGFS , Barzilai-Borwein-steg eller Nesterov-metoden; den sista har föreslagits som den accelererade linjäriserade Bregman-metoden .
Split Bregman
Split Bregman-metoden löser problem av formen där och båda är konvex, särskilt problem av formen . Vi börjar med att skriva om det som det begränsade optimeringsproblemet slappna sedan av till där är en konstant. Genom att definiera man reducerar problemet till ett som kan lösas med den vanliga Bregman-algoritmen.
Split Bregman - metoden har generaliserats till optimering över komplexa tal med Wirtinger - derivator .