Bayesiansk optimering
Bayesiansk optimering är en sekventiell designstrategi för global optimering av black-box- funktioner som inte antar några funktionella former. Det används vanligtvis för att optimera dyra att utvärdera funktioner.
Historia
Termen tillskrivs i allmänhet Jonas Mockus
och myntades i hans arbete från en serie publikationer om global optimering under 1970- och 1980-talen.Strategi
Bayesiansk optimering används vanligtvis på problem av formen där är en uppsättning punkter, , som förlitar sig på mindre än 20 dimensioner ( ), och vars medlemskap lätt kan utvärderas. Bayesiansk optimering är särskilt fördelaktig för problem där är svår att utvärdera på grund av dess beräkningskostnad. Den objektiva funktionen, , är kontinuerlig och tar formen av någon okänd struktur, kallad en "svart låda". Vid dess utvärdering observeras endast derivator utvärderas inte.
Eftersom den objektiva funktionen är okänd är den Bayesianska strategin att behandla den som en slumpmässig funktion och placera en prior över den. Den föregående fångar upp föreställningar om funktionens beteende. Efter insamling av funktionsutvärderingarna, som behandlas som data, uppdateras priorn för att bilda den bakre fördelningen över den objektiva funktionen. Den bakre fördelningen används i sin tur för att konstruera en förvärvsfunktion (ofta även kallad infill samplingskriterier) som bestämmer nästa frågepunkt.
Det finns flera metoder som används för att definiera den föregående/posteriora fördelningen över den objektiva funktionen. De vanligaste två metoderna använder Gaussiska processer i en metod som kallas kriging . En annan billigare metod använder Parzen-Tree Estimator för att konstruera två fördelningar för "höga" och "låga" punkter, och sedan hittar den plats som maximerar den förväntade förbättringen.
Standard Bayesiansk optimering förlitar sig på att varje är lätt att utvärdera, och problem som avviker från detta antagande är kända som exotiska Bayesianska optimeringsproblem . Optimeringsproblem kan bli exotiska om man vet att det förekommer buller, utvärderingarna görs parallellt, kvaliteten på utvärderingarna är beroende av en avvägning mellan svårighet och noggrannhet, förekomsten av slumpmässiga miljöförhållanden eller om utvärderingen involverar derivat.
Förvärvsfunktioner
Exempel på förvärvsfunktioner inkluderar
- sannolikhet för förbättring
- förväntad förbättring
- Bayesianska förväntade förluster
- övre konfidensgränser (UCB) eller lägre konfidensgränser
- Thompson provtagning
och hybrider av dessa. De avväger alla utforskning och exploatering för att minimera antalet funktionsfrågor. Som sådan är Bayesiansk optimering väl lämpad för funktioner som är dyra att utvärdera.
Lösningsmetoder
Maximum av förvärvsfunktionen hittas typiskt genom att tillgripa diskretisering eller med hjälp av en extra optimerare. Förvärvsfunktioner är vanligtvis väluppfostrade [ citat behövs ] och maximeras med en numerisk optimeringsteknik , såsom Newtons metod eller kvasi-Newton-metoder som Broyden–Fletcher–Goldfarb–Shanno-algoritmen .
Ansökningar
Tillvägagångssättet har använts för att lösa ett brett spektrum av problem, inklusive att lära sig rangordna , datorgrafik och visuell design, robotik , sensornätverk , automatisk algoritmkonfiguration, automatiska verktygslådor för maskininlärning, förstärkningsinlärning , planering, visuell uppmärksamhet, djupgående arkitekturkonfiguration lärande , statisk programanalys, experimentell partikelfysik , kemi, materialdesign och läkemedelsutveckling.