Littlewood–Oford problem
Inom det matematiska området för kombinatorisk geometri är Littlewood -Oford-problemet problemet med att bestämma antalet subsummor av en uppsättning vektorer som faller i en given konvex uppsättning . Mer formellt, om V är ett vektorrum med dimensionen d , är problemet att, givet en ändlig delmängd av vektorer S och en konvex delmängd A , bestämma antalet delmängder av S vars summering är i A .
Den första övre gränsen för detta problem bevisades (för d = 1 och d = 2) 1938 av John Edensor Littlewood och A. Cyril Offord . Detta Littlewood–Oford-lemma anger att om S är en uppsättning av n reella eller komplexa tal med absolut värde minst ett och A är vilken skiva som helst med radie ett, då inte mer än ( av de 2 n möjliga subsummorna av S faller in på skivan.
1945 förbättrade Paul Erdős den övre gränsen för d = 1 till
med Sperners sats . Denna gräns är skarp; Likhet uppnås när alla vektorer i S är lika. 1966 visade Kleitman att samma gräns gällde för komplexa tal. 1970 utvidgade han detta till inställningen när V är ett normerat utrymme .
Antag att S = { v 1 , …, v n }. Genom att subtrahera
från varje möjlig delsumma (det vill säga genom att ändra ursprunget och sedan skala med en faktor 2), är Littlewood–Offord-problemet ekvivalent med problemet med att bestämma antalet summor av formen
som faller i målmängden A , där tar värdet 1 eller −1. Detta gör problemet till ett probabilistiskt , där frågan är fördelningen av dessa slumpmässiga vektorer och vad man kan säga utan att veta mer om v i .
- ^ Littlewood, JE; Offord, AC (1943). "Om antalet reella rötter i en slumpmässig algebraisk ekvation (III)". Rec. Matematik. (Mat. Sbornik) . Ny serie. 12 (54): 277–286.
- ^ a b Bollobás, Béla (1986). Kombinatorik . Cambridge. ISBN 0-521-33703-8 .