Littlewood–Oford problem

Inom det matematiska området för kombinatorisk geometri är Littlewood -Oford-problemet problemet med att bestämma antalet subsummor av en uppsättning vektorer som faller i en given konvex uppsättning . Mer formellt, om V är ett vektorrum med dimensionen d , är problemet att, givet en ändlig delmängd av vektorer S och en konvex delmängd A , bestämma antalet delmängder av S vars summering är i A .

Den första övre gränsen för detta problem bevisades (för d = 1 och d = 2) 1938 av John Edensor Littlewood och A. Cyril Offord . Detta Littlewood–Oford-lemma anger att om S är en uppsättning av n reella eller komplexa tal med absolut värde minst ett och A är vilken skiva som helst med radie ett, då inte mer än ( av de 2 n möjliga subsummorna av S faller in på skivan.

1945 förbättrade Paul Erdős den övre gränsen för d = 1 till

med Sperners sats . Denna gräns är skarp; Likhet uppnås när alla vektorer i S är lika. 1966 visade Kleitman att samma gräns gällde för komplexa tal. 1970 utvidgade han detta till inställningen när V är ett normerat utrymme .

Antag att S = { v 1 , …, v n }. Genom att subtrahera

från varje möjlig delsumma (det vill säga genom att ändra ursprunget och sedan skala med en faktor 2), är Littlewood–Offord-problemet ekvivalent med problemet med att bestämma antalet summor av formen

som faller i målmängden A , där tar värdet 1 eller −1. Detta gör problemet till ett probabilistiskt , där frågan är fördelningen av dessa slumpmässiga vektorer och vad man kan säga utan att veta mer om v i .

  1. ^ Littlewood, JE; Offord, AC (1943). "Om antalet reella rötter i en slumpmässig algebraisk ekvation (III)". Rec. Matematik. (Mat. Sbornik) . Ny serie. 12 (54): 277–286.
  2. ^ a b   Bollobás, Béla (1986). Kombinatorik . Cambridge. ISBN 0-521-33703-8 .