Die Laguerre-Samuelson-Ungleichung, auch nur Samuelson-Ungleichung genannt, ist eine Ungleichung aus der beschreibenden Statistik. Sie gibt an, um wie viele empirische Standardabweichungen eine einzelne Beobachtung maximal vom arithmetischen Mittel aller Beobachtungen abweichen kann. Sie ist benannt nach dem amerikanischen Wirtschaftswissenschaftler Paul Samuelson, der sie im Jahre 1968 beschrieb. Vor ihm hat sie aber bereits der französische Mathematiker Edmond Laguerre im Jahr 1880 im Zusammenhang mit der Größenabschätzung der Nullstellen von Polynomen gefunden.

Samuelsons Ungleichung

Für einen Datensatz ( x 1 , , x n ) R n {\displaystyle (x_{1},\ldots ,x_{n})\in \mathbb {R} ^{n}} sei

x ¯ = 1 n i = 1 n x i {\displaystyle {\bar {x}}={\frac {1}{n}}\sum _{i=1}^{n}x_{i}}

das arithmetische Mittel und

s ~ = 1 n i = 1 n ( x i x ¯ ) 2 {\displaystyle {\tilde {s}}={\sqrt {{\frac {1}{n}}\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}}}}

die empirische Standardabweichung (hier im Unterschied zur sonst üblichen Variante s = 1 n 1 i = 1 n ( x i x ¯ ) 2 {\displaystyle \textstyle s={\sqrt {{\frac {1}{n-1}}\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}}}} mit s ~ {\displaystyle {\tilde {s}}} bezeichnet).

Dann gilt:

| x j x ¯ | n 1 s ~ {\displaystyle |x_{j}-{\bar {x}}|\leq {\sqrt {n-1}}\,{\tilde {s}}}

für jede Einzelbeobachtung x j ,   j = 1 , , n {\displaystyle x_{j},\ j=1,\ldots ,n} .

Die Ungleichung ist scharf in dem Sinne, dass die rechte Seite ohne zusätzliche Annahmen über die Verteilung der Daten nicht verbessert werden kann.

Arnolds Beweis von Samuelsons Ungleichung

Im Jahre 1974 veröffentlichte Barry C. Arnold einen einfachen Beweis der Ungleichung, der sich auf die Cauchy-Schwarzsche Ungleichung stützt:

Sei j { 1 , 2 , , n } {\displaystyle j\in \{1,2,\ldots ,n\}} beliebig aber fest gewählt, und a = ( x 1 x ¯ x n x ¯ ) i j R n 1 ,   b = ( 1 1 ) R n 1 {\displaystyle {\vec {a}}={\begin{pmatrix}x_{1}-{\bar {x}}\\\vdots \\x_{n}-{\bar {x}}\end{pmatrix}}_{i\neq j}\in \mathbb {R} ^{n-1},\ {\vec {b}}={\begin{pmatrix}1\\\vdots \\1\end{pmatrix}}\in \mathbb {R} ^{n-1}} .

Wendet man auf a {\displaystyle {\vec {a}}} und b {\displaystyle {\vec {b}}} die Cauchy-Schwarzsche Ungleichung ( a T b ) 2 | a | 2 | b | 2 {\displaystyle ({\vec {a}}^{T}{\vec {b}})^{2}\leq |{\vec {a}}|^{2}\cdot |{\vec {b}}|^{2}} mit dem Standardskalarprodukt an, so folgt

( i j ( x i x ¯ ) ) 2 i j ( x i x ¯ ) 2 ( n 1 ) {\displaystyle \left(\sum _{i\neq j}(x_{i}-{\bar {x}})\right)^{2}\leq \sum _{i\neq j}(x_{i}-{\bar {x}})^{2}\cdot (n-1)}

und daraus

( i = 1 n ( x i x ¯ )   ( x j x ¯ ) ) 2 ( n 1 ) ( i = 1 n ( x i x ¯ ) 2   ( x j x ¯ ) 2 ) . {\displaystyle \left(\sum _{i=1}^{n}(x_{i}-{\bar {x}})\ -(x_{j}-{\bar {x}})\right)^{2}\leq (n-1)\left(\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}\ -(x_{j}-{\bar {x}})^{2}\right).}

Die erste Summe auf der linken Seite ist 0, daher

( x j x ¯ ) 2 ( n 1 ) i = 1 n ( x i x ¯ ) 2   ( n 1 ) ( x j x ¯ ) 2 {\displaystyle (x_{j}-{\bar {x}})^{2}\leq (n-1)\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}\ -(n-1)(x_{j}-{\bar {x}})^{2}}

und

n ( x j x ¯ ) 2 ( n 1 ) i = 1 n ( x i x ¯ ) 2 . {\displaystyle n(x_{j}-{\bar {x}})^{2}\leq (n-1)\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}.}

Division durch n {\displaystyle n} liefert

( x j x ¯ ) 2 ( n 1 ) 1 n i = 1 n ( x i x ¯ ) 2 = ( n 1 ) s ~ 2 . {\displaystyle (x_{j}-{\bar {x}})^{2}\leq (n-1)\cdot {\frac {1}{n}}\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}=(n-1){\tilde {s}}^{2}.}

Wurzelziehen auf beiden Seiten schließt den Beweis ab.

Gleichheit in Samuelsons Ungleichung tritt für ein x j {\displaystyle x_{j}} genau dann ein, wenn die anderen n 1 {\displaystyle n-1} Daten einander gleich sind und x j {\displaystyle x_{j}} als einziges davon verschieden.

Beispiel

Für den Datensatz ( 2 , 2 , 2 , 2 , 7 ) {\displaystyle (2,2,2,2,7)} mit n = 5 {\displaystyle n=5} berechnet man x ¯ = 3 {\displaystyle {\bar {x}}=3} und s ~ = 2 {\displaystyle {\tilde {s}}=2} . Für den fünften Wert gilt dann

| x 5 x ¯ | = | 7 3 | = 4 = n 1 s ~ , {\displaystyle |x_{5}-{\bar {x}}|=|7-3|=4={\sqrt {n-1}}\,{\tilde {s}},}

in der Ungleichung herrscht also Gleichheit.

Laguerres Ungleichung

Im Jahr 1880 veröffentlichte Laguerre folgenden Satz über die Abschätzung der Nullstellen von Polynomen: Ist

p ( x ) = x n a 1 x n 1 a 2 x n 2 a n {\displaystyle p(x)=x^{n} a_{1}x^{n-1} a_{2}x^{n-2} \ldots a_{n}}

ein Polynom mit n {\displaystyle n} (nicht notwendig verschiedenen) reellen Nullstellen x 1 , x 2 , , x n {\displaystyle x_{1},x_{2},\ldots ,x_{n}} , so genügen die Nullstellen folgender Ungleichung:

a 1 n n 1 b x j a 1 n n 1 b {\displaystyle -{\frac {a_{1}}{n}}-{\sqrt {n-1}}\,b\leq x_{j}\leq -{\frac {a_{1}}{n}} {\sqrt {n-1}}\,b}

mit

b = 1 n ( n 1 ) a 1 2 2 n a 2 . {\displaystyle b={\frac {1}{n}}{\sqrt {(n-1)a_{1}^{2}-2na_{2}}}.}

Diese Abschätzung ist Samuelsons Ungleichung, nur mit anderen Bezeichnungen. Dazu faktorisiert man das Polynom zu

p ( x ) = ( x x 1 ) ( x x 2 ) ( x x n ) {\displaystyle p(x)=(x-x_{1})\cdot (x-x_{2})\cdot \ldots \cdot (x-x_{n})}

und multipliziert aus:

p ( x ) = x n ( i = 1 n x i ) x n 1 ( i < j x i x j ) x n 2 {\displaystyle p(x)=x^{n}-\left(\sum _{i=1}^{n}x_{i}\right)x^{n-1} \left(\sum _{i

Koeffizientenvergleich mit der ursprünglichen Form liefert

a 1 = i = 1 n x i {\displaystyle a_{1}=-\sum _{i=1}^{n}x_{i}} und a 2 = i < j x i x j . {\displaystyle a_{2}=\sum _{i

Damit ist der Term a 1 n {\displaystyle -{\frac {a_{1}}{n}}} in Laguerres Ungleichung gleich x ¯ {\displaystyle {\bar {x}}} , und eine etwas längere aber elementare Rechnung zeigt b = s ~ {\displaystyle b={\tilde {s}}} .

Vergleich mit Tschebyscheffs Ungleichung

Tschebyscheffs Ungleichung ist eine Ungleichung aus der Wahrscheinlichkeitsrechnung über eine Zufallsvariable X {\displaystyle X} mit Erwartungswert μ {\displaystyle \mu } und Standardabweichung σ {\displaystyle \sigma } und lautet

P ( | X μ | k σ ) 1 1 k 2 {\displaystyle \operatorname {P} \left(|X-\mu |\leq k\sigma \right)\geq 1-{\frac {1}{k^{2}}}}

Um Vergleichbarkeit mit Samuelsons Ungleichung herzustellen, wählt man für X {\displaystyle X} die diskrete gleichverteilte Zufallsvariable, die die Werte x j {\displaystyle x_{j}} mit Wahrscheinlichkeiten P ( X = x j ) = 1 n ,   j = 1 , , n , {\displaystyle \operatorname {P} (X=x_{j})={\tfrac {1}{n}},\ j=1,\ldots ,n,} annimmt. Dann ist

μ = E ( X ) = x ¯ {\displaystyle \mu =\operatorname {E} (X)={\bar {x}}}

und

σ 2 = Var ( X ) = s ~ 2 . {\displaystyle \sigma ^{2}=\operatorname {Var} (X)={\tilde {s}}^{2}.}

Tschebyscheffs Ungleichung lautet dann

P ( | X x ¯ | k s ~ ) 1 1 k 2 {\displaystyle \operatorname {P} \left(|X-{\bar {x}}|\leq k{\tilde {s}}\right)\geq 1-{\frac {1}{k^{2}}}}

Sie macht eine Aussage über den Anteil der Daten, die innerhalb eines symmetrisch zu x ¯ {\displaystyle {\bar {x}}} gelegenen Intervalls liegen, und zwar unabhängig von der Größe des Datensatzes, während Samuelsons Ungleichung besagt, dass alle Werte eines n {\displaystyle n} -elementigen Datensatzes innerhalb von n 1 {\displaystyle {\sqrt {n-1}}} Standardabweichungen um x ¯ {\displaystyle {\bar {x}}} liegen, die Aussage wird mit wachsendem n {\displaystyle n} also immer ungenauer.

Beispiel

Für einen Datensatz mit n = 1000 {\displaystyle n=1000} Werten sagt Tschebyscheff, dass mindestens 99 % der Werte innerhalb von 10 Standardabweichungen um den Mittelwert liegen, dagegen Samuelson, dass alle Werte innerhalb von 31,6070 Standardabweichungen um den Mittelwert liegen. Der Preis für das Erfassen aller Werte ist also der viel schlechtere Faktor bei der Standardabweichung.

Literatur

  • Paul Samuelson: How Deviant Can You Be? In: Journal of the American Statistical Association. Band 63, Nr. 324, 1968, S. 1522–1525 (englisch). 
  • Barry C. Arnold: Schwarz, Regression, and Extreme Deviance. In: The American Statistician. Band 28, Nr. 1, 1974, S. 22–23 (englisch). 
  • Laguerre E.: Mémoire pour obtenir par approximation les racines d'une équation algébraique qui a toutes les racines réelles. In: Nouv Ann Math 2e série. Band 19, 1880, S. 161–172, 193–202 (französisch). 
  • Jensen, Shane Tyler: The Laguerre–Samuelson Inequality with Extensions and Applications in Statistics and Matrix Theory (MSc). Department of Mathematics and Statistics McGill University 1999 (englisch, gc.ca [PDF]). 

Lineare Ungleichungen Definition & Zusammenfassung Easy Schule

Ungleichung

05B.3 Ungleichungen mit Produkt von Linearfaktoren TIB AVPortal

Lineare Ungleichungen Einfach erklärt (inkl. Übungen) sofatutor

Lineare Ungleichungen Definition & Zusammenfassung Easy Schule