Propriétés des estimateurs

Les propriétés des estimateurs sont les qualités que ceux-ci peuvent avoir et qui servent à choisir ceux qui sont les plus aptes à donner de bons résultats.

Pour commencer par définir la notion d'estimateur, nous dirons que pour tout échantillon aléatoire (x1, X2, X3,…, Xm) un estimateur représente une population qui dépend de φ un paramètre que nous ne connaissons pas.

Ce paramètre, que nous désignons par la lettre grecque fi (φ), peut être, par exemple, la moyenne de n'importe quelle variable aléatoire.

Mathématiquement, un estimateur Q à un paramètre dépend des observations aléatoires dans l'échantillon (x1, X2, X3,…, Xm) et une fonction connue (h) de l'échantillon. L'estimateur (Q) sera une variable aléatoire car il dépend de l'échantillon qui contient des variables aléatoires.

Q = h (x1, X2, X3,…, Xm)

Non biais d'un estimateur

Un estimateur Q de est un estimateur sans biais si E (Q) = pour toutes les valeurs possibles de . Nous définissons E (Q) comme la valeur attendue ou l'espérance de l'estimateur Q.

Dans le cas d'estimateurs biaisés, ce biais serait représenté par :

Biais (Q) = E (Q) - φ

Nous pouvons voir que le biais est la différence entre la valeur attendue de l'estimateur, E (Q), et la vraie valeur du paramètre de population, .

Estimation ponctuelle

Efficacité d'un estimateur

Oui Q1 et alors2 sont deux estimateurs sans biais de φ, leur relation avec Q sera efficace2 quand Var (Q1) ≤ Var (Q2) pour toute valeur de tant que l'échantillon statistique de est strictement supérieur à 1, n> 1. Où Var est la variance et n est la taille de l'échantillon.

Intuitivement énoncé, en supposant que nous ayons deux estimateurs avec la propriété sans biais, nous pouvons dire que l'un (Q1) est plus efficace qu'un autre (Q2) si la variabilité des résultats de un (Q1) est inférieure à celle de l'autre (Q2). Il est logique de penser qu'une chose qui varie plus qu'une autre est moins « précise ».

Par conséquent, nous ne pouvons utiliser ce critère pour sélectionner les estimateurs que lorsqu'ils sont sans biais. Dans l'énoncé précédent, lorsque nous définissons l'efficacité, nous supposons déjà que les estimateurs doivent être sans biais.

Pour comparer des estimateurs qui ne sont pas nécessairement sans biais, c'est-à-dire qu'un biais peut exister, il est recommandé de calculer l'erreur quadratique moyenne (EQM) des estimateurs.

Si Q est un estimateur de φ, alors l'ECM de Q est défini comme :

L'erreur quadratique moyenne (MSE) calcule la distance moyenne qui existe entre la valeur attendue de l'estimateur d'échantillon Q et l'estimateur de population. La forme quadratique de l'ECM est due au fait que les erreurs peuvent être par défaut, négatives, ou par excès, positives, par rapport à la valeur attendue. De cette façon, ECM calculera toujours des valeurs positives.

L'ECM dépend de la variance et du biais (le cas échéant) nous permettant de comparer deux estimateurs lorsque l'un ou les deux sont biaisés. Celui dont la NDE est la plus grande sera compris comme étant moins précis (a plus d'erreur) et, par conséquent, moins efficace.

Cohérence d'un estimateur

La cohérence est une propriété asymptotique. Cette propriété ressemble à la propriété d'efficacité avec la différence que la cohérence mesure la distance probable entre la valeur de l'estimateur et la vraie valeur du paramètre de population lorsque la taille de l'échantillon augmente indéfiniment. Cette augmentation indéfinie de la taille de l'échantillon est à la base de la propriété asymptotique.

Il existe une dimension d'échantillon minimale pour effectuer l'analyse asymptotique (vérifier la cohérence de l'estimateur au fur et à mesure que l'échantillon augmente). Les approximations de grands échantillons fonctionnent bien pour des échantillons d'environ 20 observations (n ​​= 20). En d'autres termes, on veut voir comment l'estimateur se comporte quand on augmente l'échantillon, mais cette augmentation tend vers l'infini. Compte tenu de cela, nous faisons une approximation et à partir de 20 observations dans un échantillon (n 20), l'analyse asymptotique est appropriée.

Mathématiquement, on définit Q1n comme estimateur de à partir de tout échantillon aléatoire (x1, X2, X3,…, Xm) de taille (m). On peut donc dire que Qm est un estimateur consistant de φ si :

Cela nous indique que les différences entre l'estimateur et sa valeur de population, | Qm - φ |, ils doivent être supérieurs à zéro. Pour cela nous l'exprimons en valeur absolue. La probabilité de cette différence tend vers 0 (devient de plus en plus petite) lorsque la taille de l'échantillon (m) tend vers l'infini (devient de plus en plus gros).

Autrement dit, il est de moins en moins probable que Qm s'éloigne trop de lorsque la taille de l'échantillon augmente.

Vous contribuerez au développement du site, partager la page avec vos amis

wave wave wave wave wave