Estimation du maximum de vraisemblance

L'estimation de vraisemblance maximale (EVV) est un modèle général d'estimation des paramètres d'une distribution de probabilité qui dépend des observations de l'échantillon.

En d'autres termes, l'EMV maximise la probabilité des paramètres des fonctions de densité qui dépendent de la distribution de probabilité et des observations dans l'échantillon.

Quand on parle d'estimation du maximum de vraisemblance, il faut parler de la une fonction plausibilité maximum. Mathématiquement, étant donné un échantillon x = (x1,…, Xm) et les paramètres, θ = (θ1,…,m) ensuite,

Ne pas paniquer! Ce symbole signifie la même chose que la somme des sommes. Dans ce cas, c'est la multiplication de toutes les fonctions de densité qui dépendent des observations de l'échantillon (xje) et les paramètres θ.

Plus la valeur de L (θ | x), c'est-à-dire la valeur de la fonction de vraisemblance maximale, est élevée, plus les paramètres basés sur l'échantillon seront probables.

Fonction logarithmique de l'EMV

Pour trouver les estimations du maximum de vraisemblance, nous devons différencier (déduire) les produits des fonctions de densité et ce n'est pas la façon la plus confortable de le faire.

Lorsque nous rencontrons des fonctions compliquées, ce que nous pouvons faire est une transformation monotone. Autrement dit, ce serait comme vouloir dessiner l'Europe à une échelle réelle. Nous devrions le réduire pour qu'il puisse tenir sur une feuille de papier.

Dans ce cas, nous effectuons la transformation monotone en utilisant des logarithmes naturels car ce sont des fonctions monotones et croissantes. Mathématiquement,

Les propriétés des logarithmes nous permettent d'exprimer la multiplication ci-dessus comme la somme des logarithmes naturels appliqués aux fonctions de densité.

Ainsi, la transformation monotone par les logarithmes est simplement un "changement d'échelle" vers des nombres plus petits.

La valeur estimée des paramètres qui maximisent la probabilité des paramètres de la fonction de maximum de vraisemblance avec des logarithmes est équivalente à la valeur estimée des paramètres qui maximisent la probabilité des paramètres de la fonction de maximum de vraisemblance d'origine.

On va donc toujours faire face à la modification monotone de la fonction de maximum de vraisemblance compte tenu de sa plus grande facilité de calcul.

Curiosité

Aussi complexe et étrange que l'EMV puisse paraître, nous l'appliquons continuellement sans nous en rendre compte.

Lorsque?

Dans toutes les estimations des paramètres d'une régression linéaire sous des hypothèses classiques. Plus communément appelés moindres carrés ordinaires (OLS).

En d'autres termes, lorsque nous appliquons OLS, nous appliquons implicitement EMV puisque les deux sont équivalents en termes de cohérence.

Application

Comme d'autres méthodes, EMV est basé sur l'itération. C'est-à-dire répéter une certaine opération autant de fois que nécessaire pour trouver la valeur maximale ou minimale d'une fonction. Ce processus peut être soumis à des restrictions sur les valeurs finales des paramètres. Par exemple, que le résultat est supérieur ou égal à zéro ou que la somme de deux paramètres doit être inférieure à un.

Le modèle GARCH symétrique et ses différentes extensions appliquent l'EMV pour trouver la valeur estimée des paramètres qui maximise la probabilité des paramètres des fonctions de densité.