Warum ist punktuelle gegenseitige Information wichtig?

Inhaltsverzeichnis:

Warum ist punktuelle gegenseitige Information wichtig?
Warum ist punktuelle gegenseitige Information wichtig?
Anonim

Die punktweise gegenseitige Information stellt ein quantifiziertes Maß dafür dar, wie viel mehr oder weniger wahrscheinlich wir das gemeinsame Auftreten der beiden Ereignisse sehen angesichts ihrer individuellen Wahrscheinlichkeiten und im Verhältnis dazu der Fall, wo die beiden völlig unabhängig sind.

Was misst die punktweise gegenseitige Information zwischen zwei Wörtern?

In der Computerlinguistik ist punktweise gemeinsame Information zweiter Ordnung ein semantisches Ähnlichkeitsmaß. Um den Assoziationsgrad zwischen zwei gegebenen Wörtern zu beurteilen, verwendet es Pointwise Mutual Information (PMI), um Listen wichtiger Nachbarwörter der beiden Zielwörter aus einem großen Korpus zu sortieren.

Was ist gegenseitige Information im NLP?

Gegenseitige Information misst, wie viel Information - im informationstheoretischen Sinne - ein Begriff über die Klasse enthält. Wenn die Verteilung eines Begriffs in der Klasse dieselbe ist wie in der Sammlung als Ganzes, dann..

Wie wird punktweise gegenseitige Information berechnet?

Die allgemeine Formel für punktweise gegenseitige Information ist unten angegeben; es ist der binäre Logarithmus der gemeinsamen Wahrscheinlichkeit von X=a und Y=b, dividiert durch das Produkt der einzelnen Wahrscheinlichkeiten, dass X=a und Y=b.

Was ist PMI beim maschinellen Lernen?

PMI: Pointwise Mutual Information, ist ein Korrelationsmaß zwischen zwei Ereignissen x und y. Wie Sie dem obigen Ausdruck entnehmen können, ist er direkt proportional zur Anzahl derZeiten, in denen beide Ereignisse zusammen auftreten und umgekehrt proportional zu den einzelnen Zählwerten, die im Nenner stehen.

Empfohlen: