Welche Mathematik steckt hinter dem MUSIC-Algorithmus?

Wie in dem MUSIC FAQ erwähnt, basiert der MUSIC-Algorithmus auf der Zerlegung der Eigenstruktur der Kreuz-Spektral-Matrix (KSM) in zwei Teilräume. Die Anzahl \(N\) der Eigenwerte, welche dem Rauschen zugeordnet werden, ergibt sich aus einer Abschätzung der Dimension des Signalraumes \(D = M - N\), welche der Anwender selbst durchführen muss. Hierbei entspricht \(M\) der Anzahl der Arraymikrofone.

Die folgende Modellannahme für die an den \(M\) Mikrofonen des Arrays einfallenden Signale \(X\) ist der Ausgangspunkt für die Herleitung des Ergebnisses des MUSIC-Algorithmus: \(X = AF + W\) Hierbei ist \(X\) der Vektor der empfangenen, Fouriertransformierten Signale. \(A (M \times D)\) ist die Matrix der Steering Vectors \(g(\vec x_t,\omega_k)\) mit dem Beobachtungsort \(\vec x_t\) und der Frequenz \(\omega_k\). \(F\) (enthält \(D\) Einträge) ist der Vektor, welcher die einfallenden Signale in Amplitude und Phase an einem beliebigen Referenzpunkt (bspw. Koordinatenursprung) repräsentiert und \(W\) der Vektor, der internes oder externes Rauschen an den Mikrofonen enthält. Mit diesem Modell ergibt sich bei der Annahme, dass die an den Mikrofonen einfallenden Signale unkorreliert sind, die Kreuz-Spektral-Matrix (KSM) zu:

\(C \widehat{=} \overline{XX^{\ast}} = A \overline{FF^{\ast}} A^{\ast} + \overline{WW^{\ast}} \)

Nimmt man unkorreliertes Rauschen an den Mikrofonen an, wird die entsprechende Kovarianzmatrix \(\overline{WW^{\ast}}\) mit der Varianz des Rauschens \(\sigma^2\) zu \(\overline{WW^{\ast}} = \sigma^2I\) with \(\sigma^2\) gesetzt. Wie beim OBF wird eine Eigenzerlegung von \(C = V \Lambda V^{\ast}\) in Diagonalmatrix \(\Lambda = diag\{\lambda_1,\lambda_2,...,\lambda_M\}\) der Eigenwerte (EW) und \(V = [V_1,...,V_M]\) Matrix der Eigenvektoren (EV) mit deren transponiert-konjugierter \(V^{\ast}\) durchgeführt. Jedoch werden anstatt der Darstellung des Signalraums mit korrekten EW und EV bei MUSIC nur die EV des Rauschraumes genutzt. Um diesen Teilraum festzulegen, muss wie oben erwähnt, die Anzahl \(N\) der zum Rauschen gehörenden kleinen Eigenwerte abgeschätzt werden. Damit lassen sich alle größeren Eigenwerte von \(C\) den einfallenden Signalen zuordnen und eine Aufteilung der Eigenzerlegung durchführen: \(C = \underbrace{\sum_s V_s \Lambda_s V^{\ast}_s} + \underbrace{\sum_n V_n \Lambda_n V^{\ast}_n}\) Signalanteil Rauschanteil

Mit den \(N\) Rausch-Eigenvektoren \(V_n\) wird das räumliche Spektrum und damit das Ergebnis des MUSIC-Algorithmus definiert:

\(b(\vec{x}_t,\omega_k) = \frac{1}{\sum_n g^{\ast}(\vec{x}_t,\omega_k)V_n V^{\ast}_n g(\vec{x}_t,\omega_k)} \)

Zeigt ein Steering Vector auf eine Quelle, so hat die Funktion im Nenner aufgrund der Orthogonalität ein lokales Minimum und das Ergebnis ein lokales Maximum.

Literatur

R. O. Schmidt, "Multiple emitter location and signal parameter estimation" IEEE Trans. Antennas Propag., vol.AP-34, pp. 276-280, March 1986.

Besuchen Sie auch die Website der von der GFaI e. V. veranstalteten Berliner Beamforming-Konferenz https://www.bebec.eu.