Identité de Woodbury

En mathématiques, plus précisément en algèbre linéaire, l'identité de Woodbury – du nom du mathématicien américain Max A. Woodbury [1] – dit que l'inverse d'une correction de rang k d'une matrice peut être calculée en effectuant une correction de rang k à l'inverse de la matrice d'origine. Les noms alternatifs pour cette formule sont le lemme d'inversion de matrice, la formule de Sherman-Morrison-Woodbury ou simplement la formule de Woodbury. Cependant, l'identité est apparue dans plusieurs articles avant le rapport de Woodbury[2],[3].

L'identité de Woodbury est [4]

A, U, C et V sont des matrices conformes : A est carrée de taille n × n, C est carrée de taille k × k, U est n × k et V est k × n. Ceci peut être obtenu en utilisant le calcul d'inversion de matrice par blocs.

Bien que l'identité soit principalement utilisée sur les matrices, elle est valable dans un anneau général ou dans une catégorie Ab .

L'identité de Woodbury permet un calcul peu coûteux des inverses et des solutions aux équations linéaires. Cependant, on sait peu de choses sur la stabilité numérique de la formule. Il n’existe aucun résultat publié concernant ses limites d’erreur. Des preuves anecdotiques [5] suggèrent que cette différence peut être observée même pour des exemples apparemment simples (lorsque les matrices originales et modifiées sont bien conditionnées).

Discussion

Pour prouver ce résultat, on commence par en prouver un plus simple. En remplaçant A et C par la matrice identité I, on obtient une autre identité un peu plus simple : (I + UV)-1 = IU(I + VU)-1V. Pour récupérer l'équation originale à partir de cette identité réduite, il suffit de remplacer U par A-1U et V par CV.

Cette identité elle-même peut être considérée comme la combinaison de deux identités plus simples. On obtient la première identité à partir de ainsi, et de même La deuxième identité est ce qu'on appelle l'identité de passage [6] qu'on obtient en partant de l'égalité U(I + VU) = (I + UV)U après avoir multiplié par (I + VU)-1 à droite et par (I + UV)-1 à gauche.

En utilisant tous les résultats, où la première et la deuxième égalité proviennent respectivement de la première et de la deuxième identité.

Cas particuliers

Quand V, U sont des vecteurs (k = 1), l'identité se réduit à la formule de Sherman-Morrison.

Dans le cas scalaire, la version réduite est simplement l'égalité :

Inverse d'une somme

Si n = k et U = V = In est la matrice identité, alors

En poursuivant la fusion des termes du côté le plus à droite de l'équation ci-dessus, on obtient l'Identité de Hua

Une autre forme utile de la même identité est

qui, contrairement à celles ci-dessus, est valable même si B est singulière. Elle possède ainsi une écriture sous forme de série vraie si le rayon spectral de A-1B est inférieur à 1. Autrement dit, si la somme ci-dessus converge, elle est égale à (AB)-1.

Cette forme peut être utilisée dans les développements perturbatifs où B est une perturbation de A.

Variations

Théorème binomial inverse

Si A, B, U, V sont des matrices de tailles n × n, k × k, n × k, k × n, respectivement, alors

à condition que A et B + BVA−1UB ne soient pas singulières. La non-singularité de la deuxième nécessite que B−1 existe puisqu'elle est égale à B(I + VA−1UB) et le rang de cette dernière ne peut excéder le rang de B[6].

Comme B est inversible, les deux termes B encadrant la quantité inverse entre parenthèses dans le côté droit peuvent être remplacés par (B−1)−1, ce qui permet de retrouver l'identité de Woodbury originale.

Une variante avec B singulière et voire même non carrée[6]:

Il existe également des formules pour certains cas où A est singulière.

Pseudo-inverse avec matrices semi-définies positives

En général, l'identité de Woodbury n'est pas valide si une ou plusieurs des matrices inverses sont remplacées par des pseudo-inverses (de Moore-Penrose). Cependant, si et sont semi-définies positives, et (impliquant que est elle-même semi-définie positive), alors la formule suivante fournit une généralisation[7],[8]:

peut être écrite comme car toute matrice semi-définie positive est égale à pour certains .

Démonstrations

Preuve directe

La formule peut être prouvée en vérifiant que multiplié par son inverse présumé du côté droit de l'identité de Woodbury donne la matrice d'identité :

Preuves alternatives

Applications

Ceci est appliqué, par exemple, dans le filtre de Kalman et les méthodes des moindres carrés récursifs, pour remplacer la solution paramétrique, nécessitant l'inversion d'une matrice de taille de vecteur d'état, par une solution basée sur des équations de condition. Dans le cas du filtre de Kalman, cette matrice a les dimensions du vecteur d'observations, c'est-à-dire aussi petite que 1 dans le cas où une seule nouvelle observation est traitée à la fois. Cela accélère considérablement les calculs souvent en temps réel du filtre.

Dans le cas où C est la matrice identité I, la matrice est connue dans l'algèbre linéaire numérique et les équations aux dérivées partielles numériques sous le nom de matrice de capacité[3].

Voir aussi

Références

  1. (en) Max A. Woodbury, Inverting modified matrices, Memorandum Rept. 42, Statistical Research Group, Princeton University, Princeton, NJ, 1950, 4pp lien Math Reviews
  2. (en) Louis Guttmann, « Enlargement methods for computing the inverse matrix », Ann. Math. Statist., vol. 17, no 3,‎ , p. 336–343 (DOI 10.1214/aoms/1177730946)
  3. a et b (en) William W. Hager, « Updating the inverse of a matrix », SIAM Review, vol. 31, no 2,‎ , p. 221–239 (DOI 10.1137/1031049, JSTOR 2030425, MR 997457)
  4. (en) Nicholas Higham, Accuracy and Stability of Numerical Algorithms, 2nd, (ISBN 978-0-89871-521-7, MR 1927606, lire en ligne Accès limité), 258
  5. (en) « Special considerations when using the Woodbury matrix identity numerically », MathOverflow
  6. a b et c (en) H. V. Henderson et S. R. Searle, « On deriving the inverse of a sum of matrices », SIAM Review, vol. 23, no 1,‎ , p. 53–60 (DOI 10.1137/1023004, JSTOR 2029838, hdl 1813/32749, lire en ligne)
  7. (en) Dennis S. Bernstein, Scalar, Vector, and Matrix Mathematics: Theory, Facts, and Formulas, Princeton, Revised and expanded, (ISBN 9780691151205), p. 638
  8. (en) James R. Schott, Matrix analysis for statistics, Hoboken, New Jersey, Third, (ISBN 9781119092483), p. 219
  • (en) WH Press, SA Teukolsky, WT Vetterling et BP Flannery, Numerical Recipes: The Art of Scientific Computing, New York, Cambridge University Press, (ISBN 978-0-521-88068-8), « Section 2.7.3. Woodbury Formula »

Liens externes