En mathématiques, plus précisément en algèbre linéaire, l'identité de Woodbury – du nom du mathématicien américain Max A. Woodbury [1] – dit que l'inverse d'une correction de rang k d'une matrice peut être calculée en effectuant une correction de rang k à l'inverse de la matrice d'origine. Les noms alternatifs pour cette formule sont le lemme d'inversion de matrice, la formule de Sherman-Morrison-Woodbury ou simplement la formule de Woodbury. Cependant, l'identité est apparue dans plusieurs articles avant le rapport de Woodbury[2],[3].
où A, U, C et V sont des matrices conformes : A est carrée de taille n × n, C est carrée de taille k × k, U est n × k et V est k × n. Ceci peut être obtenu en utilisant le calcul d'inversion de matrice par blocs.
Bien que l'identité soit principalement utilisée sur les matrices, elle est valable dans un anneau général ou dans une catégorie Ab .
L'identité de Woodbury permet un calcul peu coûteux des inverses et des solutions aux équations linéaires. Cependant, on sait peu de choses sur la stabilité numérique de la formule. Il n’existe aucun résultat publié concernant ses limites d’erreur. Des preuves anecdotiques [5] suggèrent que cette différence peut être observée même pour des exemples apparemment simples (lorsque les matrices originales et modifiées sont bien conditionnées).
Pour prouver ce résultat, on commence par en prouver un plus simple. En remplaçant A et C par la matrice identitéI, on obtient une autre identité un peu plus simple : (I + UV)-1 = I – U(I + VU)-1V. Pour récupérer l'équation originale à partir de cette identité réduite, il suffit de remplacer U par A-1U et V par CV.
Cette identité elle-même peut être considérée comme la combinaison de deux identités plus simples. On obtient la première identité à partir de ainsi, et de même La deuxième identité est ce qu'on appelle l'identité de passage [6] qu'on obtient en partant de l'égalité U(I + VU) = (I + UV)U après avoir multiplié par (I + VU)-1 à droite et par (I + UV)-1 à gauche.
En utilisant tous les résultats, où la première et la deuxième égalité proviennent respectivement de la première et de la deuxième identité.
Dans le cas scalaire, la version réduite est simplement l'égalité :
Inverse d'une somme
Si n = k et U = V = In est la matrice identité, alors
En poursuivant la fusion des termes du côté le plus à droite de l'équation ci-dessus, on obtient l'Identité de Hua
Une autre forme utile de la même identité est
qui, contrairement à celles ci-dessus, est valable même si B est singulière. Elle possède ainsi une écriture sous forme de série vraie si le rayon spectral de A-1B est inférieur à 1. Autrement dit, si la somme ci-dessus converge, elle est égale à (A – B)-1.
Cette forme peut être utilisée dans les développements perturbatifs où B est une perturbation de A.
Variations
Théorème binomial inverse
Si A, B, U, V sont des matrices de tailles n × n, k × k, n × k, k × n, respectivement, alors
à condition que A et B + BVA−1UB ne soient pas singulières. La non-singularité de la deuxième nécessite que B−1 existe puisqu'elle est égale à B(I + VA−1UB) et le rang de cette dernière ne peut excéder le rang de B[6].
Comme B est inversible, les deux termes B encadrant la quantité inverse entre parenthèses dans le côté droit peuvent être remplacés par (B−1)−1, ce qui permet de retrouver l'identité de Woodbury originale.
Une variante avec B singulière et voire même non carrée[6]:
Il existe également des formules pour certains cas où A est singulière.
Pseudo-inverse avec matrices semi-définies positives
En général, l'identité de Woodbury n'est pas valide si une ou plusieurs des matrices inverses sont remplacées par des pseudo-inverses (de Moore-Penrose). Cependant, si et sont semi-définies positives, et (impliquant que est elle-même semi-définie positive), alors la formule suivante fournit une généralisation[7],[8]:
où peut être écrite comme car toute matrice semi-définie positive est égale à pour certains .
Démonstrations
Preuve directe
La formule peut être prouvée en vérifiant que multiplié par son inverse présumé du côté droit de l'identité de Woodbury donne la matrice d'identité :
Preuves alternatives
Preuve algébrique
On utilise les égalités suivantes :
Ainsi
Par élimination par blocs
On considère le problème d'inversion de matrice suivant :
Ce problème se réécrit sous la forme d'un système :
ce qui permet d'établir . En éliminant la première équation, on obtient , ce qui permet de réécrire la deuxième pour avoir . En développant et réarrangeant, on a , ou . Enfin, on substitue dans la première équation d'origine , ce qui permet d'écrire . et de conclure :
Par décomposition LDU
On considère la matrice
En éliminant le bloc inférieur gauche (comme A est inversible) on a
De même, éliminer le bloc supérieur droit donne :
Ainsi, en combinant, on a :
Moving to the right side gives
ce qui donne la décomposition LDU par blocs de la matrice d'origine.
Par inversion, on a :
En procédant de façon similaire mais en utilisant le fait que C est inversible, on obtient :
Ce qui donne par inversion
Par identification par blocs, les deux blocs supérieurs gauches donnent l'identité de Woodbury.
Applications
Ceci est appliqué, par exemple, dans le filtre de Kalman et les méthodes des moindres carrés récursifs, pour remplacer la solution paramétrique, nécessitant l'inversion d'une matrice de taille de vecteur d'état, par une solution basée sur des équations de condition. Dans le cas du filtre de Kalman, cette matrice a les dimensions du vecteur d'observations, c'est-à-dire aussi petite que 1 dans le cas où une seule nouvelle observation est traitée à la fois. Cela accélère considérablement les calculs souvent en temps réel du filtre.
Dans le cas où C est la matrice identité I, la matrice est connue dans l'algèbre linéaire numérique et les équations aux dérivées partielles numériques sous le nom de matrice de capacité[3].
↑(en) Max A. Woodbury, Inverting modified matrices, Memorandum Rept. 42, Statistical Research Group, Princeton University, Princeton, NJ, 1950, 4pp lien Math Reviews
↑(en) Louis Guttmann, « Enlargement methods for computing the inverse matrix », Ann. Math. Statist., vol. 17, no 3, , p. 336–343 (DOI10.1214/aoms/1177730946)
↑(en) Dennis S. Bernstein, Scalar, Vector, and Matrix Mathematics: Theory, Facts, and Formulas, Princeton, Revised and expanded, (ISBN 9780691151205), p. 638
↑(en) James R. Schott, Matrix analysis for statistics, Hoboken, New Jersey, Third, (ISBN 9781119092483), p. 219
(en) WH Press, SA Teukolsky, WT Vetterling et BP Flannery, Numerical Recipes: The Art of Scientific Computing, New York, Cambridge University Press, (ISBN 978-0-521-88068-8), « Section 2.7.3. Woodbury Formula »