0 Daumen
83 Aufrufe

Frage: Sollte in Python geschrieben werden

Eine Funktion LU_decomposition (M), welche die LU-Zerlegung einer gegebenen (invertierbaren) Matrix \( M \in \mathbb{Z}^{n \times n} \) bestimmt, d.h.es sollen zwei Matrizen \( L, U \in \mathbb{Z}^{n \times n} \) berechnet werden, für die für alle \( i, j \in\{1, \ldots n\} \) mit \( j<i \) Folgendes gilt:
1. \( M=L U \),
2. \( L_{i i}=1, L_{j i}=0 \),
3. \( U_{i i} \neq 0, U_{i j}=0 \).
Es darf hierbei vorausgesetzt werden, dass die LU-Zerlegung existiert und eindeutig ist sowie dass unter den Voraussetzungen automatisch \( L, U \in \mathbb{Z}^{n \times n} \) gilt.

Ich habe echt kein Plan wie ich dies aufschreibe kann wer bitte so schnell wie moglich helfen. Wáre sehr dankbar)


Anmerkung: Man darf nicht Modul numpy verwenden.


Die berechneten Matrizen L und U sollen dabei unter Vernachlassigung der Diagonalen von
L in eine Matrix geschrieben werden.

von

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Stacklounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community