2014年7月31日星期四

LU分解

1/6 LU 分解

LU 分解可以写成A = LU,这里的L代表下三角矩阵,U代表上三角矩阵。对应的matlab代码如下:

function[L, U] =zlu(A)

% ZLU - LU decomposition for matrix A

% work as gauss elimination

[m, n] = size(A);

if m ~= n

error('Error, current time only support square matrix');

end

L = zeros(n);

U = zeros(n);

for k = 1:n-1

gauss_vector = A(:,k);

gauss_vector(k+1:end) = gauss_vector(k+1:end) ./ gauss_vector(k);

gauss_vector(1:k) = zeros(k,1);

L(:,k) = gauss_vector;

L(k,k) = 1;

for l=k+1:n

A(l,:) = A(l,:) - gauss_vector(l)*A(k,:);

end

end

U = A;

这段代码的目的非常简单,就是使用高斯消元法给出L,U。但是计算的稳定性非常不好,这点可以通过这段代码的分解结果和matlab自带lu的分解结果相比较得出。比较的方法非常简单:就是计算l*u与原始矩阵想减之后的Frobinus范数大小,使用如下的代码做出两个结果的比较:

n = 1000;

my_error = zeros(1, 1000);

sys_error = zeros(1, 1000);

for i = 1:n

test = randn(5);

[zl, zu] = zlu(test);

[l, u] = lu(test);

my_error(i) = norm(zl*zu - test, 'fro');

sys_error(i) = norm(l*u - test, 'fro');

end

disp(mean(my_error));

disp(var(my_error));

disp(mean(sys_error));

disp(var(sys_error));

在这段代码里面,随机的生成一个5x5的符合高斯分布的矩阵,然后使用自己写的lu分解和matlab自带的lu分解分别给出L和U,再计算norm(L*U - test),从这里就可以看出我们自己计算出来的结果精度和matlab自带的lu真实的差异了。这个差异就体现为这些值的均值和方差。结果如下:

mean of my lu : 13.313846
variance of my lu : 43622.114147
mean of matlab lu : 0.000000
variance of matlab lu : 0.000000

从这个结果可以看出,我们自己写的lu分解的结果在均值和方差上比matlab自带的差了很多。个人认为原因有两点:第一个方法的原因,matlab给出的结果是pivoted LU,第二个是因为实现的原因,matlab基于成熟的LAPACK,肯定会比自己写的更好了。

这一步使用PA = LU来完成LU分解。代码如下:

function [P, L, U] = zplu(A)

% pivoted LU decompositon P*A = L*U

[m, n] = size(A);

if m ~= n

error('zplu:test', 'current time only support square matrix');

end

P = eye(n);

L = zeros(n, n);

for k = 1:n-1

%find the largest element in k column of A from row k to n

[max_value, max_index] = max(A(k:end, k));

max_index = max_index + k - 1;

if max_index ~= k

A([k max_index], :) = A([max_index k], :);

P([k max_index], :) = P([max_index k], :);

L([k max_index], :) = L([max_index k], :);

end

if A(k,k) ~= 0

gauss_vector = A(:,k);

gauss_vector(k+1:end) = gauss_vector(k+1:end) ./ gauss_vector(k);

gauss_vector(1:k) = zeros(k,1);

L(:,k) = gauss_vector;

L(k, k) = 1;

for l=k+1:n

A(l,:) = A(l,:) - gauss_vector(l)*A(k,:);

end

end

end

U = triu(A);

下面是运行前面检测程序的输出:

mean of my lu : 7.803258
variance of my lu : 1450.332510
mean of matlab lu : 0.000000
variance of matlab lu : 0.000000

两个结果相比较可以看到,Matlab的lu一样的稳定,但是使用pivot来调整矩阵A的次序可以极大的提高LU分解的稳定度,这个可以从下降了非常多的方差可以看出。

pivot LU是从k列的k+1到n个元素种选择最大的一个,调换到第k个位置。从我个人的角度理解,除以最大的元素使得高斯变换矩阵中非对角元素全部小于1。由于计算机种存储浮点数的机制,绝对值越靠近0,其精度越高。所以使用pivot这种方法可以极大的提高LU分解的稳定程度。但是也需要指出,使用pivot并不一定能提高LU分解的精度,对于特定的矩阵,不使用pivot说不定可以获得更好的性能。

为了进一步提高提高LU分解的稳定性,可以使用full pivoted LU。分解公式:P*A*Q = L * U; 对应的Matlab代码如下:

function [P, Q, L, U] = zflu(A)

%full pivoted LU decomposition

%

% full pivoted LU decomposition

[m, n] = size(A);

if m ~= n

error('current only support square matrix')

end

P = eye(n);

Q = eye(n);

for k=1:n-1

%find the larget element in A(k:n,k:n)

[max_value, row_index] = max(A(k:n, k:n));

[max_value, col_index] = max(max_value);

real_row = k-1 + row_index(col_index);

real_col = k-1 + col_index;

%exchange the row and column of matrix A

if real_row ~= k

A([k real_row],:) = A([real_row k], :);

P([k real_row],:) = P([real_row k], :);

end

if real_col ~= k

A(:, [k real_col]) = A(:, [real_col k]);

Q(:, [k real_col]) = Q(:, [real_col k]);

end

if A(k, k) ~= 0

rows = k+1:n;

A(rows, k) = A(rows, k) ./ A(k, k);

A(rows, rows) = A(rows, rows) - A(rows, k)*A(k, rows);

end

end

L = tril(A);

for k=1:n

L(k, k) = 1;

end

U = triu(A);

跑完test之后的结果如下:

mean of my lu : 7.77222e-16
variance of my lu : 4.3478e-29
mean of matlab lu : 3.69764e-16
variance of matlab lu : 2.03659e-32

可以看到使用full pivoted LU 分解可以在很大程度上保证分解的稳定性,即便是使用我们自己写的代码。但是即便如此,仍然推荐使用LAPACK中的代码,因为那里面的代码是经过严格的测试和分析的,在各种一场情况下应该都有很好的表现。

这里所介绍的LU分解可以使用另外一种基于GaxPy形式的运行,将在下面介绍。

没有评论:

发表评论