前言
记录OMP算法的学习过程。
一、信号模型和逆问题
对于非齐次线性方程组A x = b Ax = bAx=b式中b ∈ R m , A ∈ R m ∗ n , x ∈ R m b \in R^m,A \in R^{m*n},x \in R^mb∈Rm,A∈Rm∗n,x∈Rm。
一般如果我们考虑A , x A,xA,x已知,那么求b bb是一个很简单的问题。
这个问题的逆问题为,b , A b,Ab,A已知,去求x xx。
当n > > m n>>mn>>m时,该方程有无穷多解,如果我们想得到唯一解,就需要限定x xx,实际上在压缩感知领域,就是限定x xx是稀疏的,也就是x xx中有很多0,在这种情况下去求解x xx,其中k kk为x xx的稀疏度,实际上就是x xx中非0的个数。
二、OMP原理
现在假设我们已知A , b A,bA,b,想从中恢复出x xx,显然我们需要充分利用x xx是稀疏的这个事实,由线性代数知识显然可以知道b bb其实是矩阵A AA的列向量的线性组合,也就是x xx作为权重与A AA的列向量加权求和后得到的结果,由于x xx是稀疏的,那么显然可以发现一个事实,A AA中仅仅有很少的列向量对b bb做出了贡献,我们的目的就是找出这些对b bb贡献较大的列向量,与此同时,根据列向量在A AA中的位置,可以判断出x xx中非零元素的位置,这就是OMP算法的基本思想。
那么关键是如何刻画A AA中列向量对b bb的贡献,在欧几里和空间中,我们常常用内积去定义两个向量的距离,实际上我们可以将b bb往A AA中列向量方向去投影,由此判断某个列向量对其的贡献。公式化表达c o n t r i b u t i o n ( b , a i ) = ∣ < b , a i > ∣ a i ∣ ∣ contribution(b,a_i) =| \frac{<b,a_i>}{|a_i|}|contribution(b,ai)=∣∣ai∣<b,ai>∣式中a i a_iai为A AA的第i ii个列向量,实际上在考虑投影时回出现正负号问题,我们只用考虑贡献的大小,而不去考虑方向,所以加上了绝对值。(<,>为内积运算)
实际上如果我们事先将A AA矩阵的列向量单位化,那么公式可以简化为c o n t r i b u t i o n ( b , a i ) = ∣ < b , a i > ∣ contribution(b,a_i) =|<b,a_i>|contribution(b,ai)=∣<b,ai>∣
实际上给定稀疏度k kk,我们只需要迭代k kk次算法就可以求出A AA中k kk个贡献最大的列向量,以及x xx中k kk个不为0的位置。
三、伪代码

需要注意的是有个残差的更新过程,实际上原始残差就是y yy,每一次找到一个和他相关的列向量后,就得到了这部分的信息,所以要减去这部分信息,剩余的信息再去和列向量相关。
四、MATLAB代码
clear;
clc;
m = 64;
n = 256; % n>>m;
CN = [];
A = randn(m,n);
x = zeros(n,1);
x(1) =0.4;
x(40) =0.6;
x(32) = 0.8; % 构造稀疏向量x
k = 3; % 代表稀疏度
b = A * x;
%% initialization
r = b; % 初始残差
Cn = []; % 用于记录存放的列的序号
An = []; % 用于存放列的列向量
%% Normalization
abs_colmn = sqrt(sum(A.^2)); % 每列的模长
abs_matrix = repmat(abs_colmn,m,1);
norm_A = A./abs_matrix;
% disp(sum(norm_A.^2))
%% 迭代求解
for ii = 1:k
product = norm_A' * r; % 实际上就是A的每个列向量与r相乘
[val,index] = max(abs(product));
Cn = [Cn index];
An = [An norm_A(:,index)];
xk = inv(An' * An) * An' * b; % 最小二乘解
r = b - An * xk;
end
x_recovery = zeros(n,1);
x_recovery(Cn) = xk;
figure;
subplot(2,1,1)
stem(x);
title('origin signal')
subplot(2,1,2)
stem(x_recovery ./ (abs_colmn')); % 反归一化
title('recovery signal')
实验结果
可见恢复了原始信号
总结
记录学习过程~