本
文
摘
要
让我们从源泉开始看,Shannon提出了对于一个任意实数channel ,(Y=X+Z, Y为output,X为input,Z为noise),最大可达到的capacity(mutual information)是.5log2(1+SNR) bits. 让我们从mutual information的公式来看,H(X,Y)=H(Y)-H(Y|X)=H(Y)-H(Z)=H(Y)-.5log2(noisepower). 那么假设input X是高斯分布的,Y就是一个variance为signal power加noise power的高斯分布,H(Y)就是.5log2(sigpower+noisepower), 那么最后H(X,Y)就达到了Shannon理论。
上面一大堆的意思就是,当且仅当input信号为高斯分布的时候才能达到理论极限,当然,实际系统里我们不可能用高斯分布作为信号,因为高斯分布囊括了-inf到inf的所有值。那么对于有限的constellation比如M-PAM(M-QAM是两个M-PAM的 *** ),我们可以使其信号的probabilistic distribution接近于高斯,从而让系统capacity趋近于shannon极限。这就是大概这个技术的由来了。