叠加算法原理

PixInsight文档阅读笔记

为了深刻理解各种叠加算法,阅读了PixInsight的在线文档:http://pixinsight.com/doc/tools/ ... ageIntegration.html
以下笔记内容虽然针对于PixInsight,但是大多数其他叠加软件也可以举一反三

根据概率论原理,任何一张图片的每一个像素,都可以理解为一个测量无关值随机数噪声的组合。
叠加的原理,就是当采样次数无限大时,这个随机数噪声的平均值趋近于0
应用到图像处理领域,则叠加操作实际上是增加了信噪比:SNR

叠加算法:
算术平均 - Average Combination

就是我们常说的对数正比关系,即100张叠加能够增加10倍信噪比。

中位数 -Median Combination

牺牲了一点信噪比,换来了更加”平滑“的图像(有可能增加宽容度)这种方式可以避免出现极端状况,然而,下面的像素剔除方法更优,所以本方式一般不被使用。

权重
根据上面的理论,就会发现一个很大问题。如果一个序列里面有一张非常糟糕的图像,那么在进行算数平均值的时候,那张糟糕的图像会“拖后腿”;而如果使用中位数算法,又会损失信噪比。
为了避免这个问题我们就要引入权重,变算术平均为加权平均!
在绝大多数的叠加软件里,这个权重值会自行被测算出来。具体算法是扩展1-8个像素进行噪声估算,可以避免单个像素异常带来的拖后腿灾难。


像素剔除 - Pixel Rejection
单纯的加权平均,仍然满足不了人类的欲望,因此像素剔除被发明了出来。
简单来说,就是把一些被判定为“不好”的数据删除掉(甚至修改掉)。
像素剔除的效果包括但不仅仅包括:除去灰机、卫星等航迹,改善拉线,一定的锐化效果,一定的降噪效果,有可能增加宽容度,进一步避免“拖后腿”。

像素剔除算法详解:

Min/Max Clipping
这就是所谓的“去掉一个最高分,去掉一个最低分”
这种算法没什么鸟用

Percentile Clipping

跟上面那个差不多,就是用百分比来计算黑名单
这种算法适用与张数很少,比如说6张以内。因为这种算法能够尽量保留数据不被剔除

Sigma Clipping

简单来说就是先取中位数,然后设定上下限,超出上下限的,咔嚓掉

10张左右的就用这种算法吧

Winsorized Sigma Clipping

跟上面那个的区别在于,超出的项没有被咔嚓掉,而是被改写了!
比如原数据是这样的
9, 13, 15, 15, 17, 18, 18, 19, 21, 23, 24, 24, 25, 31, 33 ,
经过本算法优化之后就变成了这样:
13, 13, 15, 15, 17, 18, 18, 19, 21, 23, 24, 24, 25, 25, 25 ,
就是用临近的数据替换掉“不好”的数据
聪明人会发现这个算法的局限,就是如果数据项不足够多的话,这样子改写会有反作用,还不如删掉了好呢
因此,本算法只适合15张以上的哟,如果有超过20张的话,则妥妥的超越Sigma Clipping!

Averaged Sigma Clipping

这种算法需要得知CCD输出的相对于0读出噪声的那个gain……
话说我不知道这个东西怎么得到,文档里没说。我用单反,估计是不可能得到这个值的,所以就没去仔细研究
本算法适合10张以上的

Linear Fit Clipping

如图所示,本算法跟sigma clipping的区别就在于横线变斜线

本算法的优势包括但不仅仅包括:保留更多的细节,适用于不同批次(背景天光可能变化较大)的图片一起叠加,可以得到更准确的亮度(尤其是多批次图像)
说白了本算法是高端人士使用的,至少要有25帧以上,并且原片质量要高,中天前中天后,几天不同批次合在一起叠加,甚至于在不同地点拍摄的不同批次一起叠加

CCD Noise Model Clipping

这个算法顾名思义要知道CCD的噪声数据,不关心,略过
个人意见此类算法没有意义,因为不能有效除去拖线和灰机


归一化 - Image Normalization
用通俗的语言讲就是把所有的图像拉伸到同一个(亮度)比例下,不然的话叠加计算不可能准确
Rejection Normalization
每张图都要计算的

Scaling + Zero Offset

亮帧用这个,先取得0亮度基准点,然后拉伸

Flux Equalization

做平场的时候更关心照度而不是offset,所以用这种算法
Output Normalization
只有那些在像素剔除流程中幸免下来的像素才会进行这步计算

Additive Normalization

简单的加减法计算

Multiplicative Normalization

乘除法计算,比如你平场就必须用这个算法

Scaling

拉伸,自动计算权重以后进行拉伸。理论上讲拉伸会提高信噪比


最后转一张总结性的表格
Table 1 — Recommended Normalization Methods

Frame type
Rejection Normalization
Output Normalization
Master Bias
No normalization
No normalization
Master Dark
No normalization
No normalization
Master Flat
Equalize Fluxes
Multiplicative
Light
Scale + Zero Offset
Additive with scaling


至于校准帧们应该用什么叠加方法,Siril在线文档是这么说的:
with the median algorithm (or Winsorized by checking the rejection levels at the end of the process, they should be lower than 0.5 percent)


To Siril用户:以上算法绝大部分在Siril中有实现,Normalisation那里叫做 Additive with scaling。Sum stacking是给行星月面用的
To DSS用户:DSS的中文翻译实在是……于是我又换到英文模式看了一下,下面是我理解的对照
Kappa-Sigma clipping : Sigma Clipping
Median Kappa-Sigma clipping : Winsorized Sigma Clipping
Auto Adaptive Weighted Average : 不详,似乎是类似于Averaged Sigma Clipping

添加评论

您可以通过填写以下表单发表评论,可以使用markdown格式。网页和电子邮件地址将转换为可点击链接。 评论将被审核。