介绍
减少或去除背景(BG)信号的方法
根据处理模糊信号所造成的 BG 的方式,我们区分为排他性和包容性方法。
包容性方法,例如宽场(WF)解卷积显微镜,考虑整个体积中的光分布,并将记录的光子从 BG 重新分配到它们的来源,从而提高记录体积的信噪比(SNR)。这种重新分配是可行的,因为来自单个点的光分布由点扩散函数(PSF)描述。随着越来越多的来自模糊层的光与来自聚焦区域的光结合,包容性方法达到了它们的极限。扭曲 PSF 的效应,如光散射,增加了 BG,使得使用包容性方法进行恢复变得更加困难。不幸的是,散射在生物样本中是不可避免的。由于包容性方法根据其定义使用图像中检测到的所有信号,因此它们也处理来自不应对最终结果贡献的模糊层的信号成分。
独特方法基于将不需要的背景分离并从图像中减去的原理,因此只有来自聚焦层的信号保留。基于相机的系统利用硬件防止获取失焦光(例如,旋转盘系统或选择性平面照明)或结合软件和硬件去除背景成分(网格投影系统)。网格投影系统需要获取多张图像,这可能在记录快速移动样本时导致运动伪影。此外,它们仅在有限的深度内工作,因为相机需要检测到网格的清晰图像。去除失焦背景的金标准是基于针孔的扫描系统。共聚焦系统的针孔排除来自失焦层的光,因此只有来自聚焦层的光到达探测器。THUNDER 成像仪使用Computational Clearing作为独特方法,以实时记录单张图像去除背景。因此,它克服了上述在成像活样本时的缺点。
Computational Clearing (CC)
Computational Clearing是THUNDER成像仪的核心技术。它检测并去除每张图像中的失焦背景,使得感兴趣的信号可以直接获取。同时,在清晰聚焦的区域,边缘和样本特征的强度得以保留。当使用基于相机的荧光显微镜记录图像时,“不需要的”背景会与“需要的”清晰结构信号叠加,并且两者总是被记录。为了获得最佳效果,目标是尽可能减少背景。为了从图像中排除不需要的背景,找到准确分离背景与所需信号的关键标准至关重要。一般来说,背景在记录的图像中表现出特征行为,这与其来源无关。因此,仅凭其在图像中的外观,无法辨别背景的来源。特别是在生物样本中,背景通常不是恒定的。它在视场(FOV)中是相当可变的。Computational Clearing自动考虑这一点,使得清晰信号可以立即获取。
其中 psfof/if(r) 和 f(r) 分别是清晰(if)和失焦(of)贡献的有效点扩散函数以及荧光分布。由于失焦 PSF 的宽度远大于清晰 PSF,因此在公式 (1) 中,这两个贡献可以通过长度尺度区分算法(例如小波变换)清晰分开。我们开发了一种迭代算法来分离这两个贡献。它在每次迭代中计算以下最小化:
这里S[ ̂Iout]表示估计的失焦贡献的结构长度尺度Iout。结构长度尺度r0(公式 (2))是基于系统的光学参数计算的,并且可以进行调整。在LAS X 软件中,它被称为“特征”尺度。
使用这种方法,仅去除了背景(BG)。保留了来自感兴趣的失焦样本区域的信号和噪声。由于失焦区域的噪声仍然存在,图像中失焦特征的边缘是可见的,因此保持了样本特征与其特征尺度之间的空间关系。尽管生命科学样本中背景的变化特性,特征的相对强度仍然得以保留。
与传统的包容性方法不同,使用Computational Clearing揭示的图像不是生成的,而是从样本中的背景信号中“解锁”的。
信息提取:添加自适应解卷积
Computational Clearing去除了背景,清晰地揭示了样本深处的焦平面。Computational Clearing作为一种独特的方法,实际上在与包容性方法结合使用时变得更加强大。
THUNDER Imager 提供三种模式供选择:
- 即时Computational Clearing(ICC),
- 小体积Computational Clearing(SVCC)和
- 大体积Computational Clearing(LVCC)。
即时Computational Clearing(ICC)是独占Computational Clearing方法的同义词,正如在本技术说明书开头首次介绍的那样。SVCC 和 LVCC 是独占Computational Clearing与基于决策掩模的 3D 去卷积的结合,专门用于薄样品(SVCC)或厚样品(LVCC)。包容性方法的自适应图像信息提取遵循一个概念,该概念源于 LIGHTNING,徕卡显微系统的自适应去卷积方法,最初为共聚焦显微镜开发。
LIGHTNING 使用决策掩模作为基准参考,以计算图像每个体素的适当参数集。结合宽场点扩散函数(PSF),LIGHTNING 固有的完全自动化自适应去卷积过程的功能可以转移到宽场检测中。
实验证据
在本节中,展示了实验数据以证明:
- 使用THUNDER成像仪生成的数据是可量化的;
- Computational Clearing如何允许在样本内部更深处成像;
- 使用THUNDER成像仪获得的图像分辨率的改善。
量化宽场数据与Computational Clearing I
InSpeck 珠子是微球标准,生成一系列明确定义的荧光强度水平,用于构建校准曲线和评估样品亮度。在这个简短的实验中,将相同体积的同尺寸荧光珠子和非荧光珠子混合在一起。荧光珠子具有不同的相对强度,即 100%、35%、14%、3.7%、1% 和 0.3%。
InSpeck 珠子被沉积在载玻片上,并使用 20 倍低 NA 物镜对 156 个位置进行了成像(图 3,单个 z 位置)。记录了三个通道(图 3 从左到右):明场(BF),
相位对比(PH)和荧光(FLUO)。FLUO 强度经过调整,以避免明亮物体导致相机传感器饱和。为了纠正潜在的不均匀照明,使用了视场中心区域。使用了 FOV。没有进行进一步的平场校正。FLUO 图像使用即时Computational Clearing(ICC)进行后处理,特征尺度为 2500 nm,与微珠尺寸一致。
珠子是通过简单阈值处理 PH 图像找到的。为了纠正错误检测到的珠子,仅接受某一大小(68 到 76 像素)且圆度≥0.99 的圆形物体。该掩膜用于获取原始荧光和 ICC 处理通道的平均强度。没有排除强度异常值。为了获得相对值,所有接受的珠子的原始和处理强度都除以其最大强度群体的中位强度(通常是 100%相对强度的荧光珠子)。在图 4(右)中,黑线显示,经过Computational Clearing后,强度仍然接近预期值。
结论:Computational Clearing技术使得即使是最弱信号群体的真实荧光动态也能被区分,这在原始数据中是不可观察的。使用Computational Clearing技术时,发射强度的量化非常简单。然而,对于此类实验,需要非常严格地遵循定量荧光显微镜的良好实践。
使用Computational Clearing技术量化广域数据 II
以下实验展示了 ICC 如何处理背景中的巨大差异和异质性。准备了一种不同强度的绿色荧光珠群,并将其分散在载玻片上。珠子以混合强度出现,但呈现出簇状(图 6,左)。通过从滤光块中移除激发滤光片,并用记号笔在载玻片的一半添加荧光素背景,提供了一般背景。定义了两个大小相等的非重叠视场区域:一个在荧光素区域内,即高背景瓷砖扫描(图 5:区域 A,左),另一个在没有荧光素的区域,即低背景瓷砖扫描(图 5:区域 B,右)。
不符合特定圆度和大小的物体被丢弃,未用于进一步分析。没有应用其他异常值修正。总共在区域 A(高且不均匀背景)中识别出 39,337 个物体,在区域 B(低背景)中识别出 43,031 个物体。用于后续比较的强度,从区域 A 随机选择 39,337 个物体,以使两个区域的样本大小匹配。
区域 A(高背景)和 B(低背景)中物体的强度分布非常独特(Kolmogorov Smirnov 距离:0.79±0.2,置换重采样)。可以看到一般的偏移和添加的背景(图 7,左侧蓝色)。在Computational Clearing后对数据进行的相同分析显示两个区域的分布非常相似(KS:0.05±0.02)。
结论:Computational Clearing可以处理图像数据中固有的异质背景信号,这些信号在真实生物样本中是普遍存在的。此外,它允许在不需要繁琐的局部背景去除算法的情况下量化荧光信号,这些算法通常需要为每个成像会话进行调整(即使是对于同一物体)。
使用Computational Clearing量化宽场数据 III
为进一步展示 ICC 的线性行为,记录了在固定视场内稳定荧光物体(15 微米珠子)在不同曝光时间下的图像。为了排除照明启动效应,物体始终用激发光照明。由于珠子的低密度和平坦性,原始图像中的背景主要来自相机偏移。ICC 参数根据物体大小设置:15 微米,强度最高(100%)。
对象(n=107)在最长曝光(160 毫秒)处理图像中被识别(图 8,绿色点)。对象由局部最大值周围 4 个像素距离内的所有像素组成,强度大于最大值的 20%。数据高度线性(图 9,左,所有单个对象测量的 r >0.999)。为了可视化相应的平均值,强度被曝光时间和对应于最长曝光时间的强度所除。原始数据表明,BG 的相对量随着信号的增加而减少,这是正确的,因为 BG 源主要是恒定的相机偏移(图 9,中间蓝色)。然而,处理后的数据显示出线性行为(图 9,中间红色)。
最后,ICC 与传统的 BG 减去数据进行了比较。这一步通常是量化强度的必要步骤。计算了每幅图像中无对象区域(100 x 100 像素,如图 8 中红色方框所示)的平均强度,并从同一图像的强度数据中减去。绘制先前找到的对象的平均强度与传统 BG 减去的原始数据的关系显示 ICC 给出了相同的结果(图 9,右侧)。结论:ICC 表现出线性行为。它使数据量化成为可能,而无需进一步的图像处理,这在背景异质性较强时尤其繁琐。
在样本中,THUNDER 图像可以多深?
可成像的最大深度高度依赖于样本。荧光团的密度、吸收或样本内局部折射率的均匀性等因素直接影响信噪比和每个体素的散射光量。这些因素通常会波动,即使在同一视野内也是如此。
在基于相机的系统中,实现 3D 样本的光学切片的经典方法是使用多点照明,例如使用尼普科盘或网格投影设备。后者在网格无法在焦平面上清晰投影时会引入伪影。另一方面,基于盘的系统必须处理针孔之间的有限距离,这在某些成像深度引入了来自失焦平面的光污染。
通过Computational Clearing,在足够透明的样本中,最大深度主要取决于发射光的散射。Computational Clearing通过去除散射光成分来实现深层成像。如果在图像中至少可以局部获得一些对比度,THUNDER成像仪使其变得可访问。Computational Clearing的一个大优势是它可以与活体标本一起使用,因此成像可以在生理条件下进行。
对比噪声比越好,重建结果就越好。对于图 10 中所示的例子,使用了大体积Computational Clearing(LVCC),这是一种Computational Clearing和自适应去卷积的结合,用于成像厚样本体积。在样本的上层,甚至最细微的细节都能被解析并进行分割。尽管在更深层次的分辨率和分割可能会降低,但在样本深度为 140 到 150 微米(图 11)时,显示出大量有价值的细节,这些细节在原始数据中并未显现。没有THUNDER,大多数宽场成像实验在 50 微米的深度就停止,因为人们认为无法获取更多信息。
使用THUNDER的分辨率改善
将小体积Computational Clearing(SVCC)应用于单个、非重叠、衍射极限物体会导致分辨率增强,如下图 12 所示。在给定的例子中,成像了一个直径为 40 纳米的单个珠子(100 倍,1.45 NA 物镜),并应用了默认设置的 SVCC。结果是横向分辨率增强* 2 倍(比率 FWHMX SVCC/Raw = 0.51),纵向分辨率增强超过 2.5 倍(比率 FWHMZ SVCC/Raw = 0.39)。
*分辨率增强被定义为发光点源的表观大小。在折射极限以下,无法分离彼此靠近的两个结构。