一、精确到微米用什么测?
作为一个整天测量几个纳米或几个埃薄膜的工程师,觉得微米这个级别太大了。 光学椭偏仪,是我见过量测薄膜尺寸最薄也是最精准的仪器了。在半导体制造领域,为了监测硅片表面薄膜生长/蚀刻的工艺,需要对其尺寸进行量测。一般量测的对象分为两种:3D结构与1D结构。 3D结构是最接近于真实Device的结构,其量测出来的结果与电性关联度最大。3D结构量测的精度一般是纳米级别的。 1D结构就是几层,几十层甚至上百层薄膜的堆叠,主要是用来给研发前期调整工艺稳定性保驾护航的,其测量精度一般是埃数量级的。就逻辑芯片来说,最重要的量测对象是HKMG这些站点各层薄膜的量测。因为这些站点每层薄膜的厚度往往只有几个到十几个埃,而process window更极限,往往只有1-1.5个埃,也就是说对工艺要求极高。而这些金属层又跟电性关联度很大,所以每一家fab都对这些站点的量测非常重视。本人所在公司使用的1D量测机台在半导体制造的市场上占有绝对垄断地位,测这么薄的薄膜大概分辨率在0.1-0.2个埃。有人可能会有疑问,0.1-0.2个埃,连一层原子都不到啊,这个是什么鬼?这是指比如50微米大小的光斑下量测的平均值。在这个光斑下,有的区域有3层原子,有的地方有4层原子,平均下来,那当然就不是整数个原子的厚度了。 说到量测精度,有人可能还有疑问,如何验证这些精度呢?在fab里,一般会撒一组DOE wafer: Baseline wafer,以及Baseline +/-几埃的wafer,然后每片wafer上切中心与边缘的两个点。zai采用TEM或XPS结果作为参考值,与椭偏仪量测结果拉线性,比如R-Square达到0.9以上就算合格。经本人观察,XPS的量测是最不准的,上面的薄膜很容易受到下面相似材料薄膜的干扰(业内称之为correlation),使量测结果乱飘。TEM是最常规的手段,但其精度也有限(我会说拉TEM的软件分辨率可能就有0.5埃么)。一般采用用软件拉TEM图多次取平均的手法,这样下来精度至少在0.2-0.5埃以上,其实也不是很准。本人认为其实最能精确验证椭偏仪精度的是沉积那些薄膜的机台,比如应用材料等公司的机台,通过调节cycle数可以沉积出不同厚度的薄膜,其名义值往往与椭偏仪的量测值有极其高的线性(比如R-Square在0.95以上)。但为啥不用这些机台的名义值作为参考值啊?因为这些机台本身也是以光学椭偏仪量测出来的值来调整自身工艺的,当然需要一个第三方公证,也就是TEM或XPS。 光学椭偏仪的原理上世纪七十年代就有了,已经非常成熟。光学椭偏仪的量测并不是像TEM一样直接观察,而是通过收集光信号再通过物理建模(调节材料本身的光学色散参数与薄膜3D结构参数)来反向拟合出来的。真正决定量测精度的是硬件水平,软件算法,以及物理建模调参时的经验。硬件水平决定信号的强弱,也就是信噪比。软件算法决定在物理建模调参时的速度。因为物理建模调参是一个最花费时间的过程: 需要人为判断计算是过拟合还是欠拟合,需要人为判断算出来的3D结构是否符合制程工艺,需要人为判断材料的光学色散参数是否符合物理逻辑。
二、xps数据怎么校正?
回答如下:XPS数据校正通常包括以下步骤:
1. 调整束流/仪器参数:调整束流和仪器参数,使其满足实验要求。
2. 校准电子能量:使用内置的电子能量校准器或标准样品校准电子能量。
3. 标准化光源/补偿光谱:使用标准化光源或补偿光谱校准光源。
4. 校准分辨率:使用标准样品或内置分辨率校准器校准分辨率。
5. 反演:使用XPS数据反演软件对数据进行反演,获得样品表面化学组成和能量分布。
在进行XPS数据校正时,需要注意的是,校正过程中要避免人为干扰和误差,同时保证仪器的准确性和稳定性。