最底层的原因当然还是由于人工智能、自动驾驶、云计算等应用市场需求驱动。AI 芯片对算力与内存带宽的需求呈指数级增长(如英伟达 H200通过CoWoS实现480GB/s互联速度,远超传统PCB的几十GB/s极限),这直接拉动高性能芯片的迭代需求。
从技术上看,目前主要有三条提升芯片性能的发展路径:尺寸微缩、新原理器件和先进封装。
第一条路径也被称为遵循“摩尔定律”的发展路径。核心策略是不断缩小CMOS器件的晶体管栅极尺寸,来保证芯片面积不变的情况下提升晶体管的集成度(在相同设计框架下,芯片的性能/算力与晶体管数量呈正比),或者在算力和晶体管数目不变时,实现芯片轻薄化。
目前,全球仅有包括台积电、三星、英特尔和中芯国际在内的少数公司能够制造10nm以下工艺节点的芯片,且当芯片制程缩小到 3nm、2nm时,会遇到两个绕不开的难题:
一是物理极限,晶体管的尺寸已经接近原子级别,再缩小就会出现 "量子隧穿" 现象,电子会不受控制地乱跑,芯片根本没法正常工作;
二是成本飙升,在5nm技术节点上,为了达到每月1万片晶圆的产能,需要超过30亿美元的资本支出,这是14nm工艺的两倍以上,是28nm工艺的四倍左右。"成本墙" 极大抬升了性能提升的边际代价,制程每向前一步,光刻、蚀刻等设备的投入成本翻倍,最终传导至芯片端,让 "性能提升" 与 "成本可控" 的矛盾愈发尖锐。也只有台积电、三星这样的巨头能扛得住,中小企业根本玩不起。
那这时候有同学可能就要问了:既然晶体管做不小,我们为什么不把芯片做大呢?
理论上完全正确,但实践中,“把芯片做大”面临着难以逾越的物理和经济瓶颈。
首先,芯片的制造依赖于光刻技术,光刻孔径的大小决定了芯片面积的大小。在光刻过程中,有一个关键部件叫“光罩”,其视野面积存在物理上限(目前约858 mm²,26 mm×33 mm)。这意味着单次曝光能制造的芯片尺寸是有限的。如果想增大最大曝光面积,要么采用复杂的“拼接”技术,要么需要光刻系统的重大进步。
其次,在晶圆制造过程中,灰尘、工艺波动等因素会导致随机缺陷,芯片面积(Die Size)越大,良率越低。想象一下,向一张画满格子的纸上撒墨水。如果你的芯片很小(格子很小),一张纸可以画很多个格子,即使有几个格子被墨点玷污,其他大部分格子还是好的。但如果你的芯片非常大(一个格子就占了大半张纸),那么只要有一个墨点落在这张大芯片上,整个芯片就报废了。
最后,将巨大的功耗集中在一个大芯片上,会产生极高的“热密度”,散热变得极其困难。如何为这样的“电老虎”高效散热,是必须解决的工程难题,通常需要复杂的直触式或浸没式液冷方案。
第二条路径是通过发展新原理器件,研发新材料,实现单个晶体管器件的性能提升。随着铁电存储器 FeRAM、阻变存储器 RRAM、磁存储器 MRAM、相变存储器 PCM、铁电晶体管 FeFET 等多种新原理器件的发展,结合宽禁带半导体、二维材料、碳纳米管等新材料的研究,探索超越传统CMOS 器件性能/能效的新型器件和突破冯诺依曼架构的新型计算范式成为一个重要的研究领域。然而,新原理器件是面向未来的芯片性能提升发展路径,从科学研究到实际应用的周期通常较长,难以在短时间内解决当前高性能集成电路芯片受限的挑战。
随着技术体系和产业生态逐渐构建,最早由台积电的芯片专家蒋尚义先生于2010年提出的“先进封装”概念将发展为芯片性能提升的第三条主路径。
芯片的性能主要取决于芯片集成的晶体管规模,而晶体管规模又取决于芯片制造面积。先进封装技术能够通过多颗芯粒与基板实现2.5D/3D集成,突破单芯片光刻面积的限制和成品率随面积下降的问题,成为进一步提升芯片性能的可行路径。尤其在我国短时间难以突破自主 EUV 光刻机和先进节点制造工艺情况下,先进封装技术对于我国高性能芯片的发展至关重要。
该技术路线不具备缩小晶体管尺寸的能力,主要依靠更精细的材料和更致密的结构设计来使一个系统内集成多种功能,以实现系统性能的整体提升。但将一整块芯片上的不同模块拆分成多个小芯片后,各个模块间想要配合紧密,接近甚至保持各个功能模块在同一片SoC大芯片上时相同的性能,就需要小芯片之间的数据输入/输出(In/Out,IO)速度足够快,以降低由信号时延造成的性能损失。
单个芯片运算速度依赖于芯片中包含的晶体管数量以及单个晶体管的性能,类似地,芯片与外界交换数据的速度则依赖于数据IO触点的数量及其电气性能。这则是芯片先进封装技术需要解决的主要问题。
文章归原作者所有,转载仅为分享和学习使用,不做任何商业用途!内容如有侵权,请联系本部删除!
