上一篇文章简要概述了和目前电力电子领域通用的电源系统架构,算是一个科普,后续我的想法是进一步介绍几个重点行业的电源系统架构以及相应解决方案。当然,还是那句话,个人资历尚浅,抱着一种学习分享的态度和各位朋友共同进步!
首先,从计算机开始。云计算、人工智能(AI)、机器学习以及其他一些革命性技术正在整个行业中扩展开来,并已融入了消费者的日常生活中。比如和云计算强相关的数据中心/服务器设备,它们多是基于x86架构,Intel占绝对份额,其次是AMD。除此之外还有和人工智能相关的硬件加速卡设备,它们主要基于GPU、FPGA、ASIC等,为计算、网络、存储提供硬件加速,目前多以外设板卡配合PCIe接口形式存在,其中NVIDIA、Xilinx、寒武纪等厂商在各自领域都占据霸主地位。
如前所述,虽然硬件设备层出不穷,技术日新月异,但从电源角度看,它们都属于计算机IT设备,负载特性类似(绝大所示都是IC类) ,供电架构也类似。
图1.机架式服务器系统框图
图1所示为目前主流机架式服务器的系统框图,可以看到主板内的主要芯片包括CPU、DDR、PCH(类似于南桥)、BMC、CPLD,以及Hot Swap、电流、温度sensor等,当然硬盘也会通过相应接口与主板连接。CPU和DDR都很熟悉,PCH解释一下,过去的PC主板架构是CPU+北桥+南桥,北桥再和内存相连,走高速信号,而南桥和低速外设(如硬盘、USB等)相连,现在北桥被集成进CPU里了,南桥也被PCH所取代。BMC是服务器主板比PC主板增加的一个芯片,其实就是一个ARM内核的MCU,负责整板带外监控和管理,监视服务器的物理健康特征,如温度、电压、风扇工作状态、电源状态等。CPLD负责上下电时序控制,逻辑粘合等,Hot Swap顾名思义就是热插拔的保护电路。以上是系统服务器主板系统的一个框架介绍,虽然简单,但重点器件应该都包括了。下面看一下它的电源拓扑:
图2.Intel VR13 CPU/DDR Power Distribution
在图2左上角,12V典型值的DC直流电压从PSU输出到主板,系统级电源部分需要设计Hot Swap和efuse等电路来防止热插拔过程中产生的浪涌电流,尖峰电压,达到保护后级负载的目的。看到CPU主要有3个Power Rail,内核VCCIN ,系统管理VCCSA,总线VCCIO,剩下的是内存相关的供电。给CPU供电的模块一般称为VRM,目前INTEL服务器端发布的10nm ICELAKE CPU已经达到400A的核心电流,因此,集成MOSFET的单相供电方案是无法满足如此高的功率要求的,而且集成方案在散热,体积,成本、以及功率器件选型的可行性上也存在问题,目前较为合理的是采用controller+DrMOS的分立方案,供电相数采用7相供电,达到效率与成本的平衡。内存方面,DDR4仍然是主流,方案是4相VRM为4通道的72A内存条供电。
图3.Intel VR13 PCH/BMC/CPLD Power Distribution
从上面的分析看到,主板上CPU和DDR(内存条)的供电方案一般采用controller+DrMOS的多项供电方案,对于核心(Vcore电)以外的电源轨则配合少量集成单相BUCK和LDO方案。而PCH、BMC以及CPLD则采用仅集成单相BUCK方案(也叫POL电源)就可以覆盖供电需求(如上图所示)。
总体看来,传统服务器主板的电源设计难点不在于拓扑的复杂程度(仅用到BUCK一种拓扑),也不涉及到变压器设计。就电源本身而言,挑战在于:
- 负载电流大(单CPU耗电可达300W以上), 电压低的同时还要求很高的静态精度(3%以内) 和很快的动态响应速度(slew rate 1000A/us以上) ,这就需要现代数字PWM控制器PID环路控制方式的配合,同时仔细设计输出LC滤波器、优化电容的容值和数量
- 服务器、数据中心对效率的要求越来越高,因此在功率器件选型优化上也不容易,还需考虑到PCB的Layout
- 会涉及到SVID协议主动电压调节负载电压需求,这就形成了一个数模混合系统
- 会涉及到一些用于功耗、温度等实时监控的协议如PMBus
就主板系统而言,还有另外的挑战:
- 负载芯片很多,带来的是电源轨很多,时序要求越来越复杂 ,所以整体的Power Distribution规划需要丰富的经验
- 由于x86系统的主板上涉及到很多高速电路,如DDR、PCIe等,因此如何避免开关噪声干扰这些敏感走线,抑制EMI干扰就尤为重要
- 功率密度越来越大,电源模块的保证散热设计也需要着重考虑
下面是典型的硬件加速卡系统架构,可以用于目前大热的人工智能、边缘计算等领域。
图4.硬件加速卡系统框图
可以看到,加速卡内部结构和服务器主板有很多类似之处,最大区别在于其主处理器芯片:加速卡采用的是GPU/FPGA/ASIC的形式。目前来看,NVIDIA的GPU核心加速卡在市场占大部分份额。
GPU和CPU相比,提供了多核并行计算的基础结构,且核心数非常多,可以支撑大量并行计算,但从供电角度来看,似乎二者没什么不同,只是功耗、电压有所区别,本质是一样的。因此,以GPU为核心的硬件加速卡电源架构与服务器主板类似,GPU和DDR通过controller+DRMOS分立方案多相供电,而其他功能芯片采用集成BUCK(POL)供电即可。需要注意的一点是:对于PCIe接口的硬件加速卡,如果PCIe提供功率不足,则还需辅助的电源线对板卡供电,这就需要考虑分立与合路输入电压设计。
这次就先写这么多,主要是对计算机硬件行业中比较典型的服务器以及最近比较热门的硬件加速卡的系统供电架构做了介绍,主要以系统框架和电源方案为主,没有涉及深入和细节的东西,因为学习总结都是从浅入深,先屡清楚框架脉络再深入细节研究,优化的嘛,一步一步来。