继阿里巴巴AI达摩院宣告自研芯片后,国内互联网巨头百度也纵身一跃,跳入AI芯片自主开发之列!
百度创始人、董事长兼首席执行官李彦宏4日,在百度AI开发者大会上自信宣布,由百度自主研发的中国首款云端全功能AI芯片——“昆仑”正式亮相,这也是迄今为止业内设计算力最高的AI芯片。并采用三星14 纳米先进工艺技术流片制造,目前,这款昆仑芯片正在流片。
本届Baidu Create2018百度AI开发者大会,邀请众多开发者登台分享。台上李彦宏显得显得格外自信,似乎百度的“All in AI”之路并未在陆奇离开后受到停滞,只是口号换成了“Everyone Can AI,人人都能AI ”。
“昆仑”显百度自主研发AI芯片野心
百度AI芯片“昆仑”也是本届开发者大会上的一大亮点。李彦宏表示,“昆仑”是中国在大规模AI运算实践中催生出的芯片,基于百度8年的CPU、GPU和FPGA的AI加速器的研发,20多次迭代而生,是中国AI芯片的又一“里程碑”。
据介绍,该芯片可高效地同时满足训练和推断的需求,除了常用深度学习算法等云端需求,还能适配诸如自然语言处理,大规模语音识别,自动驾驶,大规模推荐等具体终端场景的计算需求。
同时,“昆仑”能在100W以上的功耗提供260万亿次/秒的运算速度。作为对比,英伟达的Jetson Xavier自动驾驶处理器在30W的功率上,每秒可执行 30 万亿次操作。参数方面, 它采用了三星14nm工艺、260Tops性能、512GB/s内存带宽、100+瓦特功耗,由几万个小核心构成。
百度的“昆仑”和寒武纪NPU体现了当前AI处理器研发的两个方向:前者高性能、高性价比、易用,适用于大规模深度学习算法等需求;后者则面向手机产品,通过增加本地的AI运算能力,来更高效地处理AI任务,让用户获得更好的体验。
百度自研AI芯片有迹可循
事实上,从2011年起,百度就开始基于FPGA研发AI加速器,并同期开始使用GPU,从而满足深度学习运算的需要。在过去几年中,百度对FPGA和GPU都进行了大规模部署。
2013年,百度成立全球首个以深度学习命名的研究院IDL,并于多个场合强调AI战略布局以及AI在国家层面的意义。
去年8月,百度在美国Hot Chips大会上与赛灵思合作发布XPU,它是一款256核、基于FPGA的云计算加速芯片。开发者只能用汇编语言,根据百度研究院的说法,其效率与CPU相当。百度还在一个月后推出FPGA/GPU云服务器。
此外,百度去年还发布DuerOS智慧芯片,但这款芯片由紫光展锐RDA5981集成,采用了ARM公司mbed OS内核及其安全网络协议栈。
百度称,AI芯片战略将以开放生态合作的方式来有条不紊地推进。未来,百度将面向智能汽车、智能设备,语音图像等更多场景,持续打造AI时代的中国“芯”力量。只不过, 百度的AI芯片未来能发挥出怎样的威力,能否和其他科技巨头一争高下?帮助人们填平“智能鸿沟”,这些仍需时间给答案。
首款L4级自驾巴士“阿波龙”正式量产
会上,百度创始人李彦宏也宣布,百度和金龙客车合作的全球首款L4级量产自动驾驶巴士“阿波龙”正式量产下线。
大会现场,李彦宏首先提起了去年的参会往事:许下的“2018年7月量产无人车”的承诺。为了履行去年立下的“7月量产无人车”目标,在现场,李彦宏连线了金龙客车位于厦门的生产线,与金龙客车董事长谢思瑜进行了远程对话。
“阿波龙”无人驾驶小巴的内部构造也首次对外呈现:没有方向盘、没有油门和刹车踏板、乘客可以围坐成一圈,并且“充电2小时,能跑百公里”。同时商业化落地也同步展开。据介绍,“阿波龙”即将发往北京、雄安、深圳、福建平潭、湖北武汉等地开展商业化运营,并将联合金龙客车、软银集团旗下自动驾驶公司SB Drive将“阿波龙”销往日本。
不仅如此,本次“阿波龙”所搭载的“面向量产的解决方案”,成为 Apollo 3.0的核心。其所发布的三套自动驾驶解决方案帮助开发者及合作伙伴三个月内即打造出属于自己的“阿波龙”。
李彦宏指出,相对传统汽车,自动驾驶汽车最大的颠覆就是将汽车复杂的零部件逐渐简化,取而代之的是大量的代码,Apollo平台目前已经开放22万余行代码,比去年增长了6倍。
声明:本内容为作者独立观点,不代表电源网。本网站原创内容,如需转载,请注明出处;本网站转载的内容(文章、图片、视频)等资料版权归原作者所有。如我们采用了您不宜公开的文章或图片,未能及时和您确认,避免给双方造成不必要的经济损失,请电邮联系我们,以便迅速采取适当处理措施;欢迎投稿,邮箱∶editor@netbroad.com。
微信关注 | ||
技术专题 | 更多>> | |
2024慕尼黑上海电子展精彩回顾 |
2024.06技术专题 |