jinnianhui金年会·金字招牌|信誉至上 jinnianhui金年会·金字招牌|信誉至上

传感器是干什么用的
栏目:行业资讯 发布时间:2024-12-20
 快科技10月25日消息,近日,高通发布了新一代旗舰移动㊣平台骁龙8至尊版,首次采用专为智能手机设计的第二代自研Oryon CPU架构,同时在GPU、NPU、影像、连接等各方面都实现了飞跃,各家手机厂商的终端产品也即将纷纷登场。  发布会后,快科技采访了高通的多位技术高管,对于骁龙8至尊版的架构设计、技术特性有了更深入的了解。  CPU架构方面,骁龙8至尊版配备了两个4.32GHz的超级内核、六

  快科技10月25日消息,近日,高通发布了新一代旗舰移动㊣平台骁龙8至尊版,首次采用专为智能手机设计的第二代自研Oryon CPU架构,同时在GPU、NPU、影像、连接等各方面都实现了飞跃,各家手机厂商的终端产品也即将纷纷登场。

  发布会后,快科技采访了高通的多位技术高管,对于骁龙8至尊版的架构设计、技术特性有了更深入的了解。

  CPU架构方面,骁龙8至尊版配备了两个4.32GHz的超级内核、六个3.53GHz的性能内核,各自搭配12MB二级缓存。

  第一,每个CPU丛集都配备了迄今最大的缓存;第二,引入了全新的数据时序预取器(data-cache pre-fetcher);第三,引入了全新的性能内核设计。

  说到性能内核、超级内核之间的区别,它们在微架构层面上确实有很多差异,尤其是性能内核为了降低功耗,做了✅大量的微架构调整。

  两类核心是不同的异构计算核心,但在SoC和总线架构中是紧密相连的,以确保高速的核间通信,同时二级缓存的大小加倍,以确保紧密同步。

  同时,为了能让超级内核、性能内核既保证能效,又不妥协性能,高通在设计之初就充分考虑到了芯片的各种物理限制,包括芯片架构、手机主板架构㊣㊣等。

  不过,高通没有也不会公布骁龙8至尊版的晶体管数量,未来产品也不考虑,这和苹果、联发科的做法不同A18系列今年没有公布大概率是因为“开倒车”而不好意思。

  高通强调,晶体管的数量不能直接代表性能表现,并不是晶体管㊣越多,芯片的性能就越好,我们要看的是如何实现最佳的性能和能效。

  需要㊣强调的是,二级缓存对能效的表现至关重要,所以骁龙8至尊版为每一个CPU丛集都配备了前所未有的12MB二级缓存,总计达24MB,这种紧密耦合的专用缓存也是移动领域迄今最大的。

  总体上,高通做了巨大的投入,有效降低了骁龙8至尊版的时延,从第三代骁龙8的12ns大幅降低至5ns,这会显著提升高性能游戏、网页浏览等各种使用体验。

  正是得益于高通在这些领域的深厚经验,配合出色的✅软件架构,才做出了这款性能和能效兼得的CP㊣U。

  说到网页浏览性能,可以通过Speedometer测试最直观地反映出来,实测骁龙8至尊版的成绩为26.0,酷睿Ultra 200V系列则只有17.0。

  同时传感器是干什么用的,骁龙8至尊版对比前代骁龙8 Gen3更是提升了多达62%,高通也有信心超越任何安卓平台竞品。

  要知道,诸如微信、滴滴、美团等✅很多主流应用的底层功能,其实都是基于Web应用的,因此,提升网页浏览性能,对于增强整体用户体验至关重要,骁龙8至尊版将让用户感受到前所未有的流畅使用体验。

  高通强调,之所以能在Speedometer上取得如此显著的速度提升,关键在于骁龙8至尊版采用了定制架构的CPU(Oryon CPU高达192KB的一级缓存就非常有帮助),这是公版架构无法相媲美的,而纵观全✅球,目前仅有两家公司拥有定制CPU。

  除了CPU部分的超大缓存,GPU部分也设置了12MB的专用缓存,它可以存储部分画面帧,以此降低带宽占㊣用,从而提高能效。

  值得一提的是,骁龙8至尊㊣版首次在移动端运行了虚幻引擎5的Nanite解决方案,可以实现虚拟纹理绘制(virtual texturing)、阴影贴图(shadow maps)等功能。

  在一些大型世界游戏中,通过阴影贴图功能,可以实现高达16K甚至更高分辨率的画面,并且画面是分区渲染的,单次只渲染㊣所在场景中的部分画面,以实现更精美㊣的、更高分辨率的画面质感。

  内存方面,骁龙8至尊版也支持到了行业最高的LPDDR5X 5.3GHz (等效于10.7GH✅z),与联发科天玑9400相同。

  高通解释说,QRD(高通参考设计)在内存方面其实有两个版本,一个是4.8GHz(等效于9.6GHz),另一个是5.3GHz(等效于10.7GHz),基准测试在两个版本上运行的差异并不是很明显。

  目前来看,高通预计5.3GHz内存在短期内的采用率会㊣相对低,因为它相对更新,成本也更高,到了明年可能会有所不同。

  AI方面,骁龙8至尊版大幅提升了NPU的性能和AI的运用,比如NPU可以在后台灵活调度大语言模型的推理。

  这正是Hexagon✅ NPU架构设计的初衷,其不仅性能卓越,而且能效显著㊣提升,对比上代每瓦性能提升了多达45%。

  同时,新的架构可以针对广泛的应用场景,提供相应的能效优化,当然包括后台待命,通过轻触屏幕或语音唤醒,迅速调用强大的AI功能。

  比如Llama和百川的70亿参数大模㊣型版,即使压缩到16位整数精度进行处理,也会占用13GB左右的内存,而通过高通的软件和相应的解决方案,将内存需求大幅降至约3.5GB。

  高通㊣预计,未来对更有效压缩技术的需求会日益增长,同时✅会出现越来越多的介于10亿㊣至40亿参数之间的达模型。

  五次,高通会从硬件和AI软件栈两个方面持续投入,一方面提升压缩模型的性能表现,实现更小的内存占用,另一方面进一步降低模型精度,应对内存资源争抢,并降低成本。

  对此问题,高通解释说,任何半导体行业从业者都✅清楚的是,这个行业的经济模式已经出现了根本性的变化。

  大约十年前,同样的设计和晶体管规模过渡到新一代制程工艺后,会变得更加㊣便宜,因此通过制✅程迭代工艺,能够显著节省成本,继而用来开发新的技术特性和创新。

  但是现在,晶体管和晶圆代工厂的经济模式出现了转变之后,同样的设计升级到下一✅代工艺制程,成本会大幅增加,这为半导体行业的各个领域都带来了根本性的变化。

  面向其他价格段市场和没有那么高预算的消费者,高通会跨越产品层级,将旗舰体验下放,为更多消费者提供集成众多旗舰平台核心技术、同时价格更经济实惠的解决方案。