开云(中国)kaiyun网页版登录入口开云体育部分原因是分支瞻望功能更强劲-开云(中国)kaiyun网页版登录入口

  • 首页
  • 关于我们
  • 智慧教育
  • 服务支持
  • 解决方案
  • 新闻动态
  • 投资者关系
  • 你的位置:开云(中国)kaiyun网页版登录入口 > 新闻动态 > 开云(中国)kaiyun网页版登录入口开云体育部分原因是分支瞻望功能更强劲-开云(中国)kaiyun网页版登录入口

    开云(中国)kaiyun网页版登录入口开云体育部分原因是分支瞻望功能更强劲-开云(中国)kaiyun网页版登录入口

    发布日期:2024-09-08 22:53    点击次数:193

    开云(中国)kaiyun网页版登录入口开云体育部分原因是分支瞻望功能更强劲-开云(中国)kaiyun网页版登录入口

    (原标题:AI芯片,新变化)

    如果您但愿不错时常碰面,接待标星保藏哦~

    开始:实践来自 semiengineering,谢谢。

    大型话语模子加大了可握续计较和异构集成的压力;数据经管成为重要的区别成分。

    卓越的东说念主工智能系统策画正在从构建尽可能最快的东说念主工智能处理器转向选拔一种愈加均衡的门径,包括高度专科化的异构计较元素、更快的数据移动和显赫裁减的功率。

    这一溜变的一部分围绕着选拔 2.5D/3.5D 封装的芯片,这不错针对不同的责任负载和数据类型已毕更大的定制化,并升迁每瓦性能。除此除外,卓越的芯片制造商还期骗最近的Hot Chips 24会议展示了新颖的微架构、预取和分支瞻望方面的矫正、更快的内存访谒以及更智能的片上和片外数据经管。

    由于目下电网的轨则,政府机构和公用职业公司要求芯片制造商减少处理大型话语模子所需的动力,而芯片制造商正对此作出反应。他们还期骗这些异构架构在超大界限和边际数据中心挖掘新机遇。

    这些新策画还对准了 NVIDIA 在 AI 领域的近乎支配地位,因为低价 GPU 和基于 CUDA 的模子普遍泄露。莫得哪种通用处理器能像定制加快器那样节能,而且本年 Hot Chips 上展示的大多数多芯片架构都不是单一类型的芯片,而是包含多种类型的处理器、更等闲的内存和 I/O 配置以轨则瓶颈,以及更高效的数据经管。

    天然,NVIDIA 相配明晰这些竞争遏制,而且该公司详情不会停滞不前。其新款 Blackwell 芯片将 GPU 与 CPU 和 DPU 联结在一都,其量化决策除了具有处理更大界限数据模子所需的极快观望本事外,还为低精度 AI 掀开了大门。

    图 1:跟着新功能和参数的增多,AI 模子在十年内增长了 70,000 倍。府上开始:NVIDIA/Hot Chips 24

    NVIDIA GPU 架构总监 Raymond Wong 在 Hot Chips 24 演讲中表露:“与通用计较不同,东说念主工智能和加快计较是一个全栈问题,需要重新开动再行注目软件和计较。问题的界限和咱们所需的性能需要一种新门径,从上到下和自下而上寻找处理决策,涵盖硬件、系统软件、加快库、平台和应用设施框架……咱们必须学会如何优化芯片、集聚和基础设施。”

    NVIDIA 将来仍有普遍的蔓延契机,但将来它将在好多方面面对更强烈的竞争。

    数据中心的变化

    本年处理器策画的一大变化是愈加防范数据经管。有了东说念主工智能,它不再只是构建普遍冗余处理单位并尽可能快地运行它们。越来越多的指标是智能地对数据进行优先级排序——数据越来越多,数据类型也越来越多——但这种门径并不崭新。事实上,它不错回顾到 1980 年,其时英特尔推出了 8087 浮点协处理器。Arm 在 2011 年通过其 big.LITTLE 双核处理器扩展了这一办法,较小的中枢针对计较密集度较低的功课,较大的中枢则用于需要时。

    而后,这一计谋通过更复杂的分区和优先级分别不停完善,但这种计谋平方与大型数据中心中运行的 AI 芯片无关。大多数 AI 观望都在何处进行,而且观望可能会在何处陆续驻留一段时刻,因为开拓大型话语模子并反复查询它们需要普遍的计较本事。不外,并非每个计较周期都是处理密集型的,生成式 AI 模子如实需要像今天这么时常地查询。

    以至连 IBM 也已将重心从每秒万亿次运算 (TOPS) 转向每瓦性能 (即每秒皮焦耳)。IBM 宣称其大型计较机处理了人人 70% 的金融往来,但 IBM 也已将重心从每秒万亿次运算 (TOPS) 转向每瓦性能 (即每秒皮焦耳)。这小数尤其值得驻防,因为与大型系统公司不同(目下约占通盘前沿芯片策画的 45%),IBM 将其系统出售给终局客户,而不单是是将计较手脚一种做事。

    IBM 的新款 Telum 处理器包含用于 I/O 加快的数据处理单位 (DPU)(基本上即是将数据收集到要处理和存储的位置)以及转变的缓存。悉数包含 8 个以 5.5 GHz 运行的内核、10 个 36 兆字节的 L2 缓存和一个新的加快器芯片。

    IBM 了得工程师 Chris Berry 表露:“DPU 被业界等闲用于高效处理普遍数据。大型机处理普遍数据。一台统统配置的 IBM z16 每天好像处理 250 亿笔加密往来。这比 Google 搜索、Facebook 帖子和推文每天的加密往来量总额还要多。这种界限需要的 I/O 功能远远超出了典型计较系统所能提供的范围。它需要自界说 I/O 契约来最大轨则地减少蔓延,支撑数千个操作系统实例的捏造化,并不错随时处理层见迭出的 I/O 肯求。”

    新芯片的八核中央计较空洞体功耗裁减了 15%,部分原因是分支瞻望功能更强劲。曩昔几年,这一直是 Hot Chips 大会的主题,更准确的分支瞻望和更快的预取伪善复原不错升迁性能。但 DPU 的加入更进一步,充任数据的智能交通窥察。Berry 指出,DPU 平直安设在处理器芯片上,不错将 I/O 经管所需的功耗裁减 70%。此外,加快器芯片的 32 个内核中的每一个都配备了 2MB 暂存器,他将其描写为“肤浅地存放数据以备后用”,每瓦性能的矫正巧得包涵。

    图 2:IBM 的新式 Spyre 加快器架构。开始:IBM/Hot Chips 24

    英特尔还推出了用于 AI 观望的下一代加快器芯片 Gaudi 3,该芯片具有 4 个深度学习中枢 (DCORE)、8 个 HBM2e 堆栈、一个可配置而非可编程的矩阵乘法引擎。此外,它还具有 64 个张量处理中枢和一个内存子系统,其中包括 L2 和 L3 缓存和 HBM 的调和内存空间、近内存计较以及一个集成软件套件,允许客户插入自界说 TPC 内核,并支撑 PyTorch。它还通过中介层桥贯串两个计较芯片。

    英特尔在缔造内经管数据的门径在办法上与 IBM 近似。英特尔使用同步经管器将责任分配给指定单位,并使用运行时驱动设施通过配置同步经管器来成立责任依赖关系。这种门径不错最大轨则地升迁系统内的资源期骗率,并通过使用中断经管器异步传递事件来幸免任何瓶颈。

    英特尔首席 AI 性能架构师 Roman Kaplan 表露:“每个深度学习中枢都包含 2 个 MME(矩阵乘法引擎)、16 个张量处理中枢和 24 兆字节缓存。芯片的主要主力是 MME。它推论通盘不错转变为矩阵乘法的运算。这是一个可配置的(而非可编程的)引擎,这意味着您不需要在该引擎上运行任何代码。有一组固定的寄存器轨则该单位的操作,凭据这些值,该单位就不错正常责任。每个 MME 单位基本上都是一个大型输出固定脉动阵列。”

    图 3:英特尔 Gaudi 3 AI 框图。开始:英特尔/Hot Chips 24

    AMD 的 MI300X 芯单方面向 AI 系统,基于由 12 个芯片构成的分散式 AI 系统,具有 4 个 I/O 芯片和 8 个加快器芯片,相似不错将数据传输到最公根由位置。AMD 高档筹谋员兼 Instinct 首席 SoC 架构师 Alan Smith 表露:“生成式 AI 模子性能需要内存容量和带宽。因此,咱们将 MI300X 的界限手脚指标,以称心这一需求,并已毕单片策画无法已毕的集成度。MI300X 选拔第四代 Infinity 结构、PCI Express Gen 5、HBM3 和 CDMA3 架构,可在计较、内存和 I/O 子系统之间已毕均衡扩展。”

    图 4:AMD 基于 MI300X 芯片的 AI 芯片。开始:AMD/Hot Chips 24

    边际变化

    曩昔,AI 处理领域主要分为超大界限数据中心的观望和袖珍缔造(平方是移动缔造)的推理。由于移动普遍数据的老本以及赢得查询扫尾所需的时刻,观望和推理都越来越多地转向边际。诚然 LLM 不停扩展,但它们并不是惟一被观望的 AI 模子。不错使用不太密集的计较基础设施来观望更小、更特定领域的模子,况兼不错在带电板的缔造上进行推理。

    这为使用小芯片的异构策画开辟了一个全新的市集,并非通盘小芯片都将由归并家公司或代工场开拓。HBM 是这个标的的第一个巨大收效,但小芯片正在被策画用于一系列不同的应用设施,近似于曩昔几十年软 IP 的使用形势。与数据中心 AI 芯片一样,经管数据移动和内存是重要。

    英特尔的 Lunar Lake 是该芯片制造商针对移动和桌面计较的谜底。英特尔 CPU SoC 硬件架构细密东说念主 Arik Gihon 指出了该芯片的四个主要指标——能效、中枢肠能、矫正的图形和举座性能,最高可达 120 TOPS。英特尔的门径是分离逻辑,使用 2.5D 配置的计较块和平台轨则器块,并带有封装内存。

    “Lunar Lake 由两个主要模块构成,”Gihon 说说念。“一个是计较模块,另一个是平台轨则器芯片。计较模块选拔台积电 N3B 制造,PCB 选拔台积电 N6 制造。基础芯片选拔英特尔 1227 制造,它们通过 Foveros 本事贯串。咱们还引入了封装内存,它有两大上风。一是功率。由于互连少,它使咱们好像迥殊针对低功耗优化 PHY,以及迥殊针对封装内存的优化。二是主板上的占用空间,最大可达 250 平方毫米。 ”

    与此同期,高通也按照相似的想路开拓了定制的 Oryon SoC。它包括三个 CPU 集群,每个集群有四个中枢。其中两个专注于性能,一个专注于能效。在好多演示中,最引东说念主放心的是微架构,它基本上即是教导在硬件上的推论形势。与更大的系调和样,数据在何处处理和存储是好多此类策画的中枢。

    高通公司工程高档副总裁 Gerard Williams 表露:“[Oryon] 有八个基本解码器,它们正在为推论单位、加载存储单位和矢量推论单位准备教导。教导自己过问再行排序缓冲区。它大要有 600 个条款,这让您大致了解机器在飞动经由中要经管若干条教导。从退出的角度来看,这台机器每个周期不错退出八条教导。”

    高通芯片中终点值得驻防的是内存经管单位。“它由一个相配大的调和二级转变缓冲区支撑,这主若是为了处理普遍数据,”威廉姆斯说。“它旨在处理通盘捏造化结构、安全层,但这个结构深广于 8 千个条款,这吵嘴常不常见的。它旨在将转变蔓延降至最低。”

    图 5:高通 Oryon SoC 默示图,后果和速率并重。府上开始:高通/Hot Chips 24

    会议上的好多演讲者都是闇练的名字,但也有一些新东说念主。举例,FuriosaAI 是一家总部位于韩国的初创公司,正在开拓用于边际的 AI 芯片。该公司开拓了一种所谓的张量减轻处理器,用于可握续的 AI 计较。

    “诚然观望是对于东说念主工智能模子的,但推理是对于做事和部署的,”聚会首创东说念主兼首席推论官 June Paik 表露。“咱们在 2021 年的原始策画针对 BERT 界限的模子进行了优化。但是,跟着 GPT3 等基础模子的出现,咱们很快在策画上作念出了要紧改造——该模子比 BERT 大五倍。尽管这些重大的模子主要处于筹谋阶段,但咱们对它们的后劲充满信心。咱们坚信东说念主们会倾向于最强劲的东说念主工智能模子,因为更智能的模子会带来更大的自制。咱们还坚信,跟着这些应用的扩展,后果将变得愈加垂危。因此,咱们入部属手将 RNGD打造为最高效的推理芯片。”

    其架构的中枢是快速地将数据走动移动到内存,该架构面向边际数据中心。该公司宣称内存带宽为 1.5 TB/秒。RNGD 还领有两个 HBM3 堆栈和 256 MB SRAM,以及 48 GB 内存容量。

    图 6:Furiosa 的可握续边际推理芯片架构。开始:Furiosa/Hot Chips 24

    论断

    AI 刚刚开动进展作用,但将来仍面对挑战。率先,AI 必须是可握续的,大型芯片公司相配意会这小数,Hot Chips 24 上展示的芯片架构即是明证。但芯片只是处理决策的一部分。

    可握续性还需要更高效的软件、微架构的矫正,以便减少大型话语模子查询的发生频率,以及越来越精准的反应,以便 LLM 反应值得相信。此外,它还需要以芯片的形式更详尽地集成专用处理元件,这些芯片好像更快、更高效地处理不同类型的数据。

    底线是:东说念主工智能不会消亡,但要充分进展自后劲,需要通盘半导体生态系统的戮力。

    https://semiengineering.com/new-ai-processors-architectures-balance-speed-with-efficiency/

    半导体杰作公众号推选

    专注半导体领域更多原创实践

    包涵人人半导体产业动向与趋势

    *免责声明:本文由作家原创。著述实践系作家个东说念主不雅点,半导体行业不雅察转载仅为了传达一种不同的不雅点,不代表半导体行业不雅察对该不雅点赞同或支撑,如果有任何异议,接待关连半导体行业不雅察。

    今天是《半导体行业不雅察》为您共享的第3878实践,接待包涵。

    『半导体第一垂直媒体』

    及时 专科 原创 深度

    公众号ID:icbank

    心爱咱们的实践就点“在看”共享给小伙伴哦开云(中国)kaiyun网页版登录入口开云体育



    热点资讯

    相关资讯

    TOP