楼主
发表于2023-09-25 08:03:48查看 1039回复1浏览 1039

【芝能智芯——内存处理】 解决的办法包括内存中/近内存处理,以及更接近数据源的处理。移动大量数据需要大量的系统资源——带宽、电力和时间——这对计算有直接的经济影响。一般来说,收集和处理的大部分数据都是用的。汽车或安全统中视频入中相关数据可仅持续一两秒,而可能需要数小时的数据进行整理。对靠近头的数据进预处理,并使用人工智能来识别兴趣数据,意味只需送一部分数据进进一处理和存储。 三首席工程师Jin Hyun Kim表示:“大部能源消耗来自移动数据。” 他出了种提效率和提升绩效的解决方案:使HBM进行存处理,实极高带宽和功耗;使用LPDDR对需要高量的功耗备进内存处理;使用CXL进近内存处理,以适的成实现极高的量。 内存处理已酝酿很多年,直到最近才出现大进。大型语言型已极大地推动这项技术的展。部分数据处理中的计算都稀疏,这意味着许多数是零。利用这一点需要另种类型的处理单元,这种处理单元要比用计算单元,也要节省源。没有人会完全放弃通处理,在部分应用具有样性需求的件。 内存加速对 AI/ML 的法累加 (MAC) 函数特别有用,因为需要快速处理的数据量呈爆炸增长。使用生成式训练 Transformer 3 (GPT-3) 和 GPT4,仅加载数据就需要大带宽。与此相关的战有多,括如何有效地做到这一点,同时大限地提性能和吞吐,如何扩展它以处理大型言模型中参数数量快速加,及如何建立活性适应未来的变化。 SK hynix America 级技术经理 Yonkwee Kwon 在 Hot Chips 2023 上的演讲中表示:“一开始的想法是将存作为加速,第个目是实高效扩展,拥有高性能也重要。设计系统架构易编程,同时大限地减少系统结构开销,但仍然允许软件堆栈实灵活性。 ● CPU的进 计算的销也一个要的容,计算要求大量能量,随着数据的加,处理元的数将越来越多。要找到这些计算元,需要大量互连,而这些互连要么会加成,要么会增加功耗,或者两者兼而有之。从计算工作负载的核心到核心移数据意味着仅需要互连,还需要一种具有高可扩性和够使低功传输量数据的技术。这需要更复杂的络拓扑,需要在整系统级别进管理,以确能够处理大数据。 我们在下部分讨论这内容。 ● 小结 芯片企业和计者处于个充挑战和机会时代,随着数据和计算需求的不增长,创新正在寻找新方式来提高性能、降低功、改善能源效率以及优化数据处理和分析的方法。这需要从传统的计算模型和设计方法脱颖而出,采用更加定制和创性的解决方案,以足未来的需求。