上海品茶

您的当前位置:上海品茶 > 报告分类 > PDF报告下载

新思科技:市场对 SoC 中专用人工智能IP的需求日益增加(10页).pdf

编号:117985 PDF   DOCX  10页 1,012.65KB 下载积分:VIP专享
下载报告请您先登录!

新思科技:市场对 SoC 中专用人工智能IP的需求日益增加(10页).pdf

1、白皮书市场对 SoC 中专用人工智能 IP 的需求日益增加作者Ron Lowman新思科技 DesignWare IP战略营销经理序言在过去十年间,设计人员开发了能够以足够快的速度运行高级深度学习数学运算的硅技术,以探索并实施对象识别、语音和面部识别等人工智能(AI)应用。如今,机器视觉应用通常比人类更精确,是推动新的片上系统(SoC)投资的关键功能之一,旨在满足 AI 的发展,以满足日常应用需求。通过在视觉应用中使用卷积神经网络(CNN)和其他深度学习算法,这产生了巨大的影响,使 SoC 中的 AI 功能变得越来越普遍。Semico 在 2018 年 AI 报告中对此总结到:“.几乎每种类型

2、的芯片都拥有一定程度的 AI 功能,而且这一势头将持续保持。”除了视觉之外,深度学习还被用于解决复杂问题,例如蜂窝通信基础架构中的 5G 网络实施,以及通过配置、优化和修复自身的能力而简化 5G 操作任务,也就是大众所知的自组织网络(SON)。5G 网络将带来更大的复杂度,包括波束赋形、毫米波中的更多频谱、载波聚合和更高的带宽,所有这些都需要机器学习算法在分布式系统中妥善优化和处理数据。AI 加速无处不在,它增加各种应用的价值。每个人都在添加某种形式的人工智能,在不依赖人类交互的情况下做更多的事情,但这些算法的类型各不相同,因此,这些算法使用的加速器也不同。其中包括传统上用于成像和物体检测的加

3、速器。在时间比较重要的文本和演讲中,循环神经网络能够加入时间。除此之外,深度神经网络还有其他形式,例如脉冲神经网络和胶囊神经网络。目前为 AI 开发的半导体有两种。独立加速器以某种方式连接到应用处理器,并且有一些应用处理器在设备上添加了神经网络硬件加速。独立加速器可以通过芯片与芯片的互连而实现了将硬件扩展到多个芯片的巨大创新,从而实现最高性能,或者利用独特的 in-memory 和 near-memory 计算技术而减少能耗需求。设备上的 AI 加速正在通过利用处理器和架构对他们的神经网络处理器进行升级,这些处理器和架构是独立半导体的先驱。半导体领导者、行业巨头和数百家初创公司都在全力将 AI

4、 能力推广到各个行业的大量新型 SoC 和芯片组中,涵盖从云服务器组到每个厨房中的家庭助理等所有环节。图 1:AI 的主要市场细分AI 市场细分深度学习神经网络用在许多不同的应用中,为使用它们的人提供了强大的新工具。例如,它们可以用于高级安全威胁分析、预测和预防安全漏洞,以及通过预测潜在买家的购物流程而帮助广告商识别和简化销售流程。这是在融合最新 GPU 和 AI 加速器半导体技术的服务器群中运行的数据中心应用的两个实例。但 AI 设计并未包含在数据中心内(见图 1)。许多新功能可基于传感器输入的组合而了解发生的情况,例如用于对象和面部检测的视觉系统,用于改进人机接口的自然语言理解以及上下文感

5、知)。这些深度学习能力已添加到所有行业的 SoC 中,包括汽车、移动、数字家庭、数据中心和物联网(IoT)。Datacenters5nm7nm12nmCloud AIAcceleratorEdgeservers5nm7nm12nmAcceleratorcards12nm22nmEdge Computing AIAcceleratorAutomotive7nm12nmDigitalTV7nm12nmVoiceassistants7nm12nm22nm40nmCameras7nm12nm22nm5nm7nm12nmMobile&AR/VRIoT/AIoT22nm40nmEdge DeviceAcc

6、eleratorOn-Device AIPerformance in TOPSPerformance in TOPS/W Model Compression为实现最高性能,针对云 AI 加速的 SoC 设计人员致力于最大限度地提升性能以解决重大问题。执行 AI 训练以及为了得到最高准确度而需要的最复杂的 AI 算法,需要很高的处理器运算能力(TOPS),这最终可通过缩短训练时间而降低成本,并减少推理过程所需的能耗。云计算市场的这些半导体硬件创新使人们认为可能需要花费数年开发才能完成的工作成为可能,并缩短了取得突破的时间,例如,以识别和疫苗开发的形式找到当前最令人担忧的健康问题的治疗方法。然而,

7、并非所有问题都可以在云端解决,因此,许多 AI 加速器架构经过修改,可支持边缘计算和设备端 AI。在边缘服务器和插入式加速卡中,成本和功耗更加重要。随着我们越来越靠近并进入数据收集点的应用“边缘设备加速器”,单位能耗性能的优化成为最高设计要求。边缘设备加速器的资源、处理和内存有限,因此,经过训练的算法需要压缩和裁剪,以满足功耗和性能的要求,同时保证所需的准确性。最大的 AI 细分市场是设备端 AI,它会影响多种应用,例如汽车 ADAS、数字电视的超高图像分辨率、音频和语音识别以及智能音箱中的语言理解。这类应用包括执行面部检测、面部识别和物体识别的摄像头。例如,在某些行业中,摄像头中的设备端 A

8、I 可对工业应用执行缺陷分析。设备端 AI 类别还包括消费类应用,例如手机和 AR/VR 耳机,这些应用可实现前面提到的许多AI 功能,例如导航、超高图像分辨率、语音理解、对象/面部检测等,而且所有这些都在小巧的体积中实现。移动设备通过最新的工艺节点而持续在工艺中保持领先地位,这与用于云计算的工艺节点类似。边缘和设备端计算不断优化性能。根据市场的不同,可以采用传统工艺节点,如图 1 所示。AI 市场正高速发展2020 年,AI 市场仍处于初期阶段,并有望在未来几年内快速增长(见图 2)。大于 100W 的云 AI SoC 厂商包括市场领导者NVIDIA 和 Intel。通过先发优势,这些厂商占

9、据了主导地位。大量初创企业希望在效率方面比这些解决方案高出多倍。此外,Google、TPU、阿里巴巴、亚马逊和百度等系统公司也设计自己的芯片,并通过优化而支持其业务模式。所有这些公司都为客户提供云出租服务,使客户能够在云端进行培训和推理。图 2:AI 芯片组市场的增长(按功耗计算)($Millions)Deep Learning Chipset Revenue by Power Consumption,World Markets:192020$80,000$70,000$60,000$50,000$40,000$30,000$20,000$10,000$-2021

10、2022Source:Tractica202320242025High(100 W)Medium(5-100 W)Low(5W)SoC 通常利用现有的云解决方案,或者经过修改的云架构,但是许多初创企业通过更低功耗和更优化的解决方案而找到了自己的市场位置,同时在性能上远远超越当今的解决方案。在图 2 中,5W 以下市场包括设备端和独立加速器,通常称为 AIoT 加速器,这一市场正在迅速发展。对于设备端解决方案,移动市场在出货量方面占主导地位,而汽车市场也在快速增长,例如Tesla ASIC。在低于5W的市场中,AIoT加速器仍然只占很小的比例,但 Perceive、Kneron、Gyrfalco

11、n、Brainchip 和 GrAI Matter Labs 等公司都在试图突围。AI 市场挑战每个 AI 市场细分都有不同的目标和挑战。云 AI SoC 设计人员注重缩短昂贵的训练时间,同时适应可包含 80 亿个甚至更多参数的最复杂的新算法。边缘计算AI设计更注重降低功耗和延迟。5G和设备端AI旨在实现低延迟,但对于5G,这些AI并不用于压缩模型,因为这可能是非常昂贵且耗时的设计过程。对于设备端 AI,您需要通过压缩模型,最大程度优化功能和性能的推理。最后,AIoT独立加速器设计人员使用更多创新技术,并且往往是 TOPS/W 的领导者。在提高密度,缩短延迟,以及应对存储系数的波动方面,他们承

12、担着更多的风险,而且他们还是裁剪和压缩算法以及为客户实施算法的专家,提供了独特的差异化能力。除这些独特的挑战外,AI 市场也面临着一系列核心挑战,包括:添加专门的处理能力,可以更高效地执行必要的数学运算,例如矩阵乘法和点积 高效的内存访问,可处理深度学习所需的唯一系数,例如权重和激活 可靠且经过验证的实时接口,用于芯片到芯片、芯片到云端、传感器数据以及加速器到主机的连接 保护数据并防止黑客攻击和数据损坏专业处理添加神经网络能力的 SoC 必须适应异构矩阵和大规模并行矩阵乘法。异构组件需要标量、矢量 DSP 和神经网络算法能力。例如,机器视觉的每个阶段都需要不同类型的处理。预处理需要更简单的数据

13、级并行性。选定区域的精确处理需要更复杂的数据级并行性,可以通过具有良好矩阵乘法运算能力的专用 CNN 加速器有效地处理。决策阶段通常可以通过标量处理的方式来处理。每个应用都是独一无二的,但很明显的是,包括神经网络算法加速的异构处理解决方案需要有效地处理 AI 模型。内存性能AI 模型使用大量内存,这增加了芯片的成本。训练神经网络可能需要几 GB 到 10 GB 的数据,这需要使用最新的 DDR 技术,以满足容量要求。例如,作为图像神经网络的 VGG-16 在训练时需要大约 9GB 的内存。更精确的模型 VGG-512 需要 89GB 的数据才能进行训练。为了提高 AI 模型的准确性,数据科学家

14、使用了更大的数据集。同样,这会增加训练模型所需的时间或增加解决方案的内存需求。由于需要大规模并行矩阵乘法运算以及模型的大小和所需系数的数量,这需要具有高带宽存取能力的外部存储器。新的半导体接口 IP,如高带宽存储器(HBM2)和未来的衍生产品(HBM2e),正被迅速采用,以满足这些需求。先进的 FinFET 技术支持更大的片上 SRAM 阵列和独特的配置,具有定制的存储器到处理器和存储器到存储器接口,这些技术正在开发中,目的是更好地复制人脑并消除存储器的约束。AI 模型可以压缩。这种技术是确保模型在位于手机、汽车和物联网应用边缘的 SoC 中受限的存储器架构上运行所必需的。压缩采用剪枝(pru

15、ning)和量化(pruning)技术进行,而不降低结果的准确性。这使得传统 SoC 架构(具有 LPDDR 或在某些情况下没有外部存储器)支持神经网络,然而,在功耗和其他方面需要权衡。随着这些模型的压缩,不规则的存储器存取和不规则的计算强度增加,延长了系统的执行时间和延迟。因此,系统设计人员正在开发创新的异构存储器架构。实时数据连接一旦AI模型经过训练并可能被压缩,就可以通过许多不同的接口IP执行实时数据的运算。例如,视觉应用由CMOS图像传感器支持,并通过 MIPI 摄像头串行接口(CSI-2)和 MIPI D-PHY IP 连接。LiDAR 和雷达可通过多种技术支持,包括 PCI Exp

16、ress 和 MIPI。麦克风通过 USB、脉冲密度调制(PDM)和 I2S 等连接传输语音数据。数字电视支持 HDMI 和 DisplayPort 连接,以传输视频内容,而这些内容可通过神经网络传输后得到改善,实现超高图像分辨率,从而以更少的数据生成更高质量的图像。许多(甚至是大多数)电视制造商正在考虑部署这项技术。混合 AI 系统是另一个预计会大量采用的概念。例如,心率算法通过健身带上的 AI 识别异常,甚至假阳性,该健身带可将信息发送到云端,用于对异常进行更准确的深入 AI 神经网络分析,并提示适当的动作。这类技术已经成功地用于电网负载的平衡,特别是在电线中断或出现意外重负荷的情况下。为

17、了支持快速、可靠的网络与云端连接,上述示例中的聚合器需要以太网连接。安全AI 在安全漏洞方面提出了新的挑战。AI 的数据往往是私有的,所开发的算法非常昂贵,并且就最终结果的准确性而言,仅破坏一个比特的数据就有可能带来灾难性的后果。SoC和系统设计需要保护训练数据、训练后的算法、敏感的私人信息以及操作的完整性。实施完整的信任根子系统或安全领域可能带来很大的价值,但也可能需要进行额外的咨询,以确保基于早期开发的 SoC 流程定义的威胁配置来防止特定的违规行为。AI SoC 设计解决方案在 SoC 中添加 AI 功能突显了当今 SoC 架构在 AI 方面的薄弱。在为非 AI 应用构建的 SoC 上实

18、施视觉、语音识别和其他深度学习和机器学习算法时,资源非常匮乏。IP 的选择和集成明确界定了 AI SoC 的基准效率,这构成了 AI SoC 的“DNA”,或者叫先天性。例如,引入定制处理器或处理器阵列可以加速 AI 应用中所需的大规模矩阵乘法。云 AI 加速器为了应对带宽和可靠性挑战,云 AI 加速器 SoC 设计人员正在集成 HBM2e 和 HBM3,以及用于芯片到芯片通信的高速 SerDes die-to-die 或 PCIe。安全(包括支持 AI 模型加密和身份验证的高速安全协议加速器)的作用越来越明显。嵌入式内存解决方案的多端口存储器(TCAMs)与 SRAM 编译器一起有助于减少泄

19、漏。HBM2HBM2PCIe 5.0Die-to-Die 56G/112G SerDesMemorycontroller AI Accelerator SoCHBM2HBM2ProcessingMemoryProcessingMemoryProcessingMemoryProcessingMemoryProcessingMemoryProcessingMemoryProcessingMemoryProcessingMemoryProcessingMemoryProcessingMemoryProcessingMemoryProcessingMemoryCustom SRAMbitcells S

20、TARMemory SystemMulti-portSRAMHigh densityanalysis tools Foundationcores 图 3:具有高速、高带宽、内存、主机到加速器以及高速 die-to-die 接口(HBI PHY 或 SerDes PHY)的云 AI 加速器 SoC,用于扩展多个 AI 加速器。边缘计算 AI 加速器许多边缘计算应用的主要目标是围绕与较低延迟相关的新服务。为了支持较低的延迟,许多新系统都采用了一些最新的行业接口标准,包括 PCIe 5.0、LPDDR5、DDR5、HBM2e、USB 3.2、CXL、基于 PCIe 的 NVMe 以及其他基于新一代标

21、准的技术。与上一代产品相比,每一种技术都通过增加带宽而降低延迟。比减少延迟的驱动因素更为突出的是为所有这些边缘计算系统增加 AI 加速。AI 加速由某些服务器芯片通过 x86 扩展 AVX-512 向量神经网络指令(AVX512 VNNI)等新指令提供,或者提供给移动应用处理器,例如高通 DSP 内核。很多时候,这种额外的指令集不足以提供预期任务所需的低延迟和低功耗,因此,大多数新系统中还添加了定制 AI 加速器。这些芯片所需的连接能力通常采用带宽最高的主机而实现加速器连接。例如,由于这些带宽要求直接影响延迟,PCIe 5.0 正迅速得到广泛的应用,最常见的是用在具有多个 AI 加速器的某种交

22、换配置中。CXL 是另一种为降低延迟并提供缓存一致性而专门开发的接口,正迅速兴起。由于 AI 算法具有异构计算需求和大量内存需求,因此,确保缓存一致性至关重要。除了本地网关和聚合服务器系统之外,单个 AI 加速器通常无法提供足够的性能,因此需要借助带宽极高的芯片到芯片的 SerDes PHY 而扩展这些加速器。最新发布的 PHY 支持 56G 和 112G 连接。支持 AI 扩展的芯片到芯片要求已经在多个项目中实施。在基于标准的实施项目中,以太网可能是一种可扩展的选项,现在已经推出了一些基于这种理念的解决方案。然而,当今许多实施项目都是通过专有控制器而利用最高带宽的 SerDes。不同的架构可

23、能会改变服务器系统的未来 SoC 架构,从而将网络、服务器、AI 和存储组件整合到集成度更高的 SoC 中,而不是目前实施的 4 种不同 SoC 中。LPDDRLPDDRLPDDRLPDDRLPDDRLPDDRLPDDRLPDDRLPDDRLPDDRLPDDRLPDDRD2D PHYPIPE 5.1PCIe/CXLAIAcceleratorLightControllerHS SerDes XSR/USR PHY with LPDDRLPDDRLPDDRLPDDRLPDDRLPDDRLPDDRLPDDRLPDDRLPDDRLPDDRLPDDRLPDDRD2D PHYPIPE 5.1PCIe/CX

24、LLightControllerAIAccelerator图 4:边缘计算 AI 加速器 SoC 具有 SerDes PHY Die to Die 连接、LPDDR 和 PCIe/CXL 到交换机或用于背板连接的 LR 以太网 SerDes,可实现低成本、高带宽内存访问以及扩展处理器数量。设备端 AI关于设备端 AI 处理的一个最大关注点就是软件能力。算法变化很快。设计人员需要采用 Tensorflow 和 Caffe 等传统工具训练初始模型,然后将其映射到设备上的处理器。借助可针对特定处理器进行优化并保持高精度的图形映射工具,以及进行压缩和修剪的工具,许多工程可以节省数月的时间和精力。如果没

25、有这些工具,软件和系统的设计速度赶不上硬件的设计。优化的内存配置可以优化设备端 AI 系统。在开始设备本身的架构设计之前,设计人员需要拥有可模拟多个 IP 权限和配置的工具。在运行实际算法的同时,通过利用处理器模拟片上和片外存储器,可以在开始设计之前为设计人员提供最有效的架构。由于有些设计人员尚不清楚如何优化系统,因此,他们经常需要为同一过程节点开发多代产品,这会浪费数月的时间。最后,传感器连接对于设备端 AI 系统的视觉至关重要。MIPI CSI-2 是 CMOS 图像传感器的最常见实施。新的 V3 规范旨在提高机器感知能力,并支持更高的精度,从而提供更高质量的图像。特别需要指出的是,智能化

26、能力应有助于提高效率,因为新数据仅在需要时才提供,而不是提供整个图像。I3C 整合了多个传感器,为支持多个系统输入源提供了一种低成本的方法。边缘设备 AI 加速器许多企业都在设计独立 AI 加速器,因为设计这些加速器的企业知道,这是针对特定应用优化神经网络处理引擎的非常有效的方法。它们采用模拟处理器和创新内存(MRAM、近内存、内存计算)等技术,但仍需要标量和矢量处理单元移动数据并执行浮点运算和其他矢量 DSP 数学运算(图 x)。(请参见用于内存/近内存计算的 IP 视频)。边缘设备 AI 加速器在多芯片 PCIe 卡上最多可扩展至 16 个,可满足边缘计算需求并扩展其市场能力。另一个关键趋

27、势是在语音应用中使用 BLE Audio。预计到 2030 年,超过70%的网络搜索将通过语音激活,因此,支持 BLE 音频并具有低功耗 AI 语音识别能力的智能芯片可能是非常受消费者重视的设备。MIPIUSBStorageLPDDREthernetHDMIPCIe 4/5MemoryControllerAppsProcessorDSPProcessorApplicationSpecificSubsystemAIProcessor图 5:设备端 AI 框图用于 AI SoC 的 DesignWare IP新思科技 DesignWare IP 可支持移动、IoT、数据中心、汽车、数字家庭和其他市

28、场所用 AI 芯片中的专用处理能力、高带宽内存吞吐量和可靠的高性能连接需求。专用处理新思科技提供了一系列嵌入式处理器,可有效执行 AI 应用的大量工作负载。这包括用于标量、矢量和神经网络处理的 IP 和工具。ARC EV 处理器集成了针对嵌入式视觉应用而优化的异构计算元件,其中包括卷积神经网络(CNN)。ARC HS 和 EM 处理器结合了RISC 和DSP处理能力,可以在性能、功率和面积之间实现最佳平衡。ARC的可扩展指令集架构能够让用户添加自己的指令或硬件,以加速 AI 算法,并且能够将内存与处理器外设紧密耦合在一起,从而减少系统瓶颈。对于受益于高度并行性及专用数据路径元素的定制 AI 工

29、作负载,新思科技的 ASIP Designer 工具可以实现定制处理器和硬件加速器开发的自动化。Dual-issue,10-stage pipelineInstructionCCMInstructionCacheDataCacheDataCCMARCv2 ISA/DSPUser Defined Instruction ExtensionsMAC andSIMD MultiplierALUDividerLateALUReal-TimeTraceJTAGCache Coherency Unit(HS47D)Memory Protection Unit L2 Cache(HS47D)Memory M

30、anagement Unit(HS47D)ClusterDMAARC Processor EXtensions(APEX)ARCv2DSP Instruction Set Architecture(ISA)Interrupt Controller NVM I/FMemoryProtection Unit3-stage pipelineIFQReal-TimeTraceDMADebugcJTAGJTAGInstructionCCMDivider32x32MULMUL/MACDMPMemoryDataCache(EM7/11D)InstructionCache(EM7/11D)DataCCMCom

31、mitExecuteEnhanced Security/Safety PackagesARC HS4xD ProcessorEM DSP ProcessorDSPXYMemory(EM9/11D)LicensableIEEE 754 Compliant Floating Point UnitFloating Point Unit(FPU)CryptoPackInnovative Embedded MemoryProcessingNear-Memory/In-MemoryProcessingNear-Memory/In-MemoryProcessingNear-Memory/In-MemoryP

32、rocessingNear-Memory/In-MemoryPCIe 3/4USB 3.2/4图 6:DesignWare ARC EM 和 ARC HS DSP 处理器图 7:带有近内存和内存计算能力的边缘设备 AI 加速器内存性能新思科技提供了多种内存 IP 解决方案,以支持针对不同 AI 内存约束(带宽、容量、缓存一致性)的高效架构。最新的 DDR IP 可满足数据中心 AI SoC 的容量需求。HBM2 IP 解决了带宽瓶颈问题,同时提供了优化的片外存储器访问功耗。CCIX IP 支持高速缓存一致性,具有面向 AI 异构计算的虚拟化内存功能,并且能够减少 AI 应用中的延迟。大量嵌入式

33、内存编译器能够支持高密度、低漏电流、高性能的片上 SRAM 选择(包括 TCAM)和多端口内存。实时数据连接新思科技提供了与 CMOS 图像传感器、麦克风和运动传感器之间可靠的连接,可用于包括视觉、自然语言理解和情景感知在内的各种 AI 应用。采用先进 FinFET 工艺技术的接口 IP 产品组合能够降低功耗,并支持一系列广泛使用的标准规范,例如 MIPI、USB/DisplayPort、HDMI、PCI Express、面向加速器的高速缓存一致性互连(CCIX)、以太网等。安全性随着 AI 广泛运用于计算应用中,系统各个层面也都需要高级别的安全性。安全性是 AI 流程中一个不可或缺的部分。对

34、 AI 系统、其数据以及通信的保护对于用户的安全和隐私至关重要,对于保护企业投资也不可或缺。DesignWare 安全 IP 产品组合包含具有信任根(Root of Trust)的 tRoot 硬件安全模块,可以作为一个或多个主机处理器的辅助能力而在可信执行环境(TEE)中提供多种安全性功能,包括安全标识和身份验证、安全启动、安全更新、安全调试和密钥管理。DesignWare 安全协议加速器是高度集成的嵌入式安全解决方案,具有高效的加密和身份验证功能,可提供更高的性能、易用性和高级安全功能,例如服务质量、虚拟化和安全命令处理。它们用于保护 AI 模型并支持与云端或其他设备之间的安全通信。高性能

35、 AES-XTS 内核能够保护运行时内存的静态数据。培育 AI SoC 已超越芯片设计的范畴在 SoC 中添加 AI 能力突显了当今 SoC 架构在 AI 方面的薄弱。在为非 AI 应用构建的 SoC 上实现视觉、语音识别和其他深度学习和机器学习算法时,资源非常匮乏。IP 的选择和集成明确地界定了AI SoC的基准效率,这构成了AI SoC的“DNA”,或者叫先天性。例如,引入定制处理器或处理器阵列可以加速 AI 应用中所需的大规模矩阵乘法。然而,后天培养设计这一要素会影响各部分在硬件中如何协同工作,或者影响如何优化 IP 以实现更有效、更优化的 AI SoC。优化、测试和基准界定 SoC 性

36、能的设计过程需要工具、服务和专业知识来优化 AI 系统。在设计过程中通过定制和优化而培育设计最终可以决定 SoC 在市场中能否取得成功。使用工具、设计专业知识和基准测试专业知识增强功耗、性能和成本对于构建成功的 SoC 架构必不可少。设计人员需要各种后天培养方法而加快实现设计过程和芯片的成功。软件开发、验证和基准测试工具为了培育设计实现,设计人员需要各种先进的仿真和原型设计解决方案,例如新思科技公司提供的此类解决方案,以支持早期软件开发、性能验证以及最重要的架构优化。这些工具正在 AI 中得到日益频繁的采用,其原因也是由于设计的不成熟性和复杂性。要想轻松、快速地对不同 AI 图进行基准测试,需

37、要具备相关的专业技能和成熟的工具链。手工编写这些图形用于基准测试活动可能是一项艰巨的任务,但要想了解芯片设计是否能够提供所需价值,这也是一项必不可少的任务。依靠 DeisgnWare ARC EV 等处理器(拥有多种工具,可对这些图形进行有效、快速的基准测试),可以加快系统设计,确保满足您的要求。专业知识和定制借助于新思科技公司提供的定制解决方案,有针对性的嵌入式内存可以帮助设计人员解决高密度、低泄漏方面的挑战。对近阈值逻辑库的支持可以实现能量收益功能,从而显著降低 AI 加速器的功耗。新思科技公司的基础 IP 产品组合包含一个 HPC 设计套件,这是一组逻辑库单元和内存,已经在先进节点上与

38、EDA 工具进行了共同优化,可以推进任何设计的 PPA 包络(envelope),它也针对支持 AI 的设计进行了优化。除了提供经过流片验证的、能够实现卓越 PPA 的丰富产品组合之外,新思科技还支持对所有IP 权限进行定制,以满足个性化设计需求,从而使得这套产品比任何其他产品更具灵活性。前端设计专业知识可以利用经验丰富的设计人员所提供的预先构建的 AI SoC 验证环境。因此,设计服务工作以及设计第二代及后代芯片组的企业可以优先将产品投入市场。设计人员可以依赖新思科技公司经验丰富的设计师专家的知识,将此作为加快产品上市速度的有效途径,从而解放内部设计团队,让他们专注于差异化芯片的功能。接口

39、IP 固化为低功耗和低面积实现提供了额外的优化路径。固化的 IP 能够在 SoC 上为宝贵的片上 SRAM 和处理器组件腾出空间,以期获得更好的 AI 性能,并改进 PCIe、USB 和 DDR 等 IP 权限的 PPA。客户成功故事新思科技与我们的客户合作,帮助确保客户在整个 AI 市场上取得成功。AI SoC 的近期公开成功客户案例包括:Tenstorrent 采用 DesignWare IP,使其高性能 Grayskull AI 处理器 SoC 实现了首次流片成功 Black Sesame 将 DesignWare IP 用于智能自动驾驶 SoC 中,实现了 L3 及以上级别的自动驾驶

40、NVIDIA 选择将 DesignWare IP 用于其下一代高性能云计算网络芯片 Himax 将 DesignWare IP 集成到 WiseEye ASIC 中,用于设计具有 AI 智能感应能力的电池供电智能设备 Infineon 采用 DesignWare IP 加速汽车 AURIX SoC 中使用的 AI,设计更智能的自动驾驶汽车 Orbecc 采用 DesignWare IP 实现其 3D 智能计算摄像头的首次流片成功结束语随着 AI 能力进入新市场,选择用于集成的 IP 为 AI SoC 提供了关键组件。但除了 IP 之外,设计人员还发现,利用 AI 专业知识、服务和工具具有明显的优势,能够确保设计的按时交付,为最终客户提供高质量的服务和高价值,以满足新的创新应用需求。2020 Synopsys,Inc.版权所有,保留所有权利。Synopsys 是 Synopsys,Inc.在美国和其他国家的商标。Synopsys 商标列表可在 找到。本文提及的所有其他名称均为其各自所有者的商标或注册商标。10/08/20.CS568740477-SG|AI WP.2020 年 9 月发布

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(新思科技:市场对 SoC 中专用人工智能IP的需求日益增加(10页).pdf)为本站 (探险者) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
会员购买
客服

专属顾问

商务合作

机构入驻、侵权投诉、商务合作

服务号

三个皮匠报告官方公众号

回到顶部