亚马逊宣布投资 1.1 亿美元,用于大学主导的生成式人工智能研究。该计划名为 Build on Trainium,将提供计算时间,使研究人员有机会为大规模分布式 AWS Trainium UltraClusters(协同处理复杂计算任务的 AI 加速器的集合)构建新的 AI 架构、机器学习 (ML) 库和性能优化。AWS Trainium 是 AWS 为深度学习训练和推理而构建的机器学习芯片。通过 Build on Trainium 计划创造的 AI 进步将开源,因此研究人员和开发人员可以继续推进他们的创新。AWS 设计基础设施以支持生成式 AI 的 4 种方式从网络创新到数据中心设计的变化,AWS 继续优化其基础设施以大规模支持生成式 AI。该计划迎合了广泛的人工智能研究,从算法进步到提高人工智能加速器性能,一直到大型分布式系统研究。作为 Build on Trainium 的一部分,AWS 创建了一个 Trainium 研究 UltraCluster,其中包含多达 40,000 个 Trainium 芯片,这些芯片针对 Build on Trainium 部分的独特工作负载和计算结构进行了优化设计 AI.As AWS 和领先的 AI 研究机构也正在为新的研究和学生教育设立专门资金。此外,亚马逊还将进行多轮亚马逊研究奖提案征集,选定的提案将获得 AWS Trainium 积分,并可以访问大型 Trainium UltraClusters 进行研究。计算能力的提升开发前沿人工智能模型和应用程序需要大量的计算能力,由于预算限制,许多大学不得不放慢人工智能研究的速度。研究人员可能会发明一种新的模型架构或一种新的性能优化技术,但他们可能负担不起大规模实验所需的高性能计算资源。宾夕法尼亚州匹兹堡卡内基梅隆大学 (CMU) 的 Catalyst 研究小组是参与 Build on Trainium 的研究机构之一。在那里,一大群教师和学生正在对机器学习系统进行研究,包括为人工智能开发新的编译器优化。AWS 的 Build on Trainium 计划使我们的教职员工和学生能够通过开放式编程模型大规模访问现代加速器,例如 AWS Trainium。它使我们能够极大地扩展我们在张量程序编译、ML 并行化以及语言模型服务和调整方面的研究,“CMU 计算机科学教授 Todd C. Mowry 说。为未来的人工智能专家提供资金自 2019 年推出 AWS Inferentia 芯片以来,AWS 一直是在云中构建和扩展人工智能芯片的先驱。通过向学者开放这些功能,Build on Trainium 不仅有助于扩大思想库,还将支持未来人工智能专家的培训。您需要了解的有关支持亚马逊与 Anthropic 合作的 AWS AI 芯片的信息Anthropic 将使用我们强大的专用 AI 芯片来加速我们的客户的生成式 AI。Trainium 超出了可编程的范围——你不仅可以运行一个程序,还可以获得低级访问权限来调整硬件本身的功能,“加州大学伯克利分校计算机科学研究副教授、Build on Trainium 的参与者 Christopher Fletcher 说。“从研究的角度来看,架构中每一步都内置了灵活性旋钮,使其成为一个梦想的平台。”这些进步之所以成为可能,部分归功于 AWS Trainium 和 Inferentia 的新编程接口,称为 Neuron 内核接口 (NKI)。该接口可以直接访问芯片的指令集,并允许研究人员构建优化的计算内核(核心计算单元),以实现新模型作、性能优化和科学创新。AWS 确实实现了意想不到的创新,“Fletcher 说。“我走过实验室,每个项目都需要计算集群资源来实现不同的东西。Build on Trainium 资源将非常有用——从日常工作到我们在实验室进行的深入研究。为资助接受者提供的其他资源作为 Build on Trainium 计划的一部分,研究人员将能够与该领域的其他人联系,将想法变为现实。授权接受者可以访问 AWS 的 Trainium 扩展技术教育和支持计划。这是与不断发展的 Neuron Data Science 社区合作完成的,该社区是一个由亚马逊芯片开发商 Annapurna 领导的虚拟组织,它连接了 AWS 技术领域社区 (TFC)、专家团队、初创公司、AWS 的生成式 AI 创新中心等。可帮助您使用生成式 AI 的免费和低成本 AWS 课程指南超过 135 个 AWS 培训,适用于各种经验水平的所有人。人工智能的进步正在迅速发展,因为世界任何地方的开发人员都能够访问和部署该软件。参与 Build on Trainium 的研究人员将发表有关他们工作的论文,并将被要求通过开源机器学习软件库将代码带入公共领域。这项合作研究将成为人工智能下一轮进步的基础。










