11月19日消息,英伟达与谷歌 Quantum AI 达成合作,将利用 NVIDIA CUDA-Q 平台支持谷歌的研究人员开发量子计算机的复杂数字模型,帮助解决设计过程中的挑战。此次合作有望推动量子计算技术的发展,加速科学发现和技术进步。
根据双方声明,谷歌 Quantum AI 部门将借助英伟达 Eos 超级计算机及混合量子-经典计算平台来模拟其量子处理器的物理特性,这将有助于谷歌克服量子计算硬件局限性、加速量子组件的开发。
值得一提的是,这里的“硬件局限性”是指研究人员所谓的“噪音”,即量子计算机必须在运行一定量的量子操作后停止计算。
谷歌 Quantum AI 的研究科学家 Guifre Vidal 表示,“只有我们能够在扩大量子硬件规模的同时控制住噪声,才能真正开发出具有商业用途的量子计算机。”
要了解量子硬件设计中的噪声,需要经过一系列复杂的动态模拟过程,且能够全面捕捉量子处理器中的量子比特与其环境的相互作用才行。
为了实现这一目标,英伟达提供了一台基于 1,024 个 H100 Tensor Core GPU 的超级计算机,“从而执行世界上最大、最快的量子设备动态模拟之一,而且成本大幅降低”。
英伟达表示,借助 CUDA-Q 和 H100 GPU,谷歌可以对包含 40 个量子比特的设备进行全面、逼真的动态模拟,其系统将在几分钟内提供结果,而之前可能需要一周时间,而且成本仅有之前很小一部分(具体数据或比例未公布)。
近日,英伟达(Nvidia)低调发布了其创新AI服务平台——AI Foundry,这一举动预示着企业界或将迎来个性化AI模型定制的新浪潮。该服务平台致力于协助企业快速构建和部署量身定制的大规模语言模型,旨在以增强的精确度与更灵活的掌控力应对市场的瞬息万变。
AI Foundry结合了英伟达的硬件、软件工具和专业知识,帮助公司开发出针对具体业务需求的定制化开源模型,例如Meta刚刚发布的Llama3.1。随着企业越来越希望利用生成式AI技术,同时又希望掌控自己的数据和应用,AI Foundry的推出正逢其时。
英伟达表示,通过对这些开源模型的定制,能够显著提高模型的表现。例如,定制后的模型准确度能提高近10个百分点。AI Foundry不仅提供了大量预训练模型,还通过英伟达的DGX Cloud和NeMo工具包提供高性能计算资源和模型定制评估。此外,英伟达的AI专家团队还将提供专业指导。
除了AI Foundry,英伟达还推出了NIM(Nvidia Inference Microservices),这是一种将定制模型打包成容器化、API可访问格式的服务,简化了模型的部署过程。NIM标志着英伟达在AI模型部署方面的一项重大突破,展示了公司在多年研究和开发上的积累。
此次发布的时机也很微妙,正值Meta发布Llama3.1之际,同时也在AI安全性和治理问题日益引发关注的背景下。通过提供一个让企业能够创建和控制自己AI模型的服务,英伟达可能在满足企业对高级AI需求的同时,规避了使用公共通用模型的风险。
然而,定制AI模型的广泛部署也可能带来一些挑战,如AI能力在各行业间的碎片化以及保持一致的AI安全和伦理标准的困难。随着AI行业竞争的加剧,英伟达的AI Foundry将成为其在企业AI市场未来布局的重要一步。
网络通讯
42.70MB
媒体音乐
34.24MB
时尚购物
34.09MB
金融理财
46.43MB
小说阅读
69.30MB
成长教育
111.39MB
住宿驿站
27.77MB
41.54MB
摄影美学
41.66MB
棋牌扑克
211.83MB
角色扮演
268.20MB
休闲益智
45.91MB
145.30MB
73.84MB
141.71MB
传奇三国
201.42MB
85.64MB
战争塔防
68.28MB
渝ICP备20008086号-39 违法和不良信息举报/未成年人举报:linglingyihcn@163.com
CopyRight©2003-2018 违法和不良信息举报(12377) All Right Reserved
英伟达与谷歌强强联手,加速推进量子计算处理器开发
11月19日消息,英伟达与谷歌 Quantum AI 达成合作,将利用 NVIDIA CUDA-Q 平台支持谷歌的研究人员开发量子计算机的复杂数字模型,帮助解决设计过程中的挑战。此次合作有望推动量子计算技术的发展,加速科学发现和技术进步。
根据双方声明,谷歌 Quantum AI 部门将借助英伟达 Eos 超级计算机及混合量子-经典计算平台来模拟其量子处理器的物理特性,这将有助于谷歌克服量子计算硬件局限性、加速量子组件的开发。
值得一提的是,这里的“硬件局限性”是指研究人员所谓的“噪音”,即量子计算机必须在运行一定量的量子操作后停止计算。
谷歌 Quantum AI 的研究科学家 Guifre Vidal 表示,“只有我们能够在扩大量子硬件规模的同时控制住噪声,才能真正开发出具有商业用途的量子计算机。”
要了解量子硬件设计中的噪声,需要经过一系列复杂的动态模拟过程,且能够全面捕捉量子处理器中的量子比特与其环境的相互作用才行。
为了实现这一目标,英伟达提供了一台基于 1,024 个 H100 Tensor Core GPU 的超级计算机,“从而执行世界上最大、最快的量子设备动态模拟之一,而且成本大幅降低”。
英伟达表示,借助 CUDA-Q 和 H100 GPU,谷歌可以对包含 40 个量子比特的设备进行全面、逼真的动态模拟,其系统将在几分钟内提供结果,而之前可能需要一周时间,而且成本仅有之前很小一部分(具体数据或比例未公布)。
英伟达AI Foundry服务革新登场,企业定制模型新时代或将开启
近日,英伟达(Nvidia)低调发布了其创新AI服务平台——AI Foundry,这一举动预示着企业界或将迎来个性化AI模型定制的新浪潮。该服务平台致力于协助企业快速构建和部署量身定制的大规模语言模型,旨在以增强的精确度与更灵活的掌控力应对市场的瞬息万变。
AI Foundry结合了英伟达的硬件、软件工具和专业知识,帮助公司开发出针对具体业务需求的定制化开源模型,例如Meta刚刚发布的Llama3.1。随着企业越来越希望利用生成式AI技术,同时又希望掌控自己的数据和应用,AI Foundry的推出正逢其时。
英伟达表示,通过对这些开源模型的定制,能够显著提高模型的表现。例如,定制后的模型准确度能提高近10个百分点。AI Foundry不仅提供了大量预训练模型,还通过英伟达的DGX Cloud和NeMo工具包提供高性能计算资源和模型定制评估。此外,英伟达的AI专家团队还将提供专业指导。
除了AI Foundry,英伟达还推出了NIM(Nvidia Inference Microservices),这是一种将定制模型打包成容器化、API可访问格式的服务,简化了模型的部署过程。NIM标志着英伟达在AI模型部署方面的一项重大突破,展示了公司在多年研究和开发上的积累。
此次发布的时机也很微妙,正值Meta发布Llama3.1之际,同时也在AI安全性和治理问题日益引发关注的背景下。通过提供一个让企业能够创建和控制自己AI模型的服务,英伟达可能在满足企业对高级AI需求的同时,规避了使用公共通用模型的风险。
然而,定制AI模型的广泛部署也可能带来一些挑战,如AI能力在各行业间的碎片化以及保持一致的AI安全和伦理标准的困难。随着AI行业竞争的加剧,英伟达的AI Foundry将成为其在企业AI市场未来布局的重要一步。
网络通讯
42.70MB
媒体音乐
34.24MB
时尚购物
34.09MB
金融理财
46.43MB
小说阅读
69.30MB
成长教育
111.39MB
住宿驿站
27.77MB
成长教育
41.54MB
摄影美学
41.66MB
棋牌扑克
211.83MB
角色扮演
268.20MB
休闲益智
45.91MB
棋牌扑克
145.30MB
休闲益智
73.84MB
角色扮演
141.71MB
传奇三国
201.42MB
棋牌扑克
85.64MB
战争塔防
68.28MB