根据NVIDIA最新提交给美国证券交易委员会(SEC)的文件显示,黄仁勋近又出售了价值逾2940万美元的股票。加上此前的抛售,过去三周内,他已从NVIDIA股票中套现高达1.84亿美元(约合13.38亿元人民币)。
黄仁勋的减持是通过"10b5-1规则交易计划"进行的,这是一种允许高管和内部人士在得知任何重要非公开信息之前设立的交易计划,以避免利用内幕信息进行交易。
不过即便如此,本次减持后黄仁勋个人账户仍持有不少NVIDIA股票,此外,他还通过信托和其他方式控制着大量NVIDIA股票。
NVIDIA的股价在6月份达到顶峰,推动该公司的市值超过3万亿美元,并一度超越苹果和微软成为全球市值最大的上市公司。
尽管有人将英伟达的崛起与互联网泡沫时代相提并论,但思科系统公司前首席执行官约翰·钱伯斯强调,人工智能革命的动力与以往的科技繁荣截然不同。
有市场分析人士指出,高管减持股票属于常见的做法,特别是在公司股价表现强劲时。
今日(7月23日),Nvidia GeForce Now云游戏服务推出限时折扣,8月18日前,优先级和终极级订阅享受50%降价。
优先级会员现只需4.99美元/月或24.99美元/半年,提供无广告体验,RTX级别性能支持,保证1080p/60fps画质,单次游戏最长可达6小时。
终极级会员现售价9.99美元/月或49.99美元/半年,除了上述所有福利,还升级至RTX 4080主机性能,支持4K/240fps,单次游戏时长增加至8小时,享有最高优先接入权,几乎无等待时间。
此促销活动不适用于续费,8月18日后价格将恢复原状。通过最新的Nvidia App,PC及Steam Deck用户可轻松接入云端游戏库,畅享无缝游戏体验。
最近,一场人工智能领域的革新风暴正在悄然兴起,源自佐治亚理工学院与英伟达的杰出华人学者们,他们携手打造了一款革命性的微调框架——RankRAG。
不同于传统RAG(Retrieval-Augmented Generation)流程的繁琐与冗长,RankRAG巧妙地将检索、排名与生成三大核心环节融合于单一的大型语言模型(LLM)之中,极大地提升了模型的工作效率与效能。
RAG(Retrieval-Augmented Generation)是LLM部署中常用的技术,特别适合需要大量事实知识的文本生成任务。通常,RAG的流程是:基于文本编码的稠密模型从外部数据库中检索top-k文本段,然后LLM进行读取和生成。这个流程已经被广泛使用,但也有局限,比如k值选择。如果k值太大,即使是支持长上下文的LLM也难以快速处理;如果k值太小,又需要高召回率的检索机制,而现有的检索器和排名模型各有不足。
基于上述问题,RankRAG框架提出了新思路:通过微调扩展LLM能力,让LLM自己完成检索和排名。实验结果表明,这种方法不仅提高了数据效率,还显著增强了模型性能。特别是在多个通用基准和生物医学知识密集型基准上,RankRAG微调出的Llama38B/70B模型,分别超过了ChatQA-1.58B和ChatQA-1.570B模型。
RankRAG的关键在于其高度的交互性和可编辑性。用户不仅可以实时查看AI生成的内容,还能直接在界面上进行编辑和迭代。这种即时反馈机制大大提高了工作效率,让AI真正成为创作过程中的得力助手。更令人兴奋的是,本次更新让这些Artifacts不再局限于Claude平台内部,用户可以轻松地将它们分享到任何地方。
这次RankRAG微调框架的创新还包括两个阶段的指令微调。第一阶段进行监督微调(SFT),混合多个数据集以提高LLM的指令跟随能力。第二阶段的微调数据集包含多种QA数据、检索增强的QA数据和上下文排名数据,进一步提升LLM的检索和排名能力。
在实验中,RankRAG在九个通用领域数据集上的表现始终优于当前的开源SOTA模型ChatQA-1.5。特别是在具有挑战性的QA任务中,如长尾QA和多跳QA,RankRAG比ChatQA-1.5提高了10%以上的性能。
总的来说,RankRAG不仅在检索和生成任务中表现出色,还在生物医学RAG基准Mirage上展示了其强大的适应性。即使在没有微调的情况下,RankRAG在医学问答任务上的表现也超过了许多专业领域的开源模型。
随着RankRAG框架的提出和不断完善,我们有理由相信,AI与人类协作创作的未来将更加光明。无论是独立开发者还是研究人员,都能利用这一创新框架激发出更多创意和可能性,推动技术和应用的发展。
7月16日消息,英伟达在开发RTX 4070显卡的过程中,确实探索了多种配置选项,其中就包括一种配备10GB GDDR6X显存的版本。
然而,最终推向市场的RTX 4070选择了12GB GDDR6X显存和192bit的接口,这表明英伟达在综合考虑性能、成本和市场需求后,认为12GB的显存版本能够提供更好的用户体验。
闲鱼用户分享了一组 RTX 4070 10GB 原型卡的 GPU-Z 截图和实拍照,让我们有机会看到这款废弃方案的最初样貌。
GPU-Z 显示,这款显卡采用了 AD104-275 GPU,其中禁用了 AD104 芯片上的六个 32bit 内存控制器,因此仅保留了 160bit 的位宽,加上五个 2GB GDDR6X 显存芯片共 10GB 容量(18 Gbps)。
结果就是,这款显卡带宽和容量严重受限,带宽仅为 420 GB/s,相比现有 RTX 4070(2023 年 4 月推出)低 16.7%。
相对地,这款 10GB 原型卡提供了更多 CUDA 核心来弥补 VRAM 和带宽的不足,GPU-Z 显示它拥有 7168 个 CUDA 核心,比普通 RTX 4070 多 1280 个,刚好与后来推出的 RTX 4070 Super 数量相同。
此外,这款原型卡的 PCB 板上有着八个内存焊接位置,这说明英伟达当时很可能为其引入了 AD103(RTX 4080)板的参考设计。
网络通讯
42.70MB
媒体音乐
34.24MB
时尚购物
34.09MB
金融理财
46.43MB
小说阅读
69.30MB
成长教育
111.39MB
住宿驿站
27.77MB
41.54MB
摄影美学
41.66MB
棋牌扑克
211.83MB
角色扮演
268.20MB
休闲益智
45.91MB
145.30MB
73.84MB
141.71MB
传奇三国
201.42MB
85.64MB
战争塔防
68.28MB
渝ICP备20008086号-39 违法和不良信息举报/未成年人举报:linglingyihcn@163.com
CopyRight©2003-2018 违法和不良信息举报(12377) All Right Reserved
黄仁勋连续抛售NVIDIA股票,累计套现超13亿元
根据NVIDIA最新提交给美国证券交易委员会(SEC)的文件显示,黄仁勋近又出售了价值逾2940万美元的股票。加上此前的抛售,过去三周内,他已从NVIDIA股票中套现高达1.84亿美元(约合13.38亿元人民币)。
黄仁勋的减持是通过"10b5-1规则交易计划"进行的,这是一种允许高管和内部人士在得知任何重要非公开信息之前设立的交易计划,以避免利用内幕信息进行交易。
不过即便如此,本次减持后黄仁勋个人账户仍持有不少NVIDIA股票,此外,他还通过信托和其他方式控制着大量NVIDIA股票。
NVIDIA的股价在6月份达到顶峰,推动该公司的市值超过3万亿美元,并一度超越苹果和微软成为全球市值最大的上市公司。
尽管有人将英伟达的崛起与互联网泡沫时代相提并论,但思科系统公司前首席执行官约翰·钱伯斯强调,人工智能革命的动力与以往的科技繁荣截然不同。
有市场分析人士指出,高管减持股票属于常见的做法,特别是在公司股价表现强劲时。
英伟达GeForce Now云游戏服务半价特惠开启,订阅截止8月18日
今日(7月23日),Nvidia GeForce Now云游戏服务推出限时折扣,8月18日前,优先级和终极级订阅享受50%降价。
优先级会员现只需4.99美元/月或24.99美元/半年,提供无广告体验,RTX级别性能支持,保证1080p/60fps画质,单次游戏最长可达6小时。
终极级会员现售价9.99美元/月或49.99美元/半年,除了上述所有福利,还升级至RTX 4080主机性能,支持4K/240fps,单次游戏时长增加至8小时,享有最高优先接入权,几乎无等待时间。
此促销活动不适用于续费,8月18日后价格将恢复原状。通过最新的Nvidia App,PC及Steam Deck用户可轻松接入云端游戏库,畅享无缝游戏体验。
英伟达革新AI微调范式:Llama 3借RankRAG框架力压GPT-4,重写大模型竞争格局
最近,一场人工智能领域的革新风暴正在悄然兴起,源自佐治亚理工学院与英伟达的杰出华人学者们,他们携手打造了一款革命性的微调框架——RankRAG。
不同于传统RAG(Retrieval-Augmented Generation)流程的繁琐与冗长,RankRAG巧妙地将检索、排名与生成三大核心环节融合于单一的大型语言模型(LLM)之中,极大地提升了模型的工作效率与效能。
RAG(Retrieval-Augmented Generation)是LLM部署中常用的技术,特别适合需要大量事实知识的文本生成任务。通常,RAG的流程是:基于文本编码的稠密模型从外部数据库中检索top-k文本段,然后LLM进行读取和生成。这个流程已经被广泛使用,但也有局限,比如k值选择。如果k值太大,即使是支持长上下文的LLM也难以快速处理;如果k值太小,又需要高召回率的检索机制,而现有的检索器和排名模型各有不足。
基于上述问题,RankRAG框架提出了新思路:通过微调扩展LLM能力,让LLM自己完成检索和排名。实验结果表明,这种方法不仅提高了数据效率,还显著增强了模型性能。特别是在多个通用基准和生物医学知识密集型基准上,RankRAG微调出的Llama38B/70B模型,分别超过了ChatQA-1.58B和ChatQA-1.570B模型。
RankRAG的关键在于其高度的交互性和可编辑性。用户不仅可以实时查看AI生成的内容,还能直接在界面上进行编辑和迭代。这种即时反馈机制大大提高了工作效率,让AI真正成为创作过程中的得力助手。更令人兴奋的是,本次更新让这些Artifacts不再局限于Claude平台内部,用户可以轻松地将它们分享到任何地方。
这次RankRAG微调框架的创新还包括两个阶段的指令微调。第一阶段进行监督微调(SFT),混合多个数据集以提高LLM的指令跟随能力。第二阶段的微调数据集包含多种QA数据、检索增强的QA数据和上下文排名数据,进一步提升LLM的检索和排名能力。
在实验中,RankRAG在九个通用领域数据集上的表现始终优于当前的开源SOTA模型ChatQA-1.5。特别是在具有挑战性的QA任务中,如长尾QA和多跳QA,RankRAG比ChatQA-1.5提高了10%以上的性能。
总的来说,RankRAG不仅在检索和生成任务中表现出色,还在生物医学RAG基准Mirage上展示了其强大的适应性。即使在没有微调的情况下,RankRAG在医学问答任务上的表现也超过了许多专业领域的开源模型。
随着RankRAG框架的提出和不断完善,我们有理由相信,AI与人类协作创作的未来将更加光明。无论是独立开发者还是研究人员,都能利用这一创新框架激发出更多创意和可能性,推动技术和应用的发展。
英伟达RTX 4070 10GB原型显卡:160bit显存与AD104-275 GPU背后的秘密
7月16日消息,英伟达在开发RTX 4070显卡的过程中,确实探索了多种配置选项,其中就包括一种配备10GB GDDR6X显存的版本。
然而,最终推向市场的RTX 4070选择了12GB GDDR6X显存和192bit的接口,这表明英伟达在综合考虑性能、成本和市场需求后,认为12GB的显存版本能够提供更好的用户体验。
闲鱼用户分享了一组 RTX 4070 10GB 原型卡的 GPU-Z 截图和实拍照,让我们有机会看到这款废弃方案的最初样貌。
GPU-Z 显示,这款显卡采用了 AD104-275 GPU,其中禁用了 AD104 芯片上的六个 32bit 内存控制器,因此仅保留了 160bit 的位宽,加上五个 2GB GDDR6X 显存芯片共 10GB 容量(18 Gbps)。
结果就是,这款显卡带宽和容量严重受限,带宽仅为 420 GB/s,相比现有 RTX 4070(2023 年 4 月推出)低 16.7%。
相对地,这款 10GB 原型卡提供了更多 CUDA 核心来弥补 VRAM 和带宽的不足,GPU-Z 显示它拥有 7168 个 CUDA 核心,比普通 RTX 4070 多 1280 个,刚好与后来推出的 RTX 4070 Super 数量相同。
此外,这款原型卡的 PCB 板上有着八个内存焊接位置,这说明英伟达当时很可能为其引入了 AD103(RTX 4080)板的参考设计。
网络通讯
42.70MB
媒体音乐
34.24MB
时尚购物
34.09MB
金融理财
46.43MB
小说阅读
69.30MB
成长教育
111.39MB
住宿驿站
27.77MB
成长教育
41.54MB
摄影美学
41.66MB
棋牌扑克
211.83MB
角色扮演
268.20MB
休闲益智
45.91MB
棋牌扑克
145.30MB
休闲益智
73.84MB
角色扮演
141.71MB
传奇三国
201.42MB
棋牌扑克
85.64MB
战争塔防
68.28MB