近日消息,人工智能领域的领头羊OpenAI与美国顶尖科研机构洛斯阿拉莫斯国家实验室(LANL)宣布了一项重大合作,这一联合举动无疑在科学界掀起了巨大的波澜。双方的合作目标直指生物科学的未来,旨在探索和推动该领域内AI技术的应用边界,预示着一场科研领域的深刻变革即将上演。
这次合作的目的简单说,就是要让AI在实验室里更安全、更酷炫地帮助科学家们。他们要研究的,就是如何让那些能看图、能听声的高级AI模型,比如GPT-4,安全地在实验室里发挥它们的超能力,推动生物科学研究。
这事儿还和白宫的一项行政命令挺搭调,就是那个关于如何安全使用AI的命令。美国能源部的国家实验室也得评估这些AI模型的本事,特别是在生物应用上的潜力。
合作的一部分就是搞个评估研究。不管是实验室新手还是老鸟,都得在实验室里完成一些标准任务。这些任务就像是更复杂问题的“替身”,而这些问题可能涉及到一些敏感的双重用途问题。
OpenAI的CTO Mira Murati说这次合作是他们使命的“自然进化”,就是要在推进科学研究的同时,理解和降低风险。OpenAI希望这能帮他们“为科学领域的AI安全性和有效性树立新标杆”。
当然,也有人担心,AI在生物科学领域的研究,特别是和生物威胁相关的,会不会被滥用来搞生物武器。但OpenAI已经表态了,他们的AI技术绝对不能用来造成伤害,包括开发武器。
洛斯阿拉莫斯国家实验室成立于1943年,最初是作为曼哈顿计划的一部分秘密开发第一颗原子弹的设施,如今已成为美国领先的国家实验室之一,以其核武器研究而闻名。
近日消息,OpenAI最近公布了一项重要的组织结构调整决定,其CEO山姆·阿尔特曼通过社交媒体平台X宣布,原人工智能安全领域的负责人亚历山大·马德里已转岗至一个新职位,该职位着重于推进人工智能推理领域的发展,这标志着公司在AI研究方向上的又一战略调整。
阿尔特曼在推文中对马德里的工作表示肯定,称其"正在从事一个新的、非常重要的研究项目"。这一调动不仅体现了公司对马德里能力的认可,也凸显了OpenAI对人工智能推理领域研究的重视。
在马德里调任期间,OpenAI高管华金·基诺内罗·坎德拉(Joaquin Quinonero Candela)和莉莉安·翁(Lilian Weng)将共同接管Preparedness团队。该团队主要负责识别前沿模型的新风险,并进行安全评估,以降低人工智能可能带来的"灾难性风险"。
值得注意的是,尽管马德里的工作重心发生了转移,但OpenAI官方表示,他仍将继续参与核心的人工智能安全工作。马德里不仅在OpenAI担任要职,还是麻省理工学院可部署机器学习中心的主任,以及麻省理工学院人工智能政策论坛的教员联合负责人。他丰富的经验和专业知识预计将为OpenAI的人工智能推理研究带来新的突破。
此次重组反映了OpenAI在保持AI安全研究的同时,也在积极推进人工智能推理能力的发展。业内人士普遍认为,这一战略调整将有助于OpenAI在竞争激烈的人工智能领域保持领先地位。
近日消息,OpenAI宣布了一项重要更新,将文本转语音(TTS)API正式整合至其开发者Playground平台。这一举措极大地方便了开发者,使得他们能够在实验和开发阶段直接体验和测试语音合成效果,而无需复杂的设置过程。
更智能的是,这个API能够自动识别文本的语言,并匹配相应的语音,省去了选择语言和国家版本的麻烦。
这项服务不仅简化了开发流程,而且提供了高质量的语音合成技术。OpenAI的文本转语音功能能够将书面文本转换成听起来非常自然的口述音频,为创造沉浸式和交互式用户体验提供了无限可能。
OpenAI 文本转语音声音包含两种模型变体,以满足不同场景下的需求:
Neural:这个模型变体专为那些需要最低延迟的实时用例进行了优化,虽然在质量上可能略逊于NeuralHD,但对于需要快速响应的应用场景来说,它是理想的选择。
NeuralHD:正如其名,这个模型变体专注于提供最高质量的语音输出。如果你的应用追求最佳音质,NeuralHD无疑是最佳选择。
总的来说,OpenAI的文本转语音API为开发者提供了一个强大而灵活的工具,无论是在实时通信还是高质量内容制作方面,都能够满足开发者的需求。这一进步再次证明了AI技术在改善和提升人们日常生活与工作体验方面的巨大潜力。
近日消息,OpenAI再次陷入争议漩涡,因涉嫌利用限制性保密协议(NDA)来抑制员工对公司潜在问题的公开讨论而受到广泛审视。其中指控OpenAI要求员工签署所谓的“非法限制性”保密协议,这种做法被认为阻止了员工向外界揭示公司技术可能带来的风险与危害。
该举报信指控 OpenAI 违反了美国证券交易委员会的规定,该规定旨在保护员工向联邦当局举报其疑虑的权利并防止报复行为。此前,举报人已于 6 月份正式向美国证券交易委员会提交了投诉。
举报信中要求美国证券交易委员会“采取迅速果断的措施”来执行他们认为 OpenAI 已经违反的规定。涉嫌的违规行为包括要求员工签署协议,“该协议未豁免向美国证券交易委员会披露证券违规行为”,以及要求员工在向当局披露机密信息之前获得公司的同意。举报信还指出,OpenAI 的协议要求员工“放弃国会为鼓励举报和为举报人提供经济援助而设立的补偿金”。
OpenAI 发言人 Hannah Wong 在一份声明中表示,“我们的举报人政策保护员工进行合法披露的权利”,并补充说公司已经对其离职文件进行了“重要修改”,以取消保密协议中的不诋毁条款。OpenAI 此前曾表示正在修改这些协议,此前该公司因威胁扣回离职员工的既得权益以迫使他们签署离职协议而受到指责。
据报道,美国证券交易委员会已经对该投诉做出了回应,但尚未公布任何有关其将采取或不采取的行动的细节。但举报人表示,即使 OpenAI 在其非法合同被公开披露后进行改革,执法仍然是最重要的。“这不是为了攻击 OpenAI 或阻碍人工智能技术的发展,而是为了向人工智能领域的其他参与者以及整个科技行业传递一个信息,即侵犯员工或投资者举报不当行为的权利的行为将不会被容忍。”
网络通讯
42.70MB
媒体音乐
34.24MB
时尚购物
34.09MB
金融理财
46.43MB
小说阅读
69.30MB
成长教育
111.39MB
住宿驿站
27.77MB
41.54MB
摄影美学
41.66MB
棋牌扑克
211.83MB
角色扮演
268.20MB
休闲益智
45.91MB
145.30MB
73.84MB
141.71MB
传奇三国
201.42MB
85.64MB
战争塔防
68.28MB
渝ICP备20008086号-39 违法和不良信息举报/未成年人举报:linglingyihcn@163.com
CopyRight©2003-2018 违法和不良信息举报(12377) All Right Reserved
跨学科巨献:OpenAI携手美国国家实验室,AI与生物科学共创未来新篇章
近日消息,人工智能领域的领头羊OpenAI与美国顶尖科研机构洛斯阿拉莫斯国家实验室(LANL)宣布了一项重大合作,这一联合举动无疑在科学界掀起了巨大的波澜。双方的合作目标直指生物科学的未来,旨在探索和推动该领域内AI技术的应用边界,预示着一场科研领域的深刻变革即将上演。
这次合作的目的简单说,就是要让AI在实验室里更安全、更酷炫地帮助科学家们。他们要研究的,就是如何让那些能看图、能听声的高级AI模型,比如GPT-4,安全地在实验室里发挥它们的超能力,推动生物科学研究。
这事儿还和白宫的一项行政命令挺搭调,就是那个关于如何安全使用AI的命令。美国能源部的国家实验室也得评估这些AI模型的本事,特别是在生物应用上的潜力。
合作的一部分就是搞个评估研究。不管是实验室新手还是老鸟,都得在实验室里完成一些标准任务。这些任务就像是更复杂问题的“替身”,而这些问题可能涉及到一些敏感的双重用途问题。
OpenAI的CTO Mira Murati说这次合作是他们使命的“自然进化”,就是要在推进科学研究的同时,理解和降低风险。OpenAI希望这能帮他们“为科学领域的AI安全性和有效性树立新标杆”。
当然,也有人担心,AI在生物科学领域的研究,特别是和生物威胁相关的,会不会被滥用来搞生物武器。但OpenAI已经表态了,他们的AI技术绝对不能用来造成伤害,包括开发武器。
洛斯阿拉莫斯国家实验室成立于1943年,最初是作为曼哈顿计划的一部分秘密开发第一颗原子弹的设施,如今已成为美国领先的国家实验室之一,以其核武器研究而闻名。
OpenAI架构大调整,原AI安全负责人转战推理研究新岗位
近日消息,OpenAI最近公布了一项重要的组织结构调整决定,其CEO山姆·阿尔特曼通过社交媒体平台X宣布,原人工智能安全领域的负责人亚历山大·马德里已转岗至一个新职位,该职位着重于推进人工智能推理领域的发展,这标志着公司在AI研究方向上的又一战略调整。
阿尔特曼在推文中对马德里的工作表示肯定,称其"正在从事一个新的、非常重要的研究项目"。这一调动不仅体现了公司对马德里能力的认可,也凸显了OpenAI对人工智能推理领域研究的重视。
在马德里调任期间,OpenAI高管华金·基诺内罗·坎德拉(Joaquin Quinonero Candela)和莉莉安·翁(Lilian Weng)将共同接管Preparedness团队。该团队主要负责识别前沿模型的新风险,并进行安全评估,以降低人工智能可能带来的"灾难性风险"。
值得注意的是,尽管马德里的工作重心发生了转移,但OpenAI官方表示,他仍将继续参与核心的人工智能安全工作。马德里不仅在OpenAI担任要职,还是麻省理工学院可部署机器学习中心的主任,以及麻省理工学院人工智能政策论坛的教员联合负责人。他丰富的经验和专业知识预计将为OpenAI的人工智能推理研究带来新的突破。
此次重组反映了OpenAI在保持AI安全研究的同时,也在积极推进人工智能推理能力的发展。业内人士普遍认为,这一战略调整将有助于OpenAI在竞争激烈的人工智能领域保持领先地位。
OpenAI革新开发者体验:Playground集成文本转语音API
近日消息,OpenAI宣布了一项重要更新,将文本转语音(TTS)API正式整合至其开发者Playground平台。这一举措极大地方便了开发者,使得他们能够在实验和开发阶段直接体验和测试语音合成效果,而无需复杂的设置过程。
更智能的是,这个API能够自动识别文本的语言,并匹配相应的语音,省去了选择语言和国家版本的麻烦。
这项服务不仅简化了开发流程,而且提供了高质量的语音合成技术。OpenAI的文本转语音功能能够将书面文本转换成听起来非常自然的口述音频,为创造沉浸式和交互式用户体验提供了无限可能。
OpenAI 文本转语音声音包含两种模型变体,以满足不同场景下的需求:
Neural:这个模型变体专为那些需要最低延迟的实时用例进行了优化,虽然在质量上可能略逊于NeuralHD,但对于需要快速响应的应用场景来说,它是理想的选择。
NeuralHD:正如其名,这个模型变体专注于提供最高质量的语音输出。如果你的应用追求最佳音质,NeuralHD无疑是最佳选择。
总的来说,OpenAI的文本转语音API为开发者提供了一个强大而灵活的工具,无论是在实时通信还是高质量内容制作方面,都能够满足开发者的需求。这一进步再次证明了AI技术在改善和提升人们日常生活与工作体验方面的巨大潜力。
OpenAI遭遇SEC审查风波:被指禁限员工报告安全风险,美国证监会介入调查
近日消息,OpenAI再次陷入争议漩涡,因涉嫌利用限制性保密协议(NDA)来抑制员工对公司潜在问题的公开讨论而受到广泛审视。其中指控OpenAI要求员工签署所谓的“非法限制性”保密协议,这种做法被认为阻止了员工向外界揭示公司技术可能带来的风险与危害。
该举报信指控 OpenAI 违反了美国证券交易委员会的规定,该规定旨在保护员工向联邦当局举报其疑虑的权利并防止报复行为。此前,举报人已于 6 月份正式向美国证券交易委员会提交了投诉。
举报信中要求美国证券交易委员会“采取迅速果断的措施”来执行他们认为 OpenAI 已经违反的规定。涉嫌的违规行为包括要求员工签署协议,“该协议未豁免向美国证券交易委员会披露证券违规行为”,以及要求员工在向当局披露机密信息之前获得公司的同意。举报信还指出,OpenAI 的协议要求员工“放弃国会为鼓励举报和为举报人提供经济援助而设立的补偿金”。
OpenAI 发言人 Hannah Wong 在一份声明中表示,“我们的举报人政策保护员工进行合法披露的权利”,并补充说公司已经对其离职文件进行了“重要修改”,以取消保密协议中的不诋毁条款。OpenAI 此前曾表示正在修改这些协议,此前该公司因威胁扣回离职员工的既得权益以迫使他们签署离职协议而受到指责。
据报道,美国证券交易委员会已经对该投诉做出了回应,但尚未公布任何有关其将采取或不采取的行动的细节。但举报人表示,即使 OpenAI 在其非法合同被公开披露后进行改革,执法仍然是最重要的。“这不是为了攻击 OpenAI 或阻碍人工智能技术的发展,而是为了向人工智能领域的其他参与者以及整个科技行业传递一个信息,即侵犯员工或投资者举报不当行为的权利的行为将不会被容忍。”
网络通讯
42.70MB
媒体音乐
34.24MB
时尚购物
34.09MB
金融理财
46.43MB
小说阅读
69.30MB
成长教育
111.39MB
住宿驿站
27.77MB
成长教育
41.54MB
摄影美学
41.66MB
棋牌扑克
211.83MB
角色扮演
268.20MB
休闲益智
45.91MB
棋牌扑克
145.30MB
休闲益智
73.84MB
角色扮演
141.71MB
传奇三国
201.42MB
棋牌扑克
85.64MB
战争塔防
68.28MB