NVIDIA 与 Hugging Face 将连接数百万开发者与生成式 AI 超级计算
2023-08-09
11:39:14
来源: 互联网
点击
NVIDIA 与 Hugging Face 宣布建立合作伙伴关系,为数百万开发者提供生成式 AI 超级计算服务,帮助他们构建大语言模型(LLM)和其他高级 AI 应用。

此次合作将使开发者能够使用 Hugging Face 平台内的 NVIDIA DGX™ Cloud AI 超级计算为高级 AI 模型进行训练及调优,借助为智能聊天机器人、搜索、摘要等特定行业应用的业务数据定制的大语言模型(LLM),推动生成式 AI 在各个行业中的应用。
NVIDIA 创始人兼首席执行官黄仁勋表示:“研究人员和开发者是正在改变每个行业的生成式 AI 的核心力量。Hugging Face 与 NVIDIA 正在将全球最大的 AI 社区与 NVIDIA 在全球领先云环境中的 AI 计算平台相连接。通过双方的合作,Hugging Face 社区用户只需要点击一下鼠标,就可以使用 NVIDIA AI 计算。”
作为合作的一部分,Hugging Face 将提供一项名为“训练集群即服务(Training Cluster as a Service)”的新服务,用以简化企业创建新的自定义生成式 AI 模型的过程。该服务由 NVIDIA DGX Cloud 提供支持,将在未来几个月内推出。
Hugging Face 联合创始人兼首席执行官 Clément Delangue 表示:“世界各地的人们正在利用生成式 AI 工具建立新的联系,进行新的探索,而我们仍处于这一技术转型的早期阶段。双方的合作将为 Hugging Face 带来 NVIDIA 最先进的 AI 超级计算,使企业能够通过开源并以他们需要的速度将 AI 的命运牢牢掌握在自己手中,推动未来发展。”
在Hugging Face 中大幅增强 LLM 定制和训练功能
Hugging Face 平台让开发者能够利用开源资源构建、训练和部署最先进的 AI 模型。目前有超过 15,000 家企业机构正在使用 Hugging Face,社区共享了超过 25 万个模型和 5 万个数据集。
DGX Cloud 与 Hugging Face 的集成将实现对 NVIDIA 多节点 AI 超级计算平台的一键式访问。通过 DGX Cloud,Hugging Face 用户将能够连接到 NVIDIA AI 超级计算,提供利用独家数据快速训练和调整基础模型所需的软件和基础架构,推动新一轮企业大语言模型(LLM)开发浪潮。借助由 DGX Cloud 提供支持的训练集群即服务,企业将能够利用其在 Hugging Face 上的独家数据,以前所未有的速度创建出独一无二的高效模型。
DGX Cloud 为大规模模型加速开发和定制
每个 DGX Cloud 实例均配备 8 颗 NVIDIA H100 或 A100 80GB Tensor Core GPU,每个节点的 GPU 总内存为 640GB。NVIDIA Networking 所提供的高性能、低延迟结构确保工作负载能够在互联系统集群中进行扩展,从而满足高级 AI 工作负载的性能要求。
DGX Cloud 还提供 NVIDIA 专家支持,可帮助客户优化模型并快速解决开发难题。
DGX Cloud 基础设施由领先的 NVIDIA 云服务提供商合作伙伴托管。
供应情况
与 Hugging Face 集成的 NVIDIA DGX Cloud 预计将在未来几个月内推出。
请点击观看黄仁勋的 SIGGRAPH 主题演讲,了解有关 NVIDIA DGX Cloud 的更多信息。
关于 Hugging Face
Hugging Face 是机器学习(ML)社区的协作平台。
Hugging Face Hub 是一个任何人都可以分享、探索、发现和试验开源 ML 的中心。HF 帮助下一代 ML 工程师、科学家和终端用户学习、协作并分享他们的工作成果,共同创造一个开放、道德的 AI 未来。
凭借快速发展的社区、一些最常用的开源 ML 库和工具,以及一支探索技术前沿的优秀科学团队,Hugging Face 正处于 AI 革命的核心。

此次合作将使开发者能够使用 Hugging Face 平台内的 NVIDIA DGX™ Cloud AI 超级计算为高级 AI 模型进行训练及调优,借助为智能聊天机器人、搜索、摘要等特定行业应用的业务数据定制的大语言模型(LLM),推动生成式 AI 在各个行业中的应用。
NVIDIA 创始人兼首席执行官黄仁勋表示:“研究人员和开发者是正在改变每个行业的生成式 AI 的核心力量。Hugging Face 与 NVIDIA 正在将全球最大的 AI 社区与 NVIDIA 在全球领先云环境中的 AI 计算平台相连接。通过双方的合作,Hugging Face 社区用户只需要点击一下鼠标,就可以使用 NVIDIA AI 计算。”
作为合作的一部分,Hugging Face 将提供一项名为“训练集群即服务(Training Cluster as a Service)”的新服务,用以简化企业创建新的自定义生成式 AI 模型的过程。该服务由 NVIDIA DGX Cloud 提供支持,将在未来几个月内推出。
Hugging Face 联合创始人兼首席执行官 Clément Delangue 表示:“世界各地的人们正在利用生成式 AI 工具建立新的联系,进行新的探索,而我们仍处于这一技术转型的早期阶段。双方的合作将为 Hugging Face 带来 NVIDIA 最先进的 AI 超级计算,使企业能够通过开源并以他们需要的速度将 AI 的命运牢牢掌握在自己手中,推动未来发展。”
在Hugging Face 中大幅增强 LLM 定制和训练功能
Hugging Face 平台让开发者能够利用开源资源构建、训练和部署最先进的 AI 模型。目前有超过 15,000 家企业机构正在使用 Hugging Face,社区共享了超过 25 万个模型和 5 万个数据集。
DGX Cloud 与 Hugging Face 的集成将实现对 NVIDIA 多节点 AI 超级计算平台的一键式访问。通过 DGX Cloud,Hugging Face 用户将能够连接到 NVIDIA AI 超级计算,提供利用独家数据快速训练和调整基础模型所需的软件和基础架构,推动新一轮企业大语言模型(LLM)开发浪潮。借助由 DGX Cloud 提供支持的训练集群即服务,企业将能够利用其在 Hugging Face 上的独家数据,以前所未有的速度创建出独一无二的高效模型。
DGX Cloud 为大规模模型加速开发和定制
每个 DGX Cloud 实例均配备 8 颗 NVIDIA H100 或 A100 80GB Tensor Core GPU,每个节点的 GPU 总内存为 640GB。NVIDIA Networking 所提供的高性能、低延迟结构确保工作负载能够在互联系统集群中进行扩展,从而满足高级 AI 工作负载的性能要求。
DGX Cloud 还提供 NVIDIA 专家支持,可帮助客户优化模型并快速解决开发难题。
DGX Cloud 基础设施由领先的 NVIDIA 云服务提供商合作伙伴托管。
供应情况
与 Hugging Face 集成的 NVIDIA DGX Cloud 预计将在未来几个月内推出。
请点击观看黄仁勋的 SIGGRAPH 主题演讲,了解有关 NVIDIA DGX Cloud 的更多信息。
关于 Hugging Face
Hugging Face 是机器学习(ML)社区的协作平台。
Hugging Face Hub 是一个任何人都可以分享、探索、发现和试验开源 ML 的中心。HF 帮助下一代 ML 工程师、科学家和终端用户学习、协作并分享他们的工作成果,共同创造一个开放、道德的 AI 未来。
凭借快速发展的社区、一些最常用的开源 ML 库和工具,以及一支探索技术前沿的优秀科学团队,Hugging Face 正处于 AI 革命的核心。
责任编辑:sophie
相关文章
-
- 半导体行业观察
-
- 摩尔芯闻
最新新闻
- Pickering 可切换高达 1kV的新型高压 SMD 舌簧继电器
- 英国Pickering公司推出新款PXIe单槽嵌入式控制器,具有全球首发面向未来的PCIe Gen 4能力
- 天数智芯支持智源研究院首次完成大模型异构算力混合训练,突破异构算力束缚
- 银牛3D视觉+AI单芯片解决方案荣获高工金球奖
- 英国Pickering公司推出新款21槽全混合PXIe机箱,提供更高的信号密度、功率和制冷能力。
- Nexperia首款SiC MOSFET提高了工业电源开关应用的安全性、稳健性和可靠性标准
- 涂鸦持续打造IoT新业态,TUYA开发者大会(苏州)加速制造业升级
- 长鑫存储发布首款国产LPDDR5 携产业伙伴全面推进市场化进程
热门文章 本日 七天 本月
- 1 专访传智驿芯首席战略官时昕,NoC技术解决多核互连问题
- 2 Nexperia首款SiC MOSFET提高了工业电源开关应用的安全性、稳健性和可靠性标准
- 3 银牛微电子完成超5亿A轮融资,专注研发3D空间计算芯片和产品解决方案
- 4 全球边缘AI芯片市场研究报告
- 5 英飞凌:顶部散热封装技术是功率半导体发展的必经之路