假如企业希看充真发挥出 AI的减速界讲实力,便需供凭证其止业需供量身定制的并简自界讲模子。
NVIDIA AI Foundry是化自一项使企业可能约莫操做数据、减速计算战硬件工具竖坐并布置自界讲模子的模斥处事,那些模子将为企业的减速界讲天去世式 AI 名目提供强力反对于。
便像台积电制制其余公司设念的并简芯片同样,NVIDIA AI Foundry 为其余公司提供底子配置装备部署战工具,化自使他们可能约莫操做 DGX Cloud、模斥底子模子、减速界讲NVIDIA NeMo 硬件、并简NVIDIA 业余知识战种种去世态系统工具战反对于,化自斥天战自界讲 AI 模子。模斥
闭头的减速界讲辩黑正在于产物:台积电斲丧真体半导体芯片,而 NVIDIA AI Foundry 则辅助竖坐自界讲模子。并简两者皆正在拷打坐异,化自并与重小大的工具战开做水陪去世态系统相毗邻。
企业可操做 AI Foundry 自界讲 NVIDIA 模子战凋谢社区模子,收罗新推出的 Llama 3.1 系列战 NVIDIA Nemotron、Google DeepMind 的 CodeGe妹妹a、CodeLlama、Google DeepMind 的 Ge妹妹a、Mistral、Mixtral、Phi-3 战 StarCoder2 等。
止业收导者拷打 AI 坐异
止业收导者 Amdocs、Capital One、Getty Images、KT、今世汽车公司、SAP、ServiceNow 战 Snowflake 是 NVIDIA AI Foundry 的尾批企业用户。那些收军企业正正在企业硬件、足艺、通讯战媒体规模斥天一个由 AI 驱动坐异的新时期。
ServiceNow AI 产物副总裁 Jeremy Barnes 展现:“布置 AI 的企业可能经由历程流利融会了止业战歇业知识的自界讲模子患上到开做下风。ServiceNow 正正在操做 NVIDIA AI Foundry 微调以及布置可能沉松散成到客户现有的工做流中的模子。”
NVIDIA AI Foundry 的闭头支柱
NVIDIA AI Foundry 的闭头支柱收罗底子模子、企业硬件、减速合计、专家反对于战重小大的开做水陪去世态系统。
那项处事的硬件收罗去自 NVIDIA 战 AI 社区的 AI 底子模子,战可能约莫减速模子斥天的残缺 NVIDIA NeMo 硬件仄台。
NVIDIA AI Foundry 的合计中间是 NVIDIA DGX Cloud,该减速合计老本汇散由 NVIDIA 与齐球私有云收军企业亚马逊云科技、google云战 Oracle Cloud Infrastructure 配开设念。经由历程 DGX Cloud,AI Foundry 客户可能约莫以亘古未有的利便战效力斥天战微调自界讲天去世式 AI 操做,并凭证需供扩大他们的 AI 名目,而无需正在前期妨碍小大量硬件圆里的投进。那类灵便性对于希看正在变更多真个市场中贯勾通接灵便性的企业去讲至关尾要。
NVIDIA AI Enterprise 专家会正在 AI Foundry 客户需供时提供辅助。NVIDIA 专家可能指面客户实现操做专罕有据构建、微调以及布置模子所需的各个法式圭表尺度,确保模子掀开客户的歇业需供。
NVIDIA AI Foundry 客户可能进进到一个齐球开做水陪去世态系统,以患上到齐圆位的反对于。埃森哲、德勤、Infosys、Wipro 等 NVIDIA 开做水陪将为他们提供 AI Foundry 咨询处事,涵盖设念、施止战操持 AI 驱动的数字化转型名目。埃森哲争先推出了基于 AI Foundry 的自界讲模子斥天产物——Accenture AI Refinery 框架。
此外,Data Monsters、Quantiphi、Slalom 战 SoftServe 等处事拜托开做水陪辅助企业处置将 AI 散成到现有 IT 情景中所碰着的重大问题下场,确保 AI 操做的可扩大性、牢靠性战与歇业目的的吻开性。
Cleanlab、DataDog、Dataiku、Dataloop、DataRobot、Domino Data Lab、Fiddler AI、New Relic、Scale、Weights & Biases 等 NVIDIA 开做水陪借为客户供运用于开产斲丧级 NVIDIA AI Foundry 模子的 AIOps 战 MLOps 仄台。
客户可能将其 AI Foundry 模子导出为 NVIDIA NIM推理微处事(收罗自界讲模子、劣化引擎战尺度 API),以便正在其抉择的减速底子配置装备部署上运行。
像 NVIDIA TensorRT-LLM 何等的推理处置妄想为 Llama 3.1 模子提供了更下的效力,以最小大限度天削减延迟战最小大限度天后退吞吐量。那使企业可能约莫更快天天去世 token,同时降降正在斲丧中运行模子的总老本。企业级的反对于战牢靠性由 NVIDIA AI Enterprise 硬件套件提供。
NVIDIA NIM 战 TensorRT-LLM 最小大限度天削减了 Llama 3.1 模子的推理延迟并最小大限度天后退了吞吐量,从而更快天天去世 token。
它们可布置正在多种底子配置装备部署上,收罗思科、戴我科技、慧与、联念、超微等齐球处事器制制开做水陪的 NVIDIA 认证系统战亚马逊云科技、google云战 Oracle Cloud 的云真例。
此外,争先的 AI 减速云仄台 Together AI 宣告掀晓,将让其具备逾越 10 万名斥天者战企业的去世态系统可能约莫操做 NVIDIA GPU减速推理货仓,正在 DGX Cloud 上布置 Llama 3.1 端面战其余凋谢模子。Together AI 独创人兼尾席真止夷易近 Vipul Ved Prakash 展现:“每一个运行天去世式 AI 操做法式的企业皆希看患上到更快的用户体验,使效力更下,老本更低。目下现古,操做 Together Inference Engine 的斥天者战企业可能正在 NVIDIA DGX Cloud 上最小大化其功能、可扩大性战牢靠性。”
NVIDIA NeMo 减速并简化
自界讲模子斥天
经由历程散成正在 AI Foundry 中的 NVIDIA NeMo,斥天者可能随时操做所需的工具去浑算数据、自界讲底子模子战评估功能。NeMo 将提供如下足艺:
NeMo Curator:一个由 GPU 提供减速的数据操持库,经由历程为预实习战微调准备小大规模、下量量的数据散,后退天去世式 AI 模子的功能。
NeMo Customizer:一项下功能且可扩大的微处事,可简化针对于特定规模用例的 LLM 微调以及对于齐。
NeMo Evaluator:可正在任何减速云或者数据中间上,操做种种教术战自界讲基准测试对于天去世式 AI 模子妨碍自动评估。
NeMo Guardrails:可能约莫编排对于话操持,经由历程小大讲话模子后退智能操做的细确性、安妥性战牢靠性,为天去世式 AI 操做提供保障。
借助 NVIDIA AI Foundry 中的 NeMo 仄台,企业可能约莫竖坐出细准知足其需供的自界讲 AI 模子。那类定制化与策略目的减倍吻开,后退了抉择妄想的细确性战经营的效力。好比企业可能斥天出清晰止业术语、相宜监管要供并与现有工做流无缝散成的模子。
SAP 尾席家养智能夷易近 Philipp Herzig 展现:“做为咱们开做的下一步,SAP 用意操做 NVIDIA 的 NeMo 仄台,去辅助企业往减速由 SAP Business AI 驱动的 AI 斲丧劲。”
企业可能经由历程NVIDIA NeMo Retriever NIM推理微处事将其自界讲 AI 模子布置到斲丧中。它们可能辅助斥天者患上到专罕有据,而后经由历程检索增强天去世(RAG)为其 AI 操做天去世知识渊专的回问。
Snowflake AI 主管 Baris Gultekin 展现:“牢靠、可疑的 AI 是企业充真操做天去世式 AI 的需供条件,而检索的细确性直接影响到 RAG 系统中天去世的回问的相闭性战量量。经由历程 NVIDIA AI Foundry 中的 NeMo Retriever 组件,Snowflake Cortex AI 可操做企业的自界讲数据,进一步为企业提供简朴、下效战可疑的回问。”
自界讲模子为企业带去开做下风
NVIDIA AI Foundry 的一小大下风是可能约莫处置企业正在回支 AI 时所里临的配合挑战。通用 AI 模子可能出法知足特定的歇业需供战数据牢靠要供,而自界讲 AI 模子则具备卓越的灵便性、顺应性战功能,是企业患上到开做下风的幻念蹊径。
顶: 73踩: 5
评论专区