体育游戏app平台"摩尔定律"的发展速率有所放缓-开云 (集团) 官方网站 Kaiyun- 登录入口
IT 之家 1 月 8 日音讯,在拉斯维加斯举行的海外花消电子展 ( CES ) 上,英伟达 CEO 黄仁勋在一次面向万东说念主的主题演讲后经受 TechCrunch 采访时暴露体育游戏app平台,其公司 AI 芯片的性能栽植速率已远超数十年来鼓励策画机时刻跨越的"摩尔定律"设定的范例。

"咱们的系统跨越速率远超摩尔定律,"黄仁勋周二暴露。
据 IT 之家了解,"摩尔定律"由英特尔鸠合首创东说念主戈登・摩尔于 1965 年建议,预测策画机芯片上的晶体管数目将大略每年翻一番,从而使芯片性能也大略翻一番。这一预测基本终显著,并在几十年里鼓励了策画机性能的快速栽植和本钱的急剧着落。
连年来,"摩尔定律"的发展速率有所放缓。有关词,黄仁勋宣称,英伟达的 AI 芯片正以本身的加快节拍发展;该公司暴露,其最新的数据中心超等芯片在运行 AI 推理责任负载方面的速率比上一代居品快 30 多倍。
"咱们不错同期构建架构、芯片、系统、库和算法,"黄仁勋说,"如若这么作念,咱们就能比摩尔定律更快地发展,因为咱们不错在所巧合刻栈中进行鼎新。"
英伟达 CEO 发表这一斗胆言论之际,正好很多东说念主质疑 AI 发展是否停滞之时。包括谷歌、OpenAI 和 Anthropic 在内的最初 AI 践诺室齐使用英伟达的 AI 芯片来考研和运行其 AI 模子,而这些芯片的跨越可能会转机为 AI 模子能力的进一步栽植。
这并非黄仁勋初次暴露英伟达正在高出"摩尔定律"。早在客岁 11 月的一次播客节目中,黄仁勋就曾建议 AI 全国正以"超摩尔定律"的速率发展。
黄仁勋还指摘了" AI 阐扬放缓"的不雅点。他以为,现时 AI 范围存在三大彭胀定律:预考研(pre-training)、后考研(post-training)和推理时策画(test-time compute)。预考研阶段,AI 模子从海量数据中学习形态;后考研阶段,通过东说念主类反应等门径微调模子;推理时策画则让模子在回复每个问题后有更多时候"想考"。黄仁勋强调,跟着策画能力的栽植,AI 推理本钱将冉冉镌汰,雷同于摩尔定律鼓励策画本钱着落的历史进度。
英伟达的 H100 芯片曾是科技公司考研 AI 模子的首选,但当今科技公司愈加关怀推理,一些东说念主开动质疑英伟达腾贵的芯片是否还能保捏最初地位。
面前,使用测试时策画的 AI 模子运行本钱甘愿。有东说念主记挂 OpenAI 的 o3 模子(使用了范围化的测试时策画)对大多数东说念主来说过于腾贵。举例,OpenAI 使用 o3 在一项通用智能测试中达到东说念主类水平的分数,每项任务破耗近 20 好意思元。而 ChatGPT Plus 的订阅用度为每月 20 好意思元。
在周一的主题演讲中,黄仁勋像举着盾牌不异展示了英伟达最新的数据中心超等芯片 GB200 NVL72。这款芯片在运行 AI 推理责任负载方面的速率比英伟达之前最畅销的芯片 H100 快 30 到 40 倍。黄仁勋暴露,这种性能的飞跃意味着像 OpenAI 的 o3 这么在推理阶段使用多半策画的 AI 推理模子,其本钱将跟着时候的推移而镌汰。
黄仁勋暴露,他总体上专注于创造性能更强的芯片,而性能更强的芯片从长久来看会带来更低的价钱。"无论是在性能依然本钱承受能力方面,测试时策画的告成处分决议是提高咱们的策画能力,"黄仁勋暴露。他指出,从长久来看,AI 推理模子不错用于为 AI 模子的预考研和后考研创建更好的数据。
在昔日一年里,咱们如实看到了 AI 模子的价钱大幅着落,部分原因是英伟达等硬件公司的策画时刻冲突。黄仁勋暴露,他瞻望这种趋势将跟着 AI 推理模子的发展而无间下去。
黄仁勋宣称他今天的 AI 芯片比 10 年前的居品好 1000 倍。这是一个比"摩尔定律"设定的范例快得多的速率体育游戏app平台,黄仁勋暴露他以为这种速率莫得罢手的迹象。
-
开yun体育网患者可能无法明白地言语-开云 (集团) 官方网站 Kaiyun- 登录入口 2026-03-10
