你的位置:文爱社区 > h网色域 > hongkongdoll face 黄仁勋:我从不在乎阛阓份额,英伟达惟一方向是创造新阛阓

h网色域

hongkongdoll face 黄仁勋:我从不在乎阛阓份额,英伟达惟一方向是创造新阛阓

2024-10-25 09:45    点击次数:93

hongkongdoll face 黄仁勋:我从不在乎阛阓份额,英伟达惟一方向是创造新阛阓

"这是我听过的黄仁勋最佳的采访!"hongkongdoll face

英伟达 CEO 黄仁勋的一场炉边语言再次引起热议:

英伟达从来莫得一天辩论过阛阓份额。

咱们所筹商的只是:如何创造下一个东西?如何将往时需要一年才智完成的飞轮缩小到一个月?

濒临 Azure 和 AWS 等正在自主构建 ASIC 芯片的云筹划大客户,老黄打了个譬如:

公司受到鱼塘大小的戒指,惟一的方向是用遐想力扩大鱼塘。(指创造新阛阓)

天然了,除了说起英伟达,老黄还筹商了 AGI 的智能彭胀、机器学习的加快、推理与考试的迫切性……

天然时长感东说念主(近 1 个半小时),但一大波网友依然看完并交起了功课(运行卷了是吧!)

网友:学起来!学起来!

鉴于视频较长,量子位先平直给群众划要点了,老黄的主要不雅点包括(省流版):

"口袋里的 AI 助理"将很快以某种样式出现,尽管领先可能会不完好;

英伟达的竞争上风在于开荒了从 GPU、CPU、会聚到软件和库的全栈平台;

彭胀东说念主工智能的要点已从考试前转化到考试后和推理;

推理(inference)时筹划将手脚一个全新的智能彭胀向量;

改日推理的增长将弘远于考试的增长;

闭源和开源将共存,开源模子可能用于创建特定领域的运用尺度;

……

(以下为要点部分整理)

Q:对于个东说念主 AI 助理的发展远景,您合计咱们何时能在口袋里装上一个无所不知的 AI 助理?

A:很快就会以某种样式出现。这个助理一运行可能不够完好,但会跟着时期推移不停改良,这是技巧发展的势必规矩。

Q:当前 AI 领域的发展变化速率是否是您见过最快的?

A:是的hongkongdoll face,这是因为咱们再行发明了筹划。在往时10 年里,咱们将筹划的角落资本编造了10 万倍,而按照摩尔定律可能只可编造100 倍。

咱们通过以下花样结束了这小数:

引入加快筹划,将蓝本在 CPU 上末端不高的服务转化到 GPU 上

发明新的数值精度

开发新架构 ( 如张量中枢 )

汲取高速内存 ( HBM )

通过 MVLink 和 InfiniBand 结束系统彭胀

这种快速发展使咱们从东说念主工编程转向了机器学习,总共技巧栈齐在快速创新和越过。

Q:模子范围彭胀方面有哪些变化?

A:以前咱们主要关注预考试模子的彭胀(要点在模子大小和数据范围),这使得所需筹划智商每年增多 4 倍。

当今咱们看到后考试 ( post-training ) 和推理阶段也在彭胀。东说念主类的想维过程不可能是一次性完成的,而是需要快想维、慢想维、推理、反想、迭代和模拟等多个法式。

何况,以前东说念主们合计预考试难,推理节略,但当今齐很难了。

Q:与 3-4 年前比较,您合计 NVIDIA 今天的上风是更大如故更小?

A:骨子上更大了。往时东说念主们合计芯片筹算便是追求更多的 FLOPS 和性能方向,这种想法依然落后。

当今的枢纽在于总共机器学习系统的数据活水线 ( flywheel ) ,因为机器学习不单是是软件编程,而是触及总共数据处理经过。从一运行的数据管制就需要 AI 参与。数据的网罗、整理、考试前的准备等每个法式齐很复杂,需要多半处理服务。

动漫成人

Q:与 Intel 等公司比较,Nvidia 在芯片制造和筹算方面有什么不同的战略?

A:Intel 的上风在于制造和筹算更快的 x86 串行处理芯片,而 Nvidia 采取不同战略:

在并行处理中,不需要每个晶体管齐很出色

咱们更倾向于使用更多但较慢的晶体管,而不是更少但更快的晶体管

承诺有 10 倍数目、速率慢 20% 的晶体管,也不要数目少 10 倍、速率快 20% 的晶体管

Q:对于定制 ASIC ( 如 Meta 的推理加快器、亚马逊的 Trainium、Google 的 TPU ) 以及供应枯竭的情况,这些是否会调动与 NVIDIA 的和洽动态?

A:这些齐是在作念不同的事情。NVIDIA 力图于于为这个新的机器学习、生成式 AI 和智能 Agent 天下构建筹划平台。

在往时 60 年里,咱们再行发明了总共筹划技巧栈,从编程花样到处理器架构,从软件运用到东说念主工智能,每个层面齐发生了变革。咱们的方向是创建一个随地可用的筹划平台。

Q:NVIDIA 手脚一家公司的中枢主见是什么?

A:构建一个无处不在的架构平台。咱们不是在争夺阛阓份额,而是在创造阛阓。咱们专注于创新和惩处下一个问题,让技巧越过的速率更快。

Q:NVIDIA 对待竞争敌手和和洽伙伴的格调是什么?

A:咱们对竞争很泄露,但这不会调动咱们的责任。咱们向 AWS、Azure 等和洽伙伴提前共享阶梯图,保抓透明,即使他们在开发我方的芯片。对于开发者和 AI 初创公司,咱们提供 CUDA 手脚斡旋进口。

Q:对 OpenAI 的倡导如何?如何看待它的崛起?

A:  OpenAI 是咱们这个时间最迫切的公司之一。天然 AGI 的具体界说和时期点并不是最迫切的,但 AI 智商的发展阶梯图将会至极壮不雅。从生物学家到场划算计者,从游戏筹算师到制造工程师,AI 依然在革新各个领域的服务花样。

我至极赏玩 OpenAI 鼓动这一领域的速率和决心,并为不错资助下一代模子感到风景。

Q:您合计模子层是否正在走向商品化,以及这对模子公司的影响是什么?

A:模子层正在商品化,Llama 的出现使得构建模子变得愈加低廉。这将导致模子公司的整合,唯独那些领有经济引擎并约略抓续投资的公司才智活命。

Q:您如何看待 AI 模子的改日,以及模子与东说念主工智能之间的别离?

A:模子是东说念主工智能必不可少的构成部分,但东说念主工智能是一种智商,需要运用于不同的领域。咱们将看到模子层的发展,但更迫切的是东说念主工智能如何运用于多样不同的运用场景。

Q:您如何看待 X 公司,以及他们开荒大型超等集群的树立?

A:他们在19 天内(相似需要 3 年)建造了一个领有 100,000 个 GPU 的超等筹划机集群。这展示了咱们的平台的力量,以及咱们约略将总共生态系统集成在一说念的智商。

Q:是否定为分散式筹划和推理彭胀将会发展到更大范围?

A:是的,我对此至极关心和乐不雅。推理时筹划手脚一个全新的智能彭胀向量,与只是构建更大的模子截然有异。

Q:在东说念主工智能中,是否许多事情只可在运行时完成?

A:是的,许多智能服务不成先验地完成,许多事情需要在运行时完成。

Q:您如何看待东说念主工智能的安全性?

A:咱们必须构建安全的东说念主工智能,并为此需要与政府机构和洽。咱们依然在开荒许多系统来确保东说念主工智能的安全性,并需要确保东说念主工智能对东说念主类是成心的。

Q:你们公司高出 40% 的收入来自推理,推理的迫切性是否因为推理链而大大增多?

A:没错,推理链让推理的智商进步了十亿倍,这是咱们正在资格的工业鼎新。改日推理的增长将弘远于考试的增长。

Q:你们如何看待开源和闭源东说念主工智能模子的改日?

A:开源和闭源模子齐将存在,它们对于不同的行业和运用齐是必要的。开源模子有助于激活多个行业,而闭源模子则是经济模子创新的引擎。

对于上述这些,你怎么看?宽饶在辩论区留言筹商。

参考流畅:

[ 1 ] https://x.com/StartupArchive_/status/1848693280948818070

[ 2 ] https://www.youtube.com/watch?v=bUrCR4jQQg8hongkongdoll face



Powered by 文爱社区 @2013-2022 RSS地图 HTML地图

Copyright Powered by365建站 © 2013-2024