亲,欢迎光临88小说网!
错缺断章、加书:站内短信
后台有人,会尽快回复!
88小说网 > 都市言情 > 重生之AI教父 > 第202章 千张核弹点击就送
  • 主题模式:

  • 字体大小:

    -

    18

    +
  • 恢复默认

2023年,英伟达市值突破万亿,每股破400美金。

但此时此刻,英伟达的股价只能说是平平无奇。

从2000年左右到2014年中,英伟达的股价始终在4到5美元左右徘徊,市值几十亿美金。

在这一点上,孟繁岐今天见到的两位大佬经历还挺类似的,都是厚积薄发,突然开始起飞,然后一举突破万亿。

此前四月份的时候,谷歌和白度本年第一季度的分红已经到账。孟繁岐分出了相当一部分金额,分批次购入了英伟达大约百分0.5的股份。

百分之0.5看上去很少,可对于英伟达这样已经市值几十亿的公司来说,想购入股权就远远不如去年年底买入米忽悠那么轻松随意了。

百分之十几二十多的股权,张口就要,那是非常早期时候,天使轮时期的事情。

英伟达已经上市了十几年,就连创始人黄仁勋目前所拥有的股份,都已经被稀释得很少了。

此刻坐在孟繁岐两旁的黄仁勋和马斯克,就属于完全不同风格路线的两位创始人。

黄仁勋最初启动创业的资金只有四万美元,创业道路走得甚是艰难。早期由于一次技术路线的选择错误,险些早早就倒闭。

还是靠着黄仁勋三寸不烂之舌,硬是说服了日本SEGA没有退出合作。

在这样的经济情况之下,作为创始人的黄仁勋,最大的个人股权持有者,也仅持有大约百分之3.5的股权。

07年的时候,黄仁勋坚持cUdA显卡加速技术,但这个方法成本很高,让英伟达的利润部分遭受了很大的冲击,市值仅能维持在十亿美金左右,是后来的千分之一。

股东们对cUdA的态度非常消极,并希望专注盈利能力,但黄仁勋还是顶住了压力。

相比之下,马斯克在创业的时候,资金就富裕多了。

可即便如此,他最终在特斯拉持有的股份,也仅百分之20左右。

“我在特斯拉和英伟达持有的股份不必太多,一两年内尽量增持到百分之2左右就好了,如果真的遇到了很大的阻力,也不必硬抗。”

百分之2到3左右的股份,在两家公司开始发力之后,就已经足以为孟繁岐带来500多亿美金的身家。

这个数字,都够排进世界富豪前25名了。

更不用说孟繁岐还会有其他产业,这个数字将会到达一个惊人的地步。

“非常感谢你的慷慨,谷歌大脑团队至少会需要两三千张泰坦Z。至于我个人,其实也有自己打造一个超算中心的想法。”

孟繁岐目测,黄仁勋直接掏出大几千张泰坦Z应该是很困难的。

人工智能这个GpU市场才刚刚开始,任何理智的企业家都不会贸然生产太多,尤其在公司的现金流相对紧张的时候。

“不过我个人的超算打造,可能会等到明年的这个时候,我想先跟黄老板预订一两千台下一代显卡。”

自己的超算肯定是要打造的,但却没必要那么着急,前期的工作还是白嫖谷歌就好。

可以提前预订一批,明年此时早早做一些基建准备,拿到显卡后就可以迅速启动。

“哦?你有意打造自己的超级计算机,那为什么不现在出手?”黄仁勋感觉有些奇怪,孟繁岐属于技术人员中很会敛财分成的。

黄仁勋觉得,他那点钱虽然办公司不大够,但搞超算是绰绰有余了。

虽然说,他承诺每六个月升级一代,但算力这种东西,难道还等得了?早买早享受啊!

“现在英伟达的麦克斯韦架构,还没法满足我计划中的需求,两位也知道,我不比那些科技公司,家大业大。让我打造一个上千显卡的超算,我肯定还是需要精打细算一下的。”

“你对显卡架构还有了解和研究?”马斯克感觉有些惊奇,硬件方面的东西要比人工智能软件算法来得更加细分,也更加专业多了。

AI的算法思想,可能不同研究相互之间还能触类旁通,硬件架构若是不下苦功研究,肯定是搞不明白人家设计原理的。

“我已经下定决心,在之后的架构设计上,往人工智能和深度学习的方向倾斜,以求更好的支持。”

黄仁勋听到孟繁岐对英伟达的架构有想法,喜出望外。

他此前听马斯克说孟繁岐针对tegra做了算子优化的时候,就想聊这方面的事情了。

但黄仁勋想的是,孟繁岐可以说一说自己在软件方面的理解,比如他认为怎样的算子操作会是今后的主流。

然后自己从中总结归纳,看看能不能找到思路去优化以后的显卡硬件架构。

却没有想到,孟繁岐直接帮他跳过了中间的那么多步骤,直接一步到位,直捣黄龙了。

“你觉得现在麦克斯韦架构,有什么不足之处?”

黄仁勋刚刚才在台上发布了麦克斯韦架构,此时听到有人表示这个架构还有很多不足,他一点也不恼怒,不觉得自己的产品受到了侮辱,反而十分开心。

孟繁岐看到他的反应,也不意外。按孟繁岐对黄仁勋的了解,他可能是硅谷大公司老板里对新技术细节最了解最追求的了,几十年来,仍旧管理第一线的工程师,布置任务并听取汇报。

即便后来如日中天,他也从来没有松懈过,就更不提现在了。

“下一代的新架构,当会加很多的cUdA核心,这种常规的更新不提,我觉得很重要的一点是,良好的Fp16数据处理能力。”

Fp32是单精度浮点数,Fp16指半精度浮点数。

后者相比前者只使用一半的比特去表达浮点数字,因此速度上是Fp32的两倍,显存的需求上也减少了一半。

只不过精度上会略有损失,而根据后来的经验,这种损失是比较小,而且完全可以接受的。

“你是说,今后人工智能的训练和部署,将会很快往Fp16,甚至更小的数字类型上转移?”

黄仁勋品了一下,这是个相当重要的信息,早准备几个月,最后达成的效果可能会天差地别。

“除了Fp16还有另一种数字类型我比较推荐,这个过两天我专门写两页发给你。”

Fp16后来在大模型时代出现了一些比较烦人的数值问题,bF16作为一种新的格式逐渐流行了起来。

它和Fp16的速度和显存占用一致,只是用来表达整数和小数的比特数量不一。

“另一方面,就是多显卡的交互问题。随着单GpU的计算能力越来越难以应对深度学习对算力的需求,人们自然而然会开始用多个GpU去解决问题。”

“从单机多GpU到多机多GpU,这当中对GpU互连的带宽的需求也越来越多。采用Infiniband和100Gb Ethernet去通信,在单机内,特别是从单机单卡到达单机8卡以后,pcIe的带宽往往就成为了瓶颈。”

“pcIe是单通道两对差分线,一对发送一对接收。英伟达完全可以考虑用8对或者更多差分线组成一根子链,一对子链中一根发送数据一根接收数据,组成一根链接。”

“毕竟即便算力再强,由于显存的限制,我们仍旧需要使用多个GpU完成一个任务,这种情况下,数据传输互通的能力至关重要。”

“你很确定规模庞大的模型会成为市场的主流吗?”

孟繁岐说得这两点,黄仁勋基本都是认可的,一定程度上他也已经有了模糊的想法往这些方向发展。

孟繁岐只是非常清晰地将内容表达了出来,让他如拨云见日,茅塞顿开。

可对于模型的大小判断上,他有些不大确定。

目前业界对规模特别庞大的模型,还是比较不看好的。

一是因为孟繁岐当初的dreamNet,千层并没有比百层有更好的效果,模型大小增加了十倍,可在千分类上的性能却相差无几。这就显得大模型有些愚蠢。

二是因为孟繁岐数次做出了骚操作,计算量动不动减少快十倍,参数量也是大大削减,结果对性能影响却很小。

如此一来,在这种技术的环境和趋势下,的确很难有人会料到超大模型会有那么魔幻的性能突破。

“只要这批显卡到了谷歌,明年此时,我一定能让大模型成为主流。”

孟繁岐信心满满地说道。

“你若是真的能做到,明年的新卡,我直接送伱一千张。”

黄仁勋不是乱说,也不是不相信这件事。

而是倘若孟繁岐把大模型做成了主流,那这方面显卡需求量,可以说十倍百倍不止了。

和庞大的利润相比,送个一两千张,根本不叫事。