您当前的位置:中国IT创客网资讯正文

皮衣黄仁勋在线带货

时间:2019-12-19 11:00:56  阅读:6705+ 作者:责任编辑NO。谢兰花0258

如果李佳琦跨界带货GPU,那铁定不如黄仁勋。但现场的感觉又如同李佳琦的直播一般,一句 “The more you buy ,the more you save”像极了“OMG”,你能忍住不心动?

文︱亚亚君

图︱现场拍摄&NVIDIA

偌大的演讲大厅乌央央一片,塞下几千人,一眼望不见头,舞台角落放着两瓶矿泉水,一场大型年度“带货”大会即将开始。

NVIDIA GTC 2019大会今年参加人数多达6100人,几年来翻番的涨,大家带着对NVIDIA(英伟达)崇拜之情从各个城市赶来,汇聚一堂,当然也有不少和笔者一样,对本届GTC大会主角黄仁勋(英伟达CEO)更感兴趣。去年一句“快来买吧,超便宜的!”深深刻在脑海,今年一句 “The more you buy ,the more you save。”点嗨全场。

我猜所有人都在盘算,今年又要疯狂“推销”哪些产品?

灯光、音响……各单位注意,黄教主登场,Action!

苏州一夜之间陡降10℃,考验黄教主皮衣耐寒程度的时候到了。

二话不说,先秀成绩。“仅在去年,我们就发布了500多个SDK和库,其中既有全新内容,也有更新版本。为了更好的提高GPU性能,深度学习训练在3年内提高4倍,深度学习推理在1年内提高2倍。”

黄教主一面告诉我们摩尔定律快到头了,一面又表现自己硬件性能还在反规律提升。并表示,出色的芯片只是起点,因为软件优化成了大力丸,而NVIDIA的CUDA平台具有丰富的库、工具和应用程序。

此外,在会议介绍后的媒体采访中,黄教主表示:“制程虽然很重要,但不是最重要的。RTX芯片和光线追踪技术在12nm制程情况下,达到AMD 7nm制程GPU水平。”算法、软件、架构等全栈优化的组合拳果然威力惊人。

如今英伟达已经售出15亿块GPU。

英伟达专注于加速计算领域,致力于解决普通计算机无法解决的问题,在垂直市场中将GPU、深度专业相关知识、计算堆栈、算法和生态系统专业相关知识集于一体。立足一个架构,从游戏到汽车再到医疗健康。

上个月,英伟达公布2020财年 Q3财报,收入高达30.1亿美元,其中游戏业务就占到16.6亿美元。游戏撑起来了英伟达的半壁江山,GTC 2019的“带货”现场也是从游戏开始。

现场,黄仁勋宣布6款支持RTX的游戏,为《暗影火炬》《project X》《无限法则》《轩辕剑柒》《铃兰计划》《边境》,表明RTX技术的开发者数量飙升。

所谓光线追踪技术实际上的意思就是将光源产生的光线所产生的折射,反射等光线变化和对阴影产生的反应通过计算准确的反映到画面之中,为人们带来百分之百的光影效果。

此前,英伟达和微软还共同宣布《我的世界》将支持RTX。黄仁勋称,《我的世界》是由用户创造的世界,因此无法预烘焙GI(全局光照)和一般反射之类的灯光效果,而RTX可以实时妥善完成这些操作。

总结起来一个字,真,两个字,逼真。玩家在游戏里创造了“我的世界”,英伟达撒下一片光明。

当你还在沉浸在唯美画面的视频中时,黄仁勋端出一台笔记本——采用MAX-Q的超薄笔记本。今年年初的CES上,联想就秀了一把英伟达RTX 2080 Max-Q显卡的拯救者Y9000K。教主现场表示,Max-Q设计将超高GPU能效和总体系统优化集于一身,使功能强大的GPU用于轻薄的笔记本。

“中国游戏笔记本电脑发货量超过500万台,在5年内增加了4倍。GeForce RTX Max-Q笔记本电脑是增长速度最快的游戏平台。”好期待此时黄仁勋会说一句“OMG”,那样全球的游戏玩家就如同拜倒在李佳琦“OMG”声中的女粉们,欲罢不能。

此外,今天腾讯游戏和英伟达宣布了一项将电脑游戏带入云端的合作。资料显示,英伟达的GPU技术为腾讯游戏的START云游戏服务赋力,该服务已从今年初开始进入测试阶段。START使游戏玩家也可以随时随地,即使是在配置不足的设备上也能玩AAA游戏。腾讯游戏计划将扩展其云游戏产品,为数百万玩家提供与本地游戏设备一致的游戏体验。

英伟达和腾讯游戏还宣布成立一个游戏联合创新实验室。双方将共同探索AI在游戏、游戏引擎优化和新光照技术(包括光线追踪和光线烘焙)中的新应用。

让游戏逼真显然是不够的。

会上,黄仁勋宣布,瑞云云渲染平台将配备NVIDIA RTX GPU,首批5000片RTX GPU将在2020年上线。其中超过85%的中国电影工作室都是瑞云的客户,《战狼2》、《哪吒》和《流浪地球》就是出自其手,堪称全亚洲最大的云渲染平台。

黄仁勋还发布了面向建筑行业(AEC)的Omniverse开放式3D设计协作平台,本地和云端均支持在AEC工作流中增加实时协作功能,将支持Autodest REVIT、Trimble SketchUP和McNeel Rhino等主流AEC应用。

现场一则实例中,“原本花费485小时的渲染场景,现在只需不到40小时就渲染完成。”此处应该又有“OMG”。

其中,NVIDIA Omniverse是一个面向3D制作流程的协作平台,基于Pixar公司的Universal Scene Description技术,并由NVIDIA RTX提供支持。

我相信李佳琦看了黄教主意气风发的“带货”现场都要自愧不如,居然带的还都是刚出炉的新货。

比如,英伟达今天宣布发布NVIDIA Parabricks基因组分析工具包。其中Parabricks是一个CUDA加速的基因组处理工具包可与用于发现变异并能产生与行业标准GATK最佳实践流程一致的结果。并能够实现30-50倍的加速,Parabricks可以提供DeepVariant工具,利用深度学习技术进行基因变异检测。

此外,据现场透露,华大基因已采用Parabricks,借助若干GPU服务器,华大基因可以按其测序仪生成的数据的速率来处理基因组。而且,今年英伟达为CUDA增加了两个新的主流应用5G vRAN和基因组处理。

再比如,现场发布推理软件TensorRT 7,这是英伟达第七代推理软件开发套件,打开了智能AI人机交互的新世界,实现与语音代理、聊天机器人和推荐引擎等应用进行实时互动。

据介绍,TensorRT 7内置新型深度学习编译器。该编译器能够自动优化和加速递归神经网络与基于转换器的神经网络。这些日益复杂的神经网络是AI语音应用所必需的。与在CPU上运行时相比,会话式AI组件速度提高了10倍以上,从而将延迟降低到实时交互所需的300毫秒阈值以下。

“我们已进入了一个机器可以实时理解人类语言的AI新时代。”黄仁勋一句话总结。

再再比如,黄仁勋发布用于无人驾驶和机器人的高度先进的软件定义平台——NVIDIA DRIVE AGX Orin。

该平台内置全新Orin系统级芯片。该芯片由170亿个晶体管组成,凝聚着NVIDIA团队为期四年的努力。Orin系统级芯片集成了NVIDIA新一代GPU架构和Arm Hercules CPU内核以及全新深度学习和计算机视觉加速器,每秒可运行200万亿次计算,几乎是NVIDIA上一代Xavier系统级芯片性能的7倍。此外,Orin可处理在无人驾驶汽车和机器人中同时运行的大量应用和深度神经网络,并且达到了ISO 26262 ASIL-D等系统安全标准。

在汽车领域,黄仁勋还宣布,英伟达将在 NVIDIA GPU Cloud (NGC) 容器注册上,向交通运输行业开源 NVIDIA DRIVE无人驾驶汽车开发深度神经网络。如今,NVIDIA 向无人驾驶汽车开发者开源其预训练 AI 模型和训练代码。通过一套 NVIDIA AI 工具,NVIDIA 生态系统内的开发者们可以自由扩展和自定义模型,从而提高其无人驾驶系统的稳健性与能力。

此外,现场英伟达还宣布和滴滴合作,滴滴将在数据中心使用NVIDIA GPU训练机器学习算法,并采用NVIDIA DRIVE为其L4级自动驾驶汽车提供推理能力。为了训练这些深度神经网络,滴滴将采用NVIDIA GPU数据中心服务器。在云计算方面,滴滴还将构建领先的AI基础架构,并推出计算型、渲染型和游戏型vGPU云服务器。

滴滴云将采用新的vGPU许可证模式,旨在为用户更好的提供体验更佳、应用场景更丰富、效率更高、更具创新性和灵活的GPU计算云服务。目前,滴滴云已与NVIDIA等行业合作伙伴携手服务交通出行、AI、图形渲染、电子游戏及教育培训等多个领域。

再再再比如,NVIDIA发布全新版本Isaac软件开发套件(SDK),为机器人提供更新的AI感知和仿真功能。

Isaac SDK 包括 Isaac Robotics Engine(提供应用程序框架),Isaac GEM(预先构建的深度神经网络模型、算法、库、驱动程序和API),用于室内物流的参考应用程序以及Isaac Sim的第一个版本(提供导航功能)。

而全新Isaac SDK可以大大加快研究人员、开发人员、初创企业和制造商开发和测试机器人的速度。它使机器人可以通过仿真获得由人工智能技术驱动的感知和训练功能,可以在各种环境和情况下对机器人进行测试和验证。

黄仁勋在现场用一张PPT上显示了2019年天猫全球狂欢节的交易成绩单,他不明白为什么这一天会有这么多人同时进行交易,但这不影响他宣布阿里巴巴推荐系统采用NVIDIA AI,并表示CPU速度太慢了,只有3QPS,但英伟达的GPU可以提升至780QPS。

说完略带停顿,全场响起掌声,钦佩于780比3,但也可能是停顿处就该自然鼓掌。

此外还宣布了百度推荐系统也采用了NVIDIA AI,有100多个推荐模型被使用在百度的众多应用中。其中百度庞大的用户潜在兴趣数据包含了千亿维稀疏离散特征和10TB embedding词表。

同样,训练此模型在CPU上成本高昂且速度慢,据悉,GPU训练成本只有CPU的1/10。

虽然黄仁勋没有提过一句具体成本情况,但经常说“The more you buy ,the more you save”。暴力增加性能后,总会在高阶、大数据量的应用情况下,节约出成本。而人工智能时代,又需要这种暴力。

END

您可能感兴趣的文章

聚焦软件话题,Arm 年度技术大会助力开发者释放创新潜力

5G+AI赋能千行百业,高通携手伙伴在进博会展示诸多合作成果

从手机到汽车 高通孟樸进博会解读5G+AI推动朋友圈扩展

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!