数学中国

 找回密码
 注册
搜索
热搜: 活动 交友 discuz
查看: 2410|回复: 2

真相残酷,ChatGPT 的狂欢与中国无关,因为 AI 芯片差距二十年

[复制链接]
发表于 2023-2-12 13:35 | 显示全部楼层 |阅读模式
真相残酷,ChatGPT  的狂欢与中国无关,因为  AI  芯片差距二十年

2023-02-11 21:33:57 来源: 科技铭程1 陕西

近日,ChatGPT 火爆异常,一度被认为即将替代脑力工作,因为 ChatGPT 可以重塑一切数据,完成信息编写、内容创建、客户聊天、法律文件等。

为此,各大专家也预测了未来会被 ChatGPT 替代的多种工作,包括:律师、投资顾问、报税师、会计师、医疗诊断专家、客服、营销顾问、编剧、新闻工作者、程序员等。

没想到,程序员们努力打造的人工智能居然能够代替自己,果然是“上岸第一剑,先斩意中人”。

二级市场上,各类上市公司开始疯狂蹭热点,沾上 AI 就大涨,股价就像坐上了火箭,短短几个交易日大涨超过 50% 甚至翻倍。

但实际上,ChatGPT 真的没有想象中的那样,随随便便就颠覆。ChatGPT 归根结底还是 AI(人工智能),而 AI 的基础就是算力,算力依靠的是芯片。

如果造不出顶级的 AI 芯片,就没有足够的算力提供给 ChatGPT ,自然也就没有所谓的颠覆了。

那么问题来了,我国的 AI 芯片如何呢?与英伟达差距有多少呢?

ChatGPT 基础是 AI 芯片



AI 芯片是一种专门处理人工智能计算、应用等任务的一种芯片,也被称为 AI 加速器或计算卡。

在架构方面来看,AI 芯片主要分为:GPU(图形处理器)、FPGA(现场可编程门阵列)、ASIC(专用集成电路)。

那么这些 AI 芯片如何使用呢?是不是一口气全都堆上呢?当然不是!

在实际应用中,AI 芯片又分为云端、边缘、终端三种应用场景。不同的场景根据实际情况搭配不同的 AI 芯片。



在云端,AI 不仅要处理大量的数据,同时还要进行各种各样的 AI 服务,包括大量的 AI 训练和推理工作,对 AI 芯片的算力要求最高;

边缘就是云端与终端之间的连接网络,在此设立一些节点,用 AI 芯片承担部分算力,可以有效降低云端的压力,同时提高整个 AI 网络的效率;

终端就是我们的手机、电脑、汽车、家电、监控等设备,这里的 AI 芯片要嵌入设备内部,在终端采集数据,并完成数据处理,主要负责推断。

根据以上的内容,我们可以看出云端服务器方面通常使用 GPU ,利用其高性能高功耗的特点,可以批量处理密集型任务;在边缘端,FPGA更适合信号处理系统,各类接口;而我们的手机、电脑、汽车则需要更专用的集成电路。

但无论何种类型的 AI 芯片,它们都需要一个共同的特性,那就是“强大的算力”。

根据 Open  AI 测算:自 2012 年以来,全球头部 AI 模型训练算力需求 3-4 个月翻一番,每年头部训练模型所需算力增长幅度高达 10 倍。

对于 AI 算力的快速需求,我们也可以从各类事件中感受到

1、阿尔法狗大战李世石



2016 年 3 月 9 日,阿尔法狗经过三个多小时鏖战,击败了围棋九段高手李世石。这是 AI 第一次展现出它惊人的实力。

当时的阿尔法狗用了1202 个 CPU 、176个 GPU ,约有 800 多万核并行计算,同时还花费电费 3 千美元。而李世石大概需要两个馒头,一碟泡菜,一瓶矿泉水就可以了吧!

可见彼时的 AI 因为算力不足,只等堆加数量,同时能耗也非常高。

2017 年,升级版的阿尔法狗击败了国际围棋大师柯洁,再次引发人们的关注。

2、百度无人驾驶汽车



2017 年 7 月 6 日,百度召开 AI 开发者大会,百度总裁陆奇在介绍“Apollo”计划时,大屏幕出现了百度创始人、董事长李彦宏坐在无人驾驶汽车行驶在北京五环的画面。

从画面中可以看到,李彦宏坐在副驾驶位置,全程不碰方向盘,全部由 AI 操控。

李彦宏表示:“汽车行驶很平稳,感觉非常不错。”

据悉百度的无人驾驶汽车 Apollo ,采用了英特尔和英伟达两家公司的 AI 芯片。

自动驾驶汽车上路前需要超过 100 亿公里的测试,如果不采用 AI 芯片,而拥纯人工的话,需要 100 辆汽车 7*24 小时测试 100 年。而搭载了 AI 芯片后的 Apollo 一天就可以跑上百万公里。

3、ChatGPT 的狂欢



人工智能实验室 Open AI 研发的 ChatGPT 聊天机器人,能够进行普通聊天、信息咨询、撰写诗词作文、修改代码等,号称能够替代脑力工作者。

不少网友通过 ChatGPT ,“撰写”了玄幻类、科普类的文章,甚至论文;五花八门的提问也让 ChatGPT 应接不暇。

那么 ChatGPT 需要多少算力呢?



ChatGPT 的总算力消耗约为 3640PF-days ,至少要 7-8 个投资 30 亿规模的数据中心才能支撑 ChatGPT 的运行。

光从模型训练算力具体来看,至少需要上万颗英伟达 GPU  A100 ,以参数规模为 1750 亿的 GPT-3 为例,一次模型训练成本超过 1200 万美元。

从这三个事件中我们可以看出, AI 芯片的算力需求正在快速的增长,并且已经逼近现有芯片算力的极限,这就倒逼芯片厂商快速的迭代升级。

那么,在众多芯片厂商中,谁能承担的起未来算力需求呢?

GPU 领导者英伟达

在 AI 芯片领域,英伟达跑在了前面。



英伟达(NVIDIA)由美籍华人黄仁勋创建,总部位于加州圣克拉拉市,是一家设计显示芯片和主板芯片组为主的人工智能计算公司,也是 GPU 的发明者。

可以说,英伟达定义了 GPU ,推动了图形计算的快速发展,也推动了 AI 的快速发展。

1999 年时,图形显示需求规模急速增加,CPU 已经无法满足,此时,英伟达顺势推出了世界第一款 GPU GeForce 256,成为 CPU 外最重要的逻辑芯片。

英伟达高速发展的十几年中,平均每半年就推出一款新品,每两年就更新一次架构,在 AI 、自动驾驶领域,就连英特尔、AMD 也只能望其项背。

2010 年,谷歌的 AI 训练采用了 16000 台英特尔 CPU 进行训练,后来英伟达为其提供了 GPU ,仅仅需要 12 个 GPU 就完成了这项工作。

2021 年,云计算、自动驾驶、大型网游等对算力的快速需求,极大的刺激了英伟达打造更为先进的 GPU H100



英伟达 H100 采用了台积电 5nm 工艺,比上一代 A100 在制造工艺方面更为先进;

在晶体管数量方面,H100 集成了 800 亿个晶体管,比 A100(540 亿)提升了 48% ,整体性能提升了 6 倍,算力提升 3.2 倍。

H100 还可以加速动态规划,优化路径,在这种条件下,H100 的算法将进一步提升 7 倍。

H100 的在数据吞吐量上提升了 30 倍,同时可实现 3TB/s 的显存带宽,以及 5TB/s 的互联网速度。

H100 还可以把单个 GPU 分拆为 7 个,同时进行不同的运算任务,而且还可以将部分能力扩展 7 倍。

H100 还是全球首个加密计算 GPU ,在提高性能的同时,有效的保护用户数据和隐私,非常适合应用在医疗、金融和云计算领域。



除了 H100 ,英伟达最新研发的自动驾驶芯片 Thor ,号称业内最强,融合了 CPU 、AI 加速架构和 GPU ,算力高达 2000TOPS ,是目前高通最新车载芯片 8295(30TOPS)的 66 倍。

同时,英伟达正在开发新一代人工智能计算机—— Eos ,搭载了 4600 个 H100 GPU ,比世界上最快的超算还快 1.4 倍。很快,全球最快的计算机将与人们见面。

如今,英伟达在 GPU 领域市场份额高达 70% ,独立显卡领域市场份额更是高达 86% 。

作为全球领先的 AI 芯片研发公司,英伟达将在 AI 快速发展的浪潮中,赚得盆满钵满。而收入重新投入研发中,形成良性循环,未来的英伟达真的无法想象。

那么国产 AI 芯片与英伟达差距有多大呢?

国产 AI 芯片性能如何

国产 AI 芯片公司大大小小十几家,包括:龙芯、景嘉微、华为海思、摩尔线程、璧仞科技、天数智芯等等,但与英伟达比起来还差很多。



景嘉微是国内领先的 GPU 厂商,成立于 2006 年,总部位于湖南长沙。经过十几年的发展,景嘉微 GPU 性能如何呢?

根据官方数据,景嘉微 JM9231 核心频率为 1.8 GHz ,浮点性能可达 8 TFLOPS ,落后英伟达最先进的 Thor(2000 TFLOPS)250 倍。



璧仞科技公司研发的壁仞 100 ,采用了 7nm 工艺制程,晶体管数量达到了 770 亿颗晶体管,具有高算力、高通用性、高能效三大优势。

在算力方面,16 位浮点算力达到 1000T 以上、8 位定点算力达到 2000T 以上,号称领先国际大厂 3 倍。

从算力来看,壁仞 100 直接对标了英伟达 H100 ,这着实令人惊叹,似乎不久之后,我们再也不需要依赖英伟达了,但事实真的如此吗?



英伟达的 GPU 之所以能制霸全球,强大的 CUDA 生态系统绝对是重要关键。

CUDA 全称 Compute Unified Device Architecture ,翻译成汉语就是统一计算架构,这是由英伟达所推出的一种集成技术,是英特尔对 GPU 的正式名称。

目前 GPU 市场上,英特尔一家独大,70% 以上的市场都被其掌控着。如果国产 GPU 厂商想要生存发展,就必须兼容 CUDA 。

但 CUDA 是英伟达的技术,并且英伟达发展迅速,芯片更新速度非常快,想要 100% 的兼容是根本做不到的。

怎么办呢?一方面魔改,一方面发展自己的生态,但是难度实在太大了,因此国内 GPU 厂商日子都很难过。

更为要命的是:一旦性能、算力领先,威胁到美企的地位,必然会遭受打压封锁。



那么国产 GPU 厂商就会陷入“华为式”的被动,最典型的就是无人代工。

内地芯片制造技术最强的是中芯国际,目前只能量产 12nm 工艺的芯片,而英伟达 H100 采用了 5nm 工艺,相差 2 代。

而中芯国际 CEO 梁孟松也表示,中芯国际目前攻克了 7nm 技术,但苦于没有 EUV 光刻机,因此只能止步于 12nm 工艺。

EUV 光刻机是工业皇冠上的明珠,由 10 万个精密零部件组成,这些零部件由全球 2000 多家公司提供。一个国家单独完成 EUV 光刻机的研发被称为“不可能的工作”。

加上 EDA 工具、半导体材料方面的落后,国产 GPU 之路还很长,距离英伟达还很远。

写到最后



ChatGPT 火出了圈,但万丈高楼平地起,靠的是良好的基础,这个基础就是 AI 芯片。

先进的 AI 芯片代表着强大的算力,强大的算力才能支持人工智能继续更新迭代,最终为人类分担大量的脑力、体力劳动。

我国的 AI 芯片在设计和生态方面远落后于英伟达,制造、设备、材料方面也差距甚大,要想达到世界领先,支撑起 AI 需求的强大算力,至少还需要二十年,甚至更久。

所以说,目前的 ChatGPT 对于我们来说就是概念、炒作,我们距离真正的人工智能还很远。

我是科技铭程,欢迎共同讨论!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?注册

x
发表于 2023-2-12 14:10 | 显示全部楼层
以前吹牛很厉害,现在被打脸!

点评

某人的政治底色。  发表于 2023-2-12 15:08
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|数学中国 ( 京ICP备05040119号 )

GMT+8, 2025-5-3 03:19 , Processed in 0.092797 second(s), 17 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表