世界芯片排名一览表,上海深圳武汉无锡杭州长沙

二八财经

世界芯片排名一览表,上海深圳武汉无锡杭州长沙?

个人觉得上海作为中国第一芯片城市的地位是不可动摇的——先发优势、完善的产业链匹配和政府效率都赋予了上海发展芯片的巨大竞争优势。

世界芯片排名一览表,上海深圳武汉无锡杭州长沙

集成电路作为最微小的国之重器,是关系国家安全和国民经济命脉的战略性、基础性和先导性产业。

从产值来看,上海、无锡、深圳芯片排名全国前三,那我为什么觉得是上海而不是深圳呢?

首先,在2017年的时候,上海集成电路产业规模达已经达到了1200亿元,约占全国的20%。

在2018年,上海集成电路行业销售规模达到1450亿元,占全国的五分之一,其中设计业482亿元,制造业398.4亿元,封测业368.9亿元。

时至今日已经发展成为中国集成电路产业链最完整、产业集中度最高、综合技术能力最强的基准区域。

对比上海的情况,深圳明显的情况就是IC产值大,但制造短板明显。早在2018的时候年,深圳集成电路行业就已经实现销售收入897.94亿元,其中设计业销售额758.7亿元,连续六年位居全国芯片设计业第一。

但制造是短板,就拿华为的HiSilicon来说,在芯片领域开拓了十几年,从严重落后、到有点落后、到赶上来、再到领先,有这巨大的研发投入,过程很艰难。但是在芯片制造这样的重资产领域,华为并没有参与,所以没有芯片制造企业,这也是导致了华为今天被动的局面。任正非也曾坦率地表示过,没进入芯片制造行业是最大的失误。

上海可以说是芯片制造的黄埔军校,目前长三角地区芯片产业的研发人员大都是由上海输出的,上海更像美国贝尔实验室、麻省理工学院等研发和人才培养基地,而深圳更像美国的硅谷。

但市场的情况总是瞬息万变的,谁又能预测未来呢?华为此前虽然没有制造工厂,但是如今也已经启动“南泥湾”项目应对困境。另外,合肥,武汉,西安,杭州,南京,成都,长沙等城市也在大力投资芯片产业,比较知名的是合肥长鑫和武汉长江存储。

只是就目前来讲,上海终归还是位列前茅的:上一周也就是本月19号,中国第一座12英寸车规级功率半导体自动化晶圆制造中心项目正式落户上海临港新区,项目总投资120亿元人民币,预计达产后年产能36万片晶圆。

闻泰科技股份有限公司董事长张学政在当天的仪式活动上表示,“120亿元的投资级别,我们只用了两个半小时就拍板定下来。所有的政策、合同、条约当场达成一致,这里的政府工作效率高、产业政策好、发展前景好,我们没有理由不选临港新片区!”

这就很好的说明了上海发展芯片产业的吸引力。

只不过真正限制发展限制制造的还是设备与材料,华为可以设计出国际一流的5G芯片,但是却没有这种最先进的手机处理器的生产能力,目前国内晶圆制造已经形成四大集团,分别是中芯,紫光,华虹宏力,华润,不过目前陆续在进行整合发展。

也许不远的将来,中国的英特尔将诞生,相信国人一定能行!

感谢阅读,我是@饭后余谈 ,欢迎大家的关注与讨论,每日为你带来最新热议,最新数据,不一样的内容一样的有趣!

芯片国企排名?

1.紫光集团

是国内最大的集成电路设计上市公司之一。紫光集团以智慧芯片为核心,聚焦数字安全、智能计算、功率与电源管理、高可靠集成电路等业务。

2.长电科技

是全球领先的集成电路制造和技术服务提供商,致力于为全球客户和合作伙伴提供全方位的微系统集成一站式服务。

3.中芯国际

于2000年成立,是中国内地规模大、技术先进的集成电路芯片制造企业。

4.中环股份

中环股份主营业务包括高压器件、功率集成电路与器件、单晶硅和抛光片四大方面,形成了具有产品特征和行业属性强关联的多元化经营。

国产手机芯片排名?

1.紫光集团

紫光集团有限公司是清华大学旗下的高科技企业,目前,紫光集团是中国最大的综合性集成电路企业,也是芯片全球第三大手机企业。

2.华为海思

海思半导体是一家半导体公司。产品覆盖芯片及无线网络、固定网络、数字媒体等领域。

华为除了有手机芯片麒麟电脑芯片鲲鹏和路由器芯片凌霄?

在智能设备的核心领域——芯片,华为可以说是全面开花,手机处理器的麒麟、PC处理器的鲲鹏、家用路由器领域的凌霄、人工智能领域的昇腾,手机基带领域的巴龙。华为芯片的命名颇有“中国风”,在网上有人编了这样的顺口溜“麒麟踏云,鲲鹏展翅,昇腾万里,勿忘初心,砥砺前行,中华有为,荣耀未来!”言归正传,下文说一说华为的“芯片家族”。

手机处理器芯片——麒麟

麒麟处理器对标高通的骁龙处理器;

自从华为的麒麟980手机处理器亮相以来,引发了广泛的关注,直接对标高通的高端手机处理器骁龙845。

电脑处理器芯片——鲲鹏

鲲鹏处理器对标英特尔和AMD处理器;

近日,华为发货了基于ARM架构的鲲鹏920处理器,并搭载到自己的泰山服务器;

鲲鹏920处理器万全由华为自主研发设计,业界首款7nm的数据中心ARM处理器;

性能方面:该处理器由64个核心、主频2.6G、8个DDR4的内存通道,SPECint跑分高于900分,效能超过同类产品的30%。

家用路由器芯片——凌霄

凌霄处理器对标博通、联发科等路由器芯片厂商;

凌霄处理器主要用于家庭无线路由器领域,在华为荣耀Pro2无线路由器中得到了应用;

华为的荣耀Pro2的CPU和WiFi模块采用了自研的凌霄5651和凌霄1151芯片;

凌霄5651处理器采用了四核1.4G CPU,数据转发能力强,带机量提高,其中一个核心专门为加速智能家居领域;

凌霄1151为双频的WiFi芯片,支持2.4G和5G;

这两款芯片的应用在一定程度上解决了无线设备掉线、游戏延时丢包、视频卡顿的问题。

人工智能芯片——昇腾

昇腾处理器对标寒武纪的AI芯片;

最早华为手机的AI芯片来自中科院寒武纪,带动了初创公司寒武纪的发展,对寒武纪的芯片性能和商业拓展有了很大的促进作用;

华为是不会放弃人工智能这块大蛋糕的,因此自己研发了昇腾310人工智能芯片。

手机基带领域——巴龙

手机基带,大家可能比较陌生,但是它是手机的基础功能,完成打电话,发短信,数据上网。手机是否支持全网通也是基带说了算;

在手机基带领域可以说是苹果的痛点,和高通打官司闹掰之后,拥抱英特尔,造成了今年发布的三款iphone手机的“信号门”事件;

搭载在麒麟980处理器的巴龙芯片,可以达到LTE Cat.21的下载速率,即下载速率1.4Gbps,是目前最快的4.5G产品了;

华为手机的信号在业界公认是非常不错的,深得人心,这就是基带的功劳了。

多年以来,华为一直坚持自主研发核心技术,在通信领域、手机领域、家用智能设备领域等坚持核心技术自主研发,为国内企业带来了好头,让国人自豪。科技创造未来,为华为点赞。

对于华为在处理器领域的自主研发,大家有什么看法呢,欢迎在评论区,留言讨论。

如需更多帮助,请私信关注。谢谢

和普通芯片有何区别?

所谓的AI芯片,一般是指针对AI算法的ASIC(专用芯片)。传统的CPU、GPU都可以拿来执行AI算法,但是速度慢,性能低,无法实际商用。

比如,自动驾驶需要识别道路行人红绿灯等状况,但是如果是当前的CPU去算,那么估计车翻到河里了还没发现前方是河,这是速度慢,时间就是生命。如果用GPU,的确速度要快得多,但是,功耗大,汽车的电池估计无法长时间支撑正常使用,而且,老黄家的GPU巨贵,经常单块上万,普通消费者也用不起,还经常缺货。另外,GPU因为不是专门针对AI算法开发的ASIC,所以,说到底,速度还没到极限,还有提升空间。而类似智能驾驶这样的领域,必须快!在手机终端,可以自行人脸识别、语音识别等AI应用,这个必须功耗低,所以GPU OUT!

所以,开发ASIC就成了必然。

说说,为什么需要AI芯片。

AI算法,在图像识别等领域,常用的是CNN卷积网络,语音识别、自然语言处理等领域,主要是RNN,这是两类有区别的算法。但是,他们本质上,都是矩阵或vector的乘法、加法,然后配合一些除法、指数等算法。

一个成熟的AI算法,比如YOLO-V3,就是大量的卷积、残差网络、全连接等类型的计算,本质是乘法和加法。对于YOLO-V3来说,如果确定了具体的输入图形尺寸,那么总的乘法加法计算次数是确定的。比如一万亿次。(真实的情况比这个大得多的多)

那么要快速执行一次YOLO-V3,就必须执行完一万亿次的加法乘法次数。

这个时候就来看了,比如IBM的POWER8,最先进的服务器用超标量CPU之一,4GHz,SIMD,128bit,假设是处理16bit的数据,那就是8个数,那么一个周期,最多执行8个乘加计算。一次最多执行16个操作。这还是理论上,其实是不大可能的。

那么CPU一秒钟的巅峰计算次数=16X4Gops=64Gops。

这样,可以算算CPU计算一次的时间了。

同样的,换成GPU算算,也能知道执行时间。因为对GPU内部结构不熟,所以不做具体分析。

再来说说AI芯片。比如大名鼎鼎的谷歌的TPU1.

TPU1,大约700M Hz,有256X256尺寸的脉动阵列,如下图所示。一共256X256=64K个乘加单元,每个单元一次可执行一个乘法和一个加法。那就是128K个操作。(乘法算一个,加法再算一个)

另外,除了脉动阵列,还有其他模块,比如激活等,这些里面也有乘法、加法等。

所以,看看TPU1一秒钟的巅峰计算次数至少是=128K X 700MHz=89600Gops=大约90Tops。

对比一下CPU与TPU1,会发现计算能力有几个数量级的差距,这就是为啥说CPU慢。

当然,以上的数据都是完全最理想的理论值,实际情况,能够达到5%吧。因为,芯片上的存储不够大,所以数据会存储在DRAM中,从DRAM取数据很慢的,所以,乘法逻辑往往要等待。另外,AI算法有许多层网络组成,必须一层一层的算,所以,在切换层的时候,乘法逻辑又是休息的,所以,诸多因素造成了实际的芯片并不能达到利润的计算峰值,而且差距还极大。

可能有人要说,搞研究慢一点也能将就用。

目前来看,神经网络的尺寸是越来越大,参数越来越多,遇到大型NN模型,训练需要花几周甚至一两个月的时候,你会耐心等待么?突然断电,一切重来?(曾经动手训练一个写小说的AI,然后,一次训练(50轮)需要大约一天一夜还多,记得如果第一天早上开始训练,需要到第二天下午才可能完成,这还是模型比较简单,数据只有几万条的小模型呀。)

修改了模型,需要几个星期才能知道对错,确定等得起?

突然有了TPU,然后你发现,吃个午饭回来就好了,参数优化一下,继续跑,多么爽!

计算速度快,才能迅速反复迭代,研发出更强的AI模型。速度就是金钱。

GPU的内核结构不清楚,所以就不比较了。肯定的是,GPU还是比较快的,至少比CPU快得多,所以目前大多数都用GPU,这玩意随便一个都能价格轻松上万,太贵,而且,功耗高,经常缺货。不适合数据中心大量使用。

总的来说,CPU与GPU并不是AI专用芯片,为了实现其他功能,内部有大量其他逻辑,而这些逻辑对于目前的AI算法来说是完全用不上的,所以,自然造成CPU与GPU并不能达到最优的性价比。

谷歌花钱研发TPU,而且目前已经出了TPU3,用得还挺欢,都开始支持谷歌云计算服务了,貌似6点几美元每小时吧,不记得单位了,懒得查。

可见,谷歌觉得很有必要自己研发TPU。

目前在图像识别、语音识别、自然语言处理等领域,精度最高的算法就是基于深度学习的,传统的机器学习的计算精度已经被超越,目前应用最广的算法,估计非深度学习莫属,而且,传统机器学习的计算量与 深度学习比起来少很多,所以,我讨论AI芯片时就针对计算量特别大的深度学习而言。毕竟,计算量小的算法,说实话,CPU已经很快了。而且,CPU适合执行调度复杂的算法,这一点是GPU与AI芯片都做不到的,所以他们三者只是针对不同的应用场景而已,都有各自的主场。

至于为何用了CPU做对比?

而没有具体说GPU。是因为,我说了,我目前没有系统查看过GPU的论文,不了解GPU的情况,故不做分析。因为积累的缘故,比较熟悉超标量CPU,所以就用熟悉的CPU做详细比较。而且,小型的网络,完全可以用CPU去训练,没啥大问题,最多慢一点。只要不是太大的网络模型。

那些AI算法公司,比如旷世、商汤等,他们的模型很大,自然也不是一块GPU就能搞定的。GPU的算力也是很有限的。

至于说CPU是串行,GPU是并行

没错,但是不全面。只说说CPU串行。这位网友估计对CPU没有非常深入的理解。我的回答中举的CPU是IBM的POWER8,百度一下就知道,这是超标量的服务器用CPU,目前来看,性能已经是非常顶级的了,主频4GHZ。不知是否注意到我说了这是SIMD?这个SIMD,就代表他可以同时执行多条同样的指令,这就是并行,而不是串行。单个数据是128bit的,如果是16bit的精度,那么一周期理论上最多可以计算八组数据的乘法或加法,或者乘加。这还不叫并行?只是并行的程度没有GPU那么厉害而已,但是,这也是并行。

不知道为啥就不能用CPU来比较算力?

有评论很推崇GPU。说用CPU来做比较,不合适。

拜托,GPU本来是从CPU中分离出来专门处理图像计算的,也就是说,GPU是专门处理图像计算的。包括各种特效的显示。这也是GPU的天生的缺陷,GPU更加针对图像的渲染等计算算法。但是,这些算法,与深度学习的算法还是有比较大的区别,而我的回答里提到的AI芯片,比如TPU,这个是专门针对CNN等典型深度学习算法而开发的。另外,寒武纪的NPU,也是专门针对神经网络的,与TPU类似。

谷歌的TPU,寒武纪的DianNao,这些AI芯片刚出道的时候,就是用CPU/GPU来对比的。

看看,谷歌TPU论文的摘要直接对比了TPU1与CPU/GPU的性能比较结果,见红色框:

这就是摘要中介绍的TPU1与CPU/GPU的性能对比。

再来看看寒武纪DianNao的paper,摘要中直接就是DianNao与CPU的性能的比较,见红色框:

回顾一下历史

上个世纪出现神经网络的时候,那一定是用CPU计算的。

比特币刚出来,那也是用CPU在挖。目前已经进化成ASIC矿机了。比特大陆了解一下。

从2006年开始开启的深度学习热潮,CPU与GPU都能计算,发现GPU速度更快,但是贵啊,更多用的是CPU,而且,那时候GPU的CUDA可还不怎么样,后来,随着NN模型越来越大,GPU的优势越来越明显,CUDA也越来越6,目前就成了GPU的专场。

寒武纪2014年的DianNao(NPU)比CPU快,而且更加节能。ASIC的优势很明显啊。这也是为啥要开发ASIC的理由。

至于说很多公司的方案是可编程的,也就是大多数与FPGA配合。你说的是商汤、深鉴么?的确,他们发表的论文,就是基于FPGA的。

这些创业公司,他们更多研究的是算法,至于芯片,还不是重点,另外,他们暂时还没有那个精力与实力。FPGA非常灵活,成本不高,可以很快实现架构设计原型,所以他们自然会选择基于FPGA的方案。不过,最近他们都大力融资,官网也在招聘芯片设计岗位,所以,应该也在涉足ASIC研发了。

如果以FPGA为代表的可编程方案真的有巨大的商业价值,那他们何必砸钱去做ASIC?

说了这么多,我也是半路出家的,因为工作需要而学习的。按照我目前的理解,看TPU1的专利及论文,一步一步推导出内部的设计方法,理解了TPU1,大概就知道了所谓的AI处理器的大部分。然后研究研究寒武纪的一系列论文,有好几种不同的架构用于不同的情况,有兴趣可以研究一下。然后就是另外几个独角兽,比如商汤、深鉴科技等,他们每年都会有论文发表,没事去看看。这些论文,大概就代表了当前最先进的AI芯片的架构设计了。当然,最先进,别人肯定不会公开,比如谷歌就不曾公开关于TPU2和TPU3的相关专利,反正我没查到。不过,没事,目前的文献已经代表了最近几年最先进的进展了。

发表评论

快捷回复: 表情:
AddoilApplauseBadlaughBombCoffeeFabulousFacepalmFecesFrownHeyhaInsidiousKeepFightingNoProbPigHeadShockedSinistersmileSlapSocialSweatTolaughWatermelonWittyWowYeahYellowdog
评论列表 (暂无评论,179人围观)

还没有评论,来说两句吧...