欢迎来到我的网站

ChatGPT掀AI热潮 这些芯片厂商将“狂飙_

最近,人工智能聊天机器人ChatGPT的用户数量从100万增长到1000万,再到1亿,仅用两个月时间就刷新了人工智能聊天程序用户增长记录。ChatGPT将为搜索市场带来游戏规则改变者,AI聊天机器人热潮席卷全球市场。微软必应搜索引擎将与ChatGPT集成。Alphabet的谷歌搜索服务加入了AI聊天机器人技术Bard。百度、阿里巴巴、“俄罗斯版谷歌”Yandex、韩国Naver、Kakao等也将发布AI聊天机器人。

人工智能聊天机器人需要大规模的数据学习和快速计算,这将推动对人工智能芯片的需求激增,并为停滞不前的半导体行业带来暖流,Nvidia,三星电子和SK海力士等公司将从中受益。然而,英伟达服务器AI芯片项目存在散热和功耗问题,谷歌、亚马逊AWS、三星电子、SK海力士、百度等科技巨头也在开发自己的AI专用芯片,试图在降低功耗的同时提高性能,抢占AI芯片的新高地。一位半导体行业人士指出,虽然传统AI芯片是主流,AI专用芯片正在蓬勃发展,但面临物理限制,AI芯片的未来可能是量子芯片。英伟达是ChatGPT热潮的最大受益者。这是因为英伟达的服务器AI芯片对于超大型AI模型的训练和推理至关重要,几乎垄断了全球服务器AI芯片市场。根据OpenAI的说法,ChatGPT是与Nvidia和微软合作的超级AI。 准确地说,微软已经与NVIDIA合作,在该公司的云(Azure HPC Cloud)上构建了由多个AI芯片组成的超级计算机(HPC)集群,并提供给OpenAI。用于ChatGTP训练和推理的超级计算机拥有285,000个CPU内核和超过10,000个AI芯片。事实上,当被问及ChatGPT是如何学习的时候,他回答说:“它使用Nvidia AI芯片来学习和运行。根据OpenAI首席执行官Sam Altman的说法,ChatGPT处理用户查询的每个请求大约需要2美分。这是部署和使用NVIDIA AI芯片所需的成本。更多的ChatGPT用户将不可避免地增加云和人工智能芯片的使用,从而增加Nvidia的销售和营业利润。研究人员Uh Gyu-jin表示:“如果说游戏对NVIDIA的增长做出了贡献,因为高性能GPU被用来驱动现有的高端游戏,那么最近数据中心销售额的增长是巨大的,因为GPU被用作数据中心加速器。随着超大型人工智能需求的增长,NVIDIA的收入和营业利润预计将大幅增长。投资者也注意到了这一点,并将Nvidia列为ChatGPT热潮的最大受益者。花旗集团分析师Atif Malik估计,ChatGPT可能在未来12个月内为英伟达带来30亿至11亿美元的销售额。事实上,从今年开始,NVIDIA数据中心部门的收入将首次超过游戏,占比为57%。当人工智能概念被引入数据中心时,它在收入中的比例将大幅增加。特别是在人工智能驱动的深度学习技术的应用中,需要有效地管理云服务,以收集和分析大规模信息。因此,NVIDIA GPU越来越多地被安装在需要深度学习技术的地方,包括亚马逊、微软、IBM和阿里巴巴。英特尔、AMD等其他半导体企业也在生产服务器用AI芯片,但NVIDIA AI芯片并行处理技术(CUDA)没有优势,市场占有率仅为个位数。苹果、高通和其他公司正专注于为智能手机、平板电脑和物联网等边缘设备开发人工智能芯片,而Nvidia预计将继续在服务器人工智能芯片领域占据主导地位。HBM的需求上升是因为三星、SK Hynix的NVIDIA GPU上搭载了包括高带宽内存(HBM)在内的大量DRAM。三星电子、SK海力士、美光等公司预计将直接或间接受益于英伟达人工智能芯片需求的快速增长。AI半导体需要“HBM3”进行学习和推理,而AI芯片只需要“GDDR6”和“GDDR7”的存储器进行推理。像ChatGPT这样的AI聊天机器人需要高性能和大内存来执行大量计算。随着人工智能聊天机器人服务市场的爆炸式增长,对内存的需求将增加。三星电子和SK海力士表示,“像ChatGPT这样的人工智能聊天机器人服务将在中长期内对内存半导体市场产生积极影响。”三星电子指出,HBM的数据处理速度比DRAM更快,对向GPU和人工智能加速器提供数据的高性能高带宽存储器(HBM)的需求将扩大。从长远来看,AI聊天机器人服务的增长将推动对128GB或更高性能HBM(用于CPU)和用于大容量服务器的DRAM的需求。

SK海力士解释说,从内存的角度来看,AI聊天机器人需要高性能DRAM和高性能计算内存,这可能会加速市场向更大容量服务器内存的转变。SK Hynix表示,将服务器内存从64GB转移到128GB会更快。HBM有望成为下一代存储器产品,因为它消除了CPU、GPU和内存之间性能差异造成的瓶颈,并补充了现有DRAM的局限性。尽管CPU和GPU的性能逐年呈指数级增长,但支持它们的存储器半导体的性能相对滞后,HBM已经成为一种替代品。目前,HBM订单显著增加,HBM将CPU(中央处理单元)和图形处理单元(GPU)结合起来,大大提高了服务器性能。今年第一季度,HBM供应商三星电子和SK海力士的相关业务咨询业务呈指数级增长。特别是SK海力士,我们收到了大量客户打来的电话。一位业内人士表示:“目前,NVIDIA在大多数服务器GPU产品中使用SK Hynix HBM3。HBM唯一的缺点是价格高。尽管HBM具有优异的性能,但其平均销售价格至少是性能最高的DRAM的三倍,因为生产过程复杂且需要先进的工艺。HBM2的价格是16Gb DRAM的两倍以上,SK Hynix HBM3的价格上涨了5倍。从存储半导体公司的角度来看,HBM是一个高价值领域,供应越多,利润率就越高。为了降低功耗,一个超级智能系统,能够产生高速计算和结果,如人脑,具有大容量学习能力,需要低功耗、快速的人工智能半导体。然而,使用Nvidia GPU的计算机系统在超级人工智能运行中存在一定的技术瓶颈,存在性能下降、发热和过度消耗等问题。一位半导体行业人士表示:“目前的硬件在实现人类水平的人工智能方面存在局限性,因此大公司正专注于降低功耗和提高速度。”GPU与CPU的性能差异可能会导致瓶颈。这意味着无论GPU多快完成计算,它都是在完成CPU运算后输出的,这限制了整体性能。与此相对,有人提出了在存储器半导体上叠加高运算的智能半导体(PIM)的必要性。人工智能芯片可以直接在存储器内进行人工智能运算,具有高速、低功耗的优点。韩国在内存芯片领域拥有优势,决定在2022年至2028年期间投资4027亿韩元用于PIM芯片开发,以加强其AI芯片技术。

事实上,人工智能专用芯片已经成为各国科技巨头竞相角逐的下一个技术高地。三星电子和SK海力士是韩国人工智能芯片的主力军。目前,三星电子正在与韩国学术界、美国哈佛大学和加拿大蒙特利尔大学合作开发NPU。去年12月,三星宣布计划与Naver合作,为数据中心开发人工智能芯片。通过其子公司Sapion,SK海力士正在开发一款性能与NVIDIA相当的AI芯片。SK海力士目前正在开发下一代人工智能芯片,可以通过加载HBM3内存同时进行训练和推理。微软、亚马逊AWS和谷歌云等科技巨头正在努力开发自己的AI芯片,以确保他们在AI和云市场的主导地位。目前,微软已经推出了最多的Nvidia AI芯片,而且还在不断增加。亚马逊AWS和谷歌云正在实施双重战略,开发自己的人工智能芯片“Inferentia”和“TPU(TensorFlow Unit)”,同时大量部署Nvidia AI芯片。不仅是国内寒武纪、百度、比特大陆、深关科技等企业,北京大学、清华大学、中国科学院等大学也纷纷涌入AI芯片领域。寒武纪在过去两年中发布了第三代云AI芯片Sinyuan370。Bitmain发布了第三代AI芯片BM1684。百度云智能3.0的AI IaaS层核心昆仑核心已经开始量产数万枚,以实现大规模商业化,而三代昆仑核心将于2024年初量产。全球科技巨头涌入AI芯片市场,将继续推动AI芯片市场的增长。根据Gartner的数据,人工智能芯片市场将在2020年达到220亿美元,到2023年将增长2.5倍,达到553亿美元。预计到2026年,这一数字将增长到861亿美元。人工智能芯片的突破仍然需要量子芯片,但目前芯片技术的发展遇到了物理限制,“摩尔定律”将放缓,除非量子计算取得新的突破,否则人工智能产业的发展步伐可能会停滞不前。韩国电子通信研究院量子技术研究中心高级研究员Park Seong-soo表示:“ChatGPT也可以使用大量的计算资源,但当与未来的量子计算机结合起来时,它将成为具有更先进智能的人工智能。量子计算机被誉为新技术革命的战略指挥点,在许多关键技术领域提供超越经典计算机极限的核心计算能力,并将在新材料研发、生物医学、金融分析甚至人工智能等领域发挥重要作用。但这是非常困难和不确定的,因为量子技术在10到20年内完全突破的可能性仍然很小。为了克服摩尔定律,IBM计划在2023年之前建造一台1,121量子比特的量子计算机。韩国SK Telecom也在增强其量子芯片设计能力,于2011年成立了量子技术研究所,并于2018年收购了瑞士量子加密公司IDQ。中国将于2021年交付第一台量子计算机,使中国成为世界上第三个拥有量子计算机交付能力的国家。(图片来源:微网络)