首页 > 热点资讯 > 正文 >

第四代TPU处理芯片谷歌搜索自主研发:平均速度是NVIDIAA100的1.7倍

摘自:网络   时间:2023-04-06 09:38:08    浏览:

根据中国北京时间4月5日上午的信息,当地时间周二,Alphabet公司谷歌搜索公布了最新发布的高性能计算机练习人工智能模型的小细节。该公司表示,该系统软件的速度和能耗效率明显高于英伟达显卡的类似系统软件。 谷歌搜索拥有独立定制的TPU处理芯片,其90%以上的人工智能培训日常任务都是通过这个处理芯片完成的。人工智能培训是指将数据信息喂养到物理模型中,使其具有类似于人类文字聊天和图片生成的水平。 谷歌搜索TPU现阶段是第四代商品。该公司周二发表了一篇论文,详细描述了该公司如何利用自己定制的电子开关将4000多个处理芯片组成到高性能计算机中,同时将单独的设备连接在一起。 在科技有限公司开发设计人工智能技术高性能计算机之后,提高这种连接的实际效果成为关键的市场竞争点,主要是因为谷歌Bard和OpenAI的ChatGPT应用大语言模型经营规模大幅扩大,无法使用单一的处理芯片。 这种模式必须安排在成千上万的处理芯片上运行,训练算法需要几周甚至更长的时间。PaLM是谷歌搜索迄今为止发布的最大规模语言模型。这种方法必须安排在包括4000个芯片在内的两台高性能计算机中,需要50天的时间来练习。 谷歌搜索显示,该公司的高性能计算机可以在运行过程中轻松重新配置处理芯片之间的连接,有利于防止问题和优化特性。 “电源电路转换可以轻松绕过常见故障部件。”谷歌搜索教授诺姆·乔皮(NormJouppi)大卫·帕特森·谷歌杰出的技术工程师(DavidPatterson)“这种协调能力甚至可以帮助我们改变高性能计算机的互连拓扑结构组织,从而加速模型性能的深度学习。”