分类 人工智能 下的文章

特斯拉展示DOJO D1芯片,旨在征服人工智能训练


从无数的初创公司,一直到亚马逊、百度、英特尔和英伟达等大公司,许多公司为 AI 工作负载构建专用集成电路(Application-specific integrated circuit,ASIC)。

Tesla DOJO D1 Chip

2021 年 8 月 19 日,特斯拉在 AI 日(Tesla AI Day,Youtube全程视频,那人从47分钟开始观看)上推出人工智能训练计算机 DOJO D1 芯片,D1 芯片是台积电在 7nm 半导体节点上打造的产品。该芯片包含超过 500 亿个晶体管,拥有 645mm^2 的巨大裸片尺寸。


编程AI,让程序员提前下班、提早下岗


出于对强人工智能潜在风险的担忧,时任 Y Combinator 总裁 Sam altman 与特斯拉首席执行官埃隆·马斯克(Elon Musk)在 2015 年共同创建非营利性人工智能研究团体 OpenAI,目标在于建立一个全新的深度学习智能系统,包括在这些年已经被证明的在图像识别、口语辨识翻译等领域的具体应用。

GitHub-Copilot_blog-header.png

2019 年 7 月 22 日微软投资 OpenAI 10 亿美元,双方将携手合作替 Azure 云端平台服务开发人工智能技术。2020 年 6 月 11 日宣布了 GPT-3 语言模型,GPT-3 的目的是为了使用深度学习分类或产生人类可以理解的自然语言,微软于 2020 年 9 月 22 日取得独家授权。


谷歌用AI设计AI芯片


6月9日,谷歌在《自然》杂志(Nature)上发表论文《A graph placement methodology for fast chip design》表示,它的新人工智能可在不到6小时内完成人类需几个月才能完成的芯片设计工作。该技术已被用于开发最新一代的谷歌张量处理单元(TPU),用于运行人工智能相关任务,也就是用AI设计AI芯片。

1009px-Tensor_Processing_Unit_3.0.jpg

张量处理单元(Tensor Processing Unit,TPU),也称张量处理器,是 Google 开发的专用集成电路,专门用于加速机器学习。


模仿大脑:下一代计算机


引言

在过去几年中,人工智能算法取得了巨大的进步。它在我们日常生活中的应用越来越普遍,经常被用于分析文本或图片的内容,理解语音指令,并且效率常常比人类还高。2016年,AlphaGo算法在围棋比赛中击败了来自韩国的世界冠军李世石,而在10年前,没有一个专家预见它能取得这样的成就。但是,为了达到让人瞩目的表现,这些算法需要消耗大量的电能,远远超过我们的大脑完成同类任务所需的能量。举例来说,BERT是一种处理人类语言的人工智能算法,它的训练过程需要消耗数千千瓦时的电能。这相当于人类大脑运行6年耗费的能量。在能耗层面上,大脑的记忆、计算和学习过程比计算机要高效得多。我们有没有可能从大脑中获得启发,制造出表现更出色的设备?

5.png

答案是肯定的,我们或许可以利用电子的自旋做到这一点。