分类 人工智能 下的文章

英伟达 GPU 技术会议(GTC 2022)


2022 年 3 月 21 日,英伟达(NVIDIA)首席执行官黄仁勋(Jensen Huang)以一场主题演讲拉开了 GTC 2022 的序幕,介绍了人工智能、数据科学、高性能计算、图形、边缘计算、网络和自主机器方面的最新突破。

4493257a-5af5-4cc9-aff3-12270d96ffb3.jpg

演讲在硬件、系统软件、平台软件和应用程序四个层面推出产品,包括下一代 GPU——Hopper H100 及元宇宙协作平台 NVIDIA OVX Omniverse,将成为机器人开发的核心;自动驾驶芯片 Orin 将正式投产销售,新一代自动驾驶平台 Hyperion 9 和自动驾驶芯片 Atlan 也在计划中。


人机交互技术简析


让计算机能听、能说、能看、能感觉,是未来人机交互(Human-computer interaction,HCI)的发展方向,其中语音已成为未来最被看好的人机交互方式,语音比其他的交互方式有更多的优势。目前,语音服务存在于各种场景中,包括实时会议记录、视频实时直播字幕、呼叫中心语音质检、实时会议记录等。

1_8r7kdCZMnso7XYk6V8Go7w.png


吴恩达、Joelle Pineau和Yoshua Bengio预见2022年人工智能趋势


AI商业评论】2021年AI技术变革的步伐加快,这一势能势不可挡,2022年将继续加速。IDC报告预测,2021年~2025年期间,全球人工智能年复合年增长率接近24.5%。从技术维度看,根据全球知名编程语言社区TIOBE指数,人工智能主编程语言Python在2021年可谓“轰轰烈烈”,它超过Java成为世界上最受欢迎的语言。全球知名数据科学平台Anaconda分析师表示,“Python将继续滑入我们的生活”。

ai.png

2022年,硬科技时代拉开帷幕,一起看看图领奖获得者Yoshua Bengio、前百度AI研究院院长吴恩达、Meta AI研究中心主任Joelle Pineau等专家们认为人工智能世界接下来会发生什么:


特斯拉展示DOJO D1芯片,旨在征服人工智能训练


从无数的初创公司,一直到亚马逊、百度、英特尔和英伟达等大公司,许多公司为 AI 工作负载构建专用集成电路(Application-specific integrated circuit,ASIC)。

Tesla DOJO D1 Chip

2021 年 8 月 19 日,特斯拉在 AI 日(Tesla AI Day,Youtube全程视频,那人从47分钟开始观看)上推出人工智能训练计算机 DOJO D1 芯片,D1 芯片是台积电在 7nm 半导体节点上打造的产品。该芯片包含超过 500 亿个晶体管,拥有 645mm^2 的巨大裸片尺寸。


编程AI,让程序员提前下班、提早下岗


出于对强人工智能潜在风险的担忧,时任 Y Combinator 总裁 Sam altman 与特斯拉首席执行官埃隆·马斯克(Elon Musk)在 2015 年共同创建非营利性人工智能研究团体 OpenAI,目标在于建立一个全新的深度学习智能系统,包括在这些年已经被证明的在图像识别、口语辨识翻译等领域的具体应用。

GitHub-Copilot_blog-header.png

2019 年 7 月 22 日微软投资 OpenAI 10 亿美元,双方将携手合作替 Azure 云端平台服务开发人工智能技术。2020 年 6 月 11 日宣布了 GPT-3 语言模型,GPT-3 的目的是为了使用深度学习分类或产生人类可以理解的自然语言,微软于 2020 年 9 月 22 日取得独家授权。


谷歌用AI设计AI芯片


6月9日,谷歌在《自然》杂志(Nature)上发表论文《A graph placement methodology for fast chip design》表示,它的新人工智能可在不到6小时内完成人类需几个月才能完成的芯片设计工作。该技术已被用于开发最新一代的谷歌张量处理单元(TPU),用于运行人工智能相关任务,也就是用AI设计AI芯片。

1009px-Tensor_Processing_Unit_3.0.jpg

张量处理单元(Tensor Processing Unit,TPU),也称张量处理器,是 Google 开发的专用集成电路,专门用于加速机器学习。


模仿大脑:下一代计算机


引言

在过去几年中,人工智能算法取得了巨大的进步。它在我们日常生活中的应用越来越普遍,经常被用于分析文本或图片的内容,理解语音指令,并且效率常常比人类还高。2016年,AlphaGo算法在围棋比赛中击败了来自韩国的世界冠军李世石,而在10年前,没有一个专家预见它能取得这样的成就。但是,为了达到让人瞩目的表现,这些算法需要消耗大量的电能,远远超过我们的大脑完成同类任务所需的能量。举例来说,BERT是一种处理人类语言的人工智能算法,它的训练过程需要消耗数千千瓦时的电能。这相当于人类大脑运行6年耗费的能量。在能耗层面上,大脑的记忆、计算和学习过程比计算机要高效得多。我们有没有可能从大脑中获得启发,制造出表现更出色的设备?

5.png

答案是肯定的,我们或许可以利用电子的自旋做到这一点。