过去的一年是极不平凡的一年,数字科技正前所未有地渗透到经济社会的方方面面,我们正处于一个崭新的技术创新周期。这一点似乎从硬科技创新、产学研转换越来越响亮,就已经被广泛感知了。
如果以年为单位,究竟又是哪些前沿技术和创新突破正在从幕后来到台前,正在从实验室走向产业,又即将影响到我们每个人?一起来了解一下吧。
1 高性能计算
——高性能计算迈向“CPU+GPU+QPU”时代
算力,是数字经济时代一种新的生产力,广泛融入社会生产生活各个方面。高性能计算,是先进算力的代表,也是“国之重器”。高性能计算前沿技术的发展和应用,引领着整个计算领域的发展走向,甚至引发划时代的飞跃,值得产业和社会持续关注。
近年来,AI大模型、AIGC、自动驾驶、蛋白质结构预测等各类人工智能应用大量涌现,对高性能计算的发展产生重大的影响。2022年,是高性能计算技术发展的蓄力之年。高性能计算在架构、硬件和软件等方面的迭代和积累,将在“应用驱动”的持续塑造下,加速完成2.0的代际过渡,进入3.0新时代。
2 泛在操作系统
——泛在操作系统加速“人机物”全面融合
操作系统是计算机系统中最为关键的一层系统软件,是计算系统的核心。
人类社会、信息空间、物理世界深度融合的泛在计算时代正在开启,融合“人机物”海量、异质、异构资源的新场景正在涌现,所需管理的资源复杂度呈指数级增加。
构建一个对下管理各类泛在设施(资源)、对上支撑各类场景下数字化与智能化应用的泛在操作系统已成为发展趋势。
3 AIGC
——AIGC领域出现综合性虚拟人
随着深度学习的发展,AI生成虚拟内容AIGC正渗透在图像、视频、CG、AI训练数据等领域,甚至同时覆盖多模态的虚拟人技术。
虚拟数字人,指存在于非物理世界中,由图形渲染、动作捕捉、语音合成等计算机手段创造及使用,并具有多重人类特征的综合产物。目前分为“CG建模+真人驱动”和“深度合成+计算驱动”两类。
其中,计算驱动的虚拟人最终效果受到多种AI生成技术的共同影响,比如语音生成、文本生成及理解、图像生成等。
内容创作已经从早期的高度依赖人,逐渐向“人力+算力”转变。除了直接应用于内容相关的商业场景(新闻、有声读物、工业设计等),AI还极大降低生成门槛,推动内容创作高度定制化、自动化以及民主化。
4 机器人
——柔性材料革新推动机器人仿生精进
触觉感知是目前机器人感知补全领域的攻关重点。
触觉感知体系分为传感器和执行器。受益于柔性材料的突破性进展,触觉传感技术在科研界屡有代表性成果发布,已在机器人手、触觉手套、健康检测设备、智能座舱等领域研发测试。触觉执行器复杂性更高,在个人穿戴设备场景向市场化方面走得较远,利用机械制动的力反馈手套迈入个人消费品时代。此外,利用微流体技术研发的触觉手套已经在CES年展亮相。
未来1~3年,随着柔性电子技术和机器学习算法的进步,触觉传感器的空间分辨率和精度有望大幅提升。对于提高机器人灵巧操作水平、带来人机交互体验升维意义重大,从而进一步拓展智能机器人应用空间和服务能级。
工业机器人遥操作、医疗手术机器人、仿真培训、空天探索、智能座舱等场景将更多补足触觉感知,向虚拟现实下一代交互终端、末端假肢器等场景扩展。
5 元宇宙
——XR打造第二世界催熟元宇宙
就在今年,元宇宙整体技术生态走向成熟。通过改善光学器件、空间计算、异构计算体系、渲染引擎、交互自由度、定位方式等要素,过往观看不适、画面粗糙等问题得到了解决。
在过去依托录音、录像等形式跨越时间,借助手机、互联网等跨越2D空间后,XR带我们实现了进一步跨越。
一方面,它帮助我们跨越了3D空间,以更立体、更真实的方式突破现场观察和操作的限制,信息的还原和传递成本被进一步降低;另一方面,XR帮助我们跨越了现实的限制,使我们在第二空间沟通娱乐。
6 量子计算
——量子计算变革经典计算范式
以中科大为首的中国队,在量子计算的硬件研发上,已经来到世界的前列。
我国是目前世界上唯一在两种物理体系达到“量子计算优越性”里程碑的国家。而在应用及配套设施方面,金融、医药、汽车、化学等领域已明确了特定问题下量子计算的使用。
在微观模拟、复杂建模等特定问题下,量子计算展现出了经典计算难以实现的优势。未来,超算中心可能会出现量子-经典混合架构,由量子计算和经典计算进行配合,以解决特定大规模问题。
7 脑机接口
——侵入式脑机接口落地高难医疗场景
如今,随着无线通信、多通道柔性电极、植入手段、芯片、机器学习算法等技术的发展,侵入式脑接机口正逐步跨越工程化和临床难题。
今年以登上《自然》杂志的意念打字技术为代表,侵入式脑机接口展现出了效果理想的临床试验,商业化发展初具雏形。
在科学家进一步了解大脑如何运作(如感知区域)后,脑机接口将会发挥更多作用,帮助患者恢复触觉、视觉等特定感知能力。
8 AI芯片
——新型AI芯片引领后摩尔时代
随着AI在各类场景中广泛落地,传统依靠制程工艺提升的AI芯片难以满足需求。
在集成电路的未来三大演进路线中,以完全架构创新所代表的“More than Moore”成为下一代AI芯片的重点方向。这当中,类脑计算、存算一体、量子计算、数据流AI计算都是选择。
以效仿人脑开发、事件驱动型的神经拟态芯片为例。由于尽可能模仿了神经元间电脉冲传递的方式,神经拟态芯片天然符合事件驱动机制,且存算一体、在时延和能耗上都有显著降低。
9 基因编辑
——CRISPR助力基因编辑可控可靠
以CRISPR-Cas9为代表的基因编辑技术,正在一步步走向成熟,从实验室迈向临床应用。
在业界看来,由于可基于病患情况快速且针对性制备患者所需细胞(尤其是同种异体细胞),未来有望推进重大疾病的个性化治疗,并改变过往药物标准化生产及分发的医疗流程。而在合成生物学上的应用,可利用不同的基因控制模块创造更为复杂的生物系统。
分子育种,作为代表领域之一,相较于传统利用表型与自然选择筛选方式,结合基因编辑后可以有目的性地改变物种的应激耐受性、组成、产量、繁殖等性状,缩短物种驯化周期,创造性状更加优良的物种。此外,在辅助其他医疗手段、DNA存储等领域也正在发挥作用。
简单总结,基于基因编辑技术,生命科学研究有望实现”精准规划+精细改造”。
10 多模态学习
——多模态多维度大模型预示通用智能
由于具有强通用性和少样本学习能力,大模型正在为AI带来集约式新开发模式与商业模式。与此同时,跨模态预训练模型(比如DALL·E、CLIP)的出现,预示了通用智能的可实现性。业内普遍认为“一次开发,终身使用”。
多模态学习成为当中的重要趋势,它可以被应用在归一、转化、翻译对齐、融合及协同学习上。按照下游任务则可以划分为视觉问答、视觉推理、图文检索等理解式任务和生成式任务(文字生成图像)。
由于跨领域通用,大规模预训练模型在未来可能会担任类似基础设施生态的中间层角色,为不同的行业生态承担过渡作用。