语音识别、文本识别、视频识别……数字经济时代,人工智能技术已走近你我身边,被视为经济增长的新引擎、国际竞争的新阵地和推动智慧社会建设的有效工具。而加快“人工智能+”产业融合、赋能更多行业应用落地,更成为社会各界共同的期待。

然而,不久前在由中国人工智能学会主办的2020中国人工智能产业年会上,最新发布的报告指出,目前已成熟应用的人工智能技术仅为语音识别,机器学习、计算机视觉、自然语言处理、知识图谱、智能机器人等技术距离生长成熟尚需数年时间,而无人驾驶汽车在未来10年内都不太可能出现。

从实验室走向大规模商用,人工智能还需要多久?尚存在哪些“堵点”“痛点”?在许多业内专家看来,正视人工智能尚存在的诸多挑战,对技术赋能抱有理性期待,方能让其回归技术本质,成为更多产业变革创新的动力源泉。

算法不透明导致的不可解释

2016年,谷歌人工智能系统AlphaGo击败世界围棋冠军李世石,令世人大为震动。依靠人工智能深度学习理论的突破,计算机可以模仿人类作出决策,然而,这仅基于大量的数据学习,而非因果或规则推理,整个决策过程仍是一个“黑箱”,人类难以理解,导致追责难。

复旦大学计算机科学技术学院院长姜育刚举例,此前,美国IBM公司研发了人工智能系统“沃森”帮助医生进行诊疗决策。然而,许多医生很快发现在使用“沃森”时,系统给出了多个不安全、不正确的治疗意见,甚至在极端的诊断案例中,“沃森”给有出血症状的癌症病人开出了容易导致出血的药物,严重时可致患者死亡。然而,医生却并不知道为什么“沃森”给出了这样的意见。决策步骤的不可解释,带来诸多不确定性。

近年来,人工智能应用于新药研发被寄予厚望。然而,算法的不可解释性却横亘在前。相关研发和监管部门需要清楚地知道药物开发中使用的算法,从而理解人工智能主导的决策背后的逻辑。如果不对监管实现算法透明化,人工智能将会是一个无法进行严谨的科学评价及验证的“黑匣子”。这可能会导致在药物审批过程中出现种种无法预料的问题,比如对人工智能“发现”的生物标记物的接受度不明。此外,对于智能政务、无人驾驶这样安全性要求极高的行业,人工智能的引入自然更为谨慎。

“深度学习的算法和核心模型需要能够真正展开,让公众知晓它的机理模型”,上海人工智能研究院有限公司总经理宋海涛建议。中科院软件研究所研究员薛云志则指出,人工智能面向不同知识背景的用户,要能以简单、清晰的方式,对决策过程的根据和原因进行说明,并能对系统决策过程关键节点的数据加以追溯并能够审计,这在未来人工智能应用大规模落地时,是特别需要关注的特性,也是实施监管的必要。

易受欺骗引发安全性质疑

作为人工智能技术的“大热选手”,深度学习可以通过对大量已知样本的训练,制作自己的样本,这是深度学习的特点,同样也是痛点。

京东人工智能研究院院长周伯文坦言,人工智能目前在面向产业化落地时,遇到的巨大挑战正是真实环境的开放边界和规则模糊,数据的“噪音”非常多,使得智能模型的部分结果和使用情况难以让人信赖。

姜育刚指出,人工智能目前的智能判别模式存在缺陷,容易被对抗样本所欺骗。比如图像识别,在一张人像图片上加入一些非常少量的干扰,人为视觉看上去基本没有区别,但人工智能模型就会产生识别错误;再如自动驾驶,一张“限速80码”的交通标牌,加入一些干扰后,就可能被机器识别成“禁止通行”。显然,存在很大的安全隐患。

语音识别领域也存在这种问题。技术人员在语音上任意加入非常微小的干扰,语音识别系统就可能会识别错误。同样,在文本识别领域,改变一个字母就可以使得文本内容被错误分类。

此外,若深度学习的数据集中存在隐藏的偏见,人工智能系统无法发现,也不会否定。缺少反馈机制的“照单全收”,最终可能导致生成的结果并不客观。

例如在行业内已经出现的,人工智能在深度学习后对女性、少数族裔、非主流文化群体产生“歧视”:亚马逊通过人工智能筛选简历,却发现了系统对女性存在偏见导致最终关闭。更为常见的是手机软件利用人工智能算法导致的大数据“杀熟”,如根据手机类型的不同,可能会推荐不同类型的商品,甚至打车时推荐不同价格、档次的车辆。

目前,“AI+金融”的发展如火如荼。但当金融机构均采用人工智能进行决策时,其市场信号解读就可能趋同与不断强化,导致形成偏离正常市场规律的结果。而这些不正常的市场变化也会成为人工智能的学习基础,将人工智能的决策逻辑进一步畸化,容易造成恶劣的后果。

以上这些问题,影响着人工智能赋能实体经济的安全性,凸显产业对技术可信赖性的呼唤。“从AI到可信赖AI,意味着我们需要在技术层面上解决鲁棒性(稳定性)、可解释性和可复制性这些核心技术挑战。同时为了大规模产业化应用,我们必须考虑到人工智能的公平性和负责任。这几个维度是人工智能必须要解决的问题。”周伯文说。

法律规制和伦理问题待完善

“目前的智能算法还存在给出的决策不符合伦理道德要求的问题。”姜育刚指出,在应用中已发现,智能算法的决策没有从改善人类生活、服务人类社会的角度来进行。如智能音响在对话中出现“劝主人自杀”的内容,聊天机器人学会了骂脏话和种族歧视等。而这些不友好的决策都是模型从数据中学来的,并不是研发者对人工智能模型设置的目标。

同时,人工智能算法需要海量的数据驱动,训练数据可以被算法恢复,个人隐私存在泄露和被侵犯的风险,而大量的数据也存在共享壁垒。在人工智能赋能金融的过程中,这一问题尤被关注。最新报告显示,近年来,每年发生金融隐私泄露事件以大约35%的速度在增长。加之近年来人工智能技术在金融行业的广泛应用,由此带来的银行数据、保险数据、网贷业务及大数据等个人信息保护问题日益凸显。

在2020年抗击新冠肺炎疫情期间,人工智能技术在我国响应速度快、介入力度大,帮助推出了CT影像的辅助诊断系统,提升了医生诊断的速度和信心。然而,医疗影像智能诊断发展也面临着法律规制问题。与其他人工智能赋能行业的大数据相比,获取高质量的医疗影像数据相对困难。不同医疗机构的数据,目前还很少互通、共享。而单个医疗机构积累的数据往往不足以训练出有效的深度学习模型。此外,使用医疗影像数据进行人工智能算法的训练还涉及保护病人隐私等非技术问题。

此外,近年来,随着人工智能技术的深入探索,科学界有人提出研发“人工生命”,成为又一个伦理话题。对此,中国工程院院士李德毅表示,生命不仅有智能,更要有意识。从伦理角度上,生命是人类的底线,触碰底线要慎之又慎。“所以,我们可以通过计算机技术继续研发没有意识、但有智能的高阶机器。让人类的智能在体外延伸,保持它的工具性,而非人工创造意识。”

深圳云天励飞技术股份有限公司副总裁郑文先同时提醒,“人工智能的技术进步可以给社会带来非常正向的效益,不应因为对隐私保护机制等方面的忧虑而将人工智能的问题妖魔化。”他认为,当前人工智能的法律法规尚不健全,亟待有关部门进一步科学制定和完善,这样才能引导公众更加健康地看待这一新技术应用于产业。

亟待技术进步 发展新一代人工智能

面对技术落地所遇到的种种“痛点”,许多专家给出了这样的比喻:“人工智能相当于一个锤子,不能哪一个钉子都能砸。”

“我觉得,人工智能发展的第一步是辅助,让重复复杂的劳动量由机器完成,在这个基础上,我们再创造条件逐渐向智能决策的方向发展。”郑州大学教授蒋慧琴表示,对于业界有人提出“人工智能超越甚至取代人类”的期待和预计,应保持冷静,“只有沿着这样的方向坚持下来,才有可能达到我们的目标”。

中国科学技术发展战略研究院研究员李修全认为,在重复性操作的生产环节和基于海量数据的高强度计算优化求解上,人工智能具有明显优势,应当是当前应用于产业的主要方向。

华为云人工智能领域首席科学家田奇则认为,加速人工智能赋能产业落地,其与科学计算的深度融合应是显著趋势,在工业、气象、能源、生物、医学等领域,需要大量科学计算,人工智能技术能为传统科学计算带来新的思路、方法和工具,同时由于传统科学计算具有严密性,人工智能也可以提高它本身的可解释性。

“推动人工智能进入新的阶段,有赖于与数学、脑科学等结合实现底层理论的突破。”中国科学院院士、清华大学人工智能研究院院长张钹说,未来所需要的第三代人工智能应是实现可解释的、鲁棒的、可信安全的智能系统,依靠知识、数据、算法和算力四个要素,将实现从不带认知的人工智能转变为带认知的人工智能。

如何解释新一代人工智能?李德毅认为,传统人工智能是计算机智能,属于封闭型人工智能。新一代人工智能应该是开放性人工智能。当前,所有的计算机都是对软件工程师的智能编程代码进行一次又一次简单执行,“但我们希望这个机器在学习过程中能够解决新的问题,学习应成为新一代人工智能解决现实问题的基础”。

清华大学智能技术与系统国家重点实验室教授邓志东建议,数据和算力的增加总有天花板,要推动人工智能技术深度赋能更多行业,需要的是核心关键技术突破,特别是认知智能的进步,同时,还要依靠智能高端芯片、传感器等零部件的硬件支撑,再借助我国5G信息技术的优势,形成合力支撑产业落地和商业化应用。

此外,人工智能标准化工作也应加速展开。薛云志表示:“建立可信赖的人工智能需要标准化,一方面要从开发者训练、测试与实验、部署运营和监管的角度来做,另一方面则要从芯片等硬件、算法、产品系统出发,来制定标准和规范,同时对人工智能的风险、伦理、管理等标准研究也要尽快启动,这些都只是第一步。”(来源 光明日报 记者 杨舒)