人工智能发展面临的新挑战

作者
李仁涵
来源
企业发展与改革
标签
AI
宏观
发布时间
Dec 20, 2023
推荐
Yes
备注
收录时间
Jan 10, 2024 03:25 AM
ℹ️
摘要 近年来,人工智能发展迅猛,在赋能产业发展等实际应用中的价值已经显现。在此过程中,因其理论体系尚未完全建立,其不可解释性或将长期存在。 人工智能的发展带来的安全和伦理风险问题同样不容忽视,需要早做准备。要谋划、构建相应的基础设施,做好应对人工智能发展所带来的新风险的能力准备。 着手构建人工智能治理体系,并将其纳入到未来国家治理体系中,促进人工智能的发展与治理相伴而生,协同演进。
人工智能是一种通过机器来模拟人类认知能力的技术。曾有观点指出:“决定以往40年经济发展速度的信息技术发展速度的摩尔定律,进步速度在近几年逐步放缓,到2030年可以达到黑猩猩水平。但如果加上大数据和机器学习技术,到2030年可以超过人类。”实践显示,目前基于大数据训练的生成式人工智能技术已经表明这个预判正在变成现实。特别是近10年,人工智能发展的成绩斐然。根据多年来的实践与认识,我们认为应该顺应人工智能的发展趋势并做好准备,具备解决因人工智能发展而带来诸多新问题的能力。
一、人工智能技术的发展
人工智能技术发展势不可挡,“弱”人工智能普及速度加快,“强”人工智能可能会如期到来。同时,人工智能技术的不可解释性有可能会长期存在。近年来,人工智能技术发展势头迅猛,甚至有“出乎意料”与“势不可挡” 之感觉,人工智能正在快速嵌入各行各业。关于对人工智能“强与弱”的划分问题,国际上说法不一。概括起来有弱人工智能、通用人工智能、强人工智能、超级人工智能等提法,目前正处于“弱”与“通用”之间的发展阶段。实际上,当前在国际上对于人工智能的划分是有争议的, 主要体现在边界的表述不一。为了便于理解,本文将人工智能划分为两种:即“弱”人工智能和“强”人工智能。
关于“弱”和“强”人工智能的基本认识。“弱”人工智能是专注解决基于数学和计算机科学方法的具体应用问题,由此开发的系统能够自我优化。其主要表现:一是推理系统,机器证明。从逻辑表达式推导正式陈述,证明硬件和软件正确性的系统。二是基于知识系统。建模和汇集知识的方法,用于模拟人类专业知识和专家支持的软件(专家系统),部分与心理学和认知科学有关。三是模式分析和模式识别。一般归纳分析方法,特别是机器学习。四是机器人技术。机器人系统的自动控制,也是自治系统。五是智能多模人机交互。分析和“理解”语言(语言学)、图像、手势和其他形式人类交互。从应用出发,抢占市场, 首选应该是“弱”人工智能方向。“强”人工智能则是指人工智能系统具有与人类类似甚至超越人类的智能(引自《环球新工业》)。
“强”人工智能初见端倪,未来可能会实现。关于“强” 人工智能,目前存在争议,有些专家认为在人的情感和自主意识等方面,“强”人工智能很难实现,但也有专家认为情感和意识等也可以在人们日常工作生活中产生的海量数据中找到一定的规律。经过训练后,虽然不能完整体现人的情感和意识,但也已初见端倪,特别是生成式人工智能大模型已经有所表现。另外,当前神经网络、量子计算、脑机接口等技术的研发都有不同程度的进展。因此,未来“强”人工智能仍有可能会出现。
人工智能理论体系尚未建立,其不可解释性或将长期存在。由于人工智能基础理论体系至今没有建立或形成, 尚需要经过实践到理论的不断重复,也许需要较长的时间才能完成构建。比如说,深度学习是人工智能的重要内容, 由于其存在“事前可解释,事后不一致性”的问题,导致了不可解释性。因此,深度学习理论体系能否实现根本性的突破,关键在于发现并建立起连接各理论的桥梁,整合和发展基础数学、概率统计、数值计算等数学分支的理论工具。这些理论创新有望提高对深度学习的理解,从浅层网络和局部性质向深度网络和全局性质深化和扩展,为未来人工智能发展提供强有力的理论指导和方法驱动。另外, 目前也有一些专家正在探讨这样一个问题:如果有一天, 机器自我生成数据、自我训练,是否会走向“变异”,由此出现研发人员无法控制的局面等情况。因此,目前基本的判断是人工智能的不可解释性有可能在相当长的一段时期内存在。
二、人工智能赋能产业的发展
人工智能赋能产业发展的速度正在加快,相关产品将无处不在。同时,一旦新能源问题解决,“人工智能+ 机器人”将蜂拥而至。近年来,人工智能发展速度加快,人工智能芯片越做越小,功能越来越强。虽然仍属“初出茅庐”,但已经显现其在实际应用中的价值,其未来的价值与生命力无限可期。
人工智能是一门技术,以应用促发展。在开展人工智能基础理论体系研究的同时,当下要把人工智能技术应用到不同的场景中,以提高人们生产生活的质量、降低成本、减少消耗、提升效率等,让不同的群体在技术进步中有获得感。人工智能技术的应用需要与感知、大数据、云计算、高速无线移动通信、人机物互联等技术深度融合。比如说, 技术融合可推动数据服务向精细化与精准化方向转变,高速无线移动通信技术对数据进行高效传输,云技术对数据进行计算和存储,人工智能对数据进行分析、挖掘与决策等,由此可进一步拓宽更多行业发展的空间。
带有人工智能功能的产品将无处不在,需要让受众有获得感。目前带有人工智能功能的产品层出不穷,比如, 智能机器人、智能化生产线、智能化装备或设备(包括医疗仪器)、智能化运载工具(海陆空天)、智能手机、智能化服务平台(包括“人流”与“物流”)、智能安防系统等,均已取得了较好的业绩。另外,今年年初生成式人工智能大模型的面世,进一步推动了人工智能与工业、农业、服务业的深度融合,进一步夯实了远程办公、在线教育、在线咨询、在线问诊、在线服务(衣食住行)、远程控制等模式的基础,并将成为新常态。当下,我们既要构建好人工智能大模型,又要在大模型的基础上创造新的价值,发挥其应有的作用,让受众有切实的获得感。比如:人工智能医疗大模型的构建与应用有可能会改变现有的就医范式,短期内有可能会逐步实现除必须去医院之外的患者在大模型上“求医”的趋势,将极大地缓解医患供需矛盾。从目前医疗大模型的评测结果看,已经具备一定的“能力”,可以采用先易后难、非强制性等做法进行尝试,在实践中不断探讨医疗大模型的“执照”管理等问题,并培养一批乡村、街道卫生所的大模型应用人才,服务大众, 形成政府“搭台”(规则),医院融合有关企业“唱戏”, 老百姓受益的新范式。另外,在研发方面人工智能专业大模型还可以为新材料、新药的开发与应用赋能,提高质量、提升效率、降低成本等。总之,未来在人工智能的应用方面,企业只要能够想到就有可能做到。
带有人工智能功能的产品广泛应用,将受制于能源的供给。除大型计算机能耗大的问题之外,无论是有线还是无线的产品,都离不开能源的供给,即便通过产品自身的技术进步,可供降低的能耗空间也相对有限,远不能满足未来大发展的需要。当前发展新能源的势头明显,新能源的供给问题将逐步得到解决。由于未来市场的需求旺盛, 一旦能源供给问题得到解决,那么“人工智能+ 机器人(服务型、工业型等)”将纷至沓来,实现万亿产值规模可能会轻而易举。与此同时,也可能会进入到一个“人控制机器”还是“机器控制人”的竞赛时期,当然我们的愿望是人长期主宰世界。
人工智能嵌入到各行各业,将带来经济学、管理学的演变。过去大多数的企业是相对缺乏战略的,特别是在起家时靠的是一腔热情,但发展到一定程度后,就需要总结经验与教训,同时需要具备相应的洞察能力与战略布局能力,以求不断完善、创新,在求变中可持续健康发展。其中, 经济学的演变是未来经济发展的基础,管理学的演变是实现可持续发展的保障。比如未来进入万物互联时,我们需要什么样的经济学与管理学?在经济学方面,目前全球经济发展模式的主流是“市场经济”,未来基于“数据驱动的市场经济发展模式”或将成为主流,供需将会更加合理与平衡,投入与产出或将更加精准。但现有的经济学如何随之而变,亟须提前进行思考与研究。在管理学方面,推动数字化发展是智能化发展的基础,但由于当前管理“孤岛”大量存在,影响了数据的质量与数量,在一定程度上也阻碍了数字化的快速发展。为此国家专门设立了大数据相关部门,非常及时。未来,对数字化的投入仍需从战略和需求出发,力求做到精准,且投入产出相对合理。随着数字化工作的不断深入,管理部门、行业、企业内与外部的利益也将会重构,新的管理模式有可能成为打破“孤岛” 管理的命运共同体的管理模式。同济大学郭重庆院士曾说:“大数据将重新定义管理,人工智能将重新定义决策。传统管理学管理的安身立命的理论基础,系统论、运筹学、复杂性科学,都是主观对客观的表述,准确性需要验证, 而大数据无限接近真实。”
三、人工智能发展与安全和伦理风险问题
人工智能发展带来的问题不容忽视,主要是安全和伦理风险问题。同时,人类构建人工智能评测平台(体系), 将造福未来。人工智能在丰富人们生活、推动社会经济发展的同时,显然也带来了安全与伦理等风险问题。由于人工智能具有智能性和通用性等特点,很有可能会放大该技术对人们的正常工作和生活所带来风险的影响范围和程度。对此,我们需要早做准备,战略上谋划,行动上构建相应的基础设施,做好具备解决因人工智能发展带来新风险的能力的准备。同时,着手构建人工智能治理(主要是安全与伦理)体系,并将其纳入到未来国家治理体系中, 促进人工智能发展与治理相伴而生,协同演进。
人工智能发展带来“人为”的安全与伦理风险问题, 已成为国际上的共识,但对其产生的问题的严重程度在表述上或理解上仍不一致。总体看,当下的人工智能相关功能主要是通过大规模数据的获取、存储、训练、应用等来实现,对其开发和应用的门槛不断降低。一方面,人工智能具有新兴技术的共性风险问题;另一方面,由于其智能性和通用性等特性使得安全与伦理风险问题又显得更加突出与复杂。在安全方面,造成的人身安全、财产安全、环境安全、社群安全和国家安全等风险,以及在伦理方面, 造成的隐私、公平、平等、歧视、就业等风险大为增加。虽然,人工智能研究背后的意图通常是积极的,但开发出的技术既可能用于善的目的,也可能用于恶的目的。现如今,人工智能发展带来“人为”的安全与伦理风险问题可能每天都在发生且主要表现为:数据泄露、安全漏洞、设置后门、侵犯隐私、网络欺诈、假图像假新闻、黑客攻击、军事用途等等。
人工智能发展带来“变异”的安全与伦理风险问题, 已成为国际上争议的焦点。所谓“变异”就是指因在技术上没有解决的问题,而导致的结果不确定性,由此可能带来进一步的安全与伦理风险。首先,就“弱”人工智能而言,是深度学习的“可解释性”问题。所谓可解释性,就是研发时可解释,应用时出现的情况与“可解释”不一致。虽然深度学习在许多领域取得了巨大的成功,但因其缺乏可解释性,从而严重限制了其在涉及安全和伦理敏感的任务中的广泛应用。尽管许多研究人员对如何提高深度学习模型的可解释性进行了深入的研究,并提出了大量的解释方法以帮助用户理解模型内部的工作机制,但依然还有许多科学问题尚待解决。由此看来,深度学习的可解释性是一把双刃剑,一方面可以被应用于模型验证、调试优化、因子分析、知识发现等场景,另一方面由于解释方法与待解释模型之间可能存在不一致性,导致安全与伦理风险出现。此外,模型可解释性相关技术同样可以被攻击者利用, 以探测机器学习模型中的漏洞。同时,也存在其他顾虑, 如人工智能大模型自身会产生数据且自我训练,其后果将令人担忧。其次,就“强”人工智能而言,到目前为止, “强”人工智能在技术上是否是伪命题,在国际上仍有争论。即便在短期内很难实现,依然不能排除其未来实现的可能。若“强”人工智能具备自我意识和自由意志,达到或超越人类,而发生“变异”,无论设计者的初衷如何, 都很难确定其对人类主体的正向价值效应,由此出现的安全和伦理风险可能会更加难以应对。
构建人工智能评测平台(体系),将造福未来。当前, 人类社会是一个三元结构,即由人、物、人的社会构成。随着人工智能的发展,并不断与其他新兴技术融合, 有可能会导致四元结构的出现,即人、物、智能机器人、人机融合的社会。在未来人机融合的时代中,人对于机器的控制是前提。因此,我们亟须做好具备解决新问题的能力的准备,结合当前实际发生的情况与对未来的预判,布局未来,逐步建设人工智能治理体系, 并将其纳入未来国家治理体系中。其中,最迫切的是构建人工智能评测平台(体系),并将其作为未来治理的重大基础设施之一。虽然,目前世界上尚未有先例, 但其意义非同一般,是造福人类未来的一项系统工程。其主要的意义在于:一是未来社会发展的重要基础设施之一;二是人工智能发展与治理深度融合的平台(犹如速度与刹车的协同);三是将会产生大量的就业机会,也是相关专业型人才(包括从事科研、工程、法学、社会学、国际法及国际关系等方向的人员)、多学科交叉复合型人才、管理型人才(包括有关知识产权、监管、执法等领域的人员)等培养、成长与发挥作用的重要舞台;四是人工智能赋能各行各业可持续健康发展的基础保障;五是国际合作与交流的硬实力, 也是参与国际规则与标准制定的重要基础等。具体来说,循序渐进地构建人工智能评测平台(体系)建议可以分为三步:一是先从评测已经发生的安全问题着手,并尽快落地;二是积极开展伦理问题的评测研究, 使软性规则逐步转变为刚性要求或具有可操作性;三是加强对“变异”问题的前瞻性研究等。(见图1)
notion image
四、“以人为本”与“技术+规则”的竞争
由于人工智能具有“拟人”的特点,且“聪明过人”, 未来其产品“无处不在”也已成为大家的共识。在这种情况下,国际上担忧人工智能的发展或将带来前所未有的安全和伦理风险问题。因此,各国都在呼吁对人工智能发展进行规制,欧盟在这方面的起步比较早。我们认为,规制人工智能与《不扩散核武器条约》的做法有所不同。规制人工智能涉及的面广、量大,需要各国积极参与,共同促进人工智能可持续健康发展。
发展人工智能,各国秉持的“以人为本”价值观是一致的。从世界各国有关人工智能发展的规划、规范、原则、报告等文本看,其共同点在于发展人工智能必须坚持“以人为本”的价值观,我国也不例外。我们对人工智能发展的价值观认识主要有三:一是每个国家治理本国时须强调以本国人为本,在国与国之间合作时,需要找到合作的共同点,而不能强加于他国;二是和而不同,不管什么肤色的人,需要尊重多元文化,和睦相处;三是秉持人类命运共同体理念,人类共有一个地球,大家是绑在一条船上,同命运、共呼吸。尽管个别国家与个别组织用价值观限制中国参与人工智能国际规则与标准的制定,但这个做法在理论上和实操上都是行不通的。当前,中国拥有世界上最大的人工智能研究、开发、应用、人才培养等方面的队伍,倾注的人力和精力前所未有, 在人工智能国际规则制定中,若没有中国的参与,那必将是不完整的,也是不可想象的。
未来人工智能产品在国际竞争中,除了人才竞争之外, “技术+ 规则”的竞争有可能成为新常态。由于人工智能发展可能带来“人为”或者“变异”的安全和伦理风险, 世界各国普遍认为,如果不加以风险管理,未来“人工智能+ 机器人”很可能会逐步控制人类,所以必须要加以规制。在规则制定方面,主要有统一术语、知识产权、技术标准、法律法规、监督管理、国际外交等方面。经过40 多年的改革开放,我们在产品与技术的市场竞争和某些领域的规则制定中已取得了很好的成绩,如在5G、高铁、土木工程等方面。但从制定规则的整体上看,我国与发达国家相比尚有较大差距,特别是在人工智能的规则制定方面。众所周知,在国际市场竞争中,主动权一般掌握在有规则制定权的一方,在过往的经验与教训中,我们的感受是比较深刻的。如果从现在起加大力度,在原有制定规则的工作方式基础上进行改进和创新,成体系、多元化、适时性地开展人工智能的规则制定工作,循序渐进不断积累, 那么,一方面我们有可能在今后的国际竞争中从被动走向主动,在今后参与的国际规则制定中拥有话语权;另一方面还可以拉动就业。
 
(作者系上海交通大学客座教授,文章原标题:顺应发展趋势 迎接人工智能新挑战)
(本文刊登于《企业改革与发展》杂志第12期。如需转载,请注明出处。文中观点仅代表作者观点,供诸君思考。)