人工智能(Artificial Intelligence,AI)被视为第四次工业革命的核心技术。世界大国都制定了国家战略,抢占科技制高点。我国也高度重视人工智能的技术创新。2017年7月,国务院印发《新一代人工智能发展规划》[1],不仅对人工智能的发展做出了战略性部署,还确立了“三步走”的政策目标,力争到2030年将我国建设成为世界主要人工智能创新中心。
但是,任何技术进步都伴随着一定的社会风险。科学技术是现代“风险社会”风险的重要源头之一[2-4]。然而,过度放大的公众风险感知与消极态度将对技术创新(扩散)的广度、深度和速度产生巨大影响。虽然社会科学无法从根本上破解风险的不确定性,但可以探究不同社会行动者如何感知和接受(抵制)各类风险[5],助力智能技术的可持续发展,同时为有效开展人工智能的科学传播和风险沟通提供实证基础。对于管理者来说,及时了解民众的态度与诉求,有利于制定更具社会基础的新兴技术治理机制与创新政策;对于生产者来说,实时掌握消费者的收益期望与风险担忧,有助于改进智能产品的功能设计和提升市场定位的精准度;对于研究者来说,关注人工智能技术的公众态度,有助于理解创新技术的社会认知机制,在人工智能研究与开发过程中强化科研伦理意识,践行“负责任的研究与创新”;对于科学传播者来说,深入探究受众对新兴智能技术应用的态度及其影响因素,有利于更有效地开展科学传播与风险沟通。
目前关于人工智能公众态度的实证研究正在快速增长,但系统性的文献回顾较少。本文归纳已有实证研究关于人工智能公众态度的概念界定,梳理人工智能公众态度测量指标设计,并基于当前的概念界定和指标设计的局限性,进一步讨论已有的验证研究工作在数据收集、比较研究方面存在的不足,思考未来人工智能公众态度实证研究可能的探索方向。需要说明的是,有关公众态度影响因素的分析是一支成果丰富的研究脉络,但本文受篇幅所限暂未做专门梳理,仅研究不同群体、国家、时期和技术应用领域的公众态度的测量指标。
二、人工智能公众态度的概念界定对人工智能公众态度的实证研究首先需要对相关概念进行界定。“人工智能”和“公众态度”是人工智能公众态度的核心关键词。对概念中相关因素的梳理和理解,直接影响到态度测量指标体系的设计。
1. 人工智能人工智能概念诞生于1956年,进入21世纪后,随着大数据的积聚、理论算法的革新、计算能力的提升,智能技术应用取得突破性进展,进入快速发展的繁荣期。作为前沿的交叉学科,目前还没有一个统一的人工智能的精确定义[6]。
我国《人工智能标准化白皮书(2018年)》给出的定义:“人工智能是利用数字计算机或者由数字计算机控制的机器,模拟、延伸和扩展人类的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术和应用系统。”[7]这种界定不涉及人工智能具体应用场景,是对总体(一般)意义上的人工智能的界定。除了一般意义上的人工智能技术,具体应用场景(例如生产机器人、医疗诊断机器人、护理机器人、自动驾驶汽车、人脸识别和语音识别等)才是智能技术发展与治理的落脚点,许多实证研究对人工智能的关注具体落到了这些具体应用场景[8]。因此,人工智能研究在提及人工智能时主要涉及两个层面:一是作为总体(一般)技术的人工智能;二是作为特定应用领域的智能技术或产品[6]。
2. 公众态度相应地,关于人工智能公众态度的研究也可以分为两个层次:①对总体(一般)人工智能技术的态度;②对特定应用领域人工智能技术的态度。这两类态度相互关联但又各不相同:公众对总体(一般)人工智能技术的支持并不意味着对特定智能技术的支持,不同应用领域人工智能的公众态度可能差异巨大[9]。在具体研究中,人工智能公众态度并不一定直接使用“人工智能”概念,人工智能、机器人和机器学习等术语经常交替使用。
社会心理学认为:一个人的态度可以界定为个体对人/事物的积极或消极的评价性反应,它通常根植于个体的信念,表现于个体的感受或行为倾向中[10]。这一态度概念包含三个不同维度:认知(cognition)、情感(affect)和行为倾向(behavior tendency)[11]。基于态度的多维度概念框架,公众理解科学(public understanding of science,PUS)领域的研究者也将公众的科学态度操作化为三个基本维度:①认知维度,即公众关于科学技术的知识与感知;②情感维度,即对科学技术的兴趣与信任;③行为倾向维度,即对科学议题或技术应用的接受、支持与使用偏好[12]。
基于这些不同的维度,人工智能公众态度的测量指标既包括情感层面,也涉及认知层面和行为层面。信任度、接受度和治理期望等都是人工智能公众态度的内涵。因此,在态度测量的指标体系的设计中,就可能包括对知识、技术、应用乃至治理的接受、了解和期盼。
三、人工智能公众态度的测量指标公众对于人工智能的态度包括诸多方面,如何对这些态度进行测量,这属于实证研究的一项重要内容。已有相关研究中有大量工作是开发不同维度的人工智能公众态度测量指标。这些工作通过探讨指标的适用性、指标体系的合理性等,研究人工智能的公众态度的测量视角、效果等问题。
1. 公众对人工智能的了解程度在公众理解科学领域,研究者主要从两个方面考察公众对科学的了解与知识:一是主观评价的了解程度;二是客观测量的知识水平[13-14]。具体到人工智能技术,目前还没有测量公众关于人工智能客观知识的成熟量表,已有研究主要通过以下方式测量公众的认知程度:①让受访者自我评价对人工智能的了解程度,具体选项有相对粗刻度的两分类——“听说过”和“没听说过”[15-17],也有相对细刻度的五分类——“非常了解”“比较了解”“有点了解”“几乎不了解”“完全不了解”[16-19]。这是目前最主流的测量方式,既适用于对总体(一般)人工智能技术的认知测量,也适用于对特定智能技术或产品的认知测量。②让受访者自我评价是否能够辨别使用了人工智能技术的产品和服务[20]。③让受访者从一系列应用实例中判断哪些运用了人工智能技术,这是一种相对客观的测量方式,有助于准确评估公众对人工智能具体应用领域的认知度[21-22]。④让受访者分别判断两类机器人图片(人形和非人形机器人)在多大程度上符合自己心目中的机器人形象[23],这一测量指标考察的是公众对机器人的刻板印象,过于人格化的机器人形象反映了公众对人工智能技术的认知局限。上述测量中,前两种属于主观测量指标,后两种属于客观测量指标。此外,还有学者用计算机学历(教育)作为客观智能知识的代理变量,这是一种测量客观知识的便捷方式[22],但其测量效度还有待进一步检验。
2. 公众对人工智能的风险-收益感知风险与收益感知是公众理解科学和风险沟通领域的一个核心议题。具体到人工智能技术,学术界对人工智能的收益-风险维度已形成一定共识,有学者将其总结为四组对立组合模式:①更长寿与非人性,智能医疗有望大幅提高人们的预期寿命,但也可能引发人类的身份认同危机。②舒适与淘汰,人工智能够提高人们生活的便捷性,但也可能取代人们的工作。③满足与疏离,人工智能随时回应人类的需求,但也可能导致人际疏离。④控制与被控制,智能武器极大增强了人类的军事力量,但也可能导致人类最终被计算机控制[24-25]。
那么,公众如何感知上述潜在的风险-收益?已有研究主要采用两种测量方式:一是整体的风险-收益比较,即询问受访者对人工智能技术或特定智能产品的总体感知,具体选项包括“风险高于收益”“收益高于风险”和“两者相当”,或是“有益”“有害”和“无害也无益”等选项[16,20]。这些选项不涉及具体的风险-收益,是一种宽泛抽象的测量方式。二是具体的风险收益感知,即询问受访者是否感知到了人工智能技术或具体智能产品的特定风险或收益[15,23,26]。这是目前主流的测量方法。
3. 公众对人工智能的信任度信任是公众理解科学和风险沟通领域一个备受关注的研究议题。普通公众的科学知识相对有限,面对充满不确定的复杂新兴技术,“信任”能够影响他们对技术的风险-收益感知和接受度[27]。具体到人工智能,“可信赖的AI”已成为人工智能技术发展与治理的重要原则[28]。相关研究不仅从理论层面定义什么是可信赖的人工智能,例如安全性、公平性、隐私性、可解释、可问责等[29],还聚焦于从实践层面探讨如何制定相关技术标准与监管制度[30-31],进而提升社会对人工智能的信任程度。
那么,公众是否以及如何信任人工智能?对这一重要问题的回答与研究者如何测量公众信任密切相关。已有研究主要关注两类信任:一是对人工智能技术的信任;二是对智能技术相关机构(群体)的信任[9]。第一类信任是目前的研究重点,主要集中于人因(Human Factor)研究领域。学者从不同维度测量公众对人工智能技术本身的信任:有的区分了公众对不同形态的人工智能(实体机器人、虚拟AI和嵌入式AI)的信任,有的考察了人工智能技术信任的不同来源(基于认知的信任和基于情感的信任)[32],有的将公众的技术信任分为倾向性信任、情景性信任和习得性信任[33],还有学者认为一般的人机信任量表可能不适用于特定的人机互动场景,因此需要针对特定工业机器人设计专门的人机互动信任量表[34]。第二类信任主要测量公众对人工智能技术的研究者(科研机构)、生产者(技术公司)和管理者(管理机构)的信任。这是一种制度信任,具体测量时往往又包括不同的测量指标和维度,如“是否信任他们提供的信息”“是否信任他们的能力”“是否信任他们的道德(如在研发/生产/治理人工智能过程中考虑公众利益)”等[22,35]。
4. 公众对人工智能应用的接受度公众能否以及在多大程度上接受人工智能在工作或生活中的应用,或公众是否以及多大程度上支持人工智能的发展,是人工智能公众态度研究的最终落脚点。
已有研究主要测量了三个层面的接受度:①公众对智能技术的总体支持度。即询问受访者对发展人工智能技术总体上持积极还是消极态度,通常使用五度李克特量表——“非常积极”“比较积极”“中立”“比较消极”和“非常消极”[15,26]。②公众对不同领域智能技术应用的支持、接受或选择比较。例如询问受访者支持发展哪些领域、反对发展哪些领域,或是愿意使用哪些智能产品,具体选项(领域)包括语音(人脸)识别、智能广告推送、智能教育、智能医疗、自动驾驶汽车、生产机器人和社会机器人等[15,19]。③公众对特定智能产品不同类型、功能和使用场景下的接受度。以自动驾驶为例,询问受访者对自动驾驶的不同自动化程度(驾驶员辅助/部分自动化/条件自动化/高度自动化/完全自动化)和不同使用场景(载物/载人,载儿童/成人)的使用和购买意愿[36]。这些更为细化的测量指标旨在了解公众(消费者)能够接受的技术使用门槛与界限。
5. 公众对人工智能治理的期望在人工智能技术治理框架中,公众都被视为技术治理主体的重要组成部分,承担着重要的监督责任[8]。因此,公众对人工智能治理的态度成为学界关注的焦点。
已有研究主要从三个方面测量公众的治理态度:①治理力度,询问受访者是否认为应该对人工智能进行严格监管,通常使用五度李克特量表(非常同意/比较同意/无所谓/不太同意/非常不同意),这是使用最多的测量指标[15,22-23,26,37]。②治理主体,询问受访者谁应承担人工智能治理的主要责任,具体选项包括“政府”“国际组织”“独立机构”“科技公司”“科学家”和“技术使用者”等[18,36]。其中,政府责任是治理主体重点,研究者通常会进一步询问受访者如何看待政府的治理责任,选项包括“政府不直接提供研发资金但制定监管政策且鼓励私营部门发展智能技术”“政府直接投入研发资金来推动智能技术发展”“政府不直接提供研发资金也不制定监管政策但鼓励私营部门发展”和“政府不应该支持发展智能技术且制定严格的技术门槛”等[16]。③治理内容(领域),询问受访者认为应该重点监管的应用领域,选项包括“保护个人隐私与权利”“传播信息审查”“数据安全”和“防止智能黑客的网络攻击”等[22]。其中,数据保护是治理内容重点,研究者通常会进一步询问受访者对数据隐私等重要监管内容的看法,具体问题包括“是否愿意分享自己的个人数据”“愿意与哪些机构分享个人数据”“如何存储个人数据”等[18]。
四、讨 论人工智能作为一种新兴技术,学者们对人工智能公众态度的实证研究也属于新兴的研究领域。虽然不同国家(主要是欧美)已经积累了相对丰富的实证研究,但在人工智能公众态度构成要素、影响要素非常复杂,而且人工智能技术本身也日新月异、不断进步,这使得人工智能公众态度的概念界定、测量指标设计更加复杂。广为接受的、统一的、标准化和具有可比较性的测量指标仍然比较缺乏。各项实证研究仍处于各自为战的阶段,各种测量指标层出不穷,但能够为大规模调查和不同研究者广为接受的测量指标很少。例如,在对公众人工智能知识(及了解程度)测量方面,大多数已有研究的测量仍相对“粗糙”,主要依靠受访者自评的了解程度,而缺乏像科学素养那样成熟且广为接受的客观知识量表。在公众对人工智能的信任方面,尽管“可信的生态系统”已经成为主要国家和地区人工智能发展与治理的政策目标[28],但对人工智能公众信任度的研究仍未得到充分重视[9],如何测量公众对人工智能的信任仍是亟待改进的研究短板[32]。
这就使得应用这些测量指标所做的验证研究、数据收集等存在精度不高、标准化不足和可比较性不强等问题,进而导致不同时期、不同国家、不同研究者的研究结果尚难形成可靠的结论。具体来说,首先是系统性、高质量的数据收集仍然比较缺乏。从全球范围看,能够长期系统性、大规模地收集高质量数据的实践仍然极少。最有代表性的是欧洲的“欧洲晴雨表”(Eurobarometer),该项目定期收集并公布欧盟公众对科学技术的总体态度和对各类新兴技术的具体看法,是公众理解科学领域的权威数据来源。在人工智能公众态度方面,“欧洲晴雨表”通过一系列关于人工智能、机器人和自动驾驶技术的专项调查[15,23,26,36],积累了丰富的横向与纵向公众态度数据。相比之下,即便是美国,也缺乏如此系统丰富的人工智能公众态度调查数据。中国的相关权威数据尤为稀缺,2018年的中国公民科学素质调查设计了关于人工智能公众态度的少量题目[37],但2020年的最新调查则没有相关议题。
其次是数据收集手段仍然比较单一。已有研究主要采用问卷调查了解人工智能的公众态度。这一研究方法的优势在于测量的标准化和结论的代表性,有利于做跨地区和跨时期的比较分析,但单一的问卷调查实证研究也存在明显的不足,如对人工智能公众态度的具体内涵无法做更细致的描述和阐释。当公众回答不信任人工智能技术时,他(她)的真实意涵是什么?当公众提到担心人工智能带来的风险时,他(她)所说的风险具体是什么?这都需要能够带来更丰富信息的实验研究、个案访谈和焦点组访谈等多种方式收集数据。此外,在人工智能迅速发展的时代,使用人工智能收集和分析“人工智能公众态度”的实证研究仍然十分罕见。其部分原因可能在于这一领域的研究者仍以社会科学从业者为主,对人工智能分析技术和方法的掌握相对滞后。
再次是跨国、历时性的比较分析缺乏。受限于前述两方面的原因,目前在人工智能公众态度领域,尚没有出现高质量的跨国和历时性比较分析成果。2021年Ipsos对全球28个主要国家做了相关的调查[20],这为跨国比较研究提供了良好的数据基础,但作为非制度性的调查项目,很难期望该项目在人工智能公众态度研究上能够持续性地在多个国家收集调查数据,从而对整个人工智能领域的公众态度有更加宏观和系统的理解。
可以说,实证研究测度人工智能公众态度的重要路径。但是,现有实证研究存在的不足也促使我们思考如何开展更加深入的研究,比如进一步开发关于人工智能的客观知识量表。未来研究可以尝试开发一种类似于科学素养的“人工智能素养”量表,这不仅有利于精准评估人工智能的社会认知度,也有助于对不同实证研究结果的比较分析。同时,还可以针对具体应用领域(如智能交通)和特定智能产品(如自动驾驶汽车),开发一系列更有针对性的知识量表,进而构建更加立体的知识测量指标体系。此外,还可以构建更为成熟的关于人工智能的公众信任量表,构建发展学术共同体以推动跨国别、历时性告质量数据的收集,引入和发展在线公众协商对话、在线信任游戏实验、基于媒体内容的大数据分析等新的数据收集和研究分析手段。
[1] |
国务院. 新一代人工智能发展规划. http://www.gov.cn/xinwen/2017-07/20/content_5212064.htm. [2017-07-20].
|
[2] |
Luhmann N. Risk: A Sociological Theory. Berlin: de Gruyter, 1993.
|
[3] |
安东尼·吉登斯. 现代性的后果. 南京: 译林出版社, 2011: 115–118.
|
[4] |
乌尔里希·贝克. 风险社会: 新的现代性之路. 南京: 译林出版社, 2018: 1–7.
|
[5] |
方芗. 中国核电风险的社会建构: 21世纪以来公众对核电事务的参与. 北京: 社会科学文献出版社, 2015: 1–2.
|
[6] |
Stone P, Brooks R, Brynjolfsson E, et al. Artificial Intelligence and Life in 2030: Report of the 2015 Study. https://ai100.stanford.edu/2016-report. [2016-09-01].
|
[7] |
中国电子技术标准化研究院. 人工智能标准化白皮书(2018). http://www.cesi.cn/201801/3545.html. [2018-01-01].
|
[8] |
薛澜. 如何构建一个平衡包容的人工智能治理体系. https://www.mbachina.com/html/tsinghuasppm/20211221/392370.html. [2021-12-11].
|
[9] |
Zhang B B. Public Opinion toward Artificial Intelligence. https://ideas.repec.org/p/osf/osfxxx/284sm.html. [2021-10-18].
|
[10] |
Eargly A H, Chaiken S. Attitude Research in the 21st Century: The Current State of Knowledge. In: Albarracin D, Johson B T, Zanna M P. The Handbook of Attitudes. Mahwah, NJ: Erlbaum, 2005.
|
[11] |
Ajzen I. Attitude Structure and Behavior. In: Pratkanis A R, Breckler S J, Greenwald A G. Attitude Structure and Function. Hillsdale, NJ: Lawrence Erlbaum Associates, 1989: 241–274.
|
[12] |
Schfer M S, Füchslin T, Metag J, et al. The Different Audiences of Science Communication: A Segmentation Analysis of the Swiss Population's Perceptions of Science and their Information and Media Use Patterns.
Public Understanding of Science, 2018, 27(7): 836-856.
DOI: 10.1177/0963662517752886. |
[13] |
Allum N, Sturgis P, Tabourazi D, et al. Science Knowledge and Attitudes across Cultures: a Meta-analysis.
Public Understanding of Science, 2008, 17(1): 35-54.
DOI: 10.1177/0963662506070159. |
[14] |
Rose K M, Howell E L, Su L Y F, et al. Distinguishing Scientific Knowledge: The Impact of Different Measures of Knowledge on Genetically Modified Food Attitudes.
Public Understanding of Science, 2019, 28(4): 449-467.
DOI: 10.1177/0963662518824837. |
[15] |
European Commission. Special Eurobarometer 460: Attitudes towards the Impact of Digitisation and Automation on Daily Life. Brussels: European Union, 2017.
|
[16] |
Ipsos MORI. Public Views of Machine Learning. https://royalsociety.org/-/media/policy/projects/machine-learning/publications/public-views-of-machine-learning-ipsos-mori.pdf. [2021-12-10].
|
[17] |
朱依娜, 何光喜. 信任能降低公众对人工智能技术的风险感知吗?.
科学学研究, 2021(10): 1748-1757.
|
[18] |
Department for Business, Energy, Industrial Strategy. Public Attitudes to Science 2019. https://assets.publishing.service.gov.uk/government/uploads/system/ uploads/attachment_data/file/905466/public-attitudes-to-science-2019.pdf. [2020-07-01].
|
[19] |
人民论坛问卷调查中心. 公众对人工智能发展的认识、担忧与期待.
国家治理, 2019(4): 22-47.
|
[20] |
Ipsos MORI. Global Opinions and Expectations about Artificial Intelligence. http://www.ipsos.com/en/global-opinions-about-ai-january-2022. [2022-01-01].
|
[21] |
Northstar. AI Today, AI Tomorrow: The Arm 2020 Global AI Survey. https://www.arm.com/resources/report/ai-today-ai-tomorrow. [2020-09-18].
|
[22] |
Zhang B B, Dafoe A. Artificial Intelligence: American Attitudes and Trends. Oxford, UK: Center for the Governance of AI, Future of Humanity Institute, University of Oxford, 2019.
|
[23] |
European Commission. Special Eurobarometer 382: Public Attitudes towards Robots. Brussels: European Union, 2012.
|
[24] |
Cave S, Dihal K. Hopes and Fears for Intelligence Machine in Fiction and Reality.
Nature Machine Intelligence, 2019, 1(2): 74-78.
DOI: 10.1038/s42256-019-0020-9. |
[25] |
Cave S, Coughlan K, Dihal K. “Scary Robots”: Examining Public Responses to AI. https://dl.acm.org/doi/pdf/10.1145/3306618.3314232. [2021-05-06].
|
[26] |
European Commission. Eurobarometer 427: Autonomous Systems. Brussels: European Union, 2014.
|
[27] |
Siegrist M. Trust and Risk Perception: A Critical Review of the Literature.
Risk analysis, 2021, 41(3): 480-490.
DOI: 10.1111/risa.13325. |
[28] |
European Commission. White Paper on Artificial Intelligence: A European Approach to Excellence and Trust. https://commission.europa.eu/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en. [2021-09-10].
|
[29] |
Thiebes S, Lins S, Sunyaev A. Trustworthy Artificial Intelligence.
Electronic Markets, 2021, 31(2): 447-464.
DOI: 10.1007/s12525-020-00441-4. |
[30] |
Liu H, Wang Y, Fan W, et al. Trustworthy AI: A Computational Perspective.
ACM Transactions on Intelligent Systems and Technology, 2022, 14(1): 1-59.
|
[31] |
Brundage M, Avin S, Wang J, et al. Toward trustworthy AI Development: Mechanisms for Supporting Verifiable Claims. https://arxiv.org/pdf/2004.07213v1.pdf. [2021-10-09].
|
[32] |
Glikson E, Woolley A W. Human Trust in Artificial Intelligence: Review of Empirical Research.
Academy of Management Annals, 2020, 14(2): 627-660.
DOI: 10.5465/annals.2018.0057. |
[33] |
Hoff K A, Bashir M. Trust in Automation: Integrating Empirical Evidence on Factors That Influence Trust.
Human Factors, 2015, 57(3): 407-434.
|
[34] |
Charalambous G, Fletcher S, Webb P. The Development of a Scale to Evaluate Trust in Industrial Human-robot Collaboration.
International Journal of Social Robotics, 2016, 8(2): 193-209.
DOI: 10.1007/s12369-015-0333-8. |
[35] |
Chen Y N K, Wen C H R. Impacts of Attitudes toward Government and Corporations on Public Trust in Artificial Intelligence.
Communication Studies, 2021, 72(1): 115-131.
DOI: 10.1080/10510974.2020.1807380. |
[36] |
European Commission. Eurobarometer 496: Expectations and Concerns of Connected and Automated Driving. Brussels: European. Union, 2019.
|
[37] |
何薇, 张超, 任磊等. 中国公民的科学素质及对科学技术的态度——2018年中国公民科学素质抽样调查报告.
科普研究, 2018, 13(6): 49-65.
|