【摘要】通用人工智能的开发和应用无疑都展现出了巨大的潜力,但由于其内在复杂性,以及与其相关的不确定性,通用人工智能在法律界定和监管方面仍面临着挑战。在推动技术进步的同时,需强化跨学科合作,以充分发掘通用人工智能和心理学的互补性;在明确界定通用人工智能责任归属的基础上,提高通用人工智能透明度和可解释性,并完善数据处理和保护规定,与此同时,提倡通用人工智能在心理学实践中的伦理应用。这些措施将有助于通用人工智能在心理学领域的健康、安全和高效应用。
【关键词】通用人工智能 心理学 法律 挑战
【中图分类号】TP29 【文献标识码】A
【DOI】10.16619/j.cnki.rmltxsqy.2023.14.008
【作者简介】朱廷劭,中国科学院心理研究所研究员、博导,中国科学院行为科学重点实验室副主任。研究方向为大数据心理学、 网络挖掘、机器学习。主要著作有《大数据时代的心理学研究及应用》等。
人工智能(Artificial Intelligence,简称AI)这一概念诞生于1956年,由约翰·麦卡锡(John McCarthy)及其同仁首次提出,其核心思想是通过计算机系统模拟人类智能的过程。这一领域的发展历程跨越了几十年,期间有关AI的定义层出不穷,各种解读和理解不断涌现。然而,最被广泛接受的定义依旧来自麦卡锡,他在2004年正式将AI定义为“制造智能机器,特别是智能计算机程序的科学和工程”。这一定义不仅揭示了AI的本质,也指出了其发展方向。近年来,人工智能领域得到了迅猛发展,分化出了众多子领域,这些子领域的研究成果已经被广泛应用于各个行业和领域。其中,通用人工智能(Artificial General Intelligence,亦称强人工智能,简称AGI)这一概念引起了越来越多的关注。AGI与传统的AI有着显著的区别,它被设计为具有高度自主性的系统,其目标是在大多数产生经济价值的工作领域中超越人类的能力。AGI通常具有强大的理解、学习、适应和实施知识的能力,这使得它能够展现出与人类相似甚至在一定程度上超出人类的认知能力。AGI的出现为人类的生产和精神活动带来了前所未有的可能性,同时也带来了一系列的挑战。这些挑战不仅涉及技术层面,更涉及伦理、法律等多个领域。因此,深入探究AGI,理解其在心理学领域中的潜在应用,以及伴随其发展而来的道德和法律风险,就显得至关重要。这不仅需要我们从技术角度出发,更需要我们从心理学、伦理学、法学等多个角度进行深入研究和探讨。
AGI概述及其法规要求
艾伦·图灵(Alan Turing)曾猜想,如果一台机器能够模拟出人类的认知,那么我们就可以称之为拥有智能。AGI的出现正是在追求这样一种智能,即一种具有人类级别智能的、能够理解和执行任何认知任务的系统,而不仅仅局限于特定的、有限的任务(Bhatti et al., 2023)。AGI的这一特性与大多数现有的人工智能系统形成鲜明对比,后者通常被设计和训练来执行特定的任务,如图像识别或自然语言处理。具体而言,通用人工智能的设计理念,就是为了克服传统AI在未经特定训练的新任务或环境中性能可能会大打折扣的问题,以实现在任何类型的任务上都能理解和学习。近年来,深度学习和图卷积神经网络等先进的技术在处理非欧几里得空间数据等复杂任务中显示出其潜力(Bhatti et al., 2023),这标志着AGI的发展已经取得了显著的进步。然而,AGI仍面临许多挑战,如决策过程的透明性和可解释性,以及在无人监督的情况下保证其行为的道德性和合法性。这些问题都在提示我们,AGI虽然是人工智能发展的一个重要方向,但其成为一种能够在任何智能任务上表现出人类级别的性能的系统,仍有着漫长的路要走。
在使用AGI或任何类型的AI的过程中,我们都需要严格遵循现有的伦理准则和法规要求,确保其在服务人类的同时,不会侵犯个人的隐私,保证数据安全,并维持公平性和透明性(Azam et al., 2023)。例如,欧盟出台《通用数据保护条例》(General Data Protection Regulation,简称GDPR)加强对个人数据的保护,包括数据收集、存储、使用和传输等方面的规定(Meszaros et al., 2022)。中国则实施《中华人民共和国个人信息保护法》等法律法规,明确数据主体的权利和数据处理者的义务(Ella, 2022)。除了法律要求,研究者同样需要遵循一系列的伦理准则,以确保AGI的使用不会对个人和社会产生不公平或不合理的影响。这些准则包括尊重个人的自主权、保护个人的隐私和数据安全,以及确保AGI的决策过程的公平性和透明性(Meszaros et al., 2022)。在研究过程中,研究者需要确保研究对象的知情同意,同时在任何的研究报告或文献中,都不能泄露用户的个人隐私信息,以及有可能暴露个人身份的重要线索。
综上所述,无论在欧洲还是在中国,通用人工智能的使用都需要遵循一系列的伦理准则和法规要求。这些准则和要求旨在保护个人的隐私和数据安全,同时也确保人工智能的使用不会对个人和社会造成危害。这正是我们在推进人工智能技术发展的同时,必须遵循的道德和法律原则。
AGI在心理学领域的潜在作用
通用人工智能在心理学的研究和实践中的潜能是深远且多元的。AGI的核心目标在于模拟人类的智能和适应性,这使得AGI在理解和模拟人类心理过程方面具有无可比拟的优势(Abdüsselam, 2023)。在心理学的研究领域,AGI的应用可以深化我们对复杂人类认知过程的理解。例如,AGI可以被用作一个强大的工具,模拟人类的决策过程,从而揭示人类是如何在面临不确定性的情况下作出决策的(Wolff, 2023)。这种模拟不仅可以帮助我们理解决策过程的机制,还可以揭示人类如何处理信息、评估风险,以及如何在多种可能的选择中作出最佳决策。此外,AGI还可以模拟人类的学习过程,以研究人们是如何从经验中学习和适应新的环境的(Abdüsselam, 2023)。这种模拟可以帮助我们理解学习的机制,包括记忆的形成、知识的获取、技能的发展等。
在心理学的实践领域,AGI也有可能发挥重要作用。例如,AGI可以用来开发更有效的心理治疗方法。通过模拟人类的心理过程,AGI可以帮助心理治疗师更好地理解他们面对的患者,从而提供更个性化和有效的治疗(Irshad et al., 2022)。这种模拟可以帮助治疗师更好地理解患者的心理状态,包括他们的情绪、思想、行为模式等。此外,一些基于AGI的聊天机器人已经被应用于心理咨询,帮助人们处理焦虑和压力等问题(Gündoar and Niauronis, 2023)。这些机器人可以提供及时的反馈,帮助人们更好地管理情绪和应对压力。
AGI还可以用来开发新的心理评估工具。通过分析人们的面部表情、语音和文本等信息,AGI可以识别出人们的情绪状态,这对于理解和模拟人类的心理过程具有重要作用(Zhao et al., 2022)。此外,利用AGI分析和解释复杂的行为数据,能够提供更准确和详细的心理评估(Mikkelsen et al., 2023)。这种评估可以帮助我们更好地理解人类的行为模式,包括他们的情绪反应、社交行为、决策过程等。
总体来说,AGI在心理学的潜在作用是广泛的,从基础研究到临床实践,都有可能受益于AGI的发展。但正如前述,尽管AGI的潜力巨大,但在实际应用中,我们还需要考虑到伦理和法律问题,如数据共享和隐私保护。这些问题需要我们在推动AGI应用的同时,保护个人的隐私和权益,确保AGI的发展在一个公平、公正和透明的环境中进行。
AGI的法律限制和面临的挑战
尽管世界各国对于通用人工智能的法律限制和监管体系多种多样,但我们可以发现一种普遍趋势,即法律体系在不断强调个人隐私保护、数据安全,以及保障AGI使用的公平性和透明性这些核心原则。然而,由于AGI的内在复杂性,以及与其相关的不确定性,对AGI的法律界定和对其进行有效监管仍面临着挑战。
首先,对于如何明确界定AGI的责任承担,法律界尚未达成统一的共识。传统法律中的责任归属大多是基于个体行为,而AGI作为一个无法进行主观认知的机器实体,其行为如何纳入现有的责任框架,无疑是一大挑战。其次,如何确保AGI的决策过程具备透明性,也是一个有待解决的问题。由于AGI的决策常基于复杂的算法和海量数据,其过程往往难以解析和理解。因此,如何确保AGI决策的可审计性和可解释性,是法律面临的重要问题。最后,如何合法、安全地处理跨境数据传输是一个至关重要的问题。AGI的运作有赖于全球范围内的数据输入,因此,对于跨境数据的传输、存储和使用等方面,都需要明确的法律指引。
就当前而言,诸如GDPR和《中华人民共和国个人信息保护法》等法律条例都对数据处理者设定严格的法律责任,要求他们必须确保个人数据的安全和私密性,并且只能在明确、合法的目的下进行数据的收集和使用。这种法规对AGI的运作和发展提出了重大的挑战,因为AGI的功能发挥基本上依赖于对大量数据的处理和学习,这意味着AGI必须在严格遵守数据保护法规的前提下,才能进行有效的数据处理。值得一提的是,这些法律限制不仅关乎数据的处理,也涉及到AGI的具体应用,因此,需要进一步的法律和道德层面的探讨。
AGI应用于心理学领域的相关建议
通用人工智能在心理学领域的应用既充满机遇,也面临挑战。在推动技术进步的同时,我们要高度重视个人权益的保护以及公众福祉的维护。通过对通用人工智能技术在心理学领域应用的相关问题进行深入探讨,笔者提出以下建议。
建立和增强跨学科合作。随着通用人工智能技术的日益发展和深化,其应用领域不断扩展,心理学自然也囊括其中。但是,这种科技的前沿和复杂性使得单一学科难以全面深入地研究和应用AGI。例如,心理学家通常对AGI背后的计算机科学理念和技术不够熟悉,而计算机科学家则可能缺乏对人类心理过程和行为的深入理解。此外,AGI的使用过程中可能涉及一系列法律问题,包括但不限于数据保护、隐私权以及责任归属等,需要法律专业人士的介入和指导。这一点在心理学领域的AGI应用中更为重要,由于涉及到大量的敏感个人数据,如心理咨询记录、诊断信息、治疗方案等,因此,有必要建立一种跨学科的合作机制,鼓励和引导心理学家、计算机科学家和法律专业人士的全面参与。
建立和增强跨学科合作的预期目标是将各个领域的专业知识和技能有机结合,从而更好地研究和应用AGI在心理学领域的可能性。心理学家可以通过他们对人类心理过程和行为的深入理解来帮助计算机科学家构建更为符合实际的模型和算法。例如,心理学可以提供有关心理疾病的诊断和治疗方法,以及人类情绪、动机和行为等方面的研究成果,用以优化AGI的心理治疗程序。计算机科学家则可以利用这些理解来改善AGI的设计和运行,使其能够更有效地处理和利用心理学数据,从而提高其在心理治疗中的应用效果。与此同时,法律专业人士可以为这种合作提供法律建议,解释相关法规,预防法律风险,以及在出现法律问题时提供解决方案。这样的跨学科合作不仅能够推动AGI在心理学领域的研究和应用,也有助于预防和解决可能出现的法律问题,从而确保AGI在法律上的合规性和在实际应用中的有效性。
明确界定AGI责任归属。随着通用人工智能技术的快速发展和广泛应用,其在诸如心理咨询等领域引发的责任归属问题也越来越突出。具体来说,由于AGI系统具有自我学习和自我决策的能力,因此,在AGI的行为所导致的问题上,传统“责任归属于制造商或用户”的归责模式可能无法完全适用。例如,如果一个AGI系统在提供心理咨询建议的过程中犯了错误,是由制造商、程序员,还是用户承担责任?在一些复杂的情况下,比如,AGI系统基于用户的输入和环境的反馈进行自我学习与调整,进而导致问题的发生,该如何确定责任?这些都是目前面临的挑战。因此,我们需要建立一个新的、明确的责任框架,来应对AGI在心理咨询等领域应用中可能出现的问题。
界定AGI开发和使用过程中的责任归属问题的预期目标,是确立一个尽可能明确的责任框架来帮助我们更好地理解和管理AGI的使用,特别是在诸如心理咨询等涉及个人隐私和安全的领域。首先,这个责任框架可以为AGI制造商、程序员和用户提供明确的指导,即在何种情况下需要承担责任,从而可以更好地遵守法规,并预防和管理风险。其次,明确的责任框架也有利于保护消费者和公众的权益。如果AGI的行为导致问题的发生,消费者和公众应该有权知道责任由谁承担,并获得相应的赔偿。此外,明确的责任框架也有助于推动AGI的健康发展,因为制造商和程序员会更加重视AGI的设计和测试,以避免可能的责任风险。最后,为了实现上述目标,我们可能需要对现有的法律框架进行调整,以适应AGI的特性和能力。可能的解决方案包括设立特殊的法律实体来管理AGI的责任问题,或者设定一种新的责任归属模式,如共享责任。这些方案都亟需联合立法机构及各界人士进行深入的讨论研究。
提高AGI透明度和可解释性。通用人工智能的决策过程通常基于复杂的深度学习模型,如神经网络等,并利用大规模数据进行训练。这些深度学习模型的一个显著特征是“黑箱”,即其决策过程往往难以理解和解释。比如,当AGI在提供心理咨询服务时,它可能根据患者的表述和历史信息作出诊断和治疗建议,但具体的决策过程(例如,AGI如何理解和解释患者的表述、如何基于历史信息作出决策等),通常难以追踪和解释。这种不透明性和不可解释性不仅可能导致误解和疑虑,也会不可避免地带来法律和伦理问题。如果无法理解和解释AGI的决策过程,那么确定责任可能会非常困难。因此,提高AGI的透明度和可解释性是非常必要的。
提高AGI的透明度和可解释性的预期目的是更好地理解与管理其决策过程,从而增加人们对AGI的信任,并降低可能的法律风险。具体来说,如果我们能够理解AGI是如何作出决策的,那么当其决策出现问题时,我们就可以更容易地找出问题的原因。此外,透明和可解释的决策过程也能够增加人们对AGI的信任,人们可以更好地理解AGI是如何工作的,而不是简单地接受其决策结果。为了实现这一目标,未来应当致力于研发新的工具和技术,譬如,可解释的机器学习算法,或者对AGI决策过程的可视化工具。这些工具和技术可以帮助人们理解AGI是如何作出决策的,从而增加人们对AGI的信任,并降低由于不透明决策过程带来的法律风险。
完善数据处理和保护规定。通用人工智能的运作依赖于大量的数据输入,因此,需要制定严格的数据处理和保护规定。在数据收集、存储和使用的过程中,都必须尊重和保护个人隐私。此外,数据的使用必须在明确且合法的目的下进行,不能滥用个人数据。为了实现这一目标,一方面,需要借鉴和采纳现有的数据保护法规,例如,GDPR和《中华人民共和国个人信息保护法》;另一方面,虽然GDPR和《中华人民共和国个人信息保护法》等法律条例为数据的保护和使用提供了基本的法律框架,但它们并未针对AGI的特殊性进行详细规定。AGI的功能及其在心理学领域的应用,使其对数据的需求和处理方式产生了特异性,这种特异性在现有的法律法规中并未得到充分的反映。比如,AGI在进行学习和优化过程中,可能需要处理大量的个人心理健康数据,这些数据往往具有极高的敏感性和隐私性。而现行的GDPR和《中华人民共和国个人信息保护法》均未详细规定如何处理此类高度敏感的信息,以及如何在保护隐私的同时,确保AGI的有效学习和优化。此外,AGI的决策过程通常基于复杂的算法和模型,这意味着它的数据处理过程可能难以理解和解释,这在现有的法律框架下也存在明显的挑战。譬如,GDPR中的“自动决策权”规定,个人有权不受完全基于自动化处理的决策的影响,然而,如何定义和执行这一规定在AGI的应用中,尤其是在心理学应用中,仍然存在很大的不确定性和困难。
鉴于此,世界各国需要研究和制定一套针对AGI的数据处理和保护规定。这既需要深入理解AGI的运作机制和数据需求,又需要充分考虑数据主体的权益和社会公众的利益。在该过程中,我们可以借鉴现行的数据保护法规,但也不得不考虑对这些法规进行扩展和调整,以适应AGI的特殊性。具体来说,我们可能需要对如何处理高度敏感的个人心理健康数据进行明确规定,以及如何在复杂的AGI决策过程中确保透明度和可解释性进行详细的指导。这样的规定不仅可以帮助我们保护个人隐私,也可以为AGI在心理学领域的应用提供法律依据和指引。
提倡AGI在心理学实践中的伦理应用。随着人工智能技术的发展,AGI将不可避免地应用到心理学实践环节中。例如,一些基于AGI的心理治疗系统可能在未来能够高效、自动地为个体提供心理咨询服务甚至是心理治疗方案。然而,AGI系统的决策可能会受到训练数据的影响,如果训练数据存在偏见,那么AGI系统的决策也必然存在偏见。此外,由于AGI系统的决策过程是自动化的,因此,可能缺乏对患者自主性的尊重,以及对专业医疗和心理学标准的遵守。
提倡AGI伦理安全的预期目的是更好地保护患者的权益,预防伦理问题,以及提高AGI在心理学实践中的应用质量。具体来说,我们需要确保AGI系统的决策是在尊重患者自主性的基础上进行的。这意味着AGI系统在提供心理咨询和治疗等服务时应该充分理解和尊重患者的意愿,如果患者不希望接受某种治疗,那么AGI系统应该及时识别并终止该方案。此外,我们也需要确保AGI系统的决策是基于最新的科学证据,并且符合专业的医疗和心理学标准。这意味着AGI系统在提供心理咨询和治疗服务时,应该根据最新的研究成果和临床实践标准,而不是仅仅依赖于训练数据。为了达到这一预期,亟需建立一套具体的伦理准则和审查机制,以监督AGI在心理学实践中的应用。这套伦理准则和审查机制应该涵盖AGI系统的设计、开发和应用各个阶段,并且应该由专业人士进行监督和审查,以确保AGI系统的决策真正符合伦理准则和医疗标准。
参考文献
A. Veronese, A. Silveira and A. N. L. Espiñeira Lemos, 2019, "Artificial Intelligence, Digital Single Market and the Proposal of a Right to Fair and Reasonable Inferences: A Legal Issue Between Ethics and Techniques," UNIO – EU Law Journal, 5(2).
A. Gündoğar and S. Niauronis, 2023, "An Overview of Potential Risks of Artificial General Intelligence Robots," Applied Scientific Research, (2)1.
N. Azam et al., 2023, "Data Privacy Threat Modelling for Autonomous Systems: A Survey From the GDPR's Perspective," IEEE Transactions on Big Data, 9(2).
U. A. Bhatti et al., 2023, "Deep Learning with Graph Convolutional Networks: An Overview and Latest Applications in Computational Intelligence," International Journal of Intelligent Systems, 28 February.
G. Bryce, 2022, "Privacy Without Persons: A Buddhist Critique of Surveillance Capitalism," AI and Ethics, 15 August.
D. A. Dourado and F. M. A. Aith, 2022, "The Regulation of Artificial Intelligence for Health in Brazil Begins with the General Personal Data Protection Law," Revista De Saúde Pública, 56.
G. Ella, 2022, "Ethical Regulation of Artificial Intelligence as a Factor of Financial and Banking Sector Security: China's Experience," Revista De Saúde Pública, 2.
F. Caccavale et al., 2022, To Be fAIr: Ethical and Fair Application of Artificial Intelligence in Virtual Laboratories, SEFI 50th Annual Conference of The European Society for Engineering Education, "Towards a New Future in Engineering Education, New Scenarios that European Alliances of Tech Universities Open up," Barcelona: Universitat Politècnica de Catalunya, pp. 1022-1030.
I. Kim et al., 2022, "Application of Artificial Intelligence in Pathology: Trends and Challenges," Diagnostics, 12(11).
J. G. Wolff, 2023, "The SP Theory of Intelligence, and Its Realisation in the SP Computer Model, as a Foundation for the Development of Artificial General Intelligence," Analytics, 2(1).
J. G. Mikkelsen et al., 2023, "Patient Perspectives on Data Sharing Regarding Implementing and Using Artificial Intelligence in General Practice - a Qualitative Study," BMC Health Services Research, 23(1).
Dubiński, 2022, "Evidence from Artificial Intelligence in General Administrative Procedure," Przegląd Prawniczy Uniwersytetu im. Adama Mickiewicza, 14.
J. McCarthy, "What is AI? / Basic Questions," http://jmc.stanford.edu/artificial-intelligence/what-is-ai/index.html.
J. Meszaros et al., 2022, "The Future Regulation of Artificial Intelligence Systems in Healthcare Services and Medical Research in the European Union," Frontiers in Genetics, 13.
M. S. Abdüsselam, 2023, "Qualitative Data Analysis in the Age of Artificial General Intelligence," Revista De Saúde Pública, 7(4).
N. K. Sørensen and U. Steen, 2022, "The Fundraiser's Transfer of Personal Data from the European Union to the United States in Context of Crowdfunding Activities," Nordic Journal of Commercial Law, 2.
P. A. Utami, Z. Zulfan and B. Bahreisy, 2022, "Enforcement of Restrictions on Community Activities (PPKM) for the Emergency Period of Covid-19 (Certificate of Vaccination Identification with Artificial Intelligence) in Terms of Indonesia's Criminal Justice System," Proceedings of Malikussaleh International Conference on Law, Legal Studies and Social Science (MICoLLS), 2.
S. Irshad, S. Azmi and N. Begum, 2022, "Uses of Artificial Intelligence in Psychology," Journal of Health and Medical Sciences, 5(4).
A. M. Turing, 2009, "Computing Machinery and Intelligence," In R. Epstein, G. Roberts and G. Beber, (eds.), Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer, Springer Netherlands, pp. 23-65.
T. Voloshanivska, L. Yankova and O. Tarasenko, 2022, "About Data Protection Standards and Intellectual Property Regulation in the Digital Economy: Key Issues for Ukraine," Baltic Journal of Economic Studies, 8(4).
T. Zhang and C. Fu, 2022, "Application of Improved VMD-LSTM Model in Sports Artificial Intelligence," Computational Intelligence and Neuroscience, 14 July; R. Woroniecki and M. L. Moritz, 2023a, "A Critical Reflection on Analytics and Artificial Intelligence Based Analytics in Hospitality and Tourism Management Research," International Journal of Contemporary Hospitality Management, (35)8.
R. Woroniecki and M. L. Moritz, 2023, "Investigating the Human Spirit and Spirituality in Pediatric Patients with Kidney Disease," Front Pediatr, 11.
J. Zhao et al., 2022, "Cognitive Psychology-based Artificial Intelligence Review," Front Neurosci, 16.
An Analysis of the Application of AGI in the Field of Psychology
Zhu Tingshao
Abstract: With great development and application potentiality, AGI still faces challenges from legal definition and supervision in law enforcement due to its inherent complexity and related uncertainty. To promote its application, interdisciplinary collaboration needs to be strengthened to fully explore the complementarity between AGI and psychology. Based on a well-defined responsibility of AGI, such measures should be adopted to improve its transparency and interpretability, to formulate strict data processing and protection regulations for its healthy, safe and efficient application in psychology.
Keywords: AGI, psychology, law, challenge