第307章 风险与控制:论生成式人工智能应用的个人信息保护 (第2/2页)
其一,风险控制路径更有利于实现生成式人工智能技术利用与个人信息保护的衡平。在当代社会,我们需要在维护个人权益和推动社会经济发展之间找到平衡点,过度追求个人信息的绝对保护可能会忽略经济和社会发展的利益。在数字化浪潮中,数据和个人信息成为经济和社会发展的重要基石和创新驱动力。数据创新融合了人工智能、物联网、区块链等前沿技术,正在重构人类社会和产业形态。我国的《网络安全法》和《数据安全法》均明确规定数据开放和利用的政策支持,特别强调匿名化数据的自由利用,为企业拓展数字化业务和推动技术创新提供重要机遇。生成式人工智能以数据信息为燃料,为人类提供了前所未有的创造力和生产力,在未来,生成式人工智能将会在内容创作、图像生成、语音合成、自然语言处理、医疗诊断等多个领域发挥重要作用。因此,在生成式人工智能开发与应用的过程中,我们需要辩证看待其中的个人信息保护与发展问题。因此,在制定个人信息保护策略时,应兼顾生成式人工智能的经济和社会价值。如果采用权利保护路径则过度强调个人信息的控制,不仅会导致高昂的实施成本,可能还会制约数据的流通和利用,从而对生成式人工智能的开发与应用形成阻碍。相比之下,风险控制路径不强调个人信息的绝对控制,旨在通过风险管理和风险规制的方式将生成式人工智能应用中的个人信息处理风险降低到可接受的范围内。这种方式在保障个人信息安全和隐私的同时,能够有效利用数据这一宝贵资源推动社会和经济的可持续发展,避免个人权益保护对技术创新和公共利益造成抑制。
其二,风险控制路径更有利于实现生成式人工智能信息安全风险的合理分配。在当前风险社会中,生成式人工智能的社会价值不断凸显,其用户群体持续扩大,随之而来的个人信息保护风险也逐渐演变为一个重要的社会问题。因为一旦生成式人工智能发生信息安全事件,可能会危及上亿个用户群体,对整体社会秩序和公共利益乃至国家利益造成不利影响。正如前文所述,生成式人工智能应用中的个人信息安全风险在整体上已经上升到国家层面的意识形态安全、国家信息安全以及网络空间安全。此时,传统的权利保护路径已经不再适用,因为它通过某些机制将技术带来的风险不合理地转嫁给每一个独立的信息主体,从而导致生成式人工智能信息安全风险的分配失衡。相较之下,基于风险开启理论和获利报偿理论的风险控制路径,强调由生成式人工智能技术服务提供者和监督机构承担风险控制的主体责任,对信息处理活动进行价值判断,从而将生成式人工智能应用中的个人信息保护纳入到全社会风险控制的范畴中。在这种保护方式下,生成式人工智能带来的个人信息安全保护责任不再是信息主体的单一责任,而是一个需要多方参与和共同承担的社会责任,是一种更符合信息安全风险分配原则并且可实现期待性更高的保护路径。
其三,风险控制路径更有利于实现生成式人工智能应用中个人信息的高效保护。根据社会学家乌尔里希·贝克的观点,现代化进程中科技和经济全球化的发展所带来的各种风险难以预测和计算。这些风险不受时间、空间和社会界限的限制,无法完全消除,其绝对性不可避免。此外,现代社会的复杂性决定了风险之间必将相互渗透和影响,这是现代社会不可避免的趋势。一旦人们对此形成了正确认识,“相对安全”便取代“绝对安全”,成为生成式人工智能个人信息安全风险治理的理性目标。生成式人工智能正在不断迭代升级,其带来的个人信息非法收集、泄露、滥用、虚假信息生成等问题已经显露,其他潜在风险和问题或许正在酝酿之中。传统权利保护模式以一种定型化的刚性方式,为个人信息保护划定最低的限度,无法有效应对复杂的信息生态环境和生成式人工智能可能带来的新型信息安全威胁。而风险控制路径更注重个人信息保护的动态性,以量体裁衣的灵活模式,根据生成式人工智能应用的具体情况进行风险把控。这种方式考虑技术、市场、法律、管理等多个维度,能够对生成式人工智能带来的信息安全风险进行全方位、动态化回应,能够更好地适应信息化、数字化时代的发展,应对生成式人工智能带来的新型信息安全威胁,保障个人信息的安全和隐私。
三、风险控制路径的四层次体系展开
针对生成式人工智能应用中个人信息保护的复杂性,风险控制路径应基于下述四层次体系展开:
(一)促使告知同意规则的“个人控制中心向风险控制中心”转变
告知同意规则包含“告知”与“同意”两个层面,前者要求信息处理者必须向个人信息主体明示信息处理的范畴、方式、目的等影响个人信息主体作出同意决定的内容,后者则要求信息处理者的处理行为必须征得个人信息主体的明确甚至是单独同意。对于生成式人工智能中的个人信息收集而言,原则上同样需要遵守告知同意规则。《生成式人工智能服务管理办法》也明确将授权同意作为生成式人工智能开发与运行的基本准则之一。但正如前文所述,生成式人工智能语料库数据收集的强制性和无形性使得告知同意规则基本处于虚置状态。若遵循严格的告知同意原则,生成式人工智能技术服务提供者必须对所有信息主体进行一一告知并征得明示同意,对于收集敏感个人信息的情况还需征得信息主体的单独同意。显然,采用强告知同意规则可能会导致生成式人工智能无法正常运行,并且个人也将因此承担冗长的隐私协议解读负担。因此,为保障个人信息权益得到切实有效保护,同时促进生成式人工智能技术的持续健康发展,需要对告知同意规则进行风险化解释和调试,推动告知同意规则由“个人控制”为中心向“风险控制”为中心转变。
告知同意规则的风险化解释和调试指将可能引发的风险作为个人信息处理合理性的判断标准。具体而言,如果信息主体对生成式人工智能技术服务提供者的信息收集行为未做出明确同意或明确拒绝的意思表示,但通过个人信息保护影响评估能够确认信息处理行为不会带来超出合理范围外的风险,那么可以推定其默示同意。这一做法与美国所采用的“择出式知情同意机制”相类似,即企业在采集用户个人信息时并没有征求同意的义务,只需要在采集行为发生前或发生时向用户进行信息披露。从美国联邦立法到州立法,择出式知情同意机制始终占据主导地位,这一机制更有助于提升用户行为信息的商业化利用效率。需要注意的是,所谓“择出同意” 即使信息主体被认定为默示同意,其在信息处理过程中仍享有选择退出的权利,可通过新的意思表示推翻之前的默示同意。在生成式人工智能应用中同样如此,在后续语料库数据存储、语言模型训练等环节用户仍有权撤回(默示)同意。为此,应当要求生成式人工智能技术服务提供者提供便捷的撤回同意的方式,以辅助用户行使这项权利。
相反,如果评估确认风险等级较高,除了征得信息主体的明确同意之外,生成式人工智能技术服务提供者还应当启动增强性告知程序,充分发挥告知规则在个人信息保护中的风险交流作用。具体来看,除个人信息处理的范畴、类型、目的和必要性等基本内容之外,还应就以下内容进行补充告知:首先,算法逻辑。这要求生成式人工智能技术服务提供者就个人信息与模型训练的相关性进行说明,包括“人机对话即信息收集”这一事实以及个人信息的准确性将影响生成内容质量这些重要事项,以为用户进行风险判断提供指引。其次,次级处理者的名称、处理目的、期限、方式等相关内容。以openAI为代表的生成式人工智能技术服务提供方将其全部或部分处理活动委托给次级处理者,而用户并没有与这些第三方订立任何信息处理协议,这可能会给个人信息保护带来超出预期的风险。因此,在评估确认风险等级较高的情况下,生成式人工智能技术服务提供者应当向信息主体详细披露次级处理者的信息处理情况,使信息主体能够全面了解风险和后果,从而做出决策。
(二)推进最小必要原则的风险化解释
与告知同意规则着力于事前保护不同,最小必要原则主要强调信息主体合法权益的事中和事后保护,其通过相关性、最小化、合比例性三方面的要求来规制信息处理行为,在个人信息保护体系中发挥了不可或缺的重要作用。然而,最小必要原则的要求与生成式人工智能实现其主要处理目的之间存在巨大张力:生成式人工智能的运行机制决定了其需要大量数据驱动的模型训练,而这一过程容易导致超出必要范畴收集个人信息、信息处理期限不明、信息用途不清晰等问题,与最小必要原则要求产生冲突,使最小必要原则的应用在实践中受到限制。为化解这一困境,可以采用风险化转型的方式重新解释最小必要原则,即以场景分析下的风险控制为基准,推动最小必要原则向“合理必要”的转变。通过这种方式,可以在保留和承认最小必要原则的前提下,避免其僵化应用对生成式人工智能技术的发展造成限制。
此时,最小必要原则将被视为一种风险预防和预警机制,要求生成式人工智能技术服务提供者在处理个人信息时,必须将潜在风险控制在合理水平内。这将促使最小必要原则的灵活使用,使其得以更好地适应生成式人工智能的实际应用场景。与我国形成鲜明对比,欧盟法律体系下相关原则更加灵活。例如,欧盟GdpR规定了平衡测试的机制,要求数据处理者在权衡个人信息保护和处理的必要性和合法性时,需要考虑利益平衡和风险评估等因素,以确保个人信息合理利用和保护的动态平衡。实际上,最小必要原则在我国实践中的僵化适用已受到众多学者质疑。有学者认为,应将“禁止过度损害”作为最小必要原则适用的一个重要考虑因素。也有学者提出,在特定情形下应当以“有限性原则”替代最小化原则,这些主张实际上都蕴含着风险控制的思维。可见,在生成式人工智能应用中,有必要将最小必要原则的风险化解释视为一项应时而生的必要措施。
与此同时,还需要明确一些具体情形作为限制以平衡最小必要原则被风险化解释带来的不确定性。具体来看,包括以下方面:首先,个人信息的收集仍需以实现生成式人工智能运行目的为限,非实现该目的所必须的个人信息不应收集。例如,搜索记录、设备信息和通信信息等个人信息与实现生成式人工智能运行目的无关,收集此类信息无法构成“合理必要”,反而增加安全风险。其次,个人信息处理的时限亦须符合最小必要原则。根据《个人信息保护法》第47条,当生成式人工智能所存储的信息过期或不再与其训练和应用有关时,存储机构有义务在合理时间内删除或进行去标识化处理。删除机制是最小必要原则和目的限制原则的具体体现,在生成式人工智能信息储存时间难以确定的情形下,这一机制应当得到切实落实,以降低信息累积带来的风险。最后,应严格控制敏感个人信息的收集和处理。敏感个人信息使得“基本权利面临高风险损害”,全球个人信息保护体系均特别关注敏感个人信息的收集和处理,尤其是欧盟GdpR直接确立了敏感个人信息处理的“一般禁止、例外允许”的原则性规定。因此,生成式人工智能技术服务提供者必须严格控制敏感个人信息的收集和处理。即使在特定情况下难以避免收集敏感个人信息,也应尽可能避免将其用于模型训练,以降低敏感个人信息泄露的风险。
(三)建立虚假信息生成风险的全过程应对机制
在《生成式人工智能服务管理暂行办法》总则第四条第一款中,明确阐述了生成式人工智能的生成内容限制,尤其是不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、等虚假有害信息。因此,为了有效防控生成式人工智能带来的虚假信息生成风险,首先需明确风险来源,并清晰界定规制的对象范围。生成式人工智能核心技术基于算法模型和庞大的数据集,这是导致虚假信息生成的主要风险源头,应着重对这两方面规范,并坚持从预防到识别再到控制这一风险控制思路,建立虚假信息生成风险的全过程应对机制。具体说,该应对机制应包括以下方面:
其一,建立可信的数据来源和算法模型。数据来源和算法模型分别是生成式人工智能的基础和核心技术,直接影响了生成式模型的质量和可信度,建立可信的数据来源和算法模型可以减少误差和漏洞的产生,从源头防范生成式人工智能生成虚假信息。根据《互联网信息服务深度合成管理规定》等相关规定,可以从以下方面来建立可信的数据来源和算法模型。一方面,应当确保所使用的数据来源的合法性和合规性,符合数据保护法、隐私保护法和知识产权法等相关法律和规定。并且应当通过数据清洗、数据归一化和数据转换等措施,以减少数据中的误差,确保数据来源的质量和准确性。当前,以chatGpt未代表的生成式人工智能既未公开其数据获取方式,也未标明语料库数据获取来源,致使语料库中数据和信息来源的合法性和真实性无从判别。为确保生成内容的真实、可信,应当根据上述规定强化这方面的合规要求。另一方面,应当使用正则化和交叉验证等技术减少算法模型过拟合,以确保模型在面对各种攻击和恶意操作时也能保持其准确性和可靠性。同时生成式人工智能技术服务提供者应当定期对其产品进行合规审查,识别和解决潜在的技术安全隐患,以保障生成文本的真实性和避免潜在的风险。
其二,建立透明、可解释的算法模型。为保证生成式人工智能生成内容客观、真实、可信,建立透明、可解释的算法模型尤为重要。与其他语言模型一样,生成式人工智能并非完全客观、中立的工具。其对世界的“认识”取决于算法和设计者所做的决定,如使用哪类数据进行文本训练或使用何种生成方式进行内容回复。生成式人工智能算法的难以理解和非直觉性特点为其价值判断和意识形态安全风险带来了挑战。为此,算法透明原则应运而生,旨在揭开算法生成内容的真实面貌,从而增强其可解释性和可问责性。遵循该原则,通过公开和披露算法设计原理、数据输入输出等要素,可保障算法公正性和可信性,确保生成内容的真实性和客观性。在此基础上,为用户赋予获取算法解释的权利,将用户协议转化为实质上的平等,进而形成用户对虚假信息生成风险的主动防御。为了更好地实现算法透明和可解释的原则,一些国家和组织也发布了相应的指导方针。例如,英国信息专员办公室在2020年发布了《人工智能决策说明指南》,其中涵盖了AI决策说明的六种类型,为生成式人工智能技术服务提供者提供参考和指导。我国可以此为参照构建完善生成式人工智能算法解释相关规则。
其三,进行深度合成标识。深度合成标识是控制生成式人工智能虚假信息传播的重要手段之一,可以帮助监管部门有效追踪虚假信息的来源,提高虚假信息的识别率,促进生成式人工智能的透明化。《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法》等相关规定反复提到对深度合成内容进行标识。生成式人工智能技术服务提供者应当对生成内容中可能导致公众混淆或者误认的,在生成内容合理位置、区域进行显着标识,向公众提示深度合成情况。尤其是在涉及医疗、金融、教育等问答的时候,应进行更加显着的风险提示。然而,现有规定只是概括性的,并未对深度合成标识的技术标准和规范进行明确规定。未来还应建立成式人工智能技术行业深度合成标识的技术标准和规范,明确该行业深度合成标识的要求和实现方法,提高深度合成标识的可行性和普适性,以促进深度合成标识规定在生成式人工智能应用中的切实落实。
其四,建立虚假信息鉴别与处置机制。在部分虚假信息已经生成的既定事实下,为了及时发现和处置生成式人工智能产生的虚假信息,减少其对社会、经济和个人造成的负面影响,还应当构建虚假信息鉴别与处置机制。通过建立用于识别违法和不良信息的特征库、建立健全虚假信息质疑和辟谣机制、对接信息发布平台实施暂停服务等措施及时识别和控制虚假信息,并防止其进一步扩散。此外,还应建立严格的责任制度。生成式人工智能研发人员、所有者、运营者和发布平台根据其过错在各自责任范围内承担虚假信息生成的法律责任。在责任分配时应遵循支配原则,即风险属于谁的管辖范围,谁便需要对风险及由此产生的结果来负责。
(四)健全基于风险的个人信息保护合规制度体系
随着《个人信息保护法》的正式实施,越来越多的企业开始建立个人信息保护合规管理体系,以规范企业内部的个人信息处理行为,预防个人信息泄漏等安全事件的发生。尤其对于大型个人信息处理者来说,建立个人信息保护合规管理体系是实现个人信息安全保障的必要之举。《个人信息保护法》第58条明确规定对“超大互联网平台”课以“建立健全个人信息保护合规制度体系”的义务。因此,生成式人工智能服务提供者作为大型个人信息处理者,同样应承担起健全个人信息保护合规制度体系的义务。今后应努力在生成式人工智能信息安全保障体系中嵌入个人信息保护合规内容,并着重从以下两方面入手:
其一,建立生成式人工智能个人信息保护影响评估制度。风险评估是所有领域中风险控制的核心组成部分,它迫使信息处理者“识别、评估并最终管理个人信息处理给权利和自由带来的高风险”,有助于从源头上减少个人信息泄漏风险的发生。在生成式人工智能应用中,涉及敏感个人信息处理、利用个人信息进行自动化决策、委托处理个人信息等多项信息处理高风险情形,更容易造成个人信息泄露,应当将个人信息保护影响评估作为信息保护合规的一项核心任务。英国信息专员办公室(Ico)在2022年发布的《如何恰当且合法地使用AI及个人信息》中明确指出,数据控制者在使用AI系统之前应进行个人信息保护影响评估,并根据实际情况采取与其风险相适应的措施降低可能的损害。我国国家互联网信息办公室等部门于2023年7月13日公布的《生成式人工智能服务管理办法》暂未涉及生成式人工智能个人信息保护影响评估,相关内容尚需参照《个人信息保护法》第55条和第56条的规定。
但总体看,我国《个人信息保护法》中的个人信息保护影响评估制度仍较粗疏,在生成式人工智能应用方面需进一步完善。其中最关键的是缺乏向公众强制披露的机制,公共监督缺位将导致难以确保个人信息保护影响评估风险预防工具朝着公共利益的方向发展。对于该问题,《信息安全技术个人信息安全影响评估指南》已明确规定一系列措施。在生成式人工智能的个人信息保护影响评估中,可以该指南为参照,公开个人信息保护影响评估报告或组建公众代表委员会,确保评估过程接受外部监督。
其二,设置生成式人工智能个人信息保护独立监督机构。根据《个人信息保护法》第58条的规定,大型互联网平台企业需承担设立独立监督机构的特别义务,以确保其个人信息处理符合合规要求。此项义务的适用标准包括三个方面:提供重要互联网平台服务、用户数量众多、业务类型复杂的个人信息处理者。基于此标准,《互联网平台分类分级指南(征求意见稿)》和《互联网平台落实主体责任指南(征求意见稿)》对其进行了进一步详细阐述。以chatGpt为代表的生成式人工智能作为一种新型的人工智能技术,仅用两个月时间便获得了一亿的用户量。其个人信息处理量与大型互联网平台企业相似,并且广泛应用于推动经济发展、保障民生、维护国家安全等重要领域,属于“提供重要互联网平台服务”的信息处理者。因此,生成式人工智能应设立独立监督机构以监督个人信息保护情况,充分履行社会责任。
鉴于生成式人工智能应用中的个人信息处理往往伴随高度复杂的算法和技术,独立监督机构人员应当包括具备相应专业知识和技术能力的专业人员。在职责范围上,独立监督机构应当从制度合规、技术合规和组织合规三方面着手,对生成式人工智能应用中的个人信息安全事前防范、事中规制和事后处置的合规情况进行监督。包括个人信息保护负责人的设立、个人信息跨境安全评估、个人信息安全事件应急预案、合规审计、发布个人信息保护社会责任报告等。总体来看,对生成式人工智能技术服务提供者施加个人信息保护特别义务,是风险控制的重要措施。
结语
生成式人工智能既有为人类生产生活与社会变革带来诸多便利的一面,也存在对人格尊严侵害的一面。近来chatGpt用户个人信息泄漏及虚构法学教授性骚扰事件接连发生,深刻揭示了生成式人工智能的威胁范围和对社会稳定的潜在危害,也让个人信息保护及其风险防范机制的脆弱性暴露无遗。
尽管个人信息保护制度存在被技术侵蚀的风险,但我们不能放弃这些制度,而应该在风险控制的基础上进一步转型,以更好地保护个人信息权益和尊严。未来,我们需要加强对人工智能伦理和隐私保护问题的研究,推动更加完善的个人信息保护制度的建立,以保障人类尊严与科技进步的平衡发展。