前沿 | ChatGPT检索功能可能引发的法律风险及防控
2024-11-14 20:3:0 Author: mp.weixin.qq.com(查看原文) 阅读量:0 收藏

 扫码订阅《中国信息安全》

邮发代号 2-786

征订热线:010-82341063

文 | 重庆大学法学院 自正法 李晓梅
当地时间10月31日,OpenAI宣布ChatGPT推出“检索”功能。与谷歌、微软等传统搜索引擎相比,ChatGPT搜索采用人机交互对话方式,在分析用户搜索目的基础上,实时检索在线资源信息,生成包含经过算法模型分析的结论和来源链接,以此为用户提供更加精确和简洁的检索结果。同时,随着检索量的叠加提高用户检索信息效率,实现动态、精确的问答。对话式人工智能技术的应用对现有的信息检索方式而言,可能带来一场深刻变革。但是,由于其算法模型的固有缺陷,隐藏的风险也不容小觑,自然语言交互、自动化提取、个性化推荐等特点使其在为用户提供贴心服务的同时,也会带来很多潜在风险。

ChatGPT检索功能可能引发的法律风险

其一,自然语言交互带来“信息侵权”风险。传统检索引擎呈现结论的方式为“网页标题+少量开头内容”,用户需要点击链接跳转至来源地址才能知道具体内容。这种方式在很大程度上保护了原始平台的点击流量和版权权益。但是,ChatGPT搜索利用算法模型概括总结收集的信息,直接向用户生成简洁清晰的结论,这可能导致用户大概率不会点击原文链接进行深入阅读。尽管OpenAI宣布与多家新闻媒体和出版商达成合作,但其生成结果还包括不阻止其搜索爬虫所获得的其他在线信息资源,这可能构成对被引用平台和作者的信息侵权,从而引发版权争议。由此可见,ChatGPT推出检索功能,以现有方式进入搜索引擎领域,势必会面临更多侵权风险。甚至,ChatGPT推出的人工智能检索可能会剥夺作者生存所需的数据访问量和“眼球”。

其二,自动化提取带来“信息泄露”风险。ChatGPT推出检索功能后,引发了很多人对个人信息泄露的担忧,用户担心检索记录会碎片化地反映出个人的隐私数据,甚至产生精准识别风险。严格来讲,ChatGPT算法模型的自动化提取是无法规避的程序,数据库隐秘收集用户的搜索记录、喜好习惯、位置信息等在所难免,这成为算法模型升级和优化的训练基础,因为它经过训练可以有效提高人机自然语言对话的精确度和可信度。一般情况下,搜索引擎运作时不是严格意义上的信息收集阶段,这些碎片化信息也不具有可识别性,不会对个人隐私造成侵犯。但随着算法结构的深度训练和优化,会形成一种整合碎片化的、去匿名化的“深度处理”效果,平台在海量关联性极小的搜索信息中提取关键要素,最终可能生成指向明确的可识别信息。换句话说,随着个人信息碎片的不断叠加,类似于“拼图”游戏,个人的有效识别点会被不断扩大,直至最终被识别,这将给个人隐私和安全造成极大隐患。
其三,个性化推荐带来“信息茧房”风险。ChatGPT搜索采用的是自然语言对话方式,这种“问答”属性的检索机制,会根据检索语境和目的自动提取用户的喜好和习惯,纳入后台语料数据库,并在获得用户反馈和追问后,对算法模式进行评估深化,这些都被存储为平台的“长期记忆”。之后,在使用过程中,平台会根据“聊天习惯”进行个性化推荐,使用户只关注自己感兴趣和符合自己价值偏向的信息。这种“反馈式”设计从算法技术角度看,可以提供简洁准确的结论,使其成为人类日常生活的得力助手。但是,过度迎合用户的喜好,缺乏广泛的信息覆盖和选择,势必会引发“同质化效应”和“回声式效应”,使人们长期被困在“信息茧房”中。这使得本身存在价值判断的数据信息会重复出现,而其他信息被排除在搜索结果之外,从而影响用户对信息的全面、客观掌握。

ChatGPT检索功能引发法律风险的防控

ChatGPT宣布推出检索功能,既是一场变革,也是一场挑战,为应对其在数字时代信息检索领域的潜在风险,需要采取系统性、针对性的防控措施。

其一,提示信息源链接,注意引用限度。平台生成结论时应以醒目的方式提示信息原始地址链接,这可以在很大程度上避免用户完全依赖搜索总结生成的结果,减轻信息侵权的主观恶性。除此之外,还应当注意搜索结果对原始网页信息的引用限度,综合引用内容深度、广度等要素,重点关注引用内容篇幅、是否引用核心观点等问题,设计具体引用指标,在结论呈现时一并生成。对于引用指数过高的结论,在算法模型中添加拦截机制,以指示性语言方式呈现,引导用户通过点击原始地址链接方式进行查询。这种分层式呈现思路,可以在一定程度上避免对原始平台和作者的信息侵权,形成良性市场秩序,保护其合法权益。
其二,明确告知义务,保护用户隐私。目前,隐私信息的判断以信息主体是否愿意公开为标准,信息主体不愿意被他人知晓的信息,即使已经公开也属于隐私范畴。同时,一些个人信息虽然无法识别单独个体,但是大量个人信息的组合往往足以精确定位到私人主体,可识别性较强,未经允许收集和使用这类信息也侵犯个人隐私权。因此,针对用户隐私信息面临的风险,检索系统应当明确告知收集此类数据信息的范围、目的、使用方式、必要性和可能产生的影响,应当征求用户明确且独立的允许。同时,采取必要的保护措施,为用户提供严格、完备的隐私和个性化设置服务,赋权用户随时中断数据关联程序、隐藏相关检索信息的权利。此外,要根据用户需求不断更新升级信息保护组件,以此更好地保护用户隐私。
其三,提升算法透明度,赋能用户“破茧”。ChatGPT推出的检索功能与其他人工智能技术功能相似,在算法设计上都坚持高隐秘性,这种“算法黑箱”对信息收集和处理过程进行高度保密,用户只能被动接受具有一定价值倾向的结论,最终被困于“信息茧房”中。因此,信息检索系统应赋予用户更多的知情权和决定权,提升算法透明度,采用多元化、包容性的数据检索方式,减少数据信息单一化价值倾向带来的负面影响。在向用户呈现最终结论时,要尽可能呈现较为客观、全面的信息目录,按照一定标准进行关联度排序,以供用户自主选择,增强用户的可选择权和结论的可信度。同时,应展现信息删选和排序的依据,并建立用户反馈机制,通过赋能用户实现算法模型的不断调整和完善,减少算法偏见,提升软件的开放性。
人工智能与检索引擎的高度融合,是一场机遇与挑战并存的革新。随着ChatGPT宣布推出检索功能,信息检索领域日益呈现出智能化发展趋势。在ChatGPT检索功能中,人机交互对话式的设计,使得软件可以根据用户检索语言的语境和目的,运用算法模型,满足个性化需求,提供更加具体、精准的结论,且双向反馈机制的设置,有利于持续优化模型,当用户对结论尚有疑问时,可以进行追问,提高检索的动态适应性。但就现有技术来看,目前,ChatGPT推出的检索功能的运行仍存在一些潜在风险,其在数字经济发展下对其他平台和作者可能造成侵权隐患,影响正常市场竞争。比如,用户在检索过程中暴露的碎片化隐私信息,可能会给个人隐私安全带来风险;个性化推荐的信息偏见,可能会影响检索结果的客观性和全面性。因此,需要综合治理,协同应对,推动算法模型设计和检索功能不断升级,明确提示信息源,严格遵守合理使用限度;对用户严格履行告知义务,保护其个人隐私安全;提升算法透明度,丰富检索结果的呈现种类。总而言之,要辩证看待ChatGPT推出的检索功能,力争在维护个人权益和推动技术发展的平衡中,实现协调发展和有效治理。

(来源:民主与法制时报)

分享网络安全知识 强化网络安全意识

欢迎关注《中国信息安全》杂志官方抖音号

《中国信息安全》杂志倾力推荐

“企业成长计划”

点击下图 了解详情


文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664229535&idx=3&sn=4f8a4f1b80b660e0369e4106a67d56e6&chksm=8b59e866bc2e61709a605b6ba70525286009dd00acca042d0eda4ecd1cfebe62e7d2cc84755f&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh