RESEARCH > DETAILS

AI技术无法取代法律服务业的五大理由

1.png

ChatGPT作为美国OpenAI公司于2022年11月推出的一款语言对话模型,基于AI(人工智能技术)和RLHF(人类反馈的强化学习策略),能够通过人类对话等方式的信息输入,经过学习整合,输出为人们所需要的各类回答,包括但不限于问题解释、文学创作、代码编写等等。

作为AI技术最新的集大成之作,同以往的AI技术进步一样,ChatGPT再次引起了社会各界关于AI技术“取代人类”、“失业危机”、“红海效应”的讨论,在法律服务业这一知识密集型行业,律师等从业者的相关讨论尤其激烈。

我们认为,AI技术作为来源于人、服务于人、受制于人的“工具”,其本质和局限性决定了其在当下和可预见的未来都难以达到替代一个成熟、专业的法律服务业从业人员所应当具备的基本素质,具体理由如下:

01 AI无法突破数据源壁垒

AI技术若应用于与人类的实时沟通和信息反馈,则必须依赖大量的数据输入。无论是来源于现有搜索引擎还是人类的实时反馈输入,海量数据都是AI自我学习提升算法精准度和输出结果有效性的基础。数据源的广泛性、有效性、中立性,也直接决定了AI输出结果的实用性。

对于法律服务业,给出准确的法律意见,需要对特定国家、地区的法律规定、政策导向、裁判案例进行分析,并将客户个人信息与之结合。这一过程极大考验AI工具的开发者和数据实际发生地所在国家之间的数据互通性。以上信息不仅涉及个人信息和商业秘密保护,更可能关乎一国公共安全。考虑到近年来全球各主要经济体之间的数据保护争端,以及跨国数据和法律服务机构的式微,可见法律服务业的数据互通存在极大的壁垒。这导致AI从源头上就无法在各国纷繁复杂的法律实践中畅行无阻、游刃有余地进行法律分析、提供法律服务。

02 AI数据源和算法的客观中立性易受动摇

数据源对AI的重要性不言而喻。同时,数据输入后,AI通过何种算法加工数据得出结论也十分重要。目前AI在底层逻辑上的自我限制机制,尤其涉及公序良俗和法律责任的约束机制尚不完善。在出现极端特例或人为诱导的情况下,AI需要开发者及时兜底反馈才能避免给出逾越界限的回答。而这些开发者本身是否完全中立,有时同相当一部分法律纠纷的发生一样不具备可预见性。

对于法律服务业,给出客观中立的反馈,是给予法律服务对象以相应倾斜的前提,这也是法律服务从业者核心的操作空间和利润来源。当数据在源头就被污染,或算法运行亦受到介入因素影响时,AI难以通过其对现有规则的了解,框定自己给出答案的界限,仍会按照被污染、被介入的趋势做出反馈。毕竟,按照现有数据进行分析以满足输入者需求,在AI运行原则的效力位阶中处于优先地位。以上所指“污染”、“介入因素”,包括但不限于带有违法/犯罪企图、种族/性别歧视、存在消极意识形态导向的人为数据输入和算法构建。

03 AI难以通过人类心理和情感表现判断其需求

法律服务业同其他类型的服务业一样,无法避免并且需要高频率、精准有效地进行人际沟通交流。获取法律服务对象的实际需求,尤其是当这些实际需求不能通过简单的数字、文字信息进行表达时,就必须通过人对人心理和情感表现的判断来得出。

有观点认为人类沟通的低效乃至纠纷的产生,正是源于心理和情感对彼此的不透明,极易引起误判。但客观情况是,人类文明的发展成果有相当一部分是基于个人的或集体的心理情感因素产生的。为应对人类实践出现的各种弊端和出现的法律,也自然无法跳过对人类心理情感表达的判断。法律关系本质上脱胎于社会关系,权利义务体系不能离开人与人之间错综复杂的关系网。社会关系参与者任何细微心理情感表达,都可能在这张关系网上引起涟漪乃至波涛。通过现有AI对心理学专业测试的反馈来看,AI的“输入加工输出”本质决定了AI没有自己的感性,更不可能判断人类的感性表达会如何影响法律意见的给出。

04 AI没有自我意识,无法承担法律责任

AI依赖数据输入和算法进行学习和输出。数据追根溯源,都来源于人类的社会实践,当AI基于AI自身给出的信息进行学习,要么会走上“麦比乌斯圈”的无限循环,要么将完全超出人类控制范畴,造成科学伦理问题。而算法则更是人类脑体力劳动的结晶,AI只能依据这些人为成果进行判断,本质上不是依据自我意识做出的自主判断。

按照现有法理,AI在法律服务过程中给出法律意见,无法由其“自身”承担法律责任,现有法律责任的承担方式对于一个程序来说都是没有意义的。而AI给出的法律意见又已经超出了其数据提供者和算法开发者能够控制的范畴,将责任归咎于后者也于法无据。在近几年的法律实践中,有AI直接作为代理人出庭的新闻见报。AI行为能力和代理资格的必然缺位,往往导致此类“先锋”实践难以得到有法律意义的结果。

05 AI无法超出现有知识体系进行探索和发现

回到AI运行逻辑的源头,AI输出结果只能依据人类基于自身脑体力劳动而创造的社会实践成果。而基于人类实践和自然现象进行逻辑推演,发现本不存在与现有知识体系的新规律、新知识,只有人类理性才能完成。若交给AI,则因超出其判断依据的界限,且不具备进行超前假设和推演的能力,而不能得出有意义的结果,将陷入无限循环。

对于法律服务业,任何一名有经验的从业者都清楚,法律问题或纠纷的发生依托于纷繁复杂的社会实践,现有法规体系和裁判规则具备很大的解释空间,且不可能一成不变。为此,每名从业者都必须终身学习,从而能够应对现行规则不完善情况下的某些前沿法律问题。这些需要根据事实灵活适用法律规范的情况,对于AI而言就如同踏入没有任何物质的虚空,其给出答案的思路难以与客户需求相符合,甚至将得出逻辑不能自洽或没有切实依据的含混意见。

需要注意的是,AI作为一门工具,对于将律师从繁重的法律检索、案例分析等基础性工作中解放出来,将更多精力用于只有“人”才能处理的工作,比如需要情感判断和随机应变的谈判辩论、特例分析等,有着至关重要的作用。但同时尤其需要注意AI使用的界限,比如ChatGPT近日就因被用于学术造假而被欧美多国教育机构封禁。在法律服务方面,我们不妨关注2022年12月国家网信办、工信部、公安部联合发布的《互联网信息服务深度合成管理规定》对类似AI技术的要求。

我们鼓励AI在法律服务业的发展和贡献,但必须清楚AI没有能力也不应当超越法律服务行业的入门标准——人的理性和感性判断。是所谓:“没有人的文明,毫无意义。”

2.png