人工智能技術已經成為發(fā)展新質生產力的重要引擎,積極推動人工智能和教育的深度融合,促進教育變革創(chuàng)新,成為教育的必然趨勢。黨和國家歷來高度重視技術創(chuàng)新對教育發(fā)展的影響。黨中央一系列決策部署,引領我國教育信息化實現跨越式發(fā)展。2019年5月16日,習近平總書記在向國際人工智能與教育大會致賀信中指出:“中國高度重視人工智能對教育的深刻影響,積極推動人工智能和教育深度融合,促進教育變革創(chuàng)新,充分發(fā)揮人工智能優(yōu)勢,加快發(fā)展伴隨每個人一生的教育、平等面向每個人的教育、適合每個人的教育、更加開放靈活的教育?!?022年3月,國家智慧教育公共服務平臺正式上線,標志著國家教育數字化戰(zhàn)略行動駛入“快車道”。2025年1月,中共中央、國務院印發(fā)《教育強國建設規(guī)劃綱要(2024-2035年)》。這是我國首個以教育強國為主題的中長期戰(zhàn)略規(guī)劃,明確了新時代加快建設教育強國的指導思想、工作原則、戰(zhàn)略目標和重大任務舉措。2025年4月,教育部等九部門聯(lián)合印發(fā)的《關于加快推進教育數字化的意見》指出,深入實施國家教育數字化戰(zhàn)略,堅持應用導向、治理為基,秉承聯(lián)結為先、內容為本、合作為要,聚焦集成化、智能化、國際化,擴大優(yōu)質教育資源受益面,促進人工智能助力教育變革。2025年5月16日,在世界數字教育大會上,教育部發(fā)布了《中國智慧教育白皮書》,并啟動“國家教育數字化戰(zhàn)略行動2.0”,這一舉措標志著我國教育數字化轉型正式邁入全新階段。
在深入推進國際教育數字化的戰(zhàn)略背景下,法學教育如何合理應用大語言模型技術已成為較為緊迫的問題。新技術的應用能夠提升法律教學的效率,提高知識的生成、傳播、更新速度以及改變傳統(tǒng)的交互方式。然而,由于法學教育自身的特殊性,可能面臨多種困境。在法律侵權方面,用以法學教育模型訓練的數據包含各類敏感信息,個人信息的保護與知識產權的爭議存在于模型的開發(fā)與訓練之中。在結果的生成中也能產生毒害信息,存在侵害個人權益的風險等。在法律思維培養(yǎng)方面,基于統(tǒng)計關系的大語言模型在數據的訓練中大概率傾向于法律的主流觀點,一定程度會促使教育主體產生對模型的依賴,降低甚至喪失法律人的反思與創(chuàng)新能力,難以真正培養(yǎng)法律人的批判性思維。在知識生成方面,目前模型生成法律知識的準確性與法律邏輯的可靠性仍然存在疑問,既有可能生成虛構的法條或不合常識的判例,又在法律推理的嚴謹性方面存在很多漏洞,難以發(fā)揮積極的教學作用。法學教育作為培養(yǎng)德才兼?zhèn)涞母咚刭|法治工作隊伍的重要環(huán)節(jié),面對引入大語言模型這一新技術所帶來的新問題、新挑戰(zhàn),需要構建回應性的治理框架,筑牢風險防控的底線,以期法學教育逐步邁向合理的智能化。
設定評估準入機制
法律教育的大語言模型需要面對復雜的法律規(guī)則,為避免其對學生產生誤導,需要設立嚴格的評估準入機制,以確保法律教育模型的準確性與可控性。
需要開發(fā)測試數據集定量評估模型的性能。依據現有的評估基準,可以較為全面地評估大模型對法律知識的記憶、理解和應用能力。在法學教育模型的評估中,不僅需要考量大模型對法律知識的掌握能力,還需要加入評估教學技能的數據集,用以測試大模型能否將法律知識運用合適的教學手段進行輸出。因此,技術人員需聯(lián)合法學教師開發(fā)一個全面的法學教育數據集,以綜合評價大語言模型是否適合法律教學。
成立評估委員會對模型進行測試。評估委員會由法學教師、律師、法官、技術專家、學生等人員組成。評估委員通過提問來觀測模型的輸出結果,依據不同的職業(yè)背景,綜合評估大語言模型是否能夠勝任法學教育工作。具體評估的指標主要包括法律概念的理解能力、法律推理能力、輸出內容的質量、價值判斷能力和模型的穩(wěn)定性等。例如,評估委員可以指定一個具體案例,要求模型進行分析并輸出指導內容,隨后各評估委員根據自身的職業(yè)背景和技術水平,評估該模型能否達到預期的教育目的。
結合上述定量與定性評估的結果,為大語言模型參與法學教育制定準入標準。對于數據集測試,可以將概念生成、邏輯推理、時效性、穩(wěn)定性等不同指標,分別賦權形成一個評分機制。只有在該評分機制中及格的模型,才能進入下一步以提請評估委員會審核。評估委員需要更加注重對模型生成中的價值判斷、教育手段等難以通過數據量化的內容進行打分,在大模型具備相關知識的基礎上,評估是否能夠真正運用于教學工作,符合要求后才能將大模型應用到具體的法學教育場景。
使用場景分級管理
為培養(yǎng)學生獨立的法律思維,避免過度依賴人工智能技術,應當根據法學教育的不同學習階段與不同教學場景,對大語言模型介入法學教育的程度加以合理的限制。
根據不同的學習階段,開放語言模型的不同功能。例如,對于低年級的本科生,大語言模型只對其開放法條、案件檢索和概念解釋等單純提高學習效率的基礎性功能,嚴格禁用生成案例分析、法律文書等替代學生進行法律判斷的功能;對于高年級的本科生或是法律碩士、法學碩士,大模型可以提供類案推薦、文書模板生成等功能,幫助他們進行相關訓練以逐步適應未來的法務工作,而對一些復雜邏輯的論證、敏感問題的討論等需要進行深度分析的功能則被禁止;對于法學教師或是法學研究人員,大語言模型只是作為提高效率的參考工具,并不會對他們產生實質性的誤導,因而模型功能可以全面開放。
根據法學教育的不同場景,明確大語言模型的使用程度。在課堂教學上,老師與學生可以依據語言模型的生成內容進行講解或學習。老師對大模型的生成內容進行修正或補充;學生在學習模型生成標準內容的同時,要積極地與老師互動,進行細致的辨析,以培養(yǎng)法律思維。課后作業(yè)需要學生獨立完成,禁止模型介入代替學生完成任務。對于學生完成的法律文本、課程論文等,依據一定算法來識別模型生成文本并檢測其AIGC率(即人工智能生成內容比例),對于超出標準的作業(yè)需重新提交。此外,可以開展相關課程培養(yǎng),發(fā)揮技術賦能的優(yōu)勢,提升人機協(xié)同的能力,提高法科學生的技術素養(yǎng)。
采取審慎監(jiān)管應對風險
對于大語言模型進入法學教育領域法律風險的規(guī)制,需要在鼓勵創(chuàng)新與保護權益之間進行平衡,既留有一定試錯空間,也要審慎監(jiān)管以維護公民個人的合法權益。
對于用以法學教育大語言模型訓練的數據,采用分類、分級管理的機制。例如,已經公開的法律法規(guī)、法學論文等,可以自由使用語言模型的訓練與輸出,不受任何限制;對于包含個人隱私或著作權的數據,如判決文書、法學專著等,對前者采取匿名化處理,對后者在取得著作權人同意的基礎上加以使用。同時,隨著技術的不斷發(fā)展,可以重新界定著作權合理使用的標準與范圍,以達到包容審慎的目標。
明確法學教育大語言模型在開發(fā)與使用中的法律責任。由于模型的訓練與落地會關涉多個主體,如開發(fā)者、部署者、服務提供者、使用者、監(jiān)管者、教師、學生等,需要在探究大語言模型可解釋的基礎上,充分考量人工智能價值鏈上各個主體的行為、后果,在技術創(chuàng)新與權利救濟的平衡中構建責任分配框架。此外,明確風險發(fā)生的緊急處置措施,規(guī)范數據泄露、模型失控等危急場景的處置流程,以更好地應對風險。
?。ū疚霓D自《民主與法制》雜志,作者:夏紀森系常州大學史良法學院教授,王思涵系常州大學史良法學院研究生)