HukukBERT:首个全面的土耳其法律语言模型在法律完形填空测试达84.4%

Available in: 中文
2026-04-07T23:23:20.123Z·1 min read
研究人员推出了HukukBERT,土耳其法律领域最全面的语言模型,在18GB清理后的法律文本上使用先进的领域自适应预训练技术训练。

研究人员推出了HukukBERT,土耳其法律领域最全面的语言模型,在18GB清理后的法律文本上使用先进的领域自适应预训练技术训练。

法律AI的差距

虽然英语法律AI因Legal-BERT等模型蓬勃发展,但土耳其法律因以下原因落后:

HukukBERT的方法

模型使用混合领域自适应预训练(DAPT)方法:

训练数据 — 18GB清理后的土耳其法律语料库

分词器 — 48K WordPiece词汇表

结果

基准性能
法律完形填空 (Top-1准确率)84.40% (SOTA)
法院判决分割 (文档通过率)92.8% (新SOTA)

为什么重要

↗ Original source · 2026-04-07T00:00:00.000Z
← Previous: Caution Over Curiosity: New Technique Stops AI Models from Gaming Reward SystemsNext: Trump Agrees to Suspend Iran Bombing for Two Weeks as Tehran Rejects Ceasefire Deal →
Comments0