論文の概要: Context-Aware Legal Citation Recommendation using Deep Learning
- arxiv url: http://arxiv.org/abs/2106.10776v1
- Date: Sun, 20 Jun 2021 23:23:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 06:19:17.938221
- Title: Context-Aware Legal Citation Recommendation using Deep Learning
- Title(参考訳): 深層学習を用いた文脈対応法的引用推薦
- Authors: Zihan Huang, Charles Low, Mengqiu Teng, Hongyi Zhang, Daniel E. Ho,
Mark S. Krass, Matthias Grabmair
- Abstract要約: 弁護士や裁判官は、決定を起草しながら引用する適切な法的権限を研究するのに多くの時間を費やしている。
我々は,意見の起草過程における効率向上に役立つ引用推薦ツールを開発した。
- 参考スコア(独自算出の注目度): 4.157772749568094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lawyers and judges spend a large amount of time researching the proper legal
authority to cite while drafting decisions. In this paper, we develop a
citation recommendation tool that can help improve efficiency in the process of
opinion drafting. We train four types of machine learning models, including a
citation-list based method (collaborative filtering) and three context-based
methods (text similarity, BiLSTM and RoBERTa classifiers). Our experiments show
that leveraging local textual context improves recommendation, and that deep
neural models achieve decent performance. We show that non-deep text-based
methods benefit from access to structured case metadata, but deep models only
benefit from such access when predicting from context of insufficient length.
We also find that, even after extensive training, RoBERTa does not outperform a
recurrent neural model, despite its benefits of pretraining. Our behavior
analysis of the RoBERTa model further shows that predictive performance is
stable across time and citation classes.
- Abstract(参考訳): 弁護士や裁判官は、決定を起草しながら引用する適切な法的権限を研究するのに多くの時間を費やしている。
本稿では,意見草案作成プロセスにおける効率向上に役立つ引用推薦ツールを開発した。
引用リストに基づく手法(コラボレーティブフィルタリング)と3つのコンテキストベース手法(text similarity, bilstm, roberta分類器)を含む4種類の機械学習モデルをトレーニングした。
実験では,局所的なテクストコンテキストの活用がレコメンデーションを向上し,ディープニューラルモデルが良好なパフォーマンスを実現することを示す。
非ディープテキストベースの手法は、構造化されたケースメタデータへのアクセスの恩恵を受けるが、深層モデルは、長さ不足の文脈から予測した場合のみそのようなアクセスの恩恵を受ける。
また,RoBERTaは,事前トレーニングの利点があるにもかかわらず,反復神経モデルよりも優れていないことも確認した。
ロバータモデルの挙動解析により、予測性能は時間と引用クラス間で安定であることが示される。
関連論文リスト
- RAVEN: In-Context Learning with Retrieval-Augmented Encoder-Decoder Language Models [57.12888828853409]
RAVENは検索強化されたマスク付き言語モデリングとプレフィックス言語モデリングを組み合わせたモデルである。
フュージョン・イン・コンテキスト・ラーニング(Fusion-in-Context Learning)により、追加のトレーニングを必要とせずに、より多くのコンテキスト内サンプルを利用できる。
本研究は,テキスト内学習のためのエンコーダ・デコーダ言語モデルの構築の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-08-15T17:59:18Z) - Fairness-guided Few-shot Prompting for Large Language Models [93.05624064699965]
インコンテキスト学習は、トレーニング例、例えば順、プロンプトフォーマットのバリエーションによって、高い不安定性に悩まされる可能性がある。
ラベルや属性に対する固定的なプロンプトの予測バイアスを評価するための指標を導入する。
そこで本研究では,テキスト内学習の性能向上のための最寄りのプロンプトを特定するための,欲求探索に基づく新しい探索手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T12:28:25Z) - Efficient and Flexible Topic Modeling using Pretrained Embeddings and
Bag of Sentences [1.8592384822257952]
本稿では,新しいトピックモデリングと推論アルゴリズムを提案する。
我々は,生成過程モデルとクラスタリングを組み合わせることで,事前学習文の埋め込みを活用する。
The Tailor の評価は,本手法が比較的少ない計算要求で最先端の成果をもたらすことを示している。
論文 参考訳(メタデータ) (2023-02-06T20:13:11Z) - SLCNN: Sentence-Level Convolutional Neural Network for Text
Classification [0.0]
畳み込みニューラルネットワーク(CNN)は,テキスト分類のタスクにおいて顕著な成功を収めている。
CNNを用いたテキスト分類のための新しいベースラインモデルが研究されている。
結果から,提案したモデルの性能は,特に長いドキュメントにおいて向上していることがわかった。
論文 参考訳(メタデータ) (2023-01-27T13:16:02Z) - HanoiT: Enhancing Context-aware Translation via Selective Context [95.93730812799798]
コンテキスト対応ニューラルネットワーク翻訳は、文書レベルのコンテキストを使用して翻訳品質を改善することを目的としている。
無関係または自明な単語は、いくつかのノイズをもたらし、モデルが現在の文と補助的な文脈の関係を学ぶのを邪魔する可能性がある。
そこで本稿では,階層的選択機構を備えたエンド・ツー・エンドのエンコーダ・デコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T12:07:13Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z) - Evaluating Document Representations for Content-based Legal Literature
Recommendations [6.4815284696225905]
法律レコメンデータシステムは一般に、公開ベンチマークデータセットを使わずに、小規模のユーザスタディで評価される。
テキストベース(例えば、fastText, Transformers)、引用ベース(例えば、DeepWalk, Poincar'e)、ハイブリッドメソッドを評価します。
実験の結果, 平均化したfastTextワードベクトル(法定コーパスで学習した)の文書表現が最良であることがわかった。
論文 参考訳(メタデータ) (2021-04-28T15:48:19Z) - Learning from Context or Names? An Empirical Study on Neural Relation
Extraction [112.06614505580501]
テキストにおける2つの主要な情報ソースの効果について検討する:テキストコンテキストとエンティティ参照(名前)
本稿では,関係抽出のための実体型コントラスト事前学習フレームワーク(RE)を提案する。
我々のフレームワークは、異なるREシナリオにおけるニューラルモデルの有効性と堅牢性を改善することができる。
論文 参考訳(メタデータ) (2020-10-05T11:21:59Z) - Learning Neural Textual Representations for Citation Recommendation [7.227232362460348]
サブモジュラースコアリング機能において,シームズとトリプルトネットワークを併用した文書(センテンス-BERT)の深部表現を用いた引用推薦手法を提案する。
我々の知る限りでは、これは引用推薦のタスクに対して、ディープ表現とサブモジュラー選択を組み合わせるための最初のアプローチである。
論文 参考訳(メタデータ) (2020-07-08T12:38:50Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。