論文の概要: Evaluating Document Representations for Content-based Legal Literature
Recommendations
- arxiv url: http://arxiv.org/abs/2104.13841v1
- Date: Wed, 28 Apr 2021 15:48:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 12:43:58.235741
- Title: Evaluating Document Representations for Content-based Legal Literature
Recommendations
- Title(参考訳): 内容に基づく法律文献推薦のための文書表現の評価
- Authors: Malte Ostendorff, Elliott Ash, Terry Ruas, Bela Gipp, Julian
Moreno-Schneider, Georg Rehm
- Abstract要約: 法律レコメンデータシステムは一般に、公開ベンチマークデータセットを使わずに、小規模のユーザスタディで評価される。
テキストベース(例えば、fastText, Transformers)、引用ベース(例えば、DeepWalk, Poincar'e)、ハイブリッドメソッドを評価します。
実験の結果, 平均化したfastTextワードベクトル(法定コーパスで学習した)の文書表現が最良であることがわかった。
- 参考スコア(独自算出の注目度): 6.4815284696225905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems assist legal professionals in finding relevant literature
for supporting their case. Despite its importance for the profession, legal
applications do not reflect the latest advances in recommender systems and
representation learning research. Simultaneously, legal recommender systems are
typically evaluated in small-scale user study without any public available
benchmark datasets. Thus, these studies have limited reproducibility. To
address the gap between research and practice, we explore a set of
state-of-the-art document representation methods for the task of retrieving
semantically related US case law. We evaluate text-based (e.g., fastText,
Transformers), citation-based (e.g., DeepWalk, Poincar\'e), and hybrid methods.
We compare in total 27 methods using two silver standards with annotations for
2,964 documents. The silver standards are newly created from Open Case Book and
Wikisource and can be reused under an open license facilitating
reproducibility. Our experiments show that document representations from
averaged fastText word vectors (trained on legal corpora) yield the best
results, closely followed by Poincar\'e citation embeddings. Combining fastText
and Poincar\'e in a hybrid manner further improves the overall result. Besides
the overall performance, we analyze the methods depending on document length,
citation count, and the coverage of their recommendations. We make our source
code, models, and datasets publicly available at
https://github.com/malteos/legal-document-similarity/.
- Abstract(参考訳): レコメンダシステムは、訴訟を支持するための関連文献を見つけるための法務専門家を支援する。
専門職としての重要性にもかかわらず、法律の応用は勧告システムや表現学習研究の最近の進歩を反映していない。
同時に、法的レコメンデータシステムは、一般に公開されているベンチマークデータセットなしで、小規模のユーザスタディで評価される。
したがって、これらの研究は再現性に制限がある。
研究と実践のギャップに対処するために,意味的に関係のある米国事例法を検索するタスクのための,最先端の文書表現手法について検討する。
テキストベース(例えば、fastText, Transformers)、引用ベース(例えば、DeepWalk, Poincar\'e)、ハイブリッドメソッドを評価します。
2つの銀標準と2,964の文書に対する注釈を用いて合計27の方法を比較した。
silver標準はopen case bookとwikisourceから新たに作成され、再現性を促進するオープンライセンスの下で再利用することができる。
実験の結果,平均化したfastTextワードベクトル(法定コーパスで学習した)の文書表現が最良の結果となり,Poincar\e の引用埋め込みがそれに近づいた。
fastTextとPoincar\'eをハイブリッドに組み合わせることで、全体的な結果が改善される。
全体的なパフォーマンスに加えて,文書の長さや引用数,推奨事項のカバレッジなどによって分析を行う。
ソースコード、モデル、データセットはhttps://github.com/malteos/legal-document-similarity/で公開しています。
関連論文リスト
- On Search Strategies for Document-Level Neural Machine Translation [51.359400776242786]
文書レベルのニューラルネットワーク変換(NMT)モデルは、ドキュメント全体にわたってより一貫性のある出力を生成する。
そこで本研究では,デコードにおける文脈認識翻訳モデルをどのように活用するか,という質問に答えることを目的としている。
論文 参考訳(メタデータ) (2023-06-08T11:30:43Z) - Attentive Deep Neural Networks for Legal Document Retrieval [2.4350217735794337]
法令文書検索における注意型ニューラルネットワークを用いたテキスト表現法について検討した。
長い文や記事を表すために,2つの階層型アーキテクチャを開発し,それをAttentive CNN と Paraformer と命名する。
実験結果から,知覚的ニューラル法は,データセットや言語間での検索性能において,非神経的手法を著しく上回ることがわかった。
論文 参考訳(メタデータ) (2022-12-13T01:37:27Z) - Tag-Aware Document Representation for Research Paper Recommendation [68.8204255655161]
本稿では,ユーザによって割り当てられたソーシャルタグに基づいて,研究論文の深い意味表現を活用するハイブリッドアプローチを提案する。
提案手法は,評価データが極めて少ない場合でも研究論文の推薦に有効である。
論文 参考訳(メタデータ) (2022-09-08T09:13:07Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z) - Context-Aware Legal Citation Recommendation using Deep Learning [4.157772749568094]
弁護士や裁判官は、決定を起草しながら引用する適切な法的権限を研究するのに多くの時間を費やしている。
我々は,意見の起草過程における効率向上に役立つ引用推薦ツールを開発した。
論文 参考訳(メタデータ) (2021-06-20T23:23:11Z) - Learning Fine-grained Fact-Article Correspondence in Legal Cases [19.606628325747938]
我々は,手作業によるファクト・パーティクル対応を用いたコーパスを作成する。
我々はランダムフォレストと前提決定対の形で記事を解析する。
我々の最良のシステムは96.3%のF1スコアに達し、実用上大きな可能性を秘めている。
論文 参考訳(メタデータ) (2021-04-21T19:06:58Z) - Hierarchical Bi-Directional Self-Attention Networks for Paper Review
Rating Recommendation [81.55533657694016]
本稿では,階層型双方向自己注意ネットワークフレームワーク(HabNet)を提案する。
具体的には、文エンコーダ(レベル1)、レビュー内エンコーダ(レベル2)、レビュー間エンコーダ(レベル3)の3つのレベルで、論文レビューの階層構造を利用する。
我々は、最終的な受理決定を行う上で有用な予測者を特定することができ、また、数値的なレビュー評価とレビュアーが伝えるテキストの感情の不整合を発見するのに役立てることができる。
論文 参考訳(メタデータ) (2020-11-02T08:07:50Z) - Building Legal Case Retrieval Systems with Lexical Matching and
Summarization using A Pre-Trained Phrase Scoring Model [1.9275428660922076]
本研究は,2019年法律情報抽出・販売コンペティションの判例検索課題に対処する手法を提案する。
我々のアプローチは、要約が検索に重要であるという考え方に基づいている。
コンペティションのベンチマークにおけるタスクの最先端の結果を達成しました。
論文 参考訳(メタデータ) (2020-09-29T15:10:59Z) - Learning Neural Textual Representations for Citation Recommendation [7.227232362460348]
サブモジュラースコアリング機能において,シームズとトリプルトネットワークを併用した文書(センテンス-BERT)の深部表現を用いた引用推薦手法を提案する。
我々の知る限りでは、これは引用推薦のタスクに対して、ディープ表現とサブモジュラー選択を組み合わせるための最初のアプローチである。
論文 参考訳(メタデータ) (2020-07-08T12:38:50Z) - SPECTER: Document-level Representation Learning using Citation-informed
Transformers [51.048515757909215]
SPECTERは、Transformer言語モデルの事前学習に基づいて、科学文書の文書レベルの埋め込みを生成する。
SciDocsは、引用予測から文書分類、レコメンデーションまでの7つの文書レベルのタスクからなる新しい評価ベンチマークである。
論文 参考訳(メタデータ) (2020-04-15T16:05:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。