論文の概要: Encoded Summarization: Summarizing Documents into Continuous Vector
Space for Legal Case Retrieval
- arxiv url: http://arxiv.org/abs/2309.08187v1
- Date: Fri, 15 Sep 2023 06:33:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 15:45:12.493129
- Title: Encoded Summarization: Summarizing Documents into Continuous Vector
Space for Legal Case Retrieval
- Title(参考訳): Encoded Summarization: 判例検索のための文書を連続ベクトル空間に要約する
- Authors: Vu Tran, Minh Le Nguyen, Satoshi Tojo, and Ken Satoh
- Abstract要約: 深層ニューラルネットワークを用いたフレーズスコアリングフレームワークを用いて,文書を連続ベクトル空間に要約し,文書を符号化する手法を提案する。
実験の結果,ニューラルネットワークによって生成された語彙的特徴と潜時特徴が相互に補完され,検索システムの性能が向上することがわかった。
本手法は, 判例検索タスクの実験データセットにおいて, 65.6%, 57.6%のF1を達成した。
- 参考スコア(独自算出の注目度): 1.242811119304344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present our method for tackling a legal case retrieval task by introducing
our method of encoding documents by summarizing them into continuous vector
space via our phrase scoring framework utilizing deep neural networks. On the
other hand, we explore the benefits from combining lexical features and latent
features generated with neural networks. Our experiments show that lexical
features and latent features generated with neural networks complement each
other to improve the retrieval system performance. Furthermore, our
experimental results suggest the importance of case summarization in different
aspects: using provided summaries and performing encoded summarization. Our
approach achieved F1 of 65.6% and 57.6% on the experimental datasets of legal
case retrieval tasks.
- Abstract(参考訳): 本稿では, 深層ニューラルネットワークを用いたフレーズスコアリングフレームワークを用いて, 文書を連続ベクトル空間に要約し, 文書を符号化する手法を導入することにより, 訴訟検索タスクに対処する手法を提案する。
一方,ニューラルネットワークで生成した語彙特徴と潜在特徴を組み合わせることで得られる利点について検討する。
実験の結果,ニューラルネットワークによって生成された語彙的特徴と潜時特徴が相互に補完され,検索システムの性能が向上することがわかった。
さらに,実験結果から,提供された要約を用いて符号化した要約を行う場合,異なる側面におけるケース要約の重要性が示唆された。
本手法は, 判例検索タスクの実験データセットにおいて65.6%, 57.6%のF1を達成した。
関連論文リスト
- Relational Composition in Neural Networks: A Survey and Call to Action [54.47858085003077]
多くのニューラルネットは、データを「機能ベクトル」の線形結合として表現しているように見える。
我々は、この成功は関係性の構成を理解せずに不完全であると主張する。
論文 参考訳(メタデータ) (2024-07-19T20:50:57Z) - Efficient Document Embeddings via Self-Contrastive Bregman Divergence Learning [25.788415207843677]
我々は、最先端の教師なしコントラスト学習法(SimCSE)を用いて、Longfomerベースの文書エンコーダを訓練する。
本稿では, 自己コントラスト型シアムネットワークとニューラルブレグマンネットワークの組み合わせが, 2つの線形分類設定において, ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-25T13:08:10Z) - How Does Generative Retrieval Scale to Millions of Passages? [68.98628807288972]
各種コーパス尺度における生成的検索手法の実証的研究を行った。
我々は8.8Mパスのコーパスで数百万のパスに生成検索をスケールし、モデルサイズを最大11Bパラメータまで評価する。
生成的検索は、小さなコーパス上の最先端のデュアルエンコーダと競合するが、数百万のパスへのスケーリングは依然として重要で未解決の課題である。
論文 参考訳(メタデータ) (2023-05-19T17:33:38Z) - Tram: A Token-level Retrieval-augmented Mechanism for Source Code Summarization [76.57699934689468]
ニューラルモデルの性能を高めるために,デコーダ側で詳細なTokenレベル検索強化機構(Tram)を提案する。
文脈的コードセマンティクスの取得におけるトークンレベルの検索の課題を克服するために,コードセマンティクスを個々の要約トークンに統合することを提案する。
論文 参考訳(メタデータ) (2023-05-18T16:02:04Z) - Abstractive summarization of hospitalisation histories with transformer
networks [68.96380145211093]
本稿では,患者の入院履歴を抽象的に要約する新しいアプローチを提案する。
我々は、Longformerニューラルネットワークをエンコーダとして、BERTをデコーダとして、エンコーダデコーダフレームワークを適用した。
論文 参考訳(メタデータ) (2022-04-05T13:38:39Z) - Incorporating domain knowledge into neural-guided search [3.1542695050861544]
AutoMLの問題は、ブラックボックスの報酬の下で離散オブジェクトを最適化することである。
ニューラル誘導探索は、自己回帰リカレントニューラルネットワークを用いてこれらの空間を探索する柔軟な手段を提供する。
我々は,ニューラルネットワークによる探索にそのようなin situの事前と制約を組み込むための枠組みを定式化する。
論文 参考訳(メタデータ) (2021-07-19T22:34:43Z) - CDEvalSumm: An Empirical Study of Cross-Dataset Evaluation for Neural
Summarization Systems [121.78477833009671]
データセット間設定下での様々な要約モデルの性能について検討する。
異なるドメインの5つのデータセットに対する11の代表的な要約システムに関する包括的な研究は、モデルアーキテクチャと生成方法の影響を明らかにしている。
論文 参考訳(メタデータ) (2020-10-11T02:19:15Z) - A Cascade Approach to Neural Abstractive Summarization with Content
Selection and Fusion [41.60603627311872]
本稿では,ニューラルネットワークの要約のためのカスケードアーキテクチャを提案する。
重要コンテンツの断片を別々に識別し、それらをコヒーレントなテキストに縫合するカスケードパイプラインは、エンド・ツー・エンドのシステムに匹敵する、あるいはオーバーランクであることを示す。
論文 参考訳(メタデータ) (2020-10-08T01:49:16Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。