論文の概要: Extractive Summarization of Legal Decisions using Multi-task Learning
and Maximal Marginal Relevance
- arxiv url: http://arxiv.org/abs/2210.12437v1
- Date: Sat, 22 Oct 2022 12:51:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 16:07:41.458743
- Title: Extractive Summarization of Legal Decisions using Multi-task Learning
and Maximal Marginal Relevance
- Title(参考訳): マルチタスク学習と最大縁関係を用いた法的判断の抽出的要約
- Authors: Abhishek Agarwal and Shanshan Xu and Matthias Grabmair
- Abstract要約: 本稿では,限られた専門家アノテートデータを用いた低リソース環境における法的決定の抽出手法を提案する。
逐次モデルを用いて関連コンテンツを見つけるための一連のモデルを検証し,最大辺縁関係を利用して要約を構成する。
提案手法は,アノテーション間比較の結果と一致した要約を抽出し,ROUGEスコア vis-a-vis expert を得ることができることを示す。
- 参考スコア(独自算出の注目度): 3.6847375967256295
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Summarizing legal decisions requires the expertise of law practitioners,
which is both time- and cost-intensive. This paper presents techniques for
extractive summarization of legal decisions in a low-resource setting using
limited expert annotated data. We test a set of models that locate relevant
content using a sequential model and tackle redundancy by leveraging maximal
marginal relevance to compose summaries. We also demonstrate an implicit
approach to help train our proposed models generate more informative summaries.
Our multi-task learning model variant leverages rhetorical role identification
as an auxiliary task to further improve the summarizer. We perform extensive
experiments on datasets containing legal decisions from the US Board of
Veterans' Appeals and conduct quantitative and expert-ranked evaluations of our
models. Our results show that the proposed approaches can achieve ROUGE scores
vis-\`a-vis expert extracted summaries that match those achieved by
inter-annotator comparison.
- Abstract(参考訳): 法的決定を要約するには、時間と費用のかかる法律実務者の専門知識が必要である。
本稿では,限られた専門家アノテートデータを用いた低リソース環境における法的決定の抽出手法を提案する。
逐次モデルを用いて関連コンテンツを見つけるための一連のモデルを検証し,最大辺縁関係を利用して要約を構成する。
また、提案したモデルがより情報的な要約を生成するための暗黙のアプローチも示しています。
マルチタスク学習モデルでは,修辞的役割同定を補助タスクとして活用し,要約をさらに改善する。
我々は,米国退役軍人審判委員会の法的決定を含むデータセットに関する広範囲な実験を行い,モデルの定量的かつ専門的な評価を行う。
提案手法は,アノテーション間比較の結果と一致した要約を抽出し,ROUGEスコア vis-\`a-vis を得られることを示す。
関連論文リスト
- Flexible and Adaptable Summarization via Expertise Separation [59.26639426529827]
熟練した要約モデルは、柔軟性と適応性の両方を示すべきである。
我々は,Mixture-of-Expert SummarizationアーキテクチャであるMoeSummを提案する。
我々のモデルでは、一般とドメイン固有の要約能力の分離は、顕著な柔軟性と適応性を与えている。
論文 参考訳(メタデータ) (2024-06-08T05:31:19Z) - Diversified Batch Selection for Training Acceleration [68.67164304377732]
オンラインバッチ選択として知られる一般的な研究ラインでは、トレーニングプロセス中の情報サブセットの選択について検討している。
バニラ参照モデルフリーメソッドは、独立してデータをサンプリング的にスコア付けし、選択する。
DivBS(Diversified Batch Selection)を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:12:20Z) - Leveraging Large Language Models for Relevance Judgments in Legal Case Retrieval [18.058942674792604]
本稿では,訴訟の関連判断に適した新規な数ショットワークフローを提案する。
LLMと人的専門家の関連判断を比較することで,信頼性の高い関連判断が得られたことを実証的に示す。
論文 参考訳(メタデータ) (2024-03-27T09:46:56Z) - Sharing Knowledge in Multi-Task Deep Reinforcement Learning [57.38874587065694]
マルチタスク強化学習において、ディープニューラルネットワークを効果的に活用するためのタスク間の表現の共有の利点について検討する。
我々は,タスク間で表現を共有するのに便利な条件を強調する理論的保証を提供することで,これを証明している。
論文 参考訳(メタデータ) (2024-01-17T19:31:21Z) - Little Giants: Exploring the Potential of Small LLMs as Evaluation
Metrics in Summarization in the Eval4NLP 2023 Shared Task [53.163534619649866]
本稿では,大規模言語モデルに品質評価の課題を扱えるように,プロンプトベースの手法の有効性を評価することに焦点を当てる。
我々は,標準的なプロンプト,アノテータ命令によって通知されるプロンプト,イノベーティブなチェーン・オブ・シークレットプロンプトなど,様々なプロンプト技術を用いて,系統的な実験を行った。
我々の研究は、これらのアプローチを"小さな"オープンソースモデル(orca_mini_v3_7B)を使って組み合わせることで、競争結果が得られることを示した。
論文 参考訳(メタデータ) (2023-11-01T17:44:35Z) - Unsupervised Multi-document Summarization with Holistic Inference [41.58777650517525]
本稿では,教師なし多文書抽出要約のための新しい総合的枠組みを提案する。
サブセット代表指数(SRI)は、原文からの文のサブセットの重要性と多様性のバランスをとる。
その結果,多文書要約性能の向上には多様性が不可欠であることが示唆された。
論文 参考訳(メタデータ) (2023-09-08T02:56:30Z) - Improving Multi-Document Summarization through Referenced Flexible
Extraction with Credit-Awareness [21.037841262371355]
MDS(Multi-Document Summarization)における注目すべき課題は、入力の非常に長い長さである。
本稿では,この問題を克服するための抽出・抽出・吸収変換器フレームワークを提案する。
擬似抽出オラクルにない文の不等式の重要性をモデルに認識させる損失重み付け機構を提案する。
論文 参考訳(メタデータ) (2022-05-04T04:40:39Z) - Robust Deep Reinforcement Learning for Extractive Legal Summarization [13.577343899514396]
本稿では,強化学習を用いて,現行の深層要約モデルを訓練し,法域における性能向上を図ることを提案する。
3つの公開法的データセットで一貫した、重要なパフォーマンス向上を観察します。
論文 参考訳(メタデータ) (2021-11-13T17:27:49Z) - Learning Opinion Summarizers by Selecting Informative Reviews [81.47506952645564]
31,000以上の製品のユーザレビューと組み合わせた大規模な要約データセットを収集し、教師付きトレーニングを可能にします。
多くのレビューの内容は、人間が書いた要約には反映されず、したがってランダムなレビューサブセットで訓練された要約者は幻覚する。
我々は、これらのサブセットで表現された意見を要約し、レビューの情報的サブセットを選択するための共同学習としてタスクを定式化する。
論文 参考訳(メタデータ) (2021-09-09T15:01:43Z) - Controllable Summarization with Constrained Markov Decision Process [50.04321779376415]
本研究では,ユーザが特定の属性を制御できる可制御テキスト要約について検討する。
制約付きマルコフ決定プロセス(CMDP)に基づく新しいトレーニングフレームワークを提案する。
我々のフレームワークは、長さ、被覆された実体、抽象性など、要約の重要な属性を制御するために応用できる。
論文 参考訳(メタデータ) (2021-08-07T09:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。