論文の概要: Miko Team: Deep Learning Approach for Legal Question Answering in ALQAC
2022
- arxiv url: http://arxiv.org/abs/2211.02200v1
- Date: Fri, 4 Nov 2022 00:50:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 15:49:45.568626
- Title: Miko Team: Deep Learning Approach for Legal Question Answering in ALQAC
2022
- Title(参考訳): Mikoチーム: ALQAC 2022における法的質問に対するディープラーニングアプローチ
- Authors: Hieu Nguyen Van, Dat Nguyen, Phuong Minh Nguyen and Minh Le Nguyen
- Abstract要約: ALQAC2022(Automated Legal Question Answering Competition)において,効率的な深層学習に基づく法文書処理手法を導入する。
本手法は,XLM-RoBERTaモデルに基づいて,多数の未ラベルコーパスから事前学習を行い,そのタスクを微調整する。
実験結果から,本手法は限定ラベル付きデータを用いた法的な検索情報処理に有効であることがわかった。
- 参考スコア(独自算出の注目度): 2.242125769416219
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce efficient deep learning-based methods for legal document
processing including Legal Document Retrieval and Legal Question Answering
tasks in the Automated Legal Question Answering Competition (ALQAC 2022). In
this competition, we achieve 1\textsuperscript{st} place in the first task and
3\textsuperscript{rd} place in the second task. Our method is based on the
XLM-RoBERTa model that is pre-trained from a large amount of unlabeled corpus
before fine-tuning to the specific tasks. The experimental results showed that
our method works well in legal retrieval information tasks with limited labeled
data. Besides, this method can be applied to other information retrieval tasks
in low-resource languages.
- Abstract(参考訳): 本稿では,ALQAC 2022(Automated Legal Question Answering Competition)において,法務文書検索や法務質問応答タスクを含む法務文書処理のための効率的な深層学習手法を紹介する。
この競合では、第1のタスクで1\textsuperscript{st}、第2のタスクで3\textsuperscript{rd}を得る。
本手法は,XLM-RoBERTaモデルに基づいて,大量の未ラベルコーパスから事前学習を行い,タスクの微調整を行う。
実験の結果,本手法は限定ラベル付きデータを用いた法的な検索情報処理に有効であることがわかった。
また、この手法は低リソース言語における他の情報検索タスクにも適用できる。
関連論文リスト
- Judgement Citation Retrieval using Contextual Similarity [0.0]
本稿では,自然言語処理(NLP)と機械学習技術を組み合わせて,訴訟記述の組織化と活用を促進する手法を提案する。
提案手法は,教師なしクラスタリングと教師付き引用検索の2つの主要な目的に対処する。
我々の手法は90.9%という驚くべき精度を達成した。
論文 参考訳(メタデータ) (2024-05-28T04:22:28Z) - PromptReps: Prompting Large Language Models to Generate Dense and Sparse Representations for Zero-Shot Document Retrieval [76.50690734636477]
本稿では,PmptRepsを提案する。このPmptRepsは,トレーニングを必要とせず,コーパス全体から検索できる機能である。
検索システムは、高密度テキスト埋め込みとスパースバッグ・オブ・ワード表現の両方を利用する。
論文 参考訳(メタデータ) (2024-04-29T04:51:30Z) - CAPTAIN at COLIEE 2023: Efficient Methods for Legal Information
Retrieval and Entailment Tasks [7.0271825812050555]
本稿では,COLIEE 2023コンペティションにおけるタスク2,タスク3,タスク4の対応戦略について概説する。
提案手法は,最先端のディープラーニング手法の活用,ドメイン特性の観察に基づく手法の設計,厳密なエンジニアリングプラクティスと方法論を競争に適用することであった。
論文 参考訳(メタデータ) (2024-01-07T17:23:27Z) - NeCo@ALQAC 2023: Legal Domain Knowledge Acquisition for Low-Resource
Languages through Data Enrichment [2.441072488254427]
本稿では,ベトナムのテキスト処理タスクに対するNeCo Teamのソリューションを,ALQAC 2023(Automated Legal Question Answering Competition 2023)で紹介する。
法的な文書検索タスクでは,類似度ランキングと深層学習モデルを組み合わせた手法が採用されているが,第2の課題では,異なる質問タイプを扱うための適応的手法が提案されている。
提案手法は, 競争の両課題において, 法的分野における質問応答システムの潜在的メリットと有効性を示す, 卓越した結果を達成している。
論文 参考訳(メタデータ) (2023-09-11T14:43:45Z) - DAPR: A Benchmark on Document-Aware Passage Retrieval [57.45793782107218]
我々は,このタスクemphDocument-Aware Passage Retrieval (DAPR)を提案する。
State-of-The-Art(SoTA)パスレトリバーのエラーを分析しながら、大きなエラー(53.5%)は文書コンテキストの欠如に起因する。
提案するベンチマークにより,検索システムの開発・比較を今後行うことができる。
論文 参考訳(メタデータ) (2023-05-23T10:39:57Z) - THUIR@COLIEE 2023: More Parameters and Legal Knowledge for Legal Case
Entailment [16.191450092389722]
本稿は, COLIEE 2023 Legal Case Entailment TaskにおけるTHUIRチームのアプローチについて述べる。
従来の語彙マッチング手法と,異なる大きさの事前学習言語モデルを試す。
第3位はCOLIEE 2023です。
論文 参考訳(メタデータ) (2023-05-11T14:11:48Z) - Socratic Pretraining: Question-Driven Pretraining for Controllable
Summarization [89.04537372465612]
ソクラティック事前訓練は、要約タスクにおける制御性を改善するために設計された、質問駆動で教師なし事前訓練の目的である。
以上の結果から,Socraticプレトレーニングはタスク固有のラベル付きデータ要件を半分に削減することがわかった。
論文 参考訳(メタデータ) (2022-12-20T17:27:10Z) - Recitation-Augmented Language Models [85.30591349383849]
知識集約型NLPタスクにおいて,RECITEは強力なパラダイムであることを示す。
具体的には、リサイクリングを中間ステップとして活用することにより、新しい最先端性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-10-04T00:49:20Z) - Questions Are All You Need to Train a Dense Passage Retriever [123.13872383489172]
ARTは、ラベル付きトレーニングデータを必要としない高密度検索モデルをトレーニングするための、新しいコーパスレベルのオートエンコーディングアプローチである。
そこで,(1) 入力質問を用いて証拠文書の集合を検索し,(2) 文書を用いて元の質問を再構築する確率を計算する。
論文 参考訳(メタデータ) (2022-06-21T18:16:31Z) - JNLP Team: Deep Learning Approaches for Legal Processing Tasks in COLIEE
2021 [1.8700700550095686]
COLIEEは、自動コンピュータ化された法律テキスト処理における毎年のコンペティションである。
本稿では,法律文書処理における深層学習の手法と実験結果について報告する。
論文 参考訳(メタデータ) (2021-06-25T03:31:12Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。