論文の概要: ParaLaw Nets -- Cross-lingual Sentence-level Pretraining for Legal Text
Processing
- arxiv url: http://arxiv.org/abs/2106.13403v1
- Date: Fri, 25 Jun 2021 03:21:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-28 13:19:35.504960
- Title: ParaLaw Nets -- Cross-lingual Sentence-level Pretraining for Legal Text
Processing
- Title(参考訳): ParaLaw Nets -- 法的テキスト処理のための言語間文レベルの事前学習
- Authors: Ha-Thanh Nguyen, Vu Tran, Phuong Minh Nguyen, Thi-Hai-Yen Vuong, Quan
Minh Bui, Chau Minh Nguyen, Binh Tran Dang, Minh Le Nguyen, Ken Satoh
- Abstract要約: そこで我々は,文レベルの言語間情報を用いた事前訓練されたモデルファミリーであるParaLaw Netsを提案する。
このアプローチはCOLIEE-2021の質問回答タスクにおいて最高の結果を得た。
- 参考スコア(独自算出の注目度): 1.8700700550095686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ambiguity is a characteristic of natural language, which makes expression
ideas flexible. However, in a domain that requires accurate statements, it
becomes a barrier. Specifically, a single word can have many meanings and
multiple words can have the same meaning. When translating a text into a
foreign language, the translator needs to determine the exact meaning of each
element in the original sentence to produce the correct translation sentence.
From that observation, in this paper, we propose ParaLaw Nets, a pretrained
model family using sentence-level cross-lingual information to reduce ambiguity
and increase the performance in legal text processing. This approach achieved
the best result in the Question Answering task of COLIEE-2021.
- Abstract(参考訳): 曖昧さは自然言語の特徴であり、表現のアイデアを柔軟にする。
しかし、正確なステートメントを必要とするドメインでは、それは障壁になります。
具体的には、1つの単語が複数の意味を持ち、複数の単語が同じ意味を持つ。
テキストを外国語に翻訳する場合、翻訳者は原文の各要素の正確な意味を判断し、正しい翻訳文を生成する必要がある。
そこで本研究では,文レベルの言語間情報を用いた事前学習されたモデルファミリーであるParaLaw Netsを提案する。
このアプローチは coliee-2021 の質問応答タスクで最高の結果を得た。
関連論文リスト
- Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - Crossing the Threshold: Idiomatic Machine Translation through Retrieval
Augmentation and Loss Weighting [66.02718577386426]
慣用的な翻訳と関連する問題を簡易に評価する。
我々は,変圧器をベースとした機械翻訳モデルが慣用的な翻訳に対して正しくデフォルトとなる点を明らかにするための合成実験を行った。
自然慣用句の翻訳を改善するために, 単純かつ効果的な2つの手法を導入する。
論文 参考訳(メタデータ) (2023-10-10T23:47:25Z) - Linear Cross-Lingual Mapping of Sentence Embeddings [19.444501191526772]
文の意味論は、1つの単語の意味論よりもはるかに曖昧さで定義される。
単純線形言語間マッピングを多言語埋め込みの改善の可能性として検討する。
論文 参考訳(メタデータ) (2023-05-23T17:10:37Z) - Translate to Disambiguate: Zero-shot Multilingual Word Sense
Disambiguation with Pretrained Language Models [67.19567060894563]
事前訓練された言語モデル(PLM)は、豊富な言語間知識を学習し、多様なタスクでうまく機能するように微調整することができる。
C-WLT(Contextual Word-Level Translation)を用いた言語間単語感覚の捉え方の検討を行った。
モデルのサイズが大きくなるにつれて、PLMはより言語間単語認識の知識をエンコードし、WLT性能を改善するためのコンテキストを良くする。
論文 参考訳(メタデータ) (2023-04-26T19:55:52Z) - HIT at SemEval-2022 Task 2: Pre-trained Language Model for Idioms
Detection [23.576133853110324]
同じマルチワード表現は、異なる文で異なる意味を持つことがある。
これらは、文字通りの意味と慣用的な意味の2つのカテゴリに分けられる。
我々は事前訓練された言語モデルを使用し、文脈対応の文埋め込みを提供する。
論文 参考訳(メタデータ) (2022-04-13T02:45:04Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - Speakers Fill Lexical Semantic Gaps with Context [65.08205006886591]
我々は単語の語彙的あいまいさを意味のエントロピーとして運用する。
単語のあいまいさの推定値と,WordNetにおける単語の同義語数との間には,有意な相関関係が認められた。
これは、あいまいさの存在下では、話者が文脈をより情報的にすることで補うことを示唆している。
論文 参考訳(メタデータ) (2020-10-05T17:19:10Z) - On the Language Neutrality of Pre-trained Multilingual Representations [70.93503607755055]
語彙意味論に関して,多言語文脈埋め込みの言語中立性を直接的に検討する。
その結果、文脈埋め込みは言語ニュートラルであり、概して静的な単語型埋め込みよりも情報的であることがわかった。
本稿では,言語識別における最先端の精度に到達し,並列文の単語アライメントのための統計的手法の性能を一致させる方法について述べる。
論文 参考訳(メタデータ) (2020-04-09T19:50:32Z) - Investigating Language Impact in Bilingual Approaches for Computational
Language Documentation [28.838960956506018]
本稿では,翻訳言語の選択が後続文書作業に与える影響について検討する。
我々は56対のバイリンガルペアを作成し、低リソースの教師なし単語分割とアライメントのタスクに適用する。
この結果から,ニューラルネットワークの入力表現に手がかりを取り入れることで,翻訳品質とアライメント品質が向上することが示唆された。
論文 参考訳(メタデータ) (2020-03-30T10:30:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。