論文の概要: Exploring the Promises of Transformer-Based LMs for the Representation
of Normative Claims in the Legal Domain
- arxiv url: http://arxiv.org/abs/2108.11215v1
- Date: Wed, 25 Aug 2021 13:03:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-26 12:58:00.261440
- Title: Exploring the Promises of Transformer-Based LMs for the Representation
of Normative Claims in the Legal Domain
- Title(参考訳): 法律領域における規範的主張の表現のためのトランスフォーマーに基づくLMの約束
- Authors: Reto Gubelmann (1), Peter Hongler (1), Siegfried Handschuh (1) ((1)
University of St.Gallen (HSG))
- Abstract要約: 本稿では,トランスフォーマーベース言語モデル(LM)の法域における規範文を正しく表現する可能性について検討する。
我々は、様々なLMを単語と文ベースのクラスタリングのベースとして使用し、その後、専門家によってコンパイルされた小さなテストセットで評価する。
実験の結果,文-BERT埋め込みに基づくクラスタリングが最も有望な結果が得られた。
- 参考スコア(独自算出の注目度): 4.193403311740078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this article, we explore the potential of transformer-based language
models (LMs) to correctly represent normative statements in the legal domain,
taking tax law as our use case. In our experiment, we use a variety of LMs as
bases for both word- and sentence-based clusterers that are then evaluated on a
small, expert-compiled test-set, consisting of real-world samples from tax law
research literature that can be clearly assigned to one of four normative
theories. The results of the experiment show that clusterers based on
sentence-BERT-embeddings deliver the most promising results. Based on this main
experiment, we make first attempts at using the best performing models in a
bootstrapping loop to build classifiers that map normative claims on one of
these four normative theories.
- Abstract(参考訳): 本稿では,法律領域における規範的言明を正しく表現するトランスフォーマティブ言語モデル(lms)の可能性について検討する。
この実験では、様々なlmsを単語と文に基づくクラスタリングのベースとして使用し、4つの規範理論の1つに明確に割り当てられる税法研究文献の実世界のサンプルからなる、専門的にコンパイルされた小さなテストセットで評価した。
実験の結果,文-BERT埋め込みに基づくクラスタリングが最も有望な結果が得られた。
この主実験に基づいて、これらの4つの規範的理論のうちの1つに規範的クレームをマッピングする分類器を構築するために、ブートストラップループで最高の実行モデルを使用するための最初の試みを行う。
関連論文リスト
- Explicit Inductive Inference using Large Language Models [13.767536248988268]
大規模言語モデル(LLM)は、推論タスクに対して望ましくない証明バイアスを負うと報告されている。
このバイアスを利用して明示的な帰納的推論を行うパイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-26T17:58:17Z) - A Normative Framework for Benchmarking Consumer Fairness in Large Language Model Recommender System [9.470545149911072]
本稿では,LCMを利用したリコメンデータシステムにおいて,消費者の公正性をベンチマークするための規範的フレームワークを提案する。
このギャップは公平性に関する任意の結論につながる可能性があると我々は主張する。
MovieLensデータセットの消費者の公正性に関する実験は、年齢ベースの推奨において公平さの偏りを明らかにしている。
論文 参考訳(メタデータ) (2024-05-03T16:25:27Z) - Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - Modeling Legal Reasoning: LM Annotation at the Edge of Human Agreement [3.537369004801589]
我々は法学哲学に基づく法学推論の分類について研究する。
我々は、ドメインの専門家チームによって注釈付けされた、アメリカ合衆国最高裁判所の歴史的意見の新しいデータセットを使用します。
生成モデルは、人間のアノテーションに提示される命令と同等の命令が与えられた場合、性能が良くないことがわかった。
論文 参考訳(メタデータ) (2023-10-27T19:27:59Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Not All Metrics Are Guilty: Improving NLG Evaluation by Diversifying References [123.39034752499076]
Div-Refは、参照数を増やして評価ベンチマークを強化する方法である。
本研究では,参照表現の多様化が自動評価と人的評価の相関性を大幅に向上させることを示す実験を行った。
論文 参考訳(メタデータ) (2023-05-24T11:53:29Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - LESA: Linguistic Encapsulation and Semantic Amalgamation Based
Generalised Claim Detection from Online Content [15.814664354258184]
LESAは、ソース非依存の一般化モデルを組み込むことで、先進的な問題を解消することを目的としている。
我々は、大規模な非構造化データセット上でテスト基盤を提供することを目的としたTwitterデータセットに注釈を付けることで、後者の問題を解決する。
実験の結果、LESAは6つのベンチマーククレームデータセットで最先端のパフォーマンスを改善することがわかった。
論文 参考訳(メタデータ) (2021-01-28T09:51:30Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。