論文の概要: Interpretable Low-Resource Legal Decision Making
- arxiv url: http://arxiv.org/abs/2201.01164v1
- Date: Sat, 1 Jan 2022 20:34:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 13:41:28.129053
- Title: Interpretable Low-Resource Legal Decision Making
- Title(参考訳): 解釈可能な低リソース法決定法
- Authors: Rohan Bhambhoria, Hui Liu, Samuel Dahan, Xiaodan Zhu
- Abstract要約: 本稿では,法的文書に有効であることを示す手法である,モデルに依存しない解釈可能な中間層を提案する。
カリキュラム学習戦略を用いて、弱教師付き学習を活用し、深層学習モデルの性能向上を効果的に実証する。
- 参考スコア(独自算出の注目度): 17.734489612020994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past several years, legal applications of deep learning have been on
the rise. However, as with other high-stakes decision making areas, the
requirement for interpretability is of crucial importance. Current models
utilized by legal practitioners are more of the conventional machine learning
type, wherein they are inherently interpretable, yet unable to harness the
performance capabilities of data-driven deep learning models. In this work, we
utilize deep learning models in the area of trademark law to shed light on the
issue of likelihood of confusion between trademarks. Specifically, we introduce
a model-agnostic interpretable intermediate layer, a technique which proves to
be effective for legal documents. Furthermore, we utilize weakly supervised
learning by means of a curriculum learning strategy, effectively demonstrating
the improved performance of a deep learning model. This is in contrast to the
conventional models which are only able to utilize the limited number of
expensive manually-annotated samples by legal experts. Although the methods
presented in this work tackles the task of risk of confusion for trademarks, it
is straightforward to extend them to other fields of law, or more generally, to
other similar high-stakes application scenarios.
- Abstract(参考訳): 過去数年間、ディープラーニングの法的応用が増えている。
しかし、他の高い意思決定領域と同様に、解釈可能性の要件も重要である。
法律実務者が利用している現在のモデルは、本来は解釈可能であるが、データ駆動型ディープラーニングモデルのパフォーマンス能力を活用できない、従来の機械学習タイプに近い。
本研究は,商標法分野における深層学習モデルを用いて,商標間の混同の可能性の問題を明らかにする。
具体的には,法律文書に有効であることを実証する手法として,モデル非依存な解釈可能な中間層を提案する。
さらに、カリキュラム学習戦略を用いて弱教師付き学習を活用し、深層学習モデルの性能向上を効果的に実証する。
これは、法律の専門家による高価な手作業による注釈付きサンプルの限られた数しか利用できない従来のモデルとは対照的である。
この研究で提示された手法は商標の混乱のリスクに対処するが、それらを他の法分野、あるいはより一般的には、他の類似の高度なアプリケーションシナリオに拡張することは容易である。
関連論文リスト
- LawLLM: Law Large Language Model for the US Legal System [43.13850456765944]
我々は,米国法域に特化して設計されたマルチタスクモデルであるLawLLM(Law Large Language Model)を紹介する。
類似症例検索(SCR)、PCR(Precedent Case Recommendation)、LJP(Lawal Judgment Prediction)においてLawLLMが優れている
そこで本研究では,各タスクに対して,生の法定データをトレーニング可能な形式に変換する,カスタマイズされたデータ前処理手法を提案する。
論文 参考訳(メタデータ) (2024-07-27T21:51:30Z) - Lawma: The Power of Specialization for Legal Tasks [18.45967769381101]
我々は260の法的テキスト分類タスクを研究し、ほぼ全て機械学習コミュニティに新しい。
軽量で微調整されたLlama 3モデルは、通常2桁のパーセンテージポイントで、ほぼ全てのタスクにおいてGPT-4をはるかに上回る。
より大型のモデルの方が、より小型のモデルよりも微調整に反応することがわかった。
論文 参考訳(メタデータ) (2024-07-23T16:23:04Z) - Knowledge-Aware Parsimony Learning: A Perspective from Relational Graphs [47.6830995661091]
我々は、より単純なモデルでより大きなポテンシャルを達成するために、擬似的に次世代モデルを開発する。
鍵となるのは、スケーリングの法則に頼るのではなく、記号やロジック、公式といったドメイン固有の知識を使ってモデルを駆動することだ。
このアプローチによって、モデル設計、トレーニング、解釈のパーシモニーを達成するために、この知識を"ビルディングブロック"として使用するフレームワークを構築することができます。
論文 参考訳(メタデータ) (2024-06-29T15:52:37Z) - Modeling Legal Reasoning: LM Annotation at the Edge of Human Agreement [3.537369004801589]
我々は法学哲学に基づく法学推論の分類について研究する。
我々は、ドメインの専門家チームによって注釈付けされた、アメリカ合衆国最高裁判所の歴史的意見の新しいデータセットを使用します。
生成モデルは、人間のアノテーションに提示される命令と同等の命令が与えられた場合、性能が良くないことがわかった。
論文 参考訳(メタデータ) (2023-10-27T19:27:59Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - Fair Interpretable Representation Learning with Correction Vectors [60.0806628713968]
我々は「補正ベクトル」の学習を中心にした公正表現学習のための新しい枠組みを提案する。
このような方法で制約されたいくつかの公正表現学習モデルが、ランキングや分類性能の損失を示さないことを実験的に示す。
論文 参考訳(メタデータ) (2022-02-07T11:19:23Z) - The Unreasonable Effectiveness of the Baseline: Discussing SVMs in Legal
Text Classification [0.0]
サポートベクトルマシン分類器に基づくより伝統的なアプローチは、ディープラーニングモデルと競合する性能に達することを示す。
また,ベースライン上の特定BERTモデルを用いて得られた誤差の低減は,一般的な言語タスクと比較して法域において顕著に小さいことを強調した。
論文 参考訳(メタデータ) (2021-09-15T12:05:28Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。