論文の概要: Aalap: AI Assistant for Legal & Paralegal Functions in India
- arxiv url: http://arxiv.org/abs/2402.01758v1
- Date: Tue, 30 Jan 2024 12:39:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 16:05:44.980940
- Title: Aalap: AI Assistant for Legal & Paralegal Functions in India
- Title(参考訳): Aalap:インドにおける法と副法機能のためのAIアシスタント
- Authors: Aman Tiwari, Prathamesh Kalamkar, Atreyo Banerjee, Saurabh Karn, Varun
Hemachandran and Smita Gupta
- Abstract要約: Aalalpは、特定のインドの法的タスクに関連する指示データに関する微調整されたMistral 7Bモデルである。
Aalapは、弁護士、裁判官、あるいは法律システムで働く人の日々の活動に間違いなく役立ちます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Using proprietary Large Language Models on legal tasks poses challenges due
to data privacy issues, domain data heterogeneity, domain knowledge
sophistication, and domain objectives uniqueness. We created Aalalp, a
fine-tuned Mistral 7B model on instructions data related to specific Indian
legal tasks. The performance of Aalap is better than gpt-3.5-turbo in 31\% of
our test data and obtains an equivalent score in 34\% of the test data as
evaluated by GPT4. Training Aalap mainly focuses on teaching legal reasoning
rather than legal recall. Aalap is definitely helpful for the day-to-day
activities of lawyers, judges, or anyone working in legal systems.
- Abstract(参考訳): 法的なタスクでプロプライエタリな言語モデルを使用することは、データのプライバシの問題、ドメインデータの異質性、ドメイン知識の洗練、ドメインの独自性といった問題を引き起こす。
私たちは、特定のインドの法的タスクに関連する命令データに基づいて、微調整されたMistral 7BモデルであるAalalpを作成しました。
Aalap の性能はテストデータの 31 % で gpt-3.5-turbo より優れており,GPT4 で評価したテストデータの 34 % で同等のスコアが得られる。
aalapの訓練は、主に法的リコールではなく、法的推論を教えることに焦点を当てている。
Aalapは、弁護士、裁判官、あるいは法律システムで働く人の日々の活動に間違いなく役立ちます。
関連論文リスト
- LEGAL-UQA: A Low-Resource Urdu-English Dataset for Legal Question Answering [0.0]
LEGAL-UQAはパキスタンの憲法から派生した最初のウルドゥー語法的問合せデータセットである。
このパラレル・イングリッシュ・ウルドゥデータセットは、619の質問応答ペアを含み、それぞれが対応する法的記事コンテキストを持つ。
我々は、OCR抽出、手動精細化、GPT-4による翻訳およびQAペアの生成を含むデータセット作成プロセスについて述べる。
論文 参考訳(メタデータ) (2024-10-16T20:14:45Z) - FLawN-T5: An Empirical Examination of Effective Instruction-Tuning Data Mixtures for Legal Reasoning [47.001169623840354]
LawInstructは17の管轄区域、24の言語、合計12万のサンプルをカバーする大規模な法的命令データセットである。
ドメイン固有の事前学習と指導訓練がLegalBenchの性能を向上させることを示す。
LawInstructは、より強力な情報処理と法的領域における意思決定能力を備えたモデルの開発を促進するためのリソースである。
論文 参考訳(メタデータ) (2024-04-02T17:33:34Z) - Convolutional Neural Networks can achieve binary bail judgement
classification [0.5013868868152144]
我々は,ヒンディー語法文書のコーパス上に,畳み込みニューラルネットワーク(CNN)アーキテクチャをデプロイする。
我々はCNNモデルの助けを借りて保釈予測を行い、全体的な精度は93%である。
論文 参考訳(メタデータ) (2024-01-25T12:31:41Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - Is GPT-4 a Good Data Analyst? [67.35956981748699]
我々は、GPT-4を、広範囲のドメインのデータベースでエンドツーエンドのデータ分析を行うためのデータ分析であると考えている。
我々は,複数の専門家データアナリストとGPT-4のパフォーマンスを体系的に比較するために,タスク固有の評価指標を設計する。
実験の結果, GPT-4はヒトに匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-05-24T11:26:59Z) - Are Models Trained on Indian Legal Data Fair? [20.162205920441895]
法律分野におけるインドの観点からの公正性に関する最初の調査を提示する。
本研究では、保釈予測タスクのために訓練された決定木モデルにおいて、ヒンドゥー教とムスリムに関連する入力特徴間の全体的な公平性格差が0.237であることを示す。
論文 参考訳(メタデータ) (2023-03-13T16:20:33Z) - A Survey on Legal Judgment Prediction: Datasets, Metrics, Models and
Challenges [73.34944216896837]
法定判断予測(LJP)は,事実記述に基づく判断結果の自動予測に自然言語処理(NLP)技術を適用している。
6言語で31のLJPデータセットを分析し、その構築過程を示し、LJPの分類方法を定義する。
異なる訴訟の8つの代表的データセットに対する最先端の結果を示し、オープンな課題について議論する。
論文 参考訳(メタデータ) (2022-04-11T04:06:28Z) - GAIA: A Transfer Learning System of Object Detection that Fits Your
Needs [136.60609274344893]
大規模データセットの事前学習によるトランスファーラーニングは,コンピュータビジョンや自然言語処理において,ますます重要な役割を担っている。
本稿では,物体検出の領域に着目し,GAIAと呼ばれる移動学習システムを提案する。
GAIAは、レイテンシ制約や指定されたデータドメインなどの下流要求に適合するモデルを選択する、強力な事前訓練されたウェイトを提供することができる。
論文 参考訳(メタデータ) (2021-06-21T18:24:20Z) - When Does Pretraining Help? Assessing Self-Supervised Learning for Law
and the CaseHOLD Dataset [2.0924876102146714]
53,000以上の選択質問からなる新しいデータセットを提示し、引用されたケースの保持状況を特定する。
タスクがプリトレーニングコーパスと十分な類似性を示すと、ドメイン事前トレーニングが保証される可能性がある。
我々の研究結果は、研究者がいつリソース集約的な事前訓練を行うべきかを知らせ、Transformerベースのアーキテクチャも、異なる法的言語を示唆する埋め込みを学習することを示す。
論文 参考訳(メタデータ) (2021-04-18T00:57:16Z) - LEGAL-BERT: The Muppets straight out of Law School [52.53830441117363]
我々は、BERTモデルを下流の法的タスクに適用するためのアプローチを検討し、複数のデータセットで評価する。
以上の結果から,事前学習と微調整のガイドラインが盲目的に従う場合が多いが,法域において必ずしも適切ではないことが示唆された。
LEGAL-BERTは、法的なNLP研究、計算法、法的な技術応用を支援するためのBERTモデルのファミリーである。
論文 参考訳(メタデータ) (2020-10-06T09:06:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。