論文の概要: Refining Financial Consumer Complaints through Multi-Scale Model Interaction
- arxiv url: http://arxiv.org/abs/2504.09903v1
- Date: Mon, 14 Apr 2025 05:51:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-22 23:20:13.289648
- Title: Refining Financial Consumer Complaints through Multi-Scale Model Interaction
- Title(参考訳): マルチスケールモデルインタラクションによる金融消費者苦情の精査
- Authors: Bo-Wei Chen, An-Zi Yen, Chung-Chi Chen,
- Abstract要約: 本稿では,非公式な会話文入力を説得力のある法的議論に変換する法文改良の課題について考察する。
我々は、請求合理性に関する公式判断を付した中国の金融紛争記録のデータセットであるFinDRを紹介した。
実験の結果,MSMI(Multi-Scale Model Interaction)はシングルパスプロンプト戦略を著しく上回ることがわかった。
- 参考スコア(独自算出の注目度): 8.504311452987036
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Legal writing demands clarity, formality, and domain-specific precision-qualities often lacking in documents authored by individuals without legal training. To bridge this gap, this paper explores the task of legal text refinement that transforms informal, conversational inputs into persuasive legal arguments. We introduce FinDR, a Chinese dataset of financial dispute records, annotated with official judgments on claim reasonableness. Our proposed method, Multi-Scale Model Interaction (MSMI), leverages a lightweight classifier to evaluate outputs and guide iterative refinement by Large Language Models (LLMs). Experimental results demonstrate that MSMI significantly outperforms single-pass prompting strategies. Additionally, we validate the generalizability of MSMI on several short-text benchmarks, showing improved adversarial robustness. Our findings reveal the potential of multi-model collaboration for enhancing legal document generation and broader text refinement tasks.
- Abstract(参考訳): 法的な文章は、法的な訓練を受けずに個人によって書かれた文書にしばしば欠落する、明確さ、形式性、およびドメイン固有の精度の能力を要求する。
このギャップを埋めるために,本論文では,非公式な会話文入力を説得力のある法的議論に変換する法文改良の課題について検討する。
我々は、請求合理性に関する公式判断を付した中国の金融紛争記録のデータセットであるFinDRを紹介した。
提案手法であるMulti-Scale Model Interaction (MSMI) は、軽量な分類器を利用して出力を評価し、Large Language Models (LLMs) による反復的改善を導出する。
実験の結果,MSMIはシングルパス促進戦略よりも有意に優れていた。
さらに、いくつかの短文ベンチマークでMSMIの一般化性を評価し、対向性の向上を示した。
本研究は, 法的文書生成の強化と, より広範なテキスト改善作業のためのマルチモデルコラボレーションの可能性を明らかにするものである。
関連論文リスト
- Improving the Accuracy and Efficiency of Legal Document Tagging with Large Language Models and Instruction Prompts [0.6554326244334866]
Legal-LLMはLarge Language Models (LLM) の命令追従機能を利用する新しいアプローチである。
提案手法は,マイクロF1とマクロF1スコアを用いて,POSTURE50KとEURLEX57Kの2つのベンチマークデータセット上で評価する。
論文 参考訳(メタデータ) (2025-04-12T18:57:04Z) - Aplicação de Large Language Models na Análise e Síntese de Documentos Jurídicos: Uma Revisão de Literatura [0.0]
大規模言語モデル (LLMs) は、法的文書の分析と合成を最適化するためにますます使われている。
本研究の目的は,LLMに適用された技術の現状を法的文脈で把握するために,系統的な文献レビューを行うことである。
論文 参考訳(メタデータ) (2025-04-01T12:34:00Z) - TaMPERing with Large Language Models: A Field Guide for using Generative AI in Public Administration Research [0.0]
大規模言語モデル(LLM)の社会科学研究への統合は、科学的調査を進めるための変革的な機会を提示する。
この原稿では、タスク、モデル、プロンプト、評価、レポートの5つの決定ポイントに基づいて構成された、TaMPERフレームワークの方法論を紹介します。
論文 参考訳(メタデータ) (2025-03-30T21:38:11Z) - A Survey on Mechanistic Interpretability for Multi-Modal Foundation Models [74.48084001058672]
基礎モデルの台頭は機械学習の研究に変化をもたらした。
マルチモーダル・ファンデーション・モデル(MMFM)は、ユニモーダル・フレームワークを超えて、ユニークな解釈可能性の課題を提起する。
本研究は,(1)多モーダルモデルへのLLM解釈可能性法の適応,(2)単モーダル言語モデルとクロスモーダルシステムとの機械的差異の理解の2つの重要な側面について考察する。
論文 参考訳(メタデータ) (2025-02-22T20:55:26Z) - Multi-Agent Simulator Drives Language Models for Legal Intensive Interaction [37.856194200684364]
本稿では,対話型法シナリオをシミュレートして合成データを生成するマルチエージェント法定シミュレーションドライバ(MASER)を提案する。
MASERは参加者間の法的属性の整合性を確保し、参加者の性格や行動を調整するための監督機構を導入する。
論文 参考訳(メタデータ) (2025-02-08T15:05:24Z) - Calling a Spade a Heart: Gaslighting Multimodal Large Language Models via Negation [65.92001420372007]
本稿では,様々なベンチマークにおいて最先端MLLMを体系的に評価する。
本稿では,MLLMの脆弱性を否定的議論に対して評価するために設計された,最初のベンチマークであるGaslightingBenchを紹介する。
論文 参考訳(メタデータ) (2025-01-31T10:37:48Z) - Chain-of-Thought Prompting for Demographic Inference with Large Multimodal Models [58.58594658683919]
大規模マルチモーダルモデル (LMM) は、様々な研究課題において変換可能性を示している。
以上の結果から,LMMはゼロショット学習,解釈可能性,未修正入力の処理に長所があることが示唆された。
本稿では,目標外予測問題を効果的に緩和するChain-of-Thought拡張プロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T16:26:56Z) - FENICE: Factuality Evaluation of summarization based on Natural language Inference and Claim Extraction [85.26780391682894]
自然言語推論とクレーム抽出(FENICE)に基づく要約のファクチュアリティ評価を提案する。
FENICEは、ソース文書内の情報と、要約から抽出されたクレームと呼ばれる一連の原子的事実との間のNLIベースのアライメントを利用する。
我々の測定基準は、事実性評価のためのデファクトベンチマークであるAGGREFACTに関する新しい技術状況を設定する。
論文 参考訳(メタデータ) (2024-03-04T17:57:18Z) - Exploring Precision and Recall to assess the quality and diversity of LLMs [82.21278402856079]
我々はtextscLlama-2 や textscMistral のような大規模言語モデル (LLM) のための新しい評価フレームワークを提案する。
このアプローチにより、コーパスの整合を必要とせず、生成したテキストの品質と多様性を微妙に評価できる。
論文 参考訳(メタデータ) (2024-02-16T13:53:26Z) - Can LLMs Produce Faithful Explanations For Fact-checking? Towards
Faithful Explainable Fact-Checking via Multi-Agent Debate [75.10515686215177]
大規模言語モデル(LLM)はテキスト生成に優れるが、事実チェックにおいて忠実な説明を生成する能力は依然として過小評価されている。
多様な役割を持つエージェントとして複数のLSMを利用するマルチエージェント・デベート・リファインメント(MADR)フレームワークを提案する。
MADRは、最終的な説明が厳密な検証を行い、不誠実な要素の可能性を著しく低減し、提示された証拠と密接に一致させることを保証する。
論文 参考訳(メタデータ) (2024-02-12T04:32:33Z) - Enhancing Pre-Trained Language Models with Sentence Position Embeddings
for Rhetorical Roles Recognition in Legal Opinions [0.16385815610837165]
法的意見の規模は増え続けており、法的意見の修辞的役割を正確に予測できるモデルを開発することはますます困難になっている。
本稿では,文の位置情報に関する知識によって強化された事前学習言語モデル(PLM)を用いて,修辞的役割を自動的に予測する新しいモデルアーキテクチャを提案する。
LegalEval@SemEval2023コンペティションの注釈付きコーパスに基づいて、我々のアプローチではパラメータが少なく、計算コストが低下することを示した。
論文 参考訳(メタデータ) (2023-10-08T20:33:55Z) - Improving Factuality and Reasoning in Language Models through Multiagent
Debate [95.10641301155232]
複数の言語モデルインスタンスが共通の最終回答に到達するために、複数のラウンドで個別の応答と推論プロセスを提案し、議論する言語応答を改善するための補完的なアプローチを提案する。
以上の結果から,本手法は様々なタスクにおける数学的・戦略的推論を著しく向上させることが示唆された。
我々のアプローチは、既存のブラックボックスモデルに直接適用され、調査するすべてのタスクに対して、同じ手順とプロンプトを使用することができる。
論文 参考訳(メタデータ) (2023-05-23T17:55:11Z) - Evaluating and Improving Factuality in Multimodal Abstractive
Summarization [91.46015013816083]
そこで我々は,CLIPBERTScoreを提案する。
ゼロショットにおけるこの2つの指標の単純な組み合わせは、文書要約のための既存の事実度指標よりも高い相関性が得られることを示す。
本分析は,CLIPBERTScoreとそのコンポーネントの信頼性と高い相関性を示す。
論文 参考訳(メタデータ) (2022-11-04T16:50:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。