論文の概要: Judging by Appearances? Auditing and Intervening Vision-Language Models for Bail Prediction
- arxiv url: http://arxiv.org/abs/2510.00088v1
- Date: Tue, 30 Sep 2025 12:11:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.174832
- Title: Judging by Appearances? Auditing and Intervening Vision-Language Models for Bail Prediction
- Title(参考訳): 外観による判断 : ベイル予測のための視覚言語モデルの検討と介入
- Authors: Sagnik Basu, Shubham Prakash, Ashish Maruti Barge, Siddharth D Jaiswal, Abhisek Dash, Saptarshi Ghosh, Animesh Mukherjee,
- Abstract要約: 大規模言語モデル(LLM)は、事例報告と犯罪履歴に基づく法的判断予測タスクに広く用いられている。
大規模視覚言語モデル(VLM)が利用可能になったことにより、犯罪者のイメージを活用するための法的判断予測システムが実現できるようになった。
- 参考スコア(独自算出の注目度): 6.7214586091981205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have been extensively used for legal judgment prediction tasks based on case reports and crime history. However, with a surge in the availability of large vision language models (VLMs), legal judgment prediction systems can now be made to leverage the images of the criminals in addition to the textual case reports/crime history. Applications built in this way could lead to inadvertent consequences and be used with malicious intent. In this work, we run an audit to investigate the efficiency of standalone VLMs in the bail decision prediction task. We observe that the performance is poor across multiple intersectional groups and models \textit{wrongly deny bail to deserving individuals with very high confidence}. We design different intervention algorithms by first including legal precedents through a RAG pipeline and then fine-tuning the VLMs using innovative schemes. We demonstrate that these interventions substantially improve the performance of bail prediction. Our work paves the way for the design of smarter interventions on VLMs in the future, before they can be deployed for real-world legal judgment prediction.
- Abstract(参考訳): 大規模言語モデル(LLM)は、事例報告と犯罪履歴に基づく法的判断予測タスクに広く用いられている。
しかし,大規模視覚言語モデル (VLM) の普及に伴い,刑法上の判例報告・犯罪歴に加えて,犯罪者のイメージを活用できる法的な判断予測システムが誕生した。
この方法で構築されたアプリケーションは、不注意な結果をもたらし、悪意のある意図で使用される可能性がある。
本研究では,保釈決定予測タスクにおけるスタンドアローンVLMの効率性を検討するための監査を行う。
我々は,複数の交差するグループやモデルにおいて,パフォーマンスが劣っていることを観察する。
我々はまず、RAGパイプラインを通じて法的な前例を含む異なる介入アルゴリズムを設計し、次に革新的なスキームを用いてVLMを微調整する。
これらの介入が保釈予測の性能を大幅に向上させることを示す。
我々の研究は、現実の法的判断予測に展開する前に、将来VLMに対するよりスマートな介入の設計の道を開く。
関連論文リスト
- Large Language Models' Complicit Responses to Illicit Instructions across Socio-Legal Contexts [54.15982476754607]
大規模言語モデル(LLM)が前例のない規模に展開され、毎日のタスクで数百万のユーザを支援している。
本研究は、複雑なファシリテーションを、不正なユーザ指示を可能にするガイダンスやサポートの提供として定義する。
実世界の訴訟と確立された法的枠組みを用いて、269件の違法なシナリオと50件の違法な意図にまたがる評価ベンチマークを構築した。
論文 参考訳(メタデータ) (2025-11-25T16:01:31Z) - GLARE: Agentic Reasoning for Legal Judgment Prediction [60.13483016810707]
法学分野では、法的判断予測(LJP)がますます重要になっている。
既存の大規模言語モデル (LLM) には、法的な知識が不足しているため、推論に不十分な重大な問題がある。
GLAREは,異なるモジュールを呼び出し,重要な法的知識を動的に獲得するエージェント的法的推論フレームワークである。
論文 参考訳(メタデータ) (2025-08-22T13:38:12Z) - Beyond Accuracy: On the Effects of Fine-tuning Towards Vision-Language Model's Prediction Rationality [9.192802430973925]
視覚言語モデル(VLM)の予測合理性に及ぼす微調整の影響について検討する。
予測信頼性と推論信頼性という2つの新しい指標を提案する。
精巧な微調整法は, 不正な証拠に基づいて, より正確な予測を導いた。
対象物の有効な証拠を特定できたため、微調整されたVLMは正しい予測を行う可能性が高かった。
論文 参考訳(メタデータ) (2024-12-17T21:09:49Z) - Rethinking Legal Judgement Prediction in a Realistic Scenario in the Era of Large Language Models [3.552993426200889]
本研究ではインドにおける判断の文脈における現実的なシナリオにおける判断予測について検討する。
我々は,Llama-2 や GPT-3.5 Turbo などの LLM とともに,InLegalBERT,BERT,XLNet などのトランスフォーマーベースモデルを用いている。
LLMを用いた実験により, GPT-3.5 Turboは現実的なシナリオで優れており, 判定精度は高いことがわかった。
論文 参考訳(メタデータ) (2024-10-14T14:22:12Z) - Enabling Discriminative Reasoning in LLMs for Legal Judgment Prediction [23.046342240176575]
人間の推論に触発されたAsk-Discriminate-Predict(ADAPT)推論フレームワークを紹介する。
ADAPTは、ケース事実を分解し、潜在的な電荷を識別し、最終的な判断を予測する。
広く利用されている2つのデータセットに対して行われた実験は、法的な判断予測において、我々のフレームワークの優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-02T05:43:15Z) - Towards Explainability in Legal Outcome Prediction Models [64.00172507827499]
我々は、前例が法的NLPモデルの説明可能性を促進する自然な方法であると主張している。
法的な先例の分類法を開発することで、人間の判断と神経モデルを比較することができる。
モデルが合理的に結果を予測することを学習する一方で、前例の使用は人間の判断とは違い、ということがわかりました。
論文 参考訳(メタデータ) (2024-03-25T15:15:41Z) - Selective "Selective Prediction": Reducing Unnecessary Abstention in Vision-Language Reasoning [67.82016092549284]
本稿では,選択型視覚言語システムの過剰保持を低減するための推論時アルゴリズムReCoVERRを紹介する。
ReCoVERRは、予測のための追加の証拠を提供する画像の中に、関連する手がかりを見つけようとする。
論文 参考訳(メタデータ) (2024-02-23T21:16:52Z) - An Analysis and Mitigation of the Reversal Curse [70.13419502543915]
最近の研究は、大型言語モデル(LLM)で注目すべき現象を観測している。
逆の呪文は、$a$と$b$の2つのエンティティを扱う場合、LLMは$aRb$,'という形式でシーケンスを処理するのに優れるが、$bR-1a$'を処理する場合の課題に直面することである。
論文 参考訳(メタデータ) (2023-11-13T17:01:12Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - Adversarially Robust Neural Legal Judgement Systems [0.0]
法的判断予測は、事件の事実のテキスト記述に基づいて訴訟の結果を予測するタスクである。
このようなシステムが現実的に有用であるためには、敵の攻撃に対して堅牢であるべきである。
本稿では,ロバストな法的判断予測システムを構築するためのアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-31T21:44:48Z) - On Evaluating Adversarial Robustness of Large Vision-Language Models [64.66104342002882]
大規模視覚言語モデル(VLM)のロバスト性を,最も現実的で高リスクな環境で評価する。
特に,CLIP や BLIP などの事前学習モデルに対して,まず攻撃対象のサンプルを作成する。
これらのVLM上のブラックボックスクエリは、ターゲットの回避の効果をさらに向上させることができる。
論文 参考訳(メタデータ) (2023-05-26T13:49:44Z) - Do Charge Prediction Models Learn Legal Theory? [59.74220430434435]
我々は、信頼できる電荷予測モデルが法的理論を考慮に入れるべきであると主張している。
本稿では,この課題に従わなければならない信頼に値するモデルの3つの原則を提案する。
以上の結果から,既存の電荷予測モデルはベンチマークデータセットの選択的原理に合致するが,そのほとんどが十分な感度が得られず,無害の予測を満たさないことが示唆された。
論文 参考訳(メタデータ) (2022-10-31T07:32:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。