論文の概要: Agentic AI for Commercial Insurance Underwriting with Adversarial Self-Critique
- arxiv url: http://arxiv.org/abs/2602.13213v1
- Date: Wed, 21 Jan 2026 05:51:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.54923
- Title: Agentic AI for Commercial Insurance Underwriting with Adversarial Self-Critique
- Title(参考訳): 敵対的自己批判を伴う商業保険書記用エージェントAI
- Authors: Joyjit Roy, Samaresh Kumar Singh,
- Abstract要約: 本研究は, 対向的自己批判機構を組み込んだ意思決定陰性, ループ内エージェントシステムを提案する。
このシステム内では、批評家エージェントが、人間レビュアーに勧告を提出する前に、主エージェントの結論に異議を唱える。
この研究は、決定陰性エージェントによる潜在的なエラーを特徴付けるために、障害モードの正式な分類法を開発する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Commercial insurance underwriting is a labor-intensive process that requires manual review of extensive documentation to assess risk and determine policy pricing. While AI offers substantial efficiency improvements, existing solutions lack comprehensive reasoning capabilities and internal mechanisms to ensure reliability within regulated, high-stakes environments. Full automation remains impractical and inadvisable in scenarios where human judgment and accountability are critical. This study presents a decision-negative, human-in-the-loop agentic system that incorporates an adversarial self-critique mechanism as a bounded safety architecture for regulated underwriting workflows. Within this system, a critic agent challenges the primary agent's conclusions prior to submitting recommendations to human reviewers. This internal system of checks and balances addresses a critical gap in AI safety for regulated workflows. Additionally, the research develops a formal taxonomy of failure modes to characterize potential errors by decision-negative agents. This taxonomy provides a structured framework for risk identification and risk management in high-stakes applications. Experimental evaluation using 500 expert-validated underwriting cases demonstrates that the adversarial critique mechanism reduces AI hallucination rates from 11.3% to 3.8% and increases decision accuracy from 92% to 96%. At the same time, the framework enforces strict human authority over all binding decisions by design. These findings indicate that adversarial self-critique supports safer AI deployment in regulated domains and offers a model for responsible integration where human oversight is indispensable.
- Abstract(参考訳): 商業保険の引受は労働集約的なプロセスであり、リスクを評価し、政策価格を決定するために広範囲なドキュメントのマニュアルレビューを必要とする。
AIは大幅な効率改善を提供するが、既存のソリューションには、規制された高レベルの環境内で信頼性を確保するための包括的な推論機能と内部メカニズムが欠如している。
人間の判断と説明責任が重要であるシナリオでは、完全な自動化は現実的であり、推奨できないままです。
本研究は, 対向的自己批判機構を, 制御された下書きワークフローのための有界安全アーキテクチャとして組み込んだ, 決定陰性な, ループ内エージェントシステムを提案する。
このシステム内では、批評家エージェントが、人間レビュアーに勧告を提出する前に、主エージェントの結論に異議を唱える。
この内部のチェックとバランスのシステムは、規制されたワークフローに対するAI安全性の重大なギャップに対処する。
さらに、決定陰性エージェントによる潜在的なエラーを特徴付けるために、障害モードの正式な分類法を開発する。
この分類法は、高リスクアプリケーションにおけるリスク識別とリスク管理のための構造化された枠組みを提供する。
500人の専門家によって検証された下書きケースを用いた実験的評価は、敵対的批判機構がAI幻覚率を11.3%から3.8%に低下させ、決定精度を92%から96%に向上させることを示した。
同時に、このフレームワークは設計によるすべてのバインディング決定に対して厳格な人間的権威を強制する。
これらの結果は、敵の自己批判が規制されたドメインにおけるより安全なAIデプロイメントをサポートし、人間の監視が不可欠であるような責任ある統合のためのモデルを提供することを示している。
関連論文リスト
- Mirror: A Multi-Agent System for AI-Assisted Ethics Review [104.3684024153469]
MirrorはAIによる倫理的レビューのためのエージェントフレームワークである。
倫理的推論、構造化された規則解釈、統合されたアーキテクチャ内でのマルチエージェントの議論を統合する。
論文 参考訳(メタデータ) (2026-02-09T03:38:55Z) - Standardized Threat Taxonomy for AI Security, Governance, and Regulatory Compliance [0.0]
ランゲージ障壁」は、現在、アルゴリズム上の脆弱性に焦点を当てた技術セキュリティチームと、規制義務に対処する法律やコンプライアンスの専門家を分離している。
本研究は、量的リスクアセスメント(QRA)のために明示的に設計された構造的オントロジーであるAIシステム脅威ベクトル分類法を提案する。
このフレームワークは、AI固有のリスクを9つの重要なドメインに分類する: ミスス、ポジショニング、プライバシ、アドリアム、バイアス、信頼できないアウトプット、ドリフト、サプライチェーン、IPThreat。
論文 参考訳(メタデータ) (2025-11-26T20:42:46Z) - AURA: An Agent Autonomy Risk Assessment Framework [0.0]
AURA(Agent aUtonomy Risk Assessment)はエージェントAIによるリスクの検出、定量化、緩和を目的とした統合されたフレームワークである。
AURAは、1つまたは複数のAIエージェントを同期的に、あるいは非同期に実行するリスクをスコアし、評価し、緩和するインタラクティブなプロセスを提供する。
AURAはエージェントAIの責任と透過性をサポートし、計算リソースのバランスを保ちながら、堅牢なリスク検出と緩和を提供する。
論文 参考訳(メタデータ) (2025-10-17T15:30:29Z) - Zero-shot reasoning for simulating scholarly peer-review [0.0]
本稿では、AI生成ピアレビューレポートを評価するための、最初の安定的でエビデンスに基づく標準を提供する決定論的シミュレーションフレームワークについて検討する。
第一に、このシステムは校正された編集判断をシミュレートすることができ、「改訂」決定が一貫して多数決結果を形成する。
第二に、手続きの整合性を揺るぎないまま維持し、安定した29%の証明の遵守率を強制する。
論文 参考訳(メタデータ) (2025-10-02T13:59:14Z) - SafeEvalAgent: Toward Agentic and Self-Evolving Safety Evaluation of LLMs [37.82193156438782]
本稿では, エージェント安全評価の新しいパラダイムとして, 継続的かつ自己進化的なプロセスとしてのリフレーミング評価を提案する。
本稿では、構造化されていないポリシー文書を自律的に取り込み、包括的な安全ベンチマークを生成し、永続的に進化させる、新しいマルチエージェントフレームワークSafeEvalAgentを提案する。
本実験はSafeEvalAgentの有効性を実証し,評価が強まるにつれてモデルの安全性が一貫した低下を示す。
論文 参考訳(メタデータ) (2025-09-30T11:20:41Z) - RADAR: A Risk-Aware Dynamic Multi-Agent Framework for LLM Safety Evaluation via Role-Specialized Collaboration [81.38705556267917]
大規模言語モデル(LLM)の既存の安全性評価手法は、固有の制約に悩まされている。
リスク概念空間を再構築する理論的枠組みを導入する。
マルチエージェント協調評価フレームワークRADARを提案する。
論文 参考訳(メタデータ) (2025-09-28T09:35:32Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Bench-2-CoP: Can We Trust Benchmarking for EU AI Compliance? [2.010294990327175]
現在のAI評価プラクティスは、確立されたベンチマークに大きく依存しています。
この研究は、この「ベンチマーク・規制ギャップ」を定量化する緊急の必要性に対処する。
評価のエコシステムは、その焦点の大部分を狭い行動規範に捧げています。
論文 参考訳(メタデータ) (2025-08-07T15:03:39Z) - Answer, Refuse, or Guess? Investigating Risk-Aware Decision Making in Language Models [63.559461750135334]
言語モデル(LM)は、目標を達成するために自律的に行動可能なエージェントを構築するために、ますます使われています。
本研究では,人為的リスク構造を体系的に変化させる評価枠組みを用いて,この「回答または延期」問題を考察する。
回答や判断に要する独立したスキルを分離した簡易なスキル分解手法が,LMの意思決定ポリシーを一貫して改善できることがわかった。
論文 参考訳(メタデータ) (2025-03-03T09:16:26Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - Model evaluation for extreme risks [46.53170857607407]
AI開発のさらなる進歩は、攻撃的なサイバー能力や強力な操作スキルのような極端なリスクを引き起こす能力につながる可能性がある。
モデル評価が極端なリスクに対処するために重要である理由を説明します。
論文 参考訳(メタデータ) (2023-05-24T16:38:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。