論文の概要: Who Sees the Risk? Stakeholder Conflicts and Explanatory Policies in LLM-based Risk Assessment
- arxiv url: http://arxiv.org/abs/2511.03152v1
- Date: Wed, 05 Nov 2025 03:19:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.312417
- Title: Who Sees the Risk? Stakeholder Conflicts and Explanatory Policies in LLM-based Risk Assessment
- Title(参考訳): リスクを誰が見るか : LLMに基づくリスクアセスメントにおける株主紛争と説明政策
- Authors: Srishti Yadav, Jasmina Gajcin, Erik Miehling, Elizabeth Daly,
- Abstract要約: 本稿では, LLMを用いた利害関係者によるリスク評価の枠組みを提案する。
リスクアトラスNexusとGloVEの説明手法を用いて、我々のフレームワークは利害関係者固有の解釈可能なポリシーを生成する。
我々は、医療AI、自動運転車、不正検出ドメインの3つの実世界のAIユースケースを用いて、本手法を実証する。
- 参考スコア(独自算出の注目度): 7.295206349432321
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding how different stakeholders perceive risks in AI systems is essential for their responsible deployment. This paper presents a framework for stakeholder-grounded risk assessment by using LLMs, acting as judges to predict and explain risks. Using the Risk Atlas Nexus and GloVE explanation method, our framework generates stakeholder-specific, interpretable policies that shows how different stakeholders agree or disagree about the same risks. We demonstrate our method using three real-world AI use cases of medical AI, autonomous vehicles, and fraud detection domain. We further propose an interactive visualization that reveals how and why conflicts emerge across stakeholder perspectives, enhancing transparency in conflict reasoning. Our results show that stakeholder perspectives significantly influence risk perception and conflict patterns. Our work emphasizes the importance of these stakeholder-aware explanations needed to make LLM-based evaluations more transparent, interpretable, and aligned with human-centered AI governance goals.
- Abstract(参考訳): 異なる利害関係者がAIシステムのリスクをどう知覚するかを理解することは、責任あるデプロイメントに不可欠である。
本稿では, LLMを用いてリスク予測・説明を行う上で, リスク評価の枠組みを提案する。
リスクアトラスNexusとGloVEの説明手法を用いて、我々のフレームワークは、異なる利害関係者が同じリスクにどのように同意するか、あるいは意見が一致しているかを示す、利害関係者固有の解釈可能なポリシーを生成する。
我々は、医療AI、自動運転車、不正検出ドメインの3つの実世界のAIユースケースを用いて、本手法を実証する。
さらに、株主の視点でコンフリクトがどのように発生し、なぜ発生するのかを明らかにし、コンフリクト推論における透明性を高めるインタラクティブな可視化も提案する。
その結果,利害関係者の視点がリスク認識や紛争パターンに大きく影響していることが示唆された。
我々の研究は、LLMに基づく評価をより透明化し、解釈可能で、人間中心のAIガバナンスの目標と整合させるために必要なステークホルダー対応の説明の重要性を強調しています。
関連論文リスト
- Toward a Unified Security Framework for AI Agents: Trust, Risk, and Liability [2.8407281360114527]
信頼・リスク・責任(TRL)フレームワークは、信頼・リスク・責任の相互依存関係を結び付け、信頼の構築・強化の体系的な方法を提供する。
TRLフレームワークの意義は、その潜在的な社会的影響、経済的影響、倫理的影響などにある。
潜在的な課題に対処し、6GネットワークにおけるAIの信頼性、リスクフリー、責任ある使用を促進するために、優れた価値をもたらすことが期待されている。
論文 参考訳(メタデータ) (2025-09-18T01:55:03Z) - An Overview of the Risk-based Model of AI Governance [0.0]
セクションでは、AIガバナンスに対するリスクベースのアプローチに対するいくつかの批判が提案されている。
リスクの概念は、その固有の規範が、その利益が重要となる支配的かつ有害な物語を再現するので、問題であると主張する。
本稿では、リスクベースのAIガバナンスを改善する上で、既存のリスクガバナンス奨学金が貴重な洞察を得られることを示唆して結論付ける。
論文 参考訳(メタデータ) (2025-07-21T06:56:04Z) - Envisioning Stakeholder-Action Pairs to Mitigate Negative Impacts of AI: A Participatory Approach to Inform Policy Making [2.981139602986498]
AIによるネガティブな影響の可能性は、世界中で急速に広まりつつある。
これにより、責任あるAIガバナンスの必要性が強まりました。
AIポリシが民主的な期待に沿うようにするためには、影響のある人たちの声やニーズを優先する方法が必要です。
論文 参考訳(メタデータ) (2025-01-24T22:57:18Z) - Perception Gaps in Risk, Benefit, and Value Between Experts and Public Challenge Socially Accepted AI [0.0]
本研究は,一般のAI専門家がAIの能力と影響をどう認識するかを検討する。
シナリオは、持続可能性、医療、仕事のパフォーマンス、社会的不平等、芸術、戦争といった領域にまたがる。
専門家は、常に高い確率を予測し、リスクを知覚し、より多くの利益を報告し、非専門家よりもAIに対する肯定的な感情を表現する。
論文 参考訳(メタデータ) (2024-12-02T12:51:45Z) - Insight Over Sight: Exploring the Vision-Knowledge Conflicts in Multimodal LLMs [55.74117540987519]
本稿では,マルチモーダル大言語モデル(MLLM)におけるコモンセンスレベル・ビジョン・知識衝突の問題について考察する。
MLLMにおけるこれらの競合をシミュレートし、評価するために設計された入力を生成するために、人間のループ品質制御を付加した自動フレームワークを導入する。
このフレームワークを用いて、374のオリジナル画像と1,122の高品質な質問応答対からなる診断ベンチマークを構築した。
論文 参考訳(メタデータ) (2024-10-10T17:31:17Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Mapping LLM Security Landscapes: A Comprehensive Stakeholder Risk Assessment Proposal [0.0]
本稿では,従来のシステムにおけるリスク評価手法のようなツールを用いたリスク評価プロセスを提案する。
我々は、潜在的な脅威要因を特定し、脆弱性要因に対して依存するシステムコンポーネントをマッピングするためのシナリオ分析を行う。
3つの主要株主グループに対する脅威もマップ化しています。
論文 参考訳(メタデータ) (2024-03-20T05:17:22Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。