論文の概要: Dynamic Trust Calibration Using Contextual Bandits
- arxiv url: http://arxiv.org/abs/2509.23497v1
- Date: Sat, 27 Sep 2025 21:06:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.261797
- Title: Dynamic Trust Calibration Using Contextual Bandits
- Title(参考訳): 文脈帯域を用いた動的信頼度校正
- Authors: Bruno M. Henrique, Eugene Santos Jr,
- Abstract要約: 過剰な信頼は、AIが生成したアウトプットを疑わしいことなく受け入れることを可能にする。
不十分な信頼は、AIシステムから価値のある洞察を無視してしまう可能性がある。
現在、人間とAIの信頼度を測る決定的かつ客観的な方法は存在しない。
- 参考スコア(独自算出の注目度): 1.8563342761346613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trust calibration between humans and Artificial Intelligence (AI) is crucial for optimal decision-making in collaborative settings. Excessive trust can lead users to accept AI-generated outputs without question, overlooking critical flaws, while insufficient trust may result in disregarding valuable insights from AI systems, hindering performance. Despite its importance, there is currently no definitive and objective method for measuring trust calibration between humans and AI. Current approaches lack standardization and consistent metrics that can be broadly applied across various contexts, and they don't distinguish between the formation of opinions and subsequent human decisions. In this work, we propose a novel and objective method for dynamic trust calibration, introducing a standardized trust calibration measure and an indicator. By utilizing Contextual Bandits-an adaptive algorithm that incorporates context into decision-making-our indicator dynamically assesses when to trust AI contributions based on learned contextual information. We evaluate this indicator across three diverse datasets, demonstrating that effective trust calibration results in significant improvements in decision-making performance, as evidenced by 10 to 38% increase in reward metrics. These findings not only enhance theoretical understanding but also provide practical guidance for developing more trustworthy AI systems supporting decisions in critical domains, for example, disease diagnoses and criminal justice.
- Abstract(参考訳): 人間と人工知能(AI)の信頼度調整は、協調的な環境での最適な意思決定に不可欠である。
過剰な信頼は、AI生成されたアウトプットを疑わずに受け入れ、重大な欠陥を見落とし、信頼の欠如は、AIシステムからの貴重な洞察を無視し、パフォーマンスを阻害する可能性がある。
その重要性にもかかわらず、現在、人間とAIの間の信頼の校正を測定するための決定的かつ客観的な方法がない。
現在のアプローチでは、さまざまな状況で広く適用可能な標準化と一貫したメトリクスが欠如しており、意見の形成とその後の人間の決定を区別しません。
本研究では,動的信頼度校正のための新しい客観的手法を提案し,標準化された信頼度校正尺度と指標を導入した。
コンテキスト帯域(Contextual Bandits) – コンテキストを意思決定指標に組み込んだ適応アルゴリズムを使用することで、学習したコンテキスト情報に基づいてAIコントリビューションを信頼するタイミングを動的に評価する。
我々はこの指標を3つの多様なデータセットで評価し、効果的な信頼度校正によって意思決定性能が大幅に向上することを示し、報酬の指標は10~38%増加した。
これらの発見は、理論的理解を深めるだけでなく、重要な領域、例えば病気の診断や刑事司法における決定を支援する、より信頼できるAIシステムを開発するための実践的なガイダンスを提供する。
関連論文リスト
- The Confidence Paradox: Can LLM Know When It's Wrong [5.545086863155316]
倫理的に整合したDocVQAのための自己監督型正直校正フレームワークであるHonestVQAを紹介する。
本手法は,知識ギャップを同定するための不確実性を定量化し,重み付き損失関数を用いてモデル信頼度を実際の正しさと整合させ,対照的な学習を通じて倫理的応答行動を実施する。
実証的に、HoestVQAは、SpDocVQA、InfographicsVQA、SROIEデータセットでDocVQAの精度を最大4.3%、F1を4.3%向上させる。
論文 参考訳(メタデータ) (2025-06-30T02:06:54Z) - Uncertainty Estimation by Human Perception versus Neural Models [7.273936646577467]
現代のニューラルネットワーク(NN)はしばしば高い予測精度を達成するが、キャリブレーションが不十分である。
NNが推定した不確実性と人間の不確実性について検討する。
論文 参考訳(メタデータ) (2025-06-18T20:00:20Z) - On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective [334.48358909967845]
Generative Foundation Models (GenFMs) がトランスフォーメーションツールとして登場した。
彼らの広く採用されていることは、次元の信頼に関する重要な懸念を提起する。
本稿では,3つの主要なコントリビューションを通じて,これらの課題に対処するための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-20T06:20:36Z) - Trustworthiness in Stochastic Systems: Towards Opening the Black Box [1.7355698649527407]
AIシステムによる行動は、アライメントと潜在的な信頼を損なう恐れがある。
我々は、基礎性と信頼性の間の緊張と潜在的な対立に対して哲学的な視点を採っている。
我々は,AIシステムとユーザの両方に対して,アライメントをよりよく評価するための潜在値モデリングを提案する。
論文 参考訳(メタデータ) (2025-01-27T19:43:09Z) - Understanding the Effects of Miscalibrated AI Confidence on User Trust, Reliance, and Decision Efficacy [38.39755953750018]
ミススカラーAIの信頼性は、ユーザの適切な信頼を損なうとともに、AI支援による意思決定の有効性を低下させる。
コミュニケーションAIの信頼度調整レベルは、AIの誤校正を検出するのに役立ちます。
しかし、そのようなコミュニケーションは、未調整のAIに対するユーザの信頼を低下させるため、信頼性が低いため、意思決定の有効性は向上しない。
論文 参考訳(メタデータ) (2024-02-12T13:16:30Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - A Systematic Literature Review of User Trust in AI-Enabled Systems: An
HCI Perspective [0.0]
人工知能(AI)のユーザ信頼は、採用を促進する重要な要素として、ますます認識され、証明されてきている。
本総説は, ユーザ信頼の定義, 影響要因, 測定方法の概要を, 実証研究23件から明らかにすることを目的としている。
論文 参考訳(メタデータ) (2023-04-18T07:58:09Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。