論文の概要: Trust in AI: Interpretability is not necessary or sufficient, while
black-box interaction is necessary and sufficient
- arxiv url: http://arxiv.org/abs/2202.05302v1
- Date: Thu, 10 Feb 2022 19:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 08:22:42.137738
- Title: Trust in AI: Interpretability is not necessary or sufficient, while
black-box interaction is necessary and sufficient
- Title(参考訳): aiへの信頼: 解釈性は必要でも十分でもないが、ブラックボックスインタラクションは必要で十分である
- Authors: Max W. Shen
- Abstract要約: 人工知能に対する人間の信頼の問題は、応用機械学習における最も基本的な問題の1つである。
我々は、AI-as-toolフレームワークを動機付けるために、人間自動信頼に関する統計的学習理論と社会学的レンズから抽出する。
モデルアクセスのはしごによる信頼における解釈可能性の役割を明らかにする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The problem of human trust in artificial intelligence is one of the most
fundamental problems in applied machine learning. Our processes for evaluating
AI trustworthiness have substantial ramifications for ML's impact on science,
health, and humanity, yet confusion surrounds foundational concepts. What does
it mean to trust an AI, and how do humans assess AI trustworthiness? What are
the mechanisms for building trustworthy AI? And what is the role of
interpretable ML in trust? Here, we draw from statistical learning theory and
sociological lenses on human-automation trust to motivate an AI-as-tool
framework, which distinguishes human-AI trust from human-AI-human trust.
Evaluating an AI's contractual trustworthiness involves predicting future model
behavior using behavior certificates (BCs) that aggregate behavioral evidence
from diverse sources including empirical out-of-distribution and out-of-task
evaluation and theoretical proofs linking model architecture to behavior. We
clarify the role of interpretability in trust with a ladder of model access.
Interpretability (level 3) is not necessary or even sufficient for trust, while
the ability to run a black-box model at-will (level 2) is necessary and
sufficient. While interpretability can offer benefits for trust, it can also
incur costs. We clarify ways interpretability can contribute to trust, while
questioning the perceived centrality of interpretability to trust in popular
discourse. How can we empower people with tools to evaluate trust? Instead of
trying to understand how a model works, we argue for understanding how a model
behaves. Instead of opening up black boxes, we should create more behavior
certificates that are more correct, relevant, and understandable. We discuss
how to build trusted and trustworthy AI responsibly.
- Abstract(参考訳): 人工知能に対する人間の信頼の問題は、応用機械学習における最も基本的な問題の1つである。
AIの信頼性を評価するプロセスは、MLが科学、健康、人類に与える影響に大きく影響しますが、混乱は基本的な概念を取り囲んでいます。
AIを信頼することの意味と、AIの信頼性を人間がどのように評価するか?
信頼できるAIを構築するためのメカニズムは何か?
そして、信頼における解釈可能なMLの役割は何か?
本稿では,人間-AI信頼と人間-AI信頼を区別するAI-as-toolフレームワークを動機付けるために,人間-自動信頼に関する統計的学習理論と社会学的レンズから抽出する。
aiの契約的信頼度の評価は、モデルアーキテクチャと振る舞いを結びつける理論的証明を含む、さまざまなソースから行動証拠を集約する行動証明書(bcs)を使用して、将来のモデル行動を予測することを含む。
モデルアクセスのはしごによる信頼における解釈可能性の役割を明らかにする。
解釈可能性(レベル3)は信頼のために必要でも十分でもないが、ブラックボックスモデルを実行する能力(レベル2)は必要で十分である。
解釈性は信頼に利益をもたらすが、コストがかかることもある。
我々は,信頼度が信頼に寄与する可能性を明らかにするとともに,信頼度の中心性を疑問視する。
信頼を評価するツールを人々に与えるにはどうすればよいのか?
モデルがどのように機能するかを理解するのではなく、モデルがどのように振る舞うかを理解するために議論します。
ブラックボックスを開く代わりに、より正確で関連性があり、理解しやすい行動証明書を作成するべきです。
我々は、信頼できる信頼できるAIを構築する方法について議論する。
関連論文リスト
- Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - Fostering Trust and Quantifying Value of AI and ML [0.0]
AIとML推論の信頼について多くの議論がなされているが、それが何を意味するのかを定義するためにはほとんど行われていない。
より信頼できる機械学習推論を生み出すことは、製品の価値を高めるための道です。
論文 参考訳(メタデータ) (2024-07-08T13:25:28Z) - Trust in AI: Progress, Challenges, and Future Directions [6.724854390957174]
私たちの日常生活における人工知能(AI)システムの利用の増加は、ユーザの視点からAIにおける信頼と不信の重要性を説明してくれます。
AIにおける信頼/不信は規制官の役割を担い、この拡散のレベルを著しく制御することができる。
論文 参考訳(メタデータ) (2024-03-12T20:26:49Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Distrust in (X)AI -- Measurement Artifact or Distinct Construct? [0.0]
信頼は説明可能な人工知能(XAI)を開発する上で重要な動機である
XAIでは不信は比較的過小評価されているようだ。
心理学的証拠は 信頼と不信を区別する
論文 参考訳(メタデータ) (2023-03-29T07:14:54Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。