論文の概要: On the Relation of Trust and Explainability: Why to Engineer for
Trustworthiness
- arxiv url: http://arxiv.org/abs/2108.05379v2
- Date: Fri, 13 Aug 2021 10:35:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-18 19:10:56.791985
- Title: On the Relation of Trust and Explainability: Why to Engineer for
Trustworthiness
- Title(参考訳): 信頼と説明可能性の関係について--エンジニアの信頼のために
- Authors: Lena K\"astner, Markus Langer, Veronika Lazar, Astrid Schom\"acker,
Timo Speith, Sarah Sterz
- Abstract要約: このような要求に対する主要な動機の1つは、説明可能性が利害関係者のシステムへの信頼を促進することが期待されていることである。
最近の心理学的な研究は、説明が必ずしも信頼を促進するとは限らないことを示唆している。
信頼性が自動的に信頼につながるわけではないとしても、主に信頼性のためにエンジニアする理由はいくつかある、と私たちは主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recently, requirements for the explainability of software systems have gained
prominence. One of the primary motivators for such requirements is that
explainability is expected to facilitate stakeholders' trust in a system.
Although this seems intuitively appealing, recent psychological studies
indicate that explanations do not necessarily facilitate trust. Thus,
explainability requirements might not be suitable for promoting trust.
One way to accommodate this finding is, we suggest, to focus on
trustworthiness instead of trust. While these two may come apart, we ideally
want both: a trustworthy system and the stakeholder's trust. In this paper, we
argue that even though trustworthiness does not automatically lead to trust,
there are several reasons to engineer primarily for trustworthiness -- and that
a system's explainability can crucially contribute to its trustworthiness.
- Abstract(参考訳): 近年,ソフトウェアシステムの説明可能性に対する要求が高まっている。
このような要求に対する主要な動機の1つは、説明可能性によってシステムに対するステークホルダーの信頼が促進されることである。
これは直感的に魅力的に見えるが、近年の心理学研究は、説明が必ずしも信頼を促進するとは限らないことを示している。
したがって、説明責任要件は信頼の促進には適さないかもしれない。
この発見に対応する一つの方法は、信頼ではなく、信頼に焦点を合わせることです。
これら2つが別れるかもしれないが、私たちは理想的には、信頼できるシステムとステークホルダの信頼の両方を望んでいる。
本稿では,信頼度が自動的に信頼につながりませんが,信頼度を主に設計する理由はいくつかあり,システムの説明性が信頼度に決定的に寄与する可能性があることを論じる。
関連論文リスト
- A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Did You Mean...? Confidence-based Trade-offs in Semantic Parsing [52.28988386710333]
タスク指向の構文解析において、キャリブレーションモデルが共通のトレードオフのバランスを取るのにどのように役立つかを示す。
次に、信頼性スコアがユーザビリティと安全性のトレードオフを最適化する上で、どのように役立つかを検証します。
論文 参考訳(メタデータ) (2023-03-29T17:07:26Z) - Distrust in (X)AI -- Measurement Artifact or Distinct Construct? [0.0]
信頼は説明可能な人工知能(XAI)を開発する上で重要な動機である
XAIでは不信は比較的過小評価されているようだ。
心理学的証拠は 信頼と不信を区別する
論文 参考訳(メタデータ) (2023-03-29T07:14:54Z) - Are we measuring trust correctly in explainability, interpretability,
and transparency research? [4.452019519213712]
本稿では,信頼度を計測・実証する3つの手法について紹介する。
最終論点ではなく、この話題に関する議論の出発点となることを意図している。
論文 参考訳(メタデータ) (2022-08-31T07:41:08Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Relativistic Conceptions of Trustworthiness: Implications for the
Trustworthy Status of National Identification Systems [1.4728207711693404]
この記事では、期待指向のアカウントと呼ばれる、信頼度に関する新しい説明の概要を紹介する。
信頼すべきことは、社会的依存の状況における信頼者の期待に伴うエラーを最小限に抑えることである。
本報告では,期待指向会計の特徴を概説するとともに,信頼に値するNISの設計,開発,管理にこの説明がもたらす意味について述べる。
論文 参考訳(メタデータ) (2021-12-17T18:40:44Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。