論文の概要: Contextual Trust
- arxiv url: http://arxiv.org/abs/2303.08900v1
- Date: Wed, 15 Mar 2023 19:34:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 18:09:45.351625
- Title: Contextual Trust
- Title(参考訳): 文脈信頼
- Authors: Ryan Othniel Kearns
- Abstract要約: 私は哲学的な観点から信頼の性質を調べます。
信頼を文脈に敏感な状態として、正確に行うことを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trust is an important aspect of human life. It provides instrumental value in
allowing us to collaborate on and defer actions to others, and intrinsic value
in our intimate relationships with romantic partners, family, and friends. In
this paper I examine the nature of trust from a philosophical perspective.
Specifically I propose to view trust as a context-sensitive state in a manner
that will be made precise. The contribution of this paper is threefold.
First, I make the simple observation that an individual's trust is typically
both action- and context-sensitive. Action-sensitivity means that trust may
obtain between a given truster and trustee for only certain actions.
Context-sensitivity means that trust may obtain between a given truster and
trustee, regarding the same action, in some conditions and not others. I also
opine about what kinds of things may play the role of the truster, trustee, and
action.
Second, I advance a theory for the nature of contextual trust. I propose that
the answer to "What does it mean for $A$ to trust $B$ to do $X$ in context
$C$?" has two conditions. First, $A$ must take $B$'s doing $X$ as a means
towards one of $A$'s ends. Second, $A$ must adopt an unquestioning attitude
concerning $B$'s doing $X$ in context $C$. This unquestioning attitude is
similar to the attitude introduced in Nguyen 2021.
Finally, we explore how contextual trust can help us make sense of trust in
general non-interpersonal settings, notably that of artificial intelligence
(AI) systems. The field of Explainable Artificial Intelligence (XAI) assigns
paramount importance to the problem of user trust in opaque computational
models, yet does little to give trust diagnostic or even conceptual criteria. I
propose that contextual trust is a natural fit for the task by illustrating
that model transparency and explainability map nicely into our construction of
the contexts $C$.
- Abstract(参考訳): 信頼は人間生活の重要な側面である。
他人との協力や行動の延期を可能にし、ロマンチックなパートナーや家族、友人との親密な関係に本質的な価値を与えてくれます。
本稿では,哲学的観点から信頼の性質を考察する。
具体的には、信頼を正確な方法で文脈に敏感な状態とみなすことを提案する。
この論文の貢献は3倍である。
まず、個人の信頼は通常行動と文脈に敏感である、という単純な観察をします。
行動感知性(action-sensitivity)とは、特定の行動のみを受託者と受託者との間に信頼が得られることを意味する。
コンテキスト・センシティブ(Context-sensitivity)とは、ある受託者と受託者の間で、同じ行為に関して、ある状況において、他の状況において、信頼を得ることを意味する。
また、信頼者、信頼者、行動の役割を果たすものの種類についても論じます。
第2に,文脈信頼の性質に関する理論を推し進める。
a$ を信頼して$b$ をコンテキスト$c$ で$x$ とすると何を意味するのか?
まず、$A$は$B$を$X$とすることで、$A$の終わりの1つへの手段となる。
第二に、$a$ は$b$ のコンテキスト$c$ に関する疑問のない態度を採らなければならない。
この疑わしい態度は、2021年のヌーイエンの態度と似ている。
最後に、コンテキスト信頼が一般的な非対人的設定、特に人工知能(AI)システムにおける信頼の理解にどのように役立つかを検討する。
説明可能な人工知能(XAI)の分野は、不透明な計算モデルにおけるユーザ信頼の問題に最重要事項を割り当てるが、信頼診断や概念的基準を与えることはほとんどない。
モデルの透明性と説明可能性が私たちのコンテキストの構成にうまくマッピングされていることを説明して、コンテキスト信頼がタスクに自然に適合することを提案します。
関連論文リスト
- Fostering Trust and Quantifying Value of AI and ML [0.0]
AIとML推論の信頼について多くの議論がなされているが、それが何を意味するのかを定義するためにはほとんど行われていない。
より信頼できる機械学習推論を生み出すことは、製品の価値を高めるための道です。
論文 参考訳(メタデータ) (2024-07-08T13:25:28Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Distrust in (X)AI -- Measurement Artifact or Distinct Construct? [0.0]
信頼は説明可能な人工知能(XAI)を開発する上で重要な動機である
XAIでは不信は比較的過小評価されているようだ。
心理学的証拠は 信頼と不信を区別する
論文 参考訳(メタデータ) (2023-03-29T07:14:54Z) - KGTrust: Evaluating Trustworthiness of SIoT via Knowledge Enhanced Graph
Neural Networks [63.531790269009704]
ソーシャル・インターネット・オブ・モノ(Social Internet of Things, SIoT)は、スマート・オブジェクト(物)にソーシャルネットワークの概念を注入する、有望で新興のパラダイムである。
リスクと不確実性のため、解決すべき重要かつ緊急の問題は、SIoT内で信頼性の高い関係、すなわち信頼評価を確立することである。
本稿では,SIoTにおける信頼度向上のための知識強化グラフニューラルネットワーク(KGTrust)を提案する。
論文 参考訳(メタデータ) (2023-02-22T14:24:45Z) - Are we measuring trust correctly in explainability, interpretability,
and transparency research? [4.452019519213712]
本稿では,信頼度を計測・実証する3つの手法について紹介する。
最終論点ではなく、この話題に関する議論の出発点となることを意図している。
論文 参考訳(メタデータ) (2022-08-31T07:41:08Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust in AI: Interpretability is not necessary or sufficient, while
black-box interaction is necessary and sufficient [0.0]
人工知能に対する人間の信頼の問題は、応用機械学習における最も基本的な問題の1つである。
我々は、AI-as-toolフレームワークを動機付けるために、人間自動信頼に関する統計的学習理論と社会学的レンズから抽出する。
モデルアクセスのはしごによる信頼における解釈可能性の役割を明らかにする。
論文 参考訳(メタデータ) (2022-02-10T19:59:23Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。