論文の概要: The Many Facets of Trust in AI: Formalizing the Relation Between Trust
and Fairness, Accountability, and Transparency
- arxiv url: http://arxiv.org/abs/2208.00681v1
- Date: Mon, 1 Aug 2022 08:26:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:15:02.505192
- Title: The Many Facets of Trust in AI: Formalizing the Relation Between Trust
and Fairness, Accountability, and Transparency
- Title(参考訳): AIにおける信頼の多くの面--信頼と公正、説明責任、透明性の関係の形式化
- Authors: Bran Knowles, John T. Richards, Frens Kroeger
- Abstract要約: 公正性、説明責任、透明性を促進する努力は、AI(Trust in AI, TAI)の育成に不可欠であると考えられている。
信頼そのものへの説明の欠如は、信頼は一般的に理解され、複雑でなく、あるいは興味のないものであることを示唆している。
我々のTAI出版物の分析では、信頼(エージェント)、信頼(エージェント)、何(オブジェクト)、何(ベース)、何(客観的)、何(オブジェクト)、なぜ(インパクト)など、さまざまな方向性が明らかにされている。
- 参考スコア(独自算出の注目度): 4.003809001962519
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efforts to promote fairness, accountability, and transparency are assumed to
be critical in fostering Trust in AI (TAI), but extant literature is
frustratingly vague regarding this 'trust'. The lack of exposition on trust
itself suggests that trust is commonly understood, uncomplicated, or even
uninteresting. But is it? Our analysis of TAI publications reveals numerous
orientations which differ in terms of who is doing the trusting (agent), in
what (object), on the basis of what (basis), in order to what (objective), and
why (impact). We develop an ontology that encapsulates these key axes of
difference to a) illuminate seeming inconsistencies across the literature and
b) more effectively manage a dizzying number of TAI considerations. We then
reflect this ontology through a corpus of publications exploring fairness,
accountability, and transparency to examine the variety of ways that TAI is
considered within and between these approaches to promoting trust.
- Abstract(参考訳): 公正性、説明責任、透明性を促進する努力は、AI(TAI)の信頼を育む上で重要であると考えられているが、現存する文献はこの「信頼」に関して、ひどく曖昧である。
信頼そのものに対する陳述の欠如は、信頼が一般に理解され、複雑で、あるいは興味をそそらないことさえあることを示唆している。
しかし、それは?
我々のTAI出版物の分析では、信頼(エージェント)、信頼(エージェント)、何(オブジェクト)、何(ベース)、何(客観的)、なぜ(インパクト)など、さまざまな方向性が明らかになっている。
これらの重要な違いの軸を包含するオントロジーを開発し
a) 文学の至る所で矛盾しているように見えること
b)taiの明快な数をより効果的に管理する。
次に、このオントロジーを、公正性、説明責任性、透明性を探求する出版物のコーパスを通して反映し、これらのアプローチの中でtaiが信頼を促進するための様々な方法を検討する。
関連論文リスト
- TrustScore: Reference-Free Evaluation of LLM Response Trustworthiness [58.721012475577716]
大規模言語モデル(LLM)は、様々な領域にまたがる印象的な能力を示しており、その実践的応用が急増している。
本稿では,行動整合性の概念に基づくフレームワークであるTrustScoreを紹介する。
論文 参考訳(メタデータ) (2024-02-19T21:12:14Z) - TrustLLM: Trustworthiness in Large Language Models [446.5640421311468]
本稿では,大規模言語モデル(LLM)における信頼度に関する総合的研究であるTrustLLMを紹介する。
まず、8つの異なる次元にまたがる信頼性の高いLCMの原則を提案する。
これらの原則に基づいて、真理性、安全性、公正性、堅牢性、プライバシ、機械倫理を含む6つの次元にわたるベンチマークを確立します。
論文 参考訳(メタデータ) (2024-01-10T22:07:21Z) - A Systematic Review on Fostering Appropriate Trust in Human-AI
Interaction [19.137907393497848]
人工知能の適切な信頼(AI)システムは、研究者と実践者の両方にとって、急速に重要な領域になってきた。
信頼度スコア、説明、信頼度基準、不確実性通信など、様々なアプローチがそれを達成するために使われてきた。
本稿では、適切な信頼を構築するための現在の実践、それを測定するためのさまざまな方法、使用するタスクの種類、それに関連する潜在的な課題を特定するための体系的なレビューを示す。
論文 参考訳(メタデータ) (2023-11-08T12:19:58Z) - Trust and Transparency in Recommender Systems [0.0]
私たちはまず、AIとRSのコミュニティにおけるさまざまな理解と信頼の測定を経験します。
次に、信頼と透明性の関係とメンタルモデルについて検討し、RSにおける透明性を達成するための異なる戦略について検討する。
論文 参考訳(メタデータ) (2023-04-17T09:09:48Z) - Distrust in (X)AI -- Measurement Artifact or Distinct Construct? [0.0]
信頼は説明可能な人工知能(XAI)を開発する上で重要な動機である
XAIでは不信は比較的過小評価されているようだ。
心理学的証拠は 信頼と不信を区別する
論文 参考訳(メタデータ) (2023-03-29T07:14:54Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust and Reliance in XAI -- Distinguishing Between Attitudinal and
Behavioral Measures [0.0]
研究者たちは、AIは信頼を高めるためにより透明でなければならないと主張しており、透明性はXAIの主要な目標の1つだ。
この話題に関する実証研究は 透明性が信頼に与える影響に関して 決定的ではありません
我々は、行動的(客観的)信頼度尺度と個人的(客観的)信頼度尺度を明確に区別することを提唱する。
論文 参考訳(メタデータ) (2022-03-23T10:39:39Z) - Relativistic Conceptions of Trustworthiness: Implications for the
Trustworthy Status of National Identification Systems [1.4728207711693404]
この記事では、期待指向のアカウントと呼ばれる、信頼度に関する新しい説明の概要を紹介する。
信頼すべきことは、社会的依存の状況における信頼者の期待に伴うエラーを最小限に抑えることである。
本報告では,期待指向会計の特徴を概説するとともに,信頼に値するNISの設計,開発,管理にこの説明がもたらす意味について述べる。
論文 参考訳(メタデータ) (2021-12-17T18:40:44Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。