論文の概要: Trust and Transparency in Recommender Systems
- arxiv url: http://arxiv.org/abs/2304.08094v1
- Date: Mon, 17 Apr 2023 09:09:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 15:54:02.907265
- Title: Trust and Transparency in Recommender Systems
- Title(参考訳): 推薦システムにおける信頼と透明性
- Authors: Clara Siepmann and Mohamed Amine Chatti
- Abstract要約: 私たちはまず、AIとRSのコミュニティにおけるさまざまな理解と信頼の測定を経験します。
次に、信頼と透明性の関係とメンタルモデルについて検討し、RSにおける透明性を達成するための異なる戦略について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Trust is long recognized to be an important factor in Recommender Systems
(RS). However, there are different perspectives on trust and different ways to
evaluate it. Moreover, a link between trust and transparency is often assumed
but not always further investigated. In this paper we first go through
different understandings and measurements of trust in the AI and RS community,
such as demonstrated and perceived trust. We then review the relationsships
between trust and transparency, as well as mental models, and investigate
different strategies to achieve transparency in RS such as explanation,
exploration and exploranation (i.e., a combination of exploration and
explanation). We identify a need for further studies to explore these concepts
as well as the relationships between them.
- Abstract(参考訳): 信頼は、リコメンダーシステム(Recommender Systems, RS)の重要な要素として長年認識されてきた。
しかし、信頼について異なる視点とそれを評価する異なる方法がある。
さらに、信頼と透明性のつながりがしばしば想定されるが、必ずしもさらに調査されるわけではない。
本稿では,まず,ai と rs コミュニティにおける信頼の異なる理解と測定を行った。
次に,信頼と透明性,およびメンタルモデルとの関係をレビューし,説明,探索,展開(すなわち,探索と説明の組み合わせ)といったrsの透明性を達成するための異なる戦略を検討する。
我々はこれらの概念とそれらの関係を研究するためのさらなる研究の必要性を特定する。
関連論文リスト
- Distrust in (X)AI -- Measurement Artifact or Distinct Construct? [0.0]
信頼は説明可能な人工知能(XAI)を開発する上で重要な動機である
XAIでは不信は比較的過小評価されているようだ。
心理学的証拠は 信頼と不信を区別する
論文 参考訳(メタデータ) (2023-03-29T07:14:54Z) - KGTrust: Evaluating Trustworthiness of SIoT via Knowledge Enhanced Graph
Neural Networks [63.531790269009704]
ソーシャル・インターネット・オブ・モノ(Social Internet of Things, SIoT)は、スマート・オブジェクト(物)にソーシャルネットワークの概念を注入する、有望で新興のパラダイムである。
リスクと不確実性のため、解決すべき重要かつ緊急の問題は、SIoT内で信頼性の高い関係、すなわち信頼評価を確立することである。
本稿では,SIoTにおける信頼度向上のための知識強化グラフニューラルネットワーク(KGTrust)を提案する。
論文 参考訳(メタデータ) (2023-02-22T14:24:45Z) - The Many Facets of Trust in AI: Formalizing the Relation Between Trust
and Fairness, Accountability, and Transparency [4.003809001962519]
公正性、説明責任、透明性を促進する努力は、AI(Trust in AI, TAI)の育成に不可欠であると考えられている。
信頼そのものへの説明の欠如は、信頼は一般的に理解され、複雑でなく、あるいは興味のないものであることを示唆している。
我々のTAI出版物の分析では、信頼(エージェント)、信頼(エージェント)、何(オブジェクト)、何(ベース)、何(客観的)、何(オブジェクト)、なぜ(インパクト)など、さまざまな方向性が明らかにされている。
論文 参考訳(メタデータ) (2022-08-01T08:26:57Z) - TrustGNN: Graph Neural Network based Trust Evaluation via Learnable
Propagative and Composable Nature [63.78619502896071]
信頼評価は、サイバーセキュリティ、ソーシャルコミュニケーション、レコメンダシステムなど、多くのアプリケーションにとって重要である。
本稿では,信頼グラフの伝播性および構成性を考慮した新しい信頼評価手法TrustGNNを提案する。
具体的には、TrustGNNは、異なる伝播過程のための特定の伝播パターンを設計し、新しい信頼を生み出すための異なる伝播過程の貢献を区別する。
論文 参考訳(メタデータ) (2022-05-25T13:57:03Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust and Reliance in XAI -- Distinguishing Between Attitudinal and
Behavioral Measures [0.0]
研究者たちは、AIは信頼を高めるためにより透明でなければならないと主張しており、透明性はXAIの主要な目標の1つだ。
この話題に関する実証研究は 透明性が信頼に与える影響に関して 決定的ではありません
我々は、行動的(客観的)信頼度尺度と個人的(客観的)信頼度尺度を明確に区別することを提唱する。
論文 参考訳(メタデータ) (2022-03-23T10:39:39Z) - Relativistic Conceptions of Trustworthiness: Implications for the
Trustworthy Status of National Identification Systems [1.4728207711693404]
この記事では、期待指向のアカウントと呼ばれる、信頼度に関する新しい説明の概要を紹介する。
信頼すべきことは、社会的依存の状況における信頼者の期待に伴うエラーを最小限に抑えることである。
本報告では,期待指向会計の特徴を概説するとともに,信頼に値するNISの設計,開発,管理にこの説明がもたらす意味について述べる。
論文 参考訳(メタデータ) (2021-12-17T18:40:44Z) - More Similar Values, More Trust? -- the Effect of Value Similarity on
Trust in Human-Agent Interaction [6.168444105072466]
本稿では,人間とエージェントの相似性(VS)が,そのエージェントに対する人間の信頼にどのように影響するかを考察する。
シナリオベースの実験では、89人の参加者が5つの異なるエージェントと組んだ。
以上の結果から, エージェントの信頼度も高く評価され, 両者の正の効果が示唆された。
論文 参考訳(メタデータ) (2021-05-19T16:06:46Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。