論文の概要: Why do we Trust Chatbots? From Normative Principles to Behavioral Drivers
- arxiv url: http://arxiv.org/abs/2602.08707v2
- Date: Wed, 11 Feb 2026 13:38:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 15:03:20.042606
- Title: Why do we Trust Chatbots? From Normative Principles to Behavioral Drivers
- Title(参考訳): なぜチャットボットを信頼するのか? 規範的原則から行動的ドライバへ
- Authors: Aditya Gulati, Nuria Oliver,
- Abstract要約: 共通項における「信頼」の競合概念の共存は、心理的信頼の形成と規範的信頼の区別を曖昧にしていると論じる。
このギャップに対処するには、ユーザーが会話型AIシステムの信頼を適切に調整するのに役立つ、さらなる研究とより強力なサポートメカニズムが必要である。
- 参考スコア(独自算出の注目度): 9.407740029262124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As chatbots increasingly blur the boundary between automated systems and human conversation, the foundations of trust in these systems warrant closer examination. While regulatory and policy frameworks tend to define trust in normative terms, the trust users place in chatbots often emerges from behavioral mechanisms. In many cases, this trust is not earned through demonstrated trustworthiness but is instead shaped by interactional design choices that leverage cognitive biases to influence user behavior. Based on this observation, we propose reframing chatbots not as companions or assistants, but as highly skilled salespeople whose objectives are determined by the deploying organization. We argue that the coexistence of competing notions of "trust" under a shared term obscures important distinctions between psychological trust formation and normative trustworthiness. Addressing this gap requires further research and stronger support mechanisms to help users appropriately calibrate trust in conversational AI systems.
- Abstract(参考訳): チャットボットは、自動化されたシステムと人間の会話の境界を曖昧にしているため、これらのシステムに対する信頼の基礎は、より精査することを保証している。
規制とポリシーのフレームワークは規範的な用語で信頼を定義する傾向があるが、チャットボットに置かれる信頼のユーザは、行動メカニズムから生まれることが多い。
多くの場合、この信頼は信頼の証明によって得られるものではなく、ユーザーの行動に影響を与える認知バイアスを利用する相互作用設計の選択によって形作られます。
本研究は,チャットボットを仲間やアシスタントとしてではなく,展開組織によって目的が決定される高度に熟練したセールスマンとして提案するものである。
共通項における「信頼」の競合概念の共存は、心理的信頼の形成と規範的信頼の区別を曖昧にしていると論じる。
このギャップに対処するには、ユーザーが会話型AIシステムの信頼を適切に調整するのに役立つ、さらなる研究とより強力なサポートメカニズムが必要である。
関連論文リスト
- On the Need to Rethink Trust in AI Assistants for Software Development: A Critical Review [16.774993642353724]
信頼は人間の意思決定とコラボレーションの基本的な概念である。
ソフトウェア工学の記事は、しばしば非公式に信頼という用語を使う。
関連する規律は、一般的に彼らの方法論と結果を確立された信頼モデルに組み込む。
論文 参考訳(メタデータ) (2025-04-16T19:52:21Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Who to Trust, How and Why: Untangling AI Ethics Principles,
Trustworthiness and Trust [0.0]
これらの概念をより明確に区別する必要性について論じる。
AIへの信頼は、システム自体への依存だけでなく、AIシステムの開発者への信頼も関係している、と私たちは議論する。
論文 参考訳(メタデータ) (2023-09-19T05:00:34Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。