論文の概要: Hide or Highlight: Understanding the Impact of Factuality Expression on User Trust
- arxiv url: http://arxiv.org/abs/2508.07095v1
- Date: Sat, 09 Aug 2025 20:45:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.699453
- Title: Hide or Highlight: Understanding the Impact of Factuality Expression on User Trust
- Title(参考訳): Hide or Highlight: 行動表現がユーザ信頼に与える影響を理解する
- Authors: Hyo Jin Do, Werner Geyer,
- Abstract要約: 我々は、事実性評価を伴うAI生成出力を開示する4つの異なる方法を試した。
その結果,不透明であいまいな戦略が,回答の品質を維持しながら,信頼度を高めていることがわかった。
- 参考スコア(独自算出の注目度): 1.2478643689100954
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models are known to produce outputs that are plausible but factually incorrect. To prevent people from making erroneous decisions by blindly trusting AI, researchers have explored various ways of communicating factuality estimates in AI-generated outputs to end-users. However, little is known about whether revealing content estimated to be factually incorrect influences users' trust when compared to hiding it altogether. We tested four different ways of disclosing an AI-generated output with factuality assessments: transparent (highlights less factual content), attention (highlights factual content), opaque (removes less factual content), ambiguity (makes less factual content vague), and compared them with a baseline response without factuality information. We conducted a human subjects research (N = 148) using the strategies in question-answering scenarios. We found that the opaque and ambiguity strategies led to higher trust while maintaining perceived answer quality, compared to the other strategies. We discuss the efficacy of hiding presumably less factual content to build end-user trust.
- Abstract(参考訳): 大規模言語モデルは、妥当だが事実的に誤りのある出力を生成することが知られている。
AIを盲目的に信頼することで人々が誤った判断を下すのを防ぐため、研究者たちはAIが生成するアウトプットの事実推定をエンドユーザに伝えるさまざまな方法を模索してきた。
しかし,虚偽と推定されるコンテンツの公開が,完全に隠すよりもユーザの信頼に影響を及ぼすかどうかについては,ほとんど分かっていない。
透明(ハイライトは事実コンテンツが少ない)、注意(ハイライトは事実コンテンツが少ない)、不透明(事実コンテンツが少ない)、あいまいさ(事実コンテンツが曖昧でない)、そしてそれらを事実情報のないベースライン応答と比較した。
質問紙調査(N = 148)を,質問紙調査のシナリオで実施した。
その結果、不透明であいまいな戦略は、他の戦略と比べて、回答の品質を認識しながら高い信頼を導きました。
エンドユーザー信頼を構築するために、事実の少ないコンテンツを隠蔽する効果について論じる。
関連論文リスト
- Superhuman Game AI Disclosure: Expertise and Context Moderate Effects on Trust and Fairness [13.63944785085617]
競争力のあるStarCraft IIシナリオにおける超人的ゲームAIの行動に,能力開示がどのような影響を及ぼすかを検討する。
情報開示は疑いを和らげる可能性があるが、フラストレーションや戦略的敗北を招いた。
信頼性と説明責任を高めるために開示をうまく活用するには、ユーザの特性を慎重に調整する必要があります。
論文 参考訳(メタデータ) (2025-01-31T05:50:50Z) - "I'm Not Sure, But...": Examining the Impact of Large Language Models' Uncertainty Expression on User Reliance and Trust [51.542856739181474]
不確実性の自然言語表現の違いが、参加者の信頼、信頼、全体的なタスクパフォーマンスにどのように影響するかを示す。
その結果, 一人称表情は, 参加者のシステムに対する信頼度を低下させ, 参加者の正確性を高めつつ, システムの回答に同調する傾向にあることがわかった。
以上の結果から,不確実性の自然言語表現の使用は,LLMの過度な依存を軽減するための効果的なアプローチである可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-01T16:43:55Z) - Do You Trust ChatGPT? -- Perceived Credibility of Human and AI-Generated
Content [0.8602553195689513]
本稿では,人文作家が生み出すコンテンツの信頼性と,大規模言語モデルが生み出すコンテンツの信頼性について考察する。
驚いたことに、私たちの結果は、ユーザインターフェースのプレゼンテーションに関わらず、参加者は同様の信頼性のレベルを考慮しがちであることを示した。
参加者はまた、人間とAIが生成したコンテンツの間の能力と信頼性に関する異なる認識を報告していない。
論文 参考訳(メタデータ) (2023-09-05T18:29:29Z) - Fact-checking information from large language models can decrease headline discernment [6.814801748069122]
本稿では,人気大言語モデルが生成した事実確認情報が,政治ニュースの見出しの信条や共有意図に与える影響について検討する。
この情報は、見出しの正確さを識別したり、正確なニュースを共有したりする参加者の能力を大幅に向上させるものではない。
我々の発見は、AIアプリケーションから生じる潜在的な害の重大な原因を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-08-21T15:47:37Z) - Survey of Trustworthy AI: A Meta Decision of AI [0.41292255339309647]
不透明なシステムを信頼するには、信頼に値するAI(TAI)のレベルを決定する必要がある。
説明可能性/透明性、公平性/多様性、一般化可能性、プライバシ、データガバナンス、安全性/ロバスト性、説明責任、信頼性、持続可能性。
論文 参考訳(メタデータ) (2023-06-01T06:25:01Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Information Consumption and Social Response in a Segregated Environment:
the Case of Gab [74.5095691235917]
この研究は、COVID-19トピックに関するGab内のインタラクションパターンの特徴を提供する。
疑わしい、信頼できるコンテンツに対する社会的反応には、統計的に強い違いはない。
本研究は,協調した不正確な行動の理解と情報操作の早期警戒に関する知見を提供する。
論文 参考訳(メタデータ) (2020-06-03T11:34:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。