論文の概要: To Explain Or Not To Explain: An Empirical Investigation Of AI-Based Recommendations On Social Media Platforms
- arxiv url: http://arxiv.org/abs/2508.16610v1
- Date: Wed, 13 Aug 2025 01:05:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-31 21:54:20.579304
- Title: To Explain Or Not To Explain: An Empirical Investigation Of AI-Based Recommendations On Social Media Platforms
- Title(参考訳): AIによるソーシャルメディアプラットフォームへの推薦に関する実証的調査
- Authors: AKM Bahalul Haque, A. K. M. Najmul Islam, Patrick Mikalef,
- Abstract要約: 本稿では,エンドユーザーの視点からソーシャルメディアレコメンデーションについて検討する。
参加者は,ソーシャルメディアコンテンツの提案,理解性,説明可能性について質問した。
我々の分析によると、ユーザーはよく知らないコンテンツに遭遇するたびに説明を必要としている。
- 参考スコア(独自算出の注目度): 0.1274452325287335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI based social media recommendations have great potential to improve the user experience. However, often these recommendations do not match the user interest and create an unpleasant experience for the users. Moreover, the recommendation system being a black box creates comprehensibility and transparency issues. This paper investigates social media recommendations from an end user perspective. For the investigation, we used the popular social media platform Facebook and recruited regular users to conduct a qualitative analysis. We asked participants about the social media content suggestions, their comprehensibility, and explainability. Our analysis shows users mostly require explanation whenever they encounter unfamiliar content and to ensure their online data security. Furthermore, the users require concise, non-technical explanations along with the facility of controlled information flow. In addition, we observed that explanations impact the users perception of transparency, trust, and understandability. Finally, we have outlined some design implications and presented a synthesized framework based on our data analysis.
- Abstract(参考訳): AIベースのソーシャルメディアレコメンデーションは、ユーザー体験を改善する大きな可能性を秘めている。
しかし、これらのレコメンデーションはユーザーの興味に合わないことが多く、ユーザーにとって不快な体験を生み出します。
さらに、ブラックボックスであるレコメンデーションシステムは、理解性と透明性の問題を生じさせる。
本稿では,エンドユーザーの視点からソーシャルメディアレコメンデーションについて検討する。
調査では、人気のあるソーシャルメディアプラットフォームであるFacebookを使用し、定性的な分析を行うために正規のユーザーを募集しました。
参加者は,ソーシャルメディアコンテンツの提案,理解性,説明可能性について質問した。
我々の分析によると、ユーザーはよく知らないコンテンツに遭遇し、オンラインデータのセキュリティを確保するのに、ほとんど説明を必要としている。
さらに、ユーザは制御情報フローの設備とともに、簡潔で非技術的説明を必要とする。
さらに,説明が透明性,信頼,理解可能性に対するユーザの認識に影響を与えることも確認した。
最後に、設計上の意味を概説し、データ分析に基づいて合成されたフレームワークを提示した。
関連論文リスト
- Context-Aware Visualization for Explainable AI Recommendations in Social Media: A Vision for User-Aligned Explanations [0.0]
本稿では,多様な説明手法を用いた視覚的説明システムを提案する。
私たちのフレームワークは、説明スタイル(ビジュアル vs. 数値)と粒度(エキスパート vs. レイ)を1つのパイプラインで共同で適用する最初のフレームワークです。
30人のXユーザーがいる公共パイロットは、意思決定と信頼への影響を検証する。
論文 参考訳(メタデータ) (2025-08-01T14:47:47Z) - Can User Feedback Help Issue Detection? An Empirical Study on a One-billion-user Online Service System [28.43595612060133]
我々は,1億ユーザオンラインサービスシステムにおいて,現実世界の6つのサービスから50,378,766件のユーザフィードバック項目について実証的研究を行った。
以上の結果から,ユーザからのフィードバックがシステム問題に関する無関係な情報を提供することが明らかとなった。
ユーザのフィードバック特性のみに基づいて、容易に検出できない深刻な問題を見つけ出す。
論文 参考訳(メタデータ) (2025-08-01T12:49:07Z) - How Does Users' App Knowledge Influence the Preferred Level of Detail and Format of Software Explanations? [2.423517761302909]
本研究では,ユーザが好む詳細度とソフトウェアにおける説明形式に影響を及ぼす要因について検討する。
結果は、ユーザーは短いテキスト形式で適度に詳細な説明を好んでいることを示している。
分析の結果,説明の嗜好はアプリ固有の知識に弱い影響を受けているが,人口統計学的要因や心理的要因によって形成されていることがわかった。
論文 参考訳(メタデータ) (2025-02-10T15:18:04Z) - Do We Trust What They Say or What They Do? A Multimodal User Embedding Provides Personalized Explanations [35.77028281332307]
ソーシャルネットワークのためのコントリビューション対応マルチモーダルユーザ埋め込み(CAMUE)を提案する。
提案手法は,信頼できない情報の影響を自動的に軽減し,パーソナライズ可能な予測を提供する。
私たちの仕事は、より説明しやすく、信頼性があり、効果的なソーシャルメディアユーザー埋め込みの道を開く。
論文 参考訳(メタデータ) (2024-09-04T02:17:32Z) - Measuring Strategization in Recommendation: Users Adapt Their Behavior to Shape Future Content [66.71102704873185]
実験と調査を行うことで,ユーザストラテジゼーションの試行を行う。
参加者の居住時間や「いいね!」の使用など,結果指標間での戦略化の強い証拠を見出す。
この結果から,プラットフォームはアルゴリズムがユーザの行動に与える影響を無視できないことが示唆された。
論文 参考訳(メタデータ) (2024-05-09T07:36:08Z) - Rethinking the Evaluation of Dialogue Systems: Effects of User Feedback on Crowdworkers and LLMs [57.16442740983528]
アドホック検索では、評価は暗黙のフィードバックを含むユーザーの行動に大きく依存する。
アノテータの会話知覚におけるターン評価におけるユーザフィードバックの役割はほとんど研究されていない。
本稿では,タスク指向対話システム(TDS)の評価が,ターンのフォローアップ発話を通じて提供されるユーザフィードバック,明示的あるいは暗黙的な評価にどのように影響するかに注目した。
論文 参考訳(メタデータ) (2024-04-19T16:45:50Z) - Notion of Explainable Artificial Intelligence -- An Empirical
Investigation from A Users Perspective [0.3069335774032178]
本研究は、ユーザ中心の説明可能なAIを調査し、研究コンテキストとしてレコメンデーションシステムを検討することを目的とする。
我々は,推薦システムに関する質的データを収集するために,フォーカスグループインタビューを行った。
以上の結果から,エンドユーザーはオンデマンドの補足情報による非技術的かつ適切な説明を望んでいることが明らかとなった。
論文 参考訳(メタデータ) (2023-11-01T22:20:14Z) - Explainability in Music Recommender Systems [69.0506502017444]
音楽レコメンダシステム(MRS)の文脈における説明可能性について論じる。
MRSは非常に複雑で、推奨精度に最適化されることが多い。
本稿では、MSSに説明可能性コンポーネントを組み込む方法と、どのようなフォーム説明を提供するかを示す。
論文 参考訳(メタデータ) (2022-01-25T18:32:11Z) - Personalized multi-faceted trust modeling to determine trust links in
social media and its potential for misinformation management [61.88858330222619]
ソーシャルメディアにおけるピア間の信頼関係を予測するためのアプローチを提案する。
本稿では,データ駆動型多面信頼モデルを提案する。
信頼を意識したアイテムレコメンデーションタスクで説明され、提案したフレームワークを大規模なYelpデータセットのコンテキストで評価する。
論文 参考訳(メタデータ) (2021-11-11T19:40:51Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Explainable Patterns: Going from Findings to Insights to Support Data
Analytics Democratization [60.18814584837969]
我々は,データストーリテリングの探索と作成において,レイユーザをサポートする新しいフレームワークであるExplainable Patterns (ExPatt)を提示する。
ExPattは、外部(テキスト)の情報ソースを使用して、観察または選択された発見の実用的な説明を自動的に生成します。
論文 参考訳(メタデータ) (2021-01-19T16:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。