論文の概要: Explaining Synergistic Effects in Social Recommendations
- arxiv url: http://arxiv.org/abs/2601.18151v1
- Date: Mon, 26 Jan 2026 05:14:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.686118
- Title: Explaining Synergistic Effects in Social Recommendations
- Title(参考訳): ソーシャルレコメンデーションにおける相乗効果の解説
- Authors: Yicong Li, Shan Jin, Qi Liu, Shuo Wang, Jiaying Liu, Shuo Yu, Qiang Zhang, Kuanjiu Zhou, Feng Xia,
- Abstract要約: シナジスティック効果は入力と予測間の相互情報を高め、情報ゲインを生成する。
本稿では,それらを具現化する部分グラフを識別することで,相乗効果を説明するSemExplainerを提案する。
- 参考スコア(独自算出の注目度): 25.78864124671645
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In social recommenders, the inherent nonlinearity and opacity of synergistic effects across multiple social networks hinders users from understanding how diverse information is leveraged for recommendations, consequently diminishing explainability. However, existing explainers can only identify the topological information in social networks that significantly influences recommendations, failing to further explain the synergistic effects among this information. Inspired by existing findings that synergistic effects enhance mutual information between inputs and predictions to generate information gain, we extend this discovery to graph data. We quantify graph information gain to identify subgraphs embodying synergistic effects. Based on the theoretical insights, we propose SemExplainer, which explains synergistic effects by identifying subgraphs that embody them. SemExplainer first extracts explanatory subgraphs from multi-view social networks to generate preliminary importance explanations for recommendations. A conditional entropy optimization strategy to maximize information gain is developed, thereby further identifying subgraphs that embody synergistic effects from explanatory subgraphs. Finally, SemExplainer searches for paths from users to recommended items within the synergistic subgraphs to generate explanations for the recommendations. Extensive experiments on three datasets demonstrate the superiority of SemExplainer over baseline methods, providing superior explanations of synergistic effects.
- Abstract(参考訳): ソーシャルレコメンデーションにおいて、複数のソーシャルネットワークにまたがる相乗効果の本質的にの非線形性と不透明性は、ユーザーが推薦のためにどのように多様な情報が活用されるかを理解するのを妨げる。
しかし、既存の説明者は、推薦に大きな影響を与えるソーシャルネットワークのトポロジ的情報のみを特定でき、これらの情報間の相乗効果をさらに説明できない。
相乗効果が入力と予測間の相互情報を高めて情報ゲインを生成するという既存の知見に着想を得て,この発見をグラフデータに拡張する。
グラフ情報ゲインを定量化し、相乗効果を具現化した部分グラフを同定する。
理論的な知見に基づいて,それらを具現化する部分グラフを同定し,相乗効果を説明するSemExplainerを提案する。
SemExplainerはまず、マルチビューソーシャルネットワークから説明文を抽出し、レコメンデーションのための予備的な重要な説明を生成する。
情報ゲインを最大化する条件付きエントロピー最適化戦略を開発し、説明的部分グラフから相乗効果を具現化する部分グラフを更に同定する。
最後に、SemExplainerは、シンネルジスティックなサブグラフ内の推奨項目へのユーザからのパスを検索し、レコメンデーションの説明を生成する。
3つのデータセットに対する大規模な実験は、SemExplainerがベースライン法よりも優れていることを示し、相乗効果の優れた説明を提供する。
関連論文リスト
- GISExplainer: On Explainability of Graph Neural Networks via Game-theoretic Interaction Subgraphs [21.012180171806456]
GISExplainerはゲーム理論の相互作用に基づく説明手法である。
これは、GNNがノード分類のために学んだことを明らかにする。
GISExplainerは最先端のアプローチよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-09-24T03:24:31Z) - Evaluating graph-based explanations for AI-based recommender systems [1.2499537119440245]
本稿では,AIによるレコメンデーションに対するユーザの認識を改善するために,グラフに基づく説明の有効性について検討する。
ユーザがグラフベースの説明を,機能の重要性を含む設計よりも有用であると認識していることが分かりました。
論文 参考訳(メタデータ) (2024-07-17T07:28:49Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Hierarchical Aspect-guided Explanation Generation for Explainable
Recommendation [37.36148651206039]
階層的アスペクト誘導説明生成(HAG)という新しい説明生成フレームワークを提案する。
アスペクト誘導グラフプーリング演算子は、アスペクト関連情報をレビューベースの構文グラフから抽出するために提案される。
そして、アテンション機構に基づいてアスペクトおよびアスペクト関連説明を生成する階層的説明デコーダを開発する。
論文 参考訳(メタデータ) (2021-10-20T03:28:58Z) - DisenHAN: Disentangled Heterogeneous Graph Attention Network for
Recommendation [11.120241862037911]
不均一な情報ネットワークは、リコメンデータシステムにおけるスパーシリティとコールドスタートの問題を軽減するために広く利用されている。
そこで本稿では,非交叉不均質グラフアテンションネットワークDisenHANについて,トップ$N$のレコメンデーションを提案する。
論文 参考訳(メタデータ) (2021-06-21T06:26:10Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。