論文の概要: Causal Disentanglement for Semantics-Aware Intent Learning in
Recommendation
- arxiv url: http://arxiv.org/abs/2202.02576v1
- Date: Sat, 5 Feb 2022 15:17:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 08:54:23.757396
- Title: Causal Disentanglement for Semantics-Aware Intent Learning in
Recommendation
- Title(参考訳): 意味論的インテント学習における因果解離
- Authors: Xiangmeng Wang, Qian Li, Dianer Yu, Peng Cui, Zhichao Wang, Guandong
Xu
- Abstract要約: そこで本研究では,CaDSIと呼ばれる非バイアス・セマンティクス対応のアンタングル学習を提案する。
CaDSIは、リコメンデーションタスクの根底にある因果関係を明示的にモデル化する。
特定のアイテムコンテキストに気付く真の意図を、ユーザを遠ざけることによって、セマンティクスに気付く表現を生成する。
- 参考スコア(独自算出の注目度): 30.85573846018658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional recommendation models trained on observational interaction data
have generated large impacts in a wide range of applications, it faces bias
problems that cover users' true intent and thus deteriorate the recommendation
effectiveness. Existing methods tracks this problem as eliminating bias for the
robust recommendation, e.g., by re-weighting training samples or learning
disentangled representation. The disentangled representation methods as the
state-of-the-art eliminate bias through revealing cause-effect of the bias
generation. However, how to design the semantics-aware and unbiased
representation for users true intents is largely unexplored. To bridge the gap,
we are the first to propose an unbiased and semantics-aware disentanglement
learning called CaDSI (Causal Disentanglement for Semantics-Aware Intent
Learning) from a causal perspective. Particularly, CaDSI explicitly models the
causal relations underlying recommendation task, and thus produces
semantics-aware representations via disentangling users true intents aware of
specific item context. Moreover, the causal intervention mechanism is designed
to eliminate confounding bias stemmed from context information, which further
to align the semantics-aware representation with users true intent. Extensive
experiments and case studies both validate the robustness and interpretability
of our proposed model.
- Abstract(参考訳): 観察的インタラクションデータに基づいてトレーニングされた従来のレコメンデーションモデルは、幅広いアプリケーションで大きな影響を与え、ユーザの真意をカバーするバイアス問題に直面し、レコメンデーションの有効性を低下させる。
既存の手法では、トレーニングサンプルの再重み付けや不連続表現の学習など、ロバストな推奨に対するバイアスを排除することでこの問題を追跡している。
不整合表現法は、バイアス発生の因果効果を明らかにすることによってバイアスを除去する。
しかし、ユーザの真の意図を意味論的に認識し、曖昧に表現する方法はほとんど探索されていない。
このギャップを埋めるために,我々は,cadsi(causal disentanglement for semantics-aware intent learning)と呼ばれる,偏りのない意味論的不一致学習を因果的視点から提案する。
特に、cadsiは推奨タスクの背後にある因果関係を明示的にモデル化し、特定のアイテムコンテキストを意識した真の意図をユーザから切り離して意味認識表現を生成する。
さらに、因果的介入機構は、文脈情報から生じる偏りを解消し、意味論的認識表現をユーザの真の意図と一致させるように設計されている。
広範な実験とケーススタディにより,提案モデルのロバスト性と解釈性が検証された。
関連論文リスト
- Loose lips sink ships: Mitigating Length Bias in Reinforcement Learning
from Human Feedback [55.78118035358662]
人間のフィードバックからの強化学習は、大きな言語モデルと人間と社会的価値を整合させる重要な橋として機能する。
報酬モデルが意図した目的を回避できるショートカットを見つけることがよくあります。
本稿では、報酬モデリングとシーケンス長の影響を分離するために、Product-of-Experts技術を適用した革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-08T15:14:39Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - Causal Disentangled Variational Auto-Encoder for Preference
Understanding in Recommendation [50.93536377097659]
本稿では,コメンテータシステムにおける対話データから因果不整合表現を学習するためのCaD-VAE(Causal Disentangled Variational Auto-Encoder)を提案する。
この手法は構造因果モデルを用いて、潜在因子間の因果関係を記述する因果表現を生成する。
論文 参考訳(メタデータ) (2023-04-17T00:10:56Z) - Interpretable Data-Based Explanations for Fairness Debugging [7.266116143672294]
Gopherは、バイアスや予期せぬモデルの振る舞いに関するコンパクトで解釈可能な、因果的な説明を生成するシステムである。
我々は,学習データに介入する程度を,サブセットの削除や更新によって定量化する因果責任の概念を導入し,バイアスを解消する。
この概念に基づいて、モデルバイアスを説明するトップkパターンを生成するための効率的なアプローチを開発する。
論文 参考訳(メタデータ) (2021-12-17T20:10:00Z) - Understanding and Mitigating Annotation Bias in Facial Expression
Recognition [3.325054486984015]
現存する多くの著作は、人為的なアノテーションは金本位制であり、偏見のないものと見なすことができると仮定している。
顔の表情認識に焦点をあて、実験室で制御されたデータセットと現場のデータセットのラベルバイアスを比較する。
本稿では,顔動作単位(AU)を活用し,三重項損失を対象関数に組み込むAU校正顔表情認識フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-19T05:28:07Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Generalized Zero-shot Intent Detection via Commonsense Knowledge [5.398580049917152]
学習データ不足の問題を克服するために,教師なしの方法でコモンセンス知識を活用する意図検出モデル RIDE を提案する。
RIDEは、発話と意図ラベルの間の深い意味的関係をキャプチャする、堅牢で一般化可能な関係メタ機能を計算する。
広範に使用されている3つのインテント検出ベンチマークに関する広範囲な実験的分析により、関係メタ機能により、目に見えないインテントと見えないインテントの両方を検出する精度が著しく向上することが示された。
論文 参考訳(メタデータ) (2021-02-04T23:36:41Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - OSCaR: Orthogonal Subspace Correction and Rectification of Biases in
Word Embeddings [47.721931801603105]
我々は,概念全体を取り除く代わりに,概念間のバイアス付き関連を解消することに焦点を当てたバイアス緩和手法であるOSCaRを提案する。
性別バイアスに関する実験により、OSCaRは、セマンティック情報が埋め込みに保持され、バイアスも効果的に緩和されるようなバランスのとれたアプローチであることが示されている。
論文 参考訳(メタデータ) (2020-06-30T18:18:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。