論文の概要: Causal Disentanglement for Semantics-Aware Intent Learning in
Recommendation
- arxiv url: http://arxiv.org/abs/2202.02576v1
- Date: Sat, 5 Feb 2022 15:17:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 08:54:23.757396
- Title: Causal Disentanglement for Semantics-Aware Intent Learning in
Recommendation
- Title(参考訳): 意味論的インテント学習における因果解離
- Authors: Xiangmeng Wang, Qian Li, Dianer Yu, Peng Cui, Zhichao Wang, Guandong
Xu
- Abstract要約: そこで本研究では,CaDSIと呼ばれる非バイアス・セマンティクス対応のアンタングル学習を提案する。
CaDSIは、リコメンデーションタスクの根底にある因果関係を明示的にモデル化する。
特定のアイテムコンテキストに気付く真の意図を、ユーザを遠ざけることによって、セマンティクスに気付く表現を生成する。
- 参考スコア(独自算出の注目度): 30.85573846018658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional recommendation models trained on observational interaction data
have generated large impacts in a wide range of applications, it faces bias
problems that cover users' true intent and thus deteriorate the recommendation
effectiveness. Existing methods tracks this problem as eliminating bias for the
robust recommendation, e.g., by re-weighting training samples or learning
disentangled representation. The disentangled representation methods as the
state-of-the-art eliminate bias through revealing cause-effect of the bias
generation. However, how to design the semantics-aware and unbiased
representation for users true intents is largely unexplored. To bridge the gap,
we are the first to propose an unbiased and semantics-aware disentanglement
learning called CaDSI (Causal Disentanglement for Semantics-Aware Intent
Learning) from a causal perspective. Particularly, CaDSI explicitly models the
causal relations underlying recommendation task, and thus produces
semantics-aware representations via disentangling users true intents aware of
specific item context. Moreover, the causal intervention mechanism is designed
to eliminate confounding bias stemmed from context information, which further
to align the semantics-aware representation with users true intent. Extensive
experiments and case studies both validate the robustness and interpretability
of our proposed model.
- Abstract(参考訳): 観察的インタラクションデータに基づいてトレーニングされた従来のレコメンデーションモデルは、幅広いアプリケーションで大きな影響を与え、ユーザの真意をカバーするバイアス問題に直面し、レコメンデーションの有効性を低下させる。
既存の手法では、トレーニングサンプルの再重み付けや不連続表現の学習など、ロバストな推奨に対するバイアスを排除することでこの問題を追跡している。
不整合表現法は、バイアス発生の因果効果を明らかにすることによってバイアスを除去する。
しかし、ユーザの真の意図を意味論的に認識し、曖昧に表現する方法はほとんど探索されていない。
このギャップを埋めるために,我々は,cadsi(causal disentanglement for semantics-aware intent learning)と呼ばれる,偏りのない意味論的不一致学習を因果的視点から提案する。
特に、cadsiは推奨タスクの背後にある因果関係を明示的にモデル化し、特定のアイテムコンテキストを意識した真の意図をユーザから切り離して意味認識表現を生成する。
さらに、因果的介入機構は、文脈情報から生じる偏りを解消し、意味論的認識表現をユーザの真の意図と一致させるように設計されている。
広範な実験とケーススタディにより,提案モデルのロバスト性と解釈性が検証された。
関連論文リスト
- An Attention-based Framework for Fair Contrastive Learning [2.1605931466490795]
そこで本稿では,バイアスを考慮したインタラクションをモデル化するための注意機構を用いた,公正なコントラスト学習のための新しい手法を提案する。
我々の注意機構は、モデルに相反するバイアスを発生させるサンプルを避け、意味論的に意味のある表現を学習するのに役立つバイアスを誘発するサンプルに焦点をあてる。
論文 参考訳(メタデータ) (2024-11-22T07:11:35Z) - Say My Name: a Model's Bias Discovery Framework [18.887645415907166]
Say My Name'(SaMyNa)は、ディープモデル内のバイアスを意味的に識別する最初のツールです。
既存の方法とは異なり、私たちのアプローチはモデルによって学習されたバイアスに焦点を当てています。
本手法は,タスク関連情報をアンタングル化し,偏見を解析するためのツールとして提案する。
論文 参考訳(メタデータ) (2024-08-18T18:50:59Z) - Utilizing Adversarial Examples for Bias Mitigation and Accuracy Enhancement [3.0820287240219795]
本稿では,コンピュータビジョンモデルにおけるバイアスを軽減するための新しい手法を提案する。
提案手法は,カリキュラム学習フレームワークと詳細な逆数損失を組み合わせることで,逆数例を用いてモデルを微調整する。
我々は,定性評価と定量的評価を併用し,従来の方法と比較してバイアス緩和と精度の向上を実証した。
論文 参考訳(メタデータ) (2024-04-18T00:41:32Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Loose lips sink ships: Mitigating Length Bias in Reinforcement Learning
from Human Feedback [55.78118035358662]
人間のフィードバックからの強化学習は、大きな言語モデルと人間と社会的価値を整合させる重要な橋として機能する。
報酬モデルが意図した目的を回避できるショートカットを見つけることがよくあります。
本稿では、報酬モデリングとシーケンス長の影響を分離するために、Product-of-Experts技術を適用した革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-08T15:14:39Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - Causal Disentangled Variational Auto-Encoder for Preference
Understanding in Recommendation [50.93536377097659]
本稿では,コメンテータシステムにおける対話データから因果不整合表現を学習するためのCaD-VAE(Causal Disentangled Variational Auto-Encoder)を提案する。
この手法は構造因果モデルを用いて、潜在因子間の因果関係を記述する因果表現を生成する。
論文 参考訳(メタデータ) (2023-04-17T00:10:56Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Generalized Zero-shot Intent Detection via Commonsense Knowledge [5.398580049917152]
学習データ不足の問題を克服するために,教師なしの方法でコモンセンス知識を活用する意図検出モデル RIDE を提案する。
RIDEは、発話と意図ラベルの間の深い意味的関係をキャプチャする、堅牢で一般化可能な関係メタ機能を計算する。
広範に使用されている3つのインテント検出ベンチマークに関する広範囲な実験的分析により、関係メタ機能により、目に見えないインテントと見えないインテントの両方を検出する精度が著しく向上することが示された。
論文 参考訳(メタデータ) (2021-02-04T23:36:41Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。