論文の概要: SAM: A Self-adaptive Attention Module for Context-Aware Recommendation
System
- arxiv url: http://arxiv.org/abs/2110.00452v1
- Date: Fri, 1 Oct 2021 14:37:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:22:04.445811
- Title: SAM: A Self-adaptive Attention Module for Context-Aware Recommendation
System
- Title(参考訳): SAM: コンテキスト認識レコメンデーションシステムのための自己適応型アテンションモジュール
- Authors: Jiabin Liu, Zheng Wei, Zhengpin Li, Xiaojun Mao, Jian Wang, Zhongyu
Wei and Qi Zhang
- Abstract要約: 本稿では,新しい自己適応型モジュールであるSAM(Self-Adaptive Attention Module)を提案する。
このモジュールは、コンテキスト情報の学習コンポーネントを含むレコメンデーションシステムに組み込むことができる。
- 参考スコア(独自算出の注目度): 20.68951033349167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, textual information has been proved to play a positive role in
recommendation systems. However, most of the existing methods only focus on
representation learning of textual information in ratings, while potential
selection bias induced by the textual information is ignored. In this work, we
propose a novel and general self-adaptive module, the Self-adaptive Attention
Module (SAM), which adjusts the selection bias by capturing contextual
information based on its representation. This module can be embedded into
recommendation systems that contain learning components of contextual
information. Experimental results on three real-world datasets demonstrate the
effectiveness of our proposal, and the state-of-the-art models with SAM
significantly outperform the original ones.
- Abstract(参考訳): 近年,リコメンデーションシステムにおけるテキスト情報の役割が実証されている。
しかし,既存の手法のほとんどは,テキスト情報による潜在的選択バイアスを無視する一方で,評価におけるテキスト情報の表現学習のみに焦点を当てている。
本研究では,その表現に基づいて文脈情報を取り込むことにより,選択バイアスを調整する新しい自己適応型注意モジュールである自己適応型注意モジュール(sam)を提案する。
このモジュールは、コンテキスト情報の学習コンポーネントを含むレコメンデーションシステムに組み込むことができる。
3つの実世界のデータセットにおける実験結果は、提案の有効性を示し、samによる最先端モデルがオリジナルのモデルを大きく上回っていることを示している。
関連論文リスト
- AlignSAM: Aligning Segment Anything Model to Open Context via Reinforcement Learning [61.666973416903005]
Segment Anything Model (SAM)は、オープンワールドシナリオにおいて、プロンプトのガイダンスによって、その印象的な一般化機能を実証した。
オープンコンテキストにSAMをアライメントするための自動プロンプトのための新しいフレームワークAlignSAMを提案する。
論文 参考訳(メタデータ) (2024-06-01T16:21:39Z) - Debiasing Multimodal Large Language Models [61.6896704217147]
LVLM(Large Vision-Language Models)は、コンピュータビジョンや自然言語処理において欠かせないツールとなっている。
本研究は,入力画像に先行するLarge Language Models (LLM) の影響を主に受け,生成したコンテンツに有意なバイアスが生じることを示す。
これらのバイアスを是正し、視覚情報に対するモデルの焦点をリダイレクトするために、我々は2つの単純で訓練のない戦略を導入する。
論文 参考訳(メタデータ) (2024-03-08T12:35:07Z) - Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、より多くの洞察を提供するさまざまなメトリクスの使用を可能にします。
本稿では,言語モデル(LM)のパワーを活用し,効率と効率を向上させる新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - A Model-Agnostic Framework for Recommendation via Interest-aware Item
Embeddings [4.989653738257287]
Interest-Aware Capsule Network (IaCN)は、関心指向のアイテム表現を直接学習するモデルに依存しないフレームワークである。
IaCNは補助的なタスクとして機能し、アイテムベースと興味ベースの両方の表現の合同学習を可能にする。
提案手法をベンチマークデータセットで評価し、異なるディープニューラルネットワークを含むさまざまなシナリオを探索する。
論文 参考訳(メタデータ) (2023-08-17T22:40:59Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - Learning Label Modular Prompts for Text Classification in the Wild [56.66187728534808]
そこで本研究では,非定常学習/テスト段階の異なるテキスト分類手法を提案する。
複雑なタスクをモジュラー成分に分解することで、そのような非定常環境下での堅牢な一般化が可能になる。
テキスト分類タスクのためのラベルモジュール型プロンプトチューニングフレームワークMODcularPROMPTを提案する。
論文 参考訳(メタデータ) (2022-11-30T16:26:38Z) - Improving Conversational Recommender System via Contextual and
Time-Aware Modeling with Less Domain-Specific Knowledge [25.503407835218773]
文脈から内部知識を完全に発見・抽出することを提案する。
エンティティレベルとコンテキストレベルの両方の表現をキャプチャして、リコメンデーションのためのユーザの好みを共同でモデル化する。
我々のモデルは、外部知識の少ないほとんどの評価指標においてより良い性能を達成し、他の領域によく一般化する。
論文 参考訳(メタデータ) (2022-09-23T03:30:22Z) - Sequential Attention Module for Natural Language Processing [5.3332456820449465]
本稿では,事前学習した言語モデルから学習したトークン埋め込みに基づいて,SAM(Sequential Attention Module)というプラグイン・アンド・プレイモジュールを提案する。
提案するSAMは,FAM(Feature-wise Attention Module)とTAM(Token-wise Attention Module)の2つの主要な注意モジュールで構成されている。
論文 参考訳(メタデータ) (2021-09-07T11:48:23Z) - A Unified Framework for Generic, Query-Focused, Privacy Preserving and
Update Summarization using Submodular Information Measures [15.520331683061633]
汎用的でクエリを重視し,プライバシーに敏感で,要約タスクを更新するためのリッチなフレームワークとして,サブモジュール情報測度について検討する。
まず,従来の問合せと更新の要約技術が,前述のサブモジュール情報対策の様々なインスタンス化を無意識に用いていることを示す。
合成データセットと既存の実世界の画像収集データセットの両方で実験により得られた知見を実証的に検証した。
論文 参考訳(メタデータ) (2020-10-12T12:03:03Z) - Adversarial Infidelity Learning for Model Interpretation [43.37354056251584]
本稿では,モデル解釈のためのモデル非依存能率直接(MEED)FSフレームワークを提案する。
我々のフレームワークは、正当性、ショートカット、モデルの識別可能性、情報伝達に関する懸念を緩和する。
我々のAILメカニズムは、選択した特徴と目標の間の条件分布を学習するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-09T16:27:17Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。