論文の概要: Hierarchical Multi-Task Learning Framework for Session-based
Recommendations
- arxiv url: http://arxiv.org/abs/2309.06533v1
- Date: Tue, 12 Sep 2023 19:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 16:31:08.204881
- Title: Hierarchical Multi-Task Learning Framework for Session-based
Recommendations
- Title(参考訳): セッションベースレコメンデーションのための階層型マルチタスク学習フレームワーク
- Authors: Sejoon Oh, Walid Shalaby, Amir Afsharinejad, Xiquan Cui
- Abstract要約: マルチタスク学習(MTL)はセッションベースの推薦システム(SBRS)に採用され、予測精度と一般化性をさらに高めている。
本稿では,H-MTLアーキテクチャをSBRSに組み込んだHierSRecを提案する。
実験により、HierSRecは2つのセッションベースのレコメンデーションデータセットにおいて、次のイテム予測精度に従って既存のSBRSより優れていることが示された。
- 参考スコア(独自算出の注目度): 5.560708592155491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While session-based recommender systems (SBRSs) have shown superior
recommendation performance, multi-task learning (MTL) has been adopted by SBRSs
to enhance their prediction accuracy and generalizability further. Hierarchical
MTL (H-MTL) sets a hierarchical structure between prediction tasks and feeds
outputs from auxiliary tasks to main tasks. This hierarchy leads to richer
input features for main tasks and higher interpretability of predictions,
compared to existing MTL frameworks. However, the H-MTL framework has not been
investigated in SBRSs yet. In this paper, we propose HierSRec which
incorporates the H-MTL architecture into SBRSs. HierSRec encodes a given
session with a metadata-aware Transformer and performs next-category prediction
(i.e., auxiliary task) with the session encoding. Next, HierSRec conducts
next-item prediction (i.e., main task) with the category prediction result and
session encoding. For scalable inference, HierSRec creates a compact set of
candidate items (e.g., 4% of total items) per test example using the category
prediction. Experiments show that HierSRec outperforms existing SBRSs as per
next-item prediction accuracy on two session-based recommendation datasets. The
accuracy of HierSRec measured with the carefully-curated candidate items aligns
with the accuracy of HierSRec calculated with all items, which validates the
usefulness of our candidate generation scheme via H-MTL.
- Abstract(参考訳): セッションベースレコメンデータシステム(SBRS)はより優れたレコメンデーション性能を示したが、マルチタスク学習(MTL)は、その予測精度と一般化性を高めるためにSBRSによって採用されている。
階層mtl (h-mtl) は予測タスク間の階層構造を設定し、補助タスクからメインタスクへの出力を供給する。
この階層は、既存のMTLフレームワークと比較して、メインタスクの入力機能と予測の解釈可能性の向上につながります。
しかし、H-MTLフレームワークはSBRSではまだ研究されていない。
本稿では,H-MTLアーキテクチャをSBRSに組み込んだHierSRecを提案する。
HierSRecはメタデータ対応のTransformerで所定のセッションをエンコードし、セッションエンコーディングで次のカテゴリ予測(補助タスク)を行う。
次に、hiersrecはカテゴリ予測結果とセッションエンコーディングで次項目の予測(すなわちメインタスク)を行う。
スケーラブルな推論のために、HierSRecはカテゴリ予測を用いてテスト例ごとにコンパクトな候補項目(例:全項目の4%)を作成する。
実験により、HierSRecは2つのセッションベースのレコメンデーションデータセットにおいて、次のイテム予測精度に従って既存のSBRSより優れていることが示された。
注意深く調整された候補項目で測定されたhiersrecの精度は、全ての項目で算出されたhiersrecの精度と一致し、h-mtlによる候補生成方式の有用性を検証する。
関連論文リスト
- IRSC: A Zero-shot Evaluation Benchmark for Information Retrieval through Semantic Comprehension in Retrieval-Augmented Generation Scenarios [14.336896748878921]
本稿では,多言語RAGタスクにおける埋め込みモデルの性能評価のためのIRSCベンチマークを提案する。
このベンチマークには、クエリ検索、タイトル検索、パラグラフ検索、キーワード検索、要約検索の5つのタスクが含まれている。
1)IRSCベンチマーク,2)SSCIとRCCIメトリクス,3)埋め込みモデルの言語間制限に関する洞察などです。
論文 参考訳(メタデータ) (2024-09-24T05:39:53Z) - Balancing Diversity and Risk in LLM Sampling: How to Select Your Method and Parameter for Open-Ended Text Generation [60.493180081319785]
本稿では,各復号工程における多様性とリスクのトレードオフを考慮し,トラクションサンプリング手法の本質的な能力を推定する体系的手法を提案する。
本研究は,既存のトラクションサンプリング手法の総合的な比較と,ユーザのガイドラインとして推奨されるパラメータについて紹介する。
論文 参考訳(メタデータ) (2024-08-24T14:14:32Z) - Ranking-based Adaptive Query Generation for DETRs in Crowded Pedestrian
Detection [49.27380156754935]
DETRのクエリの数は手動で調整しなければなりませんが、そうでなければ、パフォーマンスは様々な程度に低下します。
本稿では,ランクに基づく適応クエリ生成(RAQG)を提案し,問題を緩和する。
提案手法は単純かつ効果的であり,任意のDETRにプラグインすることで,理論上クエリ適応性を実現する。
論文 参考訳(メタデータ) (2023-10-24T11:00:56Z) - Contextual Biasing of Named-Entities with Large Language Models [12.396054621526643]
本稿では,Large Language Models (LLM) を用いた文脈バイアスについて検討する。
LLMに追加のコンテキスト情報を提供して、自動音声認識(ASR)性能を向上する。
本稿では, バイアスリストと少数ショット例を組み込んだ再描画時に, 微調整を行なわずに, LLMのプロンプトを活用することを提案する。
論文 参考訳(メタデータ) (2023-09-01T20:15:48Z) - Towards Practical Few-Shot Query Sets: Transductive Minimum Description
Length Inference [0.0]
そこで本研究では,PrimAl Dual Minimum Description LEngth (PADDLE) の定式化について述べる。
制約のあるMDLライクな目的は、いくつかのタスクのデータに適合する有効なクラスのみを保ちながら、起こりうる多数のクラス間の競争を促進する。
論文 参考訳(メタデータ) (2022-10-26T08:06:57Z) - Exploring Opportunistic Meta-knowledge to Reduce Search Spaces for
Automated Machine Learning [8.325359814939517]
本稿では,従来の経験から,パイプライン合成/最適化プロセスを開始する前に,利用可能な分類器/回帰器のプールを事前に計算できるかどうかを検討する。
論文 参考訳(メタデータ) (2021-05-01T15:25:30Z) - Multitask Learning for Class-Imbalanced Discourse Classification [74.41900374452472]
マルチタスクアプローチは,現在のベンチマークで7%のマイクロf1コアを改善できることを示す。
また,NLPにおける資源不足問題に対処するための追加手法の比較検討を行った。
論文 参考訳(メタデータ) (2021-01-02T07:13:41Z) - Automated Concatenation of Embeddings for Structured Prediction [75.44925576268052]
本稿では, 埋め込みの自動結合(ACE)を提案し, 構造予測タスクにおける埋め込みのより優れた結合を見つけるプロセスを自動化する。
我々は、強化学習の戦略に従い、制御器のパラメータを最適化し、タスクモデルの精度に基づいて報酬を計算する。
論文 参考訳(メタデータ) (2020-10-10T14:03:20Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z) - Conversational Question Reformulation via Sequence-to-Sequence
Architectures and Pretrained Language Models [56.268862325167575]
本稿では、列列列構造と事前学習言語モデル(PLM)を用いた会話型質問修正(CQR)の実証的研究について述べる。
我々はPLMを利用して、CQRタスクの目的である最大推定におけるトークン・トークン・トークン・トークンの独立性の強い仮定に対処する。
我々は、最近導入されたCANARDデータセットの微調整PLMをドメイン内タスクとして評価し、TREC 2019 CAsT Trackのデータからドメイン外タスクとしてモデルを検証する。
論文 参考訳(メタデータ) (2020-04-04T11:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。