論文の概要: TopKGAT: A Top-K Objective-Driven Architecture for Recommendation
- arxiv url: http://arxiv.org/abs/2601.18432v1
- Date: Mon, 26 Jan 2026 12:45:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.82295
- Title: TopKGAT: A Top-K Objective-Driven Architecture for Recommendation
- Title(参考訳): TopKGAT - 推奨のためのトップKのオブジェクト指向アーキテクチャ
- Authors: Sirui Chen, Jiawei Chen, Canghong Jin, Sheng Zhou, Jingbang Chen, Wujie Sun, Can Wang,
- Abstract要約: TopKGATは、Top-Kメトリクスの微分可能な近似から派生した、新しいレコメンデーションアーキテクチャである。
1つのTopKGAT層の前方は、Precision@Kメトリックの勾配上昇ダイナミクスと本質的に一致している。
4つのベンチマークデータセットの実験では、TopKGATは最先端のベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 17.27815072386831
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommendation systems (RS) aim to retrieve the top-K items most relevant to users, with metrics such as Precision@K and Recall@K commonly used to assess effectiveness. The architecture of an RS model acts as an inductive bias, shaping the patterns the model is inclined to learn. In recent years, numerous recommendation architectures have emerged, spanning traditional matrix factorization, deep neural networks, and graph neural networks. However, their designs are often not explicitly aligned with the top-K objective, thereby limiting their effectiveness. To address this limitation, we propose TopKGAT, a novel recommendation architecture directly derived from a differentiable approximation of top-K metrics. The forward computation of a single TopKGAT layer is intrinsically aligned with the gradient ascent dynamics of the Precision@K metric, enabling the model to naturally improve top-K recommendation accuracy. Structurally, TopKGAT resembles a graph attention network and can be implemented efficiently. Extensive experiments on four benchmark datasets demonstrate that TopKGAT consistently outperforms state-of-the-art baselines. The code is available at https://github.com/StupidThree/TopKGAT.
- Abstract(参考訳): Recommendation System(RS)は、Precision@KやRecall@Kなどのメトリクスを使って、ユーザにとって最も関連性の高いトップKアイテムを検索することを目的としている。
RSモデルのアーキテクチャは帰納的バイアスとして機能し、モデルが学習する傾向にあるパターンを形成する。
近年、従来の行列分解、ディープニューラルネットワーク、グラフニューラルネットワークなど、数多くのレコメンデーションアーキテクチャが出現している。
しかしながら、それらの設計は、しばしばトップKの目的と明示的に一致していないため、有効性を制限している。
この制限に対処するため、Top-Kメトリクスの微分可能近似から直接導出した新しいレコメンデーションアーキテクチャであるTopKGATを提案する。
1つのTopKGAT層のフォワード計算は、Precision@Kメトリックの勾配上昇ダイナミクスと本質的に一致しているため、モデルがTop-Kレコメンデーションの精度を自然に向上することができる。
構造的には、TopKGATはグラフアテンションネットワークに似ており、効率的に実装することができる。
4つのベンチマークデータセットに対する大規模な実験は、TopKGATが一貫して最先端のベースラインを上回っていることを示している。
コードはhttps://github.com/StupidThree/TopKGAT.comで入手できる。
関連論文リスト
- Latent Geometry of Taste: Scalable Low-Rank Matrix Factorization for Recommender Systems [0.0]
本研究は、MovieLens 32Mデータセットを用いて、ユーザの嗜好の潜時幾何学について検討する。
制約付き低ランクモデルはランク精度において高次元モデルよりも有意に優れていることを示す。
我々は,人気バイアスとパーソナライズされた親和性とのトレードオフを効果的に管理するための調整可能なスコアリングパラメータを導入し,コールドスタートシナリオにおけるシステムの実用性を検証する。
論文 参考訳(メタデータ) (2026-01-06T23:42:40Z) - Bayesian Natural Gradient Fine-Tuning of CLIP Models via Kalman Filtering [4.681301898136104]
視覚言語による事前学習モデルにおいて、最適性能を達成する上で大きな課題となる微調整は少ない。
本稿では,CLIPモデルに対するカルマンフィルタを用いた自然明度(NGD)のベイズ近似を提案する。
我々のアルゴリズムは、最先端のベースラインよりも優れた、もしくは同等のID性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-11-03T16:00:45Z) - K-DAREK: Distance Aware Error for Kurkova Kolmogorov Networks [3.460138063155115]
我々はクルコバ・コルモゴロフネットワーク(K-DAREK)に対する新しい学習アルゴリズムを開発した。
提案手法は,距離を意識した頑健な誤差境界を確立する。つまり,テストポイントから最寄りのトレーニングポイントまでの距離を反映する。
論文 参考訳(メタデータ) (2025-10-24T20:49:59Z) - Aligning GPTRec with Beyond-Accuracy Goals with Reinforcement Learning [67.71952251641545]
GPTRecはアイテム・バイ・イテムレコメンデーションのためのTop-Kモデルの代替品である。
GPTRecは,従来のグリーディ・リグレード手法よりも精度とセカンダリ・メトリクスのトレードオフが優れていることを示す。
2つのデータセットに対する実験により、GPTRecのNext-K生成アプローチは、古典的なグリージーな再ランク技術よりも精度と二次メトリクスのトレードオフが優れていることが示された。
論文 参考訳(メタデータ) (2024-03-07T19:47:48Z) - Less is KEN: a Universal and Simple Non-Parametric Pruning Algorithm for Large Language Models [1.5807079236265718]
KENはカーネル密度推定(KDE)に基づく単純で普遍的で非構造化プルーニングアルゴリズムである
Kenは、最適化されたトランスフォーマーを構築することを目的としており、最も重要なパラメータを選択的に保存し、他のパラメータをトレーニング前の状態に復元する。
Kenは、元の未実行バージョンと同等かそれ以上のパフォーマンスを達成し、パラメータの最小25%の削減を実現している。
論文 参考訳(メタデータ) (2024-02-05T16:11:43Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - FlowNAS: Neural Architecture Search for Optical Flow Estimation [65.44079917247369]
本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T09:05:25Z) - CascadER: Cross-Modal Cascading for Knowledge Graph Link Prediction [22.96768147978534]
本稿では,効率を向上しつつ,完全アンサンブルのランキング精度を維持するための階層型ランキングアーキテクチャCascaderを提案する。
CascadER は LM を用いて、より効率的な KGE の出力を再現し、KGE の精度向上を最大化しつつ、LM を最小限に呼び出すための適応的なサブセット選択方式に依存している。
実験により, モデル間の多様性と個々のモデルの信頼性信号の保存がカスケーダの有効性を説明するのに有効であることがわかった。
論文 参考訳(メタデータ) (2022-05-16T22:55:45Z) - ZARTS: On Zero-order Optimization for Neural Architecture Search [94.41017048659664]
微分可能なアーキテクチャサーチ (DARTS) は、NASの高効率性のため、一般的なワンショットパラダイムである。
この作業はゼロオーダーの最適化に変わり、上記の近似を強制せずに探索するための新しいNASスキームであるZARTSを提案する。
特に、12ベンチマークの結果は、DARTSの性能が低下するZARTSの顕著な堅牢性を検証する。
論文 参考訳(メタデータ) (2021-10-10T09:35:15Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。