論文の概要、ライセンス

# (参考訳) CVTT: 時間を通してのクロスバリデーション [全文訳有]

CVTT: Cross-Validation Through Time ( http://arxiv.org/abs/2205.05393v1 )

ライセンス: CC BY 4.0
Sergey Kolesnikov, Mikhail Andronov(参考訳) 推薦システム評価の実践的側面は,研究コミュニティにおいて活発に議論されているトピックである。 現在の評価手法の多くは、モデル比較の簡単なアプローチとして、単一値のメトリクスにパフォーマンスをもたらすが、これは時間とともにメソッドの安定したパフォーマンスを強く仮定することに基づいている。 本稿では,手法の連続的な性能をなくすことで,共同データ・メソッド効果の貴重な洞察を失う可能性があると論じる。 本稿では,クロスバリデーション思考時間(CVTT)手法を提案し,より詳細な評価を行い,時間とともにクロスバリデーションのパフォーマンスをモデル化する。 提案手法を用いて、一般的なRecSysアルゴリズムの性能を様々なメトリクスやデータセットに対して詳細に分析する。 また、モデルの性能への影響を分析するために、いくつかのデータ準備と評価戦略を比較した。 その結果、モデルの性能は時間とともに大きく変化し、データと評価のセットアップがそれに顕著な影響を与えうることがわかった。

The practical aspects of evaluating recommender systems is an actively discussed topic in the research community. While many current evaluation techniques bring performance down to a single-value metric as a straightforward approach for model comparison, it is based on a strong assumption of the methods' stable performance over time. In this paper, we argue that leaving out a method's continuous performance can lead to losing valuable insight into joint data-method effects. We propose the Cross-Validation Thought Time (CVTT) technique to perform more detailed evaluations, which focus on model cross-validation performance over time. Using the proposed technique, we conduct a detailed analysis of popular RecSys algorithms' performance against various metrics and datasets. We also compare several data preparation and evaluation strategies to analyze their impact on model performance. Our results show that model performance can vary significantly over time, and both data and evaluation setup can have a marked effect on it.
公開日: Wed, 11 May 2022 10:30:38 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
CVTT: Cross-Validation Through Time CVTT: 時間を通してのクロスバリデーション 0.61
SERGEY KOLESNIKOV and MIKHAIL ANDRONOV∗, Tinkoff, セルゲイ・コレスニコフ(sergey kolesnikov)とミハイル・アンドロノフ(mikhail andronov∗, tinkoff)。 0.29
2 2 0 2 y a M 1 1 2 2 0 2 y a m 1 1 である。 0.54
] G L . s c [ ] G L。 sc [ 0.47
1 v 3 9 3 5 0 1 v 3 9 3 5 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.43
Fig. 1. CVTT evaluation scheme. 図1。 cvtt評価方式 0.37
The practical aspects of evaluating recommender systems is an actively discussed topic in the research community. 推薦システム評価の実践的側面は,研究コミュニティにおいて活発に議論されているトピックである。 0.65
While many current evaluation techniques bring performance down to a single-value metric as a straightforward approach for model comparison, it is based on a strong assumption of the methods’ stable performance over time. 現在の評価手法の多くは、モデル比較の簡単なアプローチとして、単一値のメトリクスにパフォーマンスをもたらすが、時間の経過とともにメソッドの安定したパフォーマンスを強く前提としている。 0.78
In this paper, we argue that leaving out a method’s continuous performance can lead to losing valuable insight into joint data-method effects. 本稿では,手法の連続的な性能を放棄することで,共同データ・メソッドの効果に関する貴重な洞察を失う可能性があると論じる。 0.74
We propose the Cross-Validation Thought Time (CVTT) technique to perform more detailed evaluations, which focus on model cross-validation performance over time. 本稿では,クロスバリデーション思考時間(CVTT)手法を提案し,より詳細な評価を行い,時間とともにクロスバリデーションのパフォーマンスをモデル化する。 0.66
Using the proposed technique, we conduct a detailed analysis of popular RecSys algorithms’ performance against various metrics and datasets. 提案手法を用いて、一般的なRecSysアルゴリズムの性能を様々なメトリクスやデータセットに対して詳細に分析する。 0.79
We also compare several data preparation and evaluation strategies to analyze their impact on model performance. また、モデルの性能への影響を分析するために、いくつかのデータ準備と評価戦略を比較した。
訳抜け防止モード: また、いくつかのデータ準備および評価戦略を比較する。 モデルパフォーマンスへの影響を分析します
0.71
Our results show that model performance can vary significantly over time, and both data and evaluation setup can have a marked effect on it. その結果、モデルの性能は時間とともに大きく変化し、データと評価のセットアップがそれに顕著な影響を与えうることがわかった。 0.73
∗The work was done during an internship in the Tinkoff Lab. この仕事は、Tinkoff Labのインターンシップ中に行われた。 0.63
Authors’ address: Sergey Kolesnikov, s.s.kolesnikov@tinko ff.ai; Mikhail Andronov, ext.mandronov@tinkof f.ai, Tinkoff, 著者: Sergey Kolesnikov, s.s.kolesnikov@tinko ff.ai; Mikhail Andronov, ext.mandronov@tinkof f.ai, Tinkoff, 0.41
1 1 0.43
英語(論文から抽出)日本語訳スコア
2 Sergey Kolesnikov and Mikhail Andronov 2 セルゲイ・コレスニコフとミハイル・アンドロノフ 0.42
1 INTRODUCTION Recommender Systems (RecSys) have always attracted much attention from academia and industry practitioners [2, 7]. 1 IntroDUCTION Recommender Systems(RecSys)は、学者や業界関係者から常に注目を集めています [2, 7]。 0.78
On the one hand, RecSys methods are already actively used for recommendations in a large variety of domains such as movies [54], music [43], news [14], and many more [3, 42, 60]. 一方、RecSys法は、映画[54]、音楽[43]、ニュース[14]、その他多くの[3, 42, 60]など、さまざまな分野のレコメンデーションに積極的に利用されている。 0.59
Various new methods are constantly being developed in order to improve user recommendations with deep learning techniques [35, 45, 61], memory-based [51] and latent factor-based methods [11, 29, 46], or even reinforcement learning [1, 36]. 深層学習技術[35, 45, 61], メモリベース[51], 潜伏因子ベースの手法[11, 29, 46], 強化学習[1, 36]でユーザ推薦を改善するために, 様々な新しい手法が常に開発されている。 0.81
On the other hand, despite all this progress, the RecSys evaluation protocol is still an open question due to various possible data splitting strategies and data preparation approaches [12, 28, 52]. 一方で、こうした進展にもかかわらず、recsys評価プロトコルは、様々なデータ分割戦略とデータ準備アプローチ[12, 28, 52]のため、まだ未解決の問題である。 0.79
In this way, in order to unlock the full potential of data-driven approaches, we still require more nuanced evaluation techniques to fully estimate RecSys methods on historical data. このように、データ駆動アプローチの完全な可能性を解き放つためには、歴史的データに対するRecSysの手法を完全に見積もるために、より微妙な評価手法が必要である。
訳抜け防止モード: このように、順に データ駆動アプローチのポテンシャルを解放するために。 より綿密な評価技術が必要です 履歴データに対してRecSysメソッドを完全に推定する。
0.70
Evaluating Recommender Systems can be quite challenging, especially in time-aware settings such as sequential recommendations. Recommender Systemsの評価は、特にシーケンシャルなレコメンデーションのようなタイムアウェアな設定では、非常に難しい。 0.60
In early works [6, 8], researchers highlighted the importance of time-based algorithm validation. 初期の研究 [6, 8] では、研究者は時間ベースのアルゴリズム検証の重要性を強調した。 0.69
In a prior study [57], the authors sampled 85 papers published in 2017-2019 from top conferences, and concluded that random-split-by-rati o and leave-one-out splitting strategies are used in 82% of cases. 前回の調査[57]では、2017-2019年に発表された85の論文をトップコンファレンスからサンプリングし、ランダム・スプリット・バイ・ラティファイションとアウト・ワン・アウト・スプリッティング戦略が82%のケースで使用されていると結論付けた。 0.47
At the same time, recent studies [40] pointed out that the most strict and realistic setting for data splitting is a global temporal split, where a fixed time-point separates interactions for training and testing. 同時に、最近の研究[40]は、データ分割の最も厳密で現実的な設定は、トレーニングとテストのためのインタラクションを一定時間単位で分離するグローバルな時間分割であると指摘した。 0.79
The authors found that, out of 17 recommender algorithms published from 2009 to 2020, only 2 were evaluated using this scenario. 著者らは、2009年から2020年にかけて発行された17のレコメンダアルゴリズムのうち、このシナリオを用いた評価は2つに過ぎなかったことを発見した。
訳抜け防止モード: 著者らは、 2009年から2020年にかけて17の推奨アルゴリズムのうち このシナリオで評価されたのは2つだけです
0.66
In another work [23], the authors compare the impact of data leaks on different RecSys methods. 別の研究[23]では、異なるRecSysメソッドに対するデータリークの影響を比較します。 0.76
Their findings show that "future data" can improve or deteriorate recommendation accuracy, making the impact of data leakage unpredictable. これらの結果から,「未来データ」は推奨精度を向上あるいは劣化させ,データ漏洩の影響を予測不能にする可能性が示唆された。 0.68
The key idea behind our method stems from the intuitive observation of the desiderata of a correct offline evaluation over time i.e. 我々の手法の背景にある重要な考え方は、時間経過とともに正確なオフライン評価のデシデラタを直感的に観察することに由来する。 0.57
(a) it should be compatible with any current RecSys approach, (a)現在のRecSysアプローチと互換性があるべきです。 0.69
(b) it should prevent any possible data leak from future observations, (b)将来の観測から可能なデータ漏洩を防止すべきである。 0.83
(c) it should be able to capture the impact of diversity and the variability present in real-world data on the model performance, c) 実世界のデータに存在する多様性と変動性がモデル性能に与える影響を捉えることができるべきである。 0.84
(d) it should provide valuable analysis for the practitioner during the best model selection. (d)最良のモデル選択の間、実践者に価値ある分析を提供するべきです。 0.81
Our work takes a small step in determining whether we can acquire such an evaluation protocol without any domain-specific priors. 我々の研究は、そのような評価プロトコルをドメイン固有の事前知識なしで取得できるかどうかを決定するための小さな一歩を踏み出します。
訳抜け防止モード: 私たちの仕事は少し前進します このような評価プロトコルをドメインなしで取得できるかどうかを決定する。
0.72
The key insights behind our method (Figure 私たちの方法の背後にある重要な洞察(図) 0.57
1) are embarrassingly simple: (1) RecSys performance changes significantly over time, (2) our choice and usage of the time component affects the metrics we receive upon evaluation. 1) 時間とともに性能が大幅に変化すること,(2) 時間の選択と使用が評価時に受けるメトリクスに影響すること,など,恥ずかしいほど単純です。 0.75
While validation over time is demanding in such a setup, a realistic setting for time-based algorithm validation is precisely what current RecSys evaluation progress insists on. このようなセットアップでは、時間による検証が要求されるが、時間に基づくアルゴリズム検証の現実的な設定は、まさに現在のRecSys評価の進歩が主張するものである。 0.65
Our Contributions: We list the major contributions. 私たちの貢献: 主な貢献をリストアップします。 0.67
• We present CVTT: a surprisingly simple method based on recent advances in data splitting and cross-validation techniques. • cvtt: データ分割とクロスバリデーション技術の最近の進歩に基づく驚くほどシンプルな手法。 0.70
Our method is quite general and therefore requires minimal changes in order to be incorporated with most RecSys algorithms. 本手法は非常に汎用的であり,ほとんどのrecsysアルゴリズムに組み込むには最小限の変更が必要である。 0.71
• The performance of RecSys models gradually changes, and our findings demonstrate that new data flow can lead to significant performance changes. • RecSys モデルの性能は徐々に変化し, 新たなデータフローが大きな性能変化をもたらす可能性が示唆された。 0.86
Moreover, we show that methods could have performance trends over time. さらに,提案手法は時間とともに性能の傾向を示す。 0.74
• Although it is natural to expand the training dataset with time, we demonstrate that performance can change significantly depending on the chosen data strategy, and continuously extending the dataset can lead to biased results. • トレーニングデータセットを時間とともに拡張するのは自然なことですが、選択したデータ戦略によってパフォーマンスが大幅に変化し、データセットを継続的に拡張することでバイアスのある結果が得られます。 0.72
• Last but not least, we highlight the performance gap between just-in-time and delayed method evaluation on a • 最後に、ジャスト・イン・タイムと遅延したメソッド評価のパフォーマンスギャップを強調します。 0.69
subset of RecSys approaches, and how there is no difference for others. RecSysのサブセットと、それとどう違うのか。 0.34
英語(論文から抽出)日本語訳スコア
CVTT: Cross-Validation Through Time CVTT: 時間を通してのクロスバリデーション 0.61
3 Table 1. Overview of data splitting strategies reported in the literature, as well as the dataset(s) those papers use. 3 表1。 論文で報告されているデータ分割戦略の概要と、それらの論文が使用するデータセットについて。 0.62
Model Random Split User Split Leave One Out モデル Random Splitのユーザ分割が1つ 0.81
Temporal Split User-based Global 時間分割 ユーザベースグローバル 0.69
Used Datasets 使用済みデータセット 0.56
BPR [47] (2009) AVG [5] (2010) FPMC [48] (2010) PureSVD [11] (2010) BPR [47] (2009) AVG [5] (2010) FPMC [48] (2010) PureSVD [11] (2010) 0.42
SLIM [41] (2011) AutoRec [53] (2015) CDAE [61] (2016) VBPR [17] (2016) CML [19] (2017) NeuMF [18] (2017) CVAE [34] (2017) SLIM [41] (2011) AutoRec [53] (2015) CDAE [61] (2016) VBPR [17] (2016) CML [19] (2017) NeuMF [18] (2017) CVAE [34] (2017) 0.43
GreedyLM [62] (2017) GreedyLM [62] (2017) 0.42
VAECF [35] (2018) Triple2vec [58] (2018) SASRec [26] (2018) TARMF [37] (2018) XPO [49] (2019) CTRec [4] (2019) SVAE [50] (2019) VAECF [35] (2018) Triple2vec [58] (2018) SASRec [26] (2018) TARMF [37] (2018) XPO [49] (2019) CTRec [4] (2019) SVAE [50] (2019) 0.44
BERT4Rec [56](2019) VBCAR [39] (2019) Set2Set [20] (2019) DCRL [63] (2019) MARank [64] (2019) GATE [38] (2019) BERT4Rec [56](2019) VBCAR [39] (2019) Set2Set [20] (2019) DCRL [63] (2019) MARank [64] (2019) GATE [38] (2019) 0.45
TiSASRec [32] (2020) TiSASRec [32] (2020) 0.42
JSR [65] (2020) TAFA [68] (2020) DICER [67] (2020) GFAR [27] (2020) JSR [65] (2020) TAFA [68] (2020) DICER [67] (2020) GFAR [27] (2020) 0.42
√ √ × √ √ √ √ √ √ × √ √ × × × √ √ × × × × × × × √ × × √ √ √ √ √ × √ √ √ √ √ √ × √ √ × × × √ √ × × × × × × × √ × × √ √ √ 0.43
× √ × × × × × × × × × √ √ × × × √ × √ × × × × × × × × × × √ × √ × × × × × × × × × √ √ × × × √ × √ × × × × × × × × × × √ 0.43
× × √ × × × × × × √ × × × √ √ × × √ × √ × × × √ × √ √ × × × × × √ × × × × × × √ × × × √ √ × × √ × √ × × × √ × √ √ × × × 0.43
× × × × × × × × × × × × √ × × × × √ √ × × √ × × × × × × × × × × × × × × × × × × × × √ × × × × √ √ × × √ × × × × × × × × 0.43
× × × √ × × × × × × × × × × × × × × × × √ × √ × × × × × × × × × × √ × × × × × × × × × × × × × × × × √ × √ × × × × × × × 0.42
M100 N - M1, N M100 N - M1, N 0.43
M10, N, B M1, M10, N M10, Y, N M10,N,BM1,M10,NM10,Y ,N 0.45
A M2, B M1, P A M2, B M1, P 0.44
M1 M2, N I, D A, M1 Y, A M1 T, A M1, N M1 M2, N I, D A, M1 Y, A M1 T, A M1, N 0.48
I T, D M2, G Y, A M2, B M1, A M2, A Y, A A 私 T, D M2, G Y, A M2, B M1, A M2, A Y, A A 0.62
M1, K A, M1, M2 M1,K A,M1,M2 0.44
M1: Movielens-1M, M10: Movielens-10M, M2: Movielens-20M, M100:Movielens-100K M1:Movielens-1M、M10:Movielens-10M、M2:Movielens-20M、M100:Movielens-100K 0.25
G: Gowalla, I: Instacart, A: Amazon, Y: Yelp, P: Pinterest G: Gowalla, I: Instacart, A: Amazon, Y: Yelp, P: Pinterest 0.42
B: Book-X, D: Dunnhumby, T: Tafeng, K: KGRec-music, N: Netflix B: Book-X, D: Dunnhumby, T: Tafeng, K: KGRec-music, N: Netflix 0.49
2 RELATED WORK CVTT is based on recent developments in general and sequential recommenders’ evaluation. 2 関連作業 cvtt は,最近の一般的な開発と逐次的なレコメンデーションの評価に基づいている。 0.66
In this section, we outline related works leveraging evaluation protocols and cross-validation approaches for different RecSys domains. 本稿では、異なるRecSysドメインに対する評価プロトコルとクロスバリデーションアプローチを活用する関連研究の概要について述べる。 0.67
2.1 Offline evaluation Following recent studies in RecSys evaluation [9, 23, 40], we summarize the five main data splitting strategies for offline RecSys evaluation: 2.1 recsys 評価における最近の研究 [9,23,40] の結果,オフライン評価のための5つの主要なデータ分割戦略を要約する。 0.75
• Random Split randomly splits per-user interactions into train and test folds. • Random Splitは、ユーザ毎のインタラクションを列とテストフォルダにランダムに分割する。 0.63
The main disadvantage of these methods is that they can hardly be reproduced unless the authors released the used data splits. これらの主な欠点は メソッドは、作者が使用済みのデータを分割しない限り、それらをほとんど再現できない。 0.76
英語(論文から抽出)日本語訳スコア
4 Sergey Kolesnikov and Mikhail Andronov 4 セルゲイ・コレスニコフとミハイル・アンドロノフ 0.42
• User Split randomly split users, rather than their interactions, into train and test groups. • ユーザ分割は、インタラクションではなく、ランダムにユーザをトレーニンググループとテストグループに分割する。 0.75
In this case, particular users and all their interactions are reserved for training, while a different user set and all their interactions are applied for testing. この場合、特定のユーザとそのすべてのインタラクションはトレーニング用に予約され、異なるユーザセットとすべてのインタラクションはテストに適用される。 0.69
• Leave One Out Split selects one last final transaction per user for testing while keeping all remaining interactions for training. • leave One Out Splitは、トレーニングのために残りのすべてのインタラクションを保持しながら、ユーザ毎に最後の最後のトランザクションを選択する。
訳抜け防止モード: •片方の切り離し ユーザ毎の最後のトランザクションを1つ選択し、残りのインタラクションをすべてトレーニング用に保持する。
0.77
In the case of next-item recommendations, the last interaction corresponds to the last user-item pair per user [4, 18, 65]. next-itemレコメンデーションの場合、最後のインタラクションはユーザ毎の最後のユーザ-itemペアに対応します [4, 18, 65]。 0.78
In the case of next-basket recommendations, the last interaction is defined as a basket [48, 58]. next-basketレコメンデーションの場合、最後のインタラクションはバスケット [48, 58] として定義される。 0.71
• Temporal User Split splits per-user interactions into train and test sets based on interaction timestamps (e g , the last 20% of interactions are used for testing). • 時間的ユーザ分割は、ユーザ毎のインタラクションを、インタラクションタイムスタンプに基づいてトレインとテストセットに分割する(例えば、最後の20%がテストに使用される)。
訳抜け防止モード: •temporal user splits per - user interaction splits into train and test sets based based on interaction timetamps (例) 最後の20パーセントのインタラクションはテストに使用されます。
0.85
While this scenario is actively used in the sequential RecSys domain [35, 59], it could lead to a data leakage discussed in [40]. このシナリオはシーケンシャルなRecSysドメイン[35, 59]で積極的に使用されるが、[40]で議論されたデータ漏洩につながる可能性がある。 0.81
• Temporal Global Split splits all available interactions into train and test folds based on a fixed timestamp. • 時間的グローバルスプリットは、すべての利用可能なインタラクションを固定タイムスタンプに基づいて、列車とテストの折り畳みに分割する。 0.55
Interactions before it are used for training, and those that come after are reserved for testing. トレーニングに使用する前のインタラクションと,その後に続くインタラクションは,テスト用に予約されている。 0.64
Compared to Leave One Out Split or Temporal User Split, this method could sample fewer interactions for testing since having the same amount of users or items in train and test sets is not guaranteed. leave One Out Split や Temporal User Split と比較すると,同量のユーザやテストセットが保証されていないため,テストのためのインタラクションのサンプリングが少なくなる可能性がある。 0.83
Nevertheless, according to recent studies [23], this is the only strategy that prevents data leakage. しかし、最近の研究[23]によると、これはデータ漏洩を防ぐ唯一の戦略である。 0.79
An overview of where these strategies were used is presented in Table 1. これらの戦略の使い方の概要を表1に示す。 0.74
As noted in previous works [40], there is little consistency in the selection of evaluation protocols. 前回の研究[40]で述べたように、評価プロトコルの選択には一貫性がほとんどありません。 0.65
Even when the same datasets are used, researchers can select different data splitting strategies for model comparison. 同じデータセットを使用しても、モデル比較のために異なるデータ分割戦略を選択することができる。 0.74
For example, in [37] and [64] all authors used Amazon and Yelp datasets, but different methods were used as data splitting strategies: Random Split and Leave One Out, respectively. 例えば,[37] と [64] では,すべての著者が amazon と yelp のデータセットを使用したが,データ分割戦略として別の方法が使用された。 0.76
Furthermore, Table 1 shows that very few (3 out of 30) methods were evaluated in the most realistic and data-leak-proofed strategy [23] by using temporal global split. さらに, 表1では, 時間的グローバルスプリットを用いて, 最も現実的かつデータリーク耐性のある戦略 [23] において, 極めて少ない手法が評価された。 0.77
2.2 Time-Aware Cross-Validation While RecSys offline evaluation is an actively studied topic, RecSys time-aware cross-validation is not as widely covered. 2.2 Time-Aware Cross-Validation RecSysのオフライン評価は活発に研究されているトピックであるが、RecSysのTime-Aware Cross-Validationは広くカバーされていない。 0.53
To bridge this gap, we reviewed recent approaches in RecSys cross-validation methods. このギャップを埋めるため,recsysクロスバリデーション手法における最近のアプローチを概説した。 0.55
Researchers were interested in time-aware evaluation from as far back as [8, 13]. 研究者は、[8, 13]まで遡るタイムアウェア評価に興味を持っていた。 0.72
Unfortunately, older studies were limited to collaborative filtering approaches and their corresponding datasets: Netflix and Movielens. 残念ながら、古い研究はコラボレーティブなフィルタリングアプローチと、それに対応するデータセット、netflixとmovielensに限定されていた。 0.60
On the other hand, while recent works [31] focus on sequence-aware approaches, they lack simple statistical and matrix factorization-based baselines, including only RNN-based methods. 一方,最近の[31]研究はシーケンス認識アプローチに焦点をあてているが,rnn法のみを含む単純な統計・行列分解ベースラインが欠如している。 0.71
Meanwhile, many recent works [20, 50, 52] only focus on temporal user evaluation, which may be affected by data leak issue [40]. 一方、最近の作品[20, 50, 52]は時間的ユーザ評価のみに焦点を当てており、これはデータ漏洩の問題[40]の影響を受けやすい。 0.72
Finally, available global temporal-based benchmarks [28] lack time-dependent evaluation over time, reducing the final performance to a single-value metric. 最後に、利用可能なグローバル時間ベースのベンチマーク [28] では、時間に依存した評価が欠如しており、最終的なパフォーマンスはシングルバリューメトリクスに低下する。 0.52
CVTT extends and generalizes recent works [40, 52] in order to address the challenge of Recommender System evaluation over time, highlighting the corresponding time-dependent nuances. CVTT は,Recommender System 評価の時間的課題に対処し,対応する時間依存ニュアンスを浮き彫りにするため,近年の業務を拡張・一般化している[40,52]。 0.74
The results of our experiments demonstrate that CVTT could help identify subtle patterns in the dependence of model performance on input data. 実験の結果,CVTTは入力データに対するモデル性能依存性の微妙なパターンの同定に有効であることが示された。 0.77
3 BACKGROUND CVTT stands for cross-validation thorough time, therefore requiring a time component for evaluation. 3 BACKGROUND CVTTはクロスバリデーションの徹底した時間を表すため, 評価に時間成分を必要とする。 0.75
To showcase our methodology, we apply it for the next-period prediction task (Section 3.1) using various RecSys datasets (Section 3.2) and methods (Section 3.3). 本稿では,RecSysデータセット(Section 3.2)とメソッド(Section 3.3)を用いて,次世代予測タスク(Section 3.1)に適用する。 0.75
We briefly outline these fundamentals before detailing our methods in Section 4. 第4節でその方法を詳述する前に、これらの基本を簡潔に概説する。 0.54
英語(論文から抽出)日本語訳スコア
CVTT: Cross-Validation Through Time CVTT: 時間を通してのクロスバリデーション 0.61
Dataset # users データセット #ユーザ 0.71
# items # interactions ナンバーアイテム #相互作用 0.69
# users # items #ユーザ ナンバーアイテム 0.68
# interactions Before preprocessing #相互作用 前処理前 0.79
After preprocessing TaFeng TTRS 前処理後 TaFeng TTRS 0.58
Dunnhumby 32266 50000 50000 Dunnhumby 32266 50000 50000 0.43
23812 2873 4997 23812 2873 4997 0.42
817741 14287287 31057875 817741 14287287 31057875 0.42
3470 9396 11047 3470 9396 11047 0.43
2929 1157 3178 2929 1157 3178 0.42
196549 2744828 11594609 196549 2744828 11594609 0.43
# inter. per user インター。 ユーザーごとに 0.51
56 292 1049 56 292 1049 0.42
Table 2. Dataset statistics before and after preprocessing 表2。 前処理前後のデータセット統計 0.79
Final statistics # inter. 最終統計 インター。 0.56
per item 67 2372 3648 アイテムごとに 67 2372 3648 0.54
# inter. per user per period インター。 ユーザー1人あたりの期間 0.49
14 20 40 5 14 20 40 5 0.43
# inter. per item per period インター。 一定期間ごとに 0.46
16 169 140 16 169 140 0.42
3.1 Tasks Recommender systems typically observe interactions between a set of users and a set of items. 3.1タスクレコメンダシステムは通常、一連のユーザと一連のアイテム間のインタラクションを観察します。 0.71
For example, these interactions could be actions such as clicking on a link [25], rating a movie [16] or listening to a song [10]. 例えば、これらのインタラクションは、リンク[25]をクリックしたり、映画[16]をレーティングしたり、[10]を聴いたりといったアクションです。 0.72
The goal of a Recommender System is to learn users’ interests through observed interactions and build a predictive model to recommend new or repeated products, movies, or songs. Recommender Systemの目的は、観察されたインタラクションを通じてユーザーの興味を学習し、新しい製品や映画、歌を推薦する予測モデルを構築することである。
訳抜け防止モード: Recommender Systemの目的は、観察されたインタラクションを通してユーザーの興味を学習することである 予測モデルを作り 新しい製品や映画や歌を推薦します
0.83
In classical formulation, the researchers build a matrix of observed interactions between users and items. 古典的な定式化では、研究者はユーザーとアイテムの間の観察された相互作用のマトリックスを構築する。 0.55
Based on such input, the model ranks all items for each user, trying to predict future ones. このような入力に基づいて、モデルがユーザ毎にすべての項目をランク付けし、将来の項目を予測する。 0.68
This task is called the top-n recommendation task [11]. このタスクはトップnレコメンデーションタスク[11]と呼ばれます。 0.74
Alternatively, we could store observed interactions as time-ordered user-based sequences and predict the next item the user could interact with. あるいは、観察したインタラクションを時間順のユーザベースのシーケンスとして保存し、ユーザが対話できる次のアイテムを予測することもできます。 0.62
This is the next-item prediction task [44]. これは次の項目の予測タスク [44] です。 0.73
If the user can consume sets of items simultaneously and we want to predict the whole set of interactions, this is called the next-basket prediction task [44]. ユーザがアイテムのセットを同時に消費でき、インタラクションのセット全体を予測したい場合、これはnext-basket prediction task [44]と呼ばれる。 0.73
Finally, if we are curious about user interests over time, we could group user interactions into time-based baskets and predict their interactions for the next predefined period. 最後に、時間が経つにつれてユーザーの興味に興味を持つならば、ユーザのインタラクションを時間ベースのバスケットにグループ化し、次の事前に定義された期間のインタラクションを予測することができます。 0.56
This is the next-period recommendation task [28, 66]. これが次の定期推薦課題[28, 66]です. 0.81
In this work, we focus on the latter task, as it is capable of natively integrating with the global temporal split and is actively used in relevant works [23, 52]. 本研究では,グローバル・テンポラリ・スプリットとネイティブに統合でき,関連する作品[23,52]で積極的に使用されているため,後者のタスクに焦点をあてる。 0.71
3.2 Datasets We chose three of the most common time-based datasets in recommender system research: 3.2 データセット レコメンダシステムリサーチにおいて、最も一般的な時間ベースのデータセットを3つ選択しました。 0.53
• Ta-Feng1 - a Chinese grocery store dataset that has basket-based transaction data from November 2000 to February 2001. •Ta-Feng1 - 2000年11月から2001年2月までのバスケットベースの取引データを持つ中国の食料品店のデータセット。 0.61
Each transaction has a timestamp. 各トランザクションにはタイムスタンプがある。 0.58
Items with identical timestamps are considered as one basket. 同じタイムスタンプのアイテムは1カゴと見なされる。 0.72
This dataset is widely used for next-basket prediction research [20, 21, 30]. このデータセットはnext-basket予測研究[20,21,30]で広く使われている。 0.68
• TTRS - recently proposed financial transactions dataset [28]. • ttrs - 最近提案された金融取引データセット [28]。 0.75
It contains over 2 million interactions between almost 10,000 users and more than 1,000 merchants over a period of 14 months, from January 2019 to February 2020. 2019年1月から2020年2月までの14ヶ月で、約1万人のユーザと1000以上のマーチャントとの間の200万以上のインタラクションが含まれている。 0.61
• Dunnhumby2 (DHB) - a dataset provided by Dunnhumby that contains customers transaction data over a period of 117 weeks from April 2006 to July 2008. • dunnhumby2 (dhb) - dunnhumbyが2006年4月から2008年7月までの117週間にわたって顧客トランザクションデータを含むデータセット。 0.79
For benchmarking purposes, we select the "Let’s Get Sort-of-Real sample 50K customers" version of the dataset, which is well-known among the research community [15, 20, 21]. ベンチマークのために、研究コミュニティ[15, 20, 21]でよく知られているデータセットの“実例50kユーザをソートしてみよう”バージョンを選択します。
訳抜け防止モード: ベンチマークのために、“Let ’s Get Sort - of - Real sample 50K customers”データセットのバージョンを選択します。 研究コミュニティで知られている[15, 20, 21]。
0.74
The choice of datasets for our research question is limited, as the datasets need to have timestamps included so that the data can be spit and evaluated based on time. データセットにタイムスタンプを含める必要があるため、我々の研究課題に対するデータセットの選択は限られています。 0.59
We also filter the dataset to only include users and items with at least one interaction at each period, following prior works [28]. また、データセットをフィルタリングして、各期間に少なくとも1つのインタラクションを持つユーザとアイテムのみを含むようにします [28]。 0.75
Statistical information on the raw datasets is summarized in Table 2. 生データセットの統計情報は表2にまとめる。 0.69
1https://www.kaggle. com/chiranjivdas09/t a-feng-grocery-datas et 2https://www.dunnhum by.com/source-files/ 1https://www.kaggle. com/chiranjivdas09/t a-feng-grocery-datas et 2https://www.dunnhum by.com/source-files/ 0.11
英語(論文から抽出)日本語訳スコア
6 Sergey Kolesnikov and Mikhail Andronov 6 セルゲイ・コレスニコフとミハイル・アンドロノフ 0.42
3.3 Methods To determine the data-over-time effects on various different methods, we experiment with a set of 8 recommenders from the literature: 3.3 様々な方法に対するデータオーバータイム効果を決定するため,文献から8種類の推薦者について実験を行った。 0.75
• TopPopular [24], TopPersonal [21] are simple RecSys baselines that work based on item popularity. • TopPopular [24], TopPersonal [21]は、アイテムの人気に基づいて動作するシンプルなRecSysベースラインです。 0.90
The TopPopular algorithm recommends the most popular items, sorting them in descending order of global popularity. TopPopularアルゴリズムは、最も人気のあるアイテムを推奨し、世界的な人気順にソートする。 0.79
The TopPersonal method focuses on items with which the user has already interacted. TopPersonalメソッドは、ユーザがすでに対話しているアイテムに焦点を当てる。 0.80
The recommendation list is created by sorting them in descending order of interaction frequency. レコメンデーションリストは、それらを対話頻度の下位順にソートすることで作成される。 0.64
If no personal recommendations are found, TopPersonal uses the TopPopular approach for prediction. 個人的なレコメンデーションが見つからない場合、TopPersonalは予測にTopPopularアプローチを使用する。 0.71
• NMF [33], PureSVD [11], IALS [22] are matrix factorization-based (MF-based) models. • NMF [33], PureSVD [11], IALS [22] は行列分解に基づく(MFベース)モデルである。 0.87
These models are designed to approximate any value in the interaction matrix by multiplying the user and item vectors in the hidden space. これらのモデルは、ユーザとアイテムベクトルを隠れた空間に乗じることで、相互作用行列の任意の値を近似するように設計されている。
訳抜け防止モード: これらのモデルは ユーザとアイテムベクトルを隠れ空間に乗じて相互作用行列の任意の値を近似する。
0.76
• SLIM [41], EASE [55] are linear models that learn an item-item weight matrix to recommend new ones based • SLIM [41], EASE [55] は、アイテムイットの重み行列を学習し、新しいものを推薦する線形モデルである。 0.82
on the previous history. 以前の歴史についてです 0.58
• ItemKNN [51] is an item-based k-nearest neighbors method, which utilizes similarities between previously purchased items. • itemknn [51]はアイテムベースのk-nearest neighborsメソッドで、以前購入したアイテム間の類似性を利用する。 0.68
Similar to [12], we used different similarity measures during our experiments: Jaccard coefficient, Cosine, Asymmetric Cosine, and Tversky similarity. 12]と同様に,jaccard係数,コサイン,非対称コサイン,トベルスキー類似度という異なる類似度尺度を用いて実験を行った。 0.82
4 CROSS-VALIDATION THROUGH TIME To evaluate how the recommender’s performance changes over time, we adopt a recently proposed global temporal split for cross-validation setup, building on the ideas from [23, 28, 52]. 4 時間を通じたクロスバリデーション 推奨者のパフォーマンスが時間とともにどのように変化するかを評価するため、最近提案されたグローバルタイムラプス分割をクロスバリデーション設定に採用し、[23, 28, 52]のアイデアに基づいています。 0.64
We split the datasets at regular intervals, leading to several "folds" per dataset. データセットを定期的に分割し、データセット毎に"折りたたみ"が発生しました。 0.67
There are two possible ways of creating a training dataset for each fold in this scenario. このシナリオでは、各フォルダのトレーニングデータセットを作成する方法は2つ考えられる。
訳抜け防止モード: 考えられる方法は2つある このシナリオで各折りたたみのトレーニングデータセットを作成します
0.88
Each fold could contain all data up to a specific time point (expand strategy), or include only the data from several last months (window strategy). 各フォールドは、特定の時点(拡張戦略)までのすべてのデータを含むか、数ヶ月前のデータのみを含むことができる(ウィンドウ戦略)。 0.80
While we find these two approaches equally fair for real-life applications (a comparison of the effects of train data strategy selection can be found in Section 5.2), we will use the first option (expand) for presenting CVTT. これら2つのアプローチは実生活の応用に等しく適切である(列車データ戦略選択の効果の比較は第5章2)が、CVTTの提示には第1の選択肢(拡張)を用いる。 0.79
The entire CVTT procedure is shown in Figure 1. CVTTの全手順を図1に示す。 0.71
For each fold with 𝑁 periods, we split the data into the ”𝑡𝑟𝑎𝑖𝑛”, ”𝑣𝑎𝑙𝑖𝑑𝑎𝑡𝑖𝑜𝑛”, and ”𝑡𝑒𝑠𝑡” parts using a global temporal split. n周期の各折りたたみでは、データをグローバル時間分割を使って“トレイン”、”バリデーション”、”テスト”の各部分に分割します。
訳抜け防止モード: N周期の折りたたみごとに、私たちはデータを“列車”に分割します。 検証 ” と “ ” テスト ” の部分 グローバル・タイムスプリットを使っています
0.80
”𝑇 𝑒𝑠𝑡” (1 period) represents the data from the last period, ”𝑣𝑎𝑙𝑖𝑑𝑎𝑡𝑖𝑜𝑛” (1 period) - penultimate period, and ”𝑡𝑟𝑎𝑖𝑛” (N-2 periods) - all data up to the penultimate period. T est (1 期間)は、最終期間からのデータ、validation (1 期間) - 最大期間、train (N-2 期間) - すべてのデータを表す。
訳抜け防止モード: ” T est ” ( 1 期間) は最後の周期のデータを表す。 検証 ” (1 期間) - 最後周期、”列車 ” (N-2 期間) - すべてのデータは最後期間まで。
0.71
Next, we ran a model hyperparameter search on (”𝑡𝑟𝑎𝑖𝑛”, ”𝑣𝑎𝑙𝑖𝑑𝑎𝑡𝑖𝑜𝑛”) subset and used the best-found hyperparameters to train and evaluate the model on the (”𝑡𝑟𝑎𝑖𝑛 + 𝑣𝑎𝑙𝑖𝑑𝑎𝑡𝑖𝑜𝑛”, ”𝑡𝑒𝑠𝑡”) one. 次に、モデルハイパーパラメータ検索を(“トレイン”, “バリデーション”)サブセット上で実行し、(“トレイン + バリデーション”, “テスト”) のモデルのトレーニングと評価に最適なハイパーパラメータを使用しました。 0.74
This ”𝑡𝑒𝑠𝑡” score is then used as a final model performance measure on that fold. この“test”スコアは、その折りたたみの最終的なモデルパフォーマンス指標として使用される。 0.72
In the end, we get the CVTT performance graph by combining these scores over time. 最後に、これらのスコアを時間とともに組み合わせてcvttパフォーマンスグラフを得る。 0.67
5 EXPERIMENTAL EVALUATIONS Our experimental evaluations aim to address the following questions: (1) How does model performance vary over time? 5 実験的評価 実験的評価は,(1) モデルの性能は時間とともにどのように変化するか? 0.75
(2) How do different data preparation strategies affect model performance? 2)異なるデータ準備戦略はモデル性能にどのように影響するか? 0.85
(3) Are models robust for data preparation strategies? (3) モデルはデータ準備戦略に堅牢か? 0.86
(4) How does the forecasting horizon affect model performance ranking? (4)予測地平線はモデル性能にどのように影響するか? 0.76
(5) How do model predictive performance vary with delayed evaluation? (5)モデル予測性能は遅延評価でどのように変化するか? 0.84
(6) Which models are robust for delayed evaluation? (6)遅延評価にはどのモデルが堅牢か。 0.84
英語(論文から抽出)日本語訳スコア
CVTT: Cross-Validation Through Time CVTT: 時間を通してのクロスバリデーション 0.61
7 (a) (d) (b) 7 (a) (d) (b) 0.43
(e) (h) (k) (e) (h) (k) 0.42
(c) (f) (i) (c) (f) (i) 0.43
(l) Fig. 2. CVTT performance graphs. (l) 図2。 CVTTパフォーマンスグラフ。 0.58
X-axes correspond to the measured fold number, and Y-axes to the performance metric (𝑀𝐴𝑃@10). X軸は測定された折りたたみ数に対応し、Y軸は性能測定値(MAP@10)に対応する。 0.73
(a, b, c) relates to expanding data strategy, while (d, e, f), (h, i), (k, l) correspond to window strategies with a window length of 1, 3, 5, respectively. (a, b, c) は拡張データ戦略と関連し、 (d, e, f), (h, i), (k, l) はそれぞれウィンドウ長 1, 3, 5 のウィンドウ戦略に対応する。 0.72
5.1 Implementation Details Similar to previous studies [12], we search for the optimal parameters through Bayesian search using the implementation of Optuna 3. 5.1 実装の詳細 以前の研究 [12] と同様、オプトゥーナ3の実装を用いてベイズ探索により最適なパラメータを探索する。 0.77
For each (”𝑡𝑟𝑎𝑖𝑛”, ”𝑣𝑎𝑙𝑖𝑑𝑎𝑡𝑖𝑜𝑛”) subset, we iterate over 25 hypotheses. 各サブセット(“トレイン”、”バリデーション”)に対して、私たちは25以上の仮説を繰り返します。 0.64
During hyperparameter optimization, we use 𝑀𝐴𝑃@10 metric for model selection. ハイパーパラメータ最適化ではMAP@10を使ってモデル選択を行う。 0.83
We did not use any information from previous folds for the optimization, and the models were optimized and retrained from scratch at every fold. 最適化には以前の折りたたみ式からの情報は使用せず、各折りたたみごとにモデルを最適化し、再トレーニングしました。 0.68
3https://optuna.org 3https://optuna.org 0.26
英語(論文から抽出)日本語訳スコア
8 Sergey Kolesnikov and Mikhail Andronov 8 セルゲイ・コレスニコフとミハイル・アンドロノフ 0.42
(a) (d) (g) (a) (d) (g) 0.43
(j) (m) (p) (j) (m) (p) 0.42
(s) (v) (b) (s) (v) (b) 0.43
(e) (h) (k) (e) (h) (k) 0.42
(n) (q) (t) (n) (q) (t) 0.42
(w) (c) (f) (w) (c) (f) 0.43
(i) (l) (o) (i) (l) (o) 0.42
(r) (u) (x) (r) (u) (x) 0.42
Fig. 3. Method-centric CVTT performance comparison for different data strategies. 図3。 異なるデータ戦略におけるCVTT法の性能比較 0.72
TaFeng dataset is in the left column, TTRS in the middle, and DHB in the right. TaFengデータセットは左カラム、TTRSは中央、DHBは右側です。 0.54
Each row corresponds to one of the evaluated methods, from top to bottom: EASE, SLIM, IALS, ItemKNN, NMF, SVD, TopPersonal, and TopPopular. 各行は、EASE、SLIM、IALS、ItemKNN、NMF、SVD、TopPersonal、TopPopularといった評価された方法の1つに対応する。 0.59
X-axes correspond to the used data strategy and Y-axes to the performance metric (𝑀𝐴𝑃@10). X-axesは使用済みのデータ戦略とY-axesとパフォーマンス指標(MAP@10)に対応する。 0.82
英語(論文から抽出)日本語訳スコア
CVTT: Cross-Validation Through Time CVTT: 時間を通してのクロスバリデーション 0.61
9 Fig. 4. CVTT model performance ranking comparison for different period steps. 9 図4。 cvttモデルによる異なる周期ステップのパフォーマンスランキングの比較。 0.57
TaFeng dataset is in the left column, TTRS in the middle, and DHB in the right. TaFengデータセットは左カラム、TTRSは中央、DHBは右側です。 0.54
Each row corresponds to one of the periods used: two weeks, a month, two months. 各行は2週間、1ヶ月、2ヶ月の期間の1つに対応する。 0.55
X-axes correspond to the measured fold number, and Y-axes to the model performance rank (based on 𝑀𝐴𝑃@10 metric). x軸は測定された折りたたみ数に対応し、y軸はモデルパフォーマンスランク(map@10メトリックに基づく)に対応する。 0.76
Fig. 5. Delayed model performance comparison over time. 図5。 時間とともにモデルパフォーマンスの比較が遅れた。 0.58
At each fold 𝑡, we evaluate the resulting model on 𝑡 + 1, 𝑡 + 2 and 𝑡 + 3 test folds, each corresponding to the three estimation points. 各 fold t において、各 t + 1, t + 2 および t + 3 個のテストフォールド上で、それぞれ 3 つの推定点に対応する結果モデルを評価する。 0.80
X-axes correspond to the measured fold number, and Y-axes to the performance metric (𝑀𝐴𝑃@10). X軸は測定された折りたたみ数に対応し、Y軸は性能測定値(MAP@10)に対応する。 0.73
英語(論文から抽出)日本語訳スコア
10 Sergey Kolesnikov and Mikhail Andronov 10 セルゲイ・コレスニコフとミハイル・アンドロノフ 0.42
5.2 Results In Figure 2 (a, b, c), we contrast the performance of various methods over time following the CVTT evaluation protocol, expanding the training dataset at each fold. 5.2 結果 図2 (a, b, c) では,CVTT 評価プロトコルに従って,様々な手法の性能を比較検討し,各折り畳みのトレーニングデータセットを拡張した。 0.87
Similar to previous studies [52], our analysis shows that the performance of evaluated approaches often changes over time. これまでの研究 [52] と同様、評価したアプローチのパフォーマンスは時間とともに変化することが多い。 0.75
However, in contrast to previous studies, we observe an example of a performance trend over time: ALS scores decrease steadily during both TTRS and DHB (Figure 2 (b, c)). しかし, 従来の研究とは対照的に, ALS スコアは TTRS と DHB のどちらにおいても着実に低下する(第2図 (b, c) )。
訳抜け防止モード: しかし、従来の研究とは対照的に、時間経過に伴うパフォーマンス傾向の例を観察する。 ALSスコアはTTRSとDHB(図2(b,c))で着実に低下する。
0.75
Moreover, while performance remains roughly the same over time in most cases (i.e., SVD on TTRS), we observe data updates4 which can shift it significantly for some methods (i.e., SVD, NMF on DHB) while having no effect on others (i.e., Itemknn on DHB). さらに、ほとんどのケース(ttrsではsvd)では性能がほぼ同じだが、いくつかの方法(dhbではsvd、nmf)で大幅に変更できるデータ更新4を観測し、他の手法には影響を与えない(dhbではitemknn)。
訳抜け防止モード: さらに、ほとんどのケース(TTRSのSVDなど)ではパフォーマンスはほぼ同じである。 データ更新4を観察し、いくつかの方法で大きく変えることができます (DHB上のSVD、NMF) 他には影響がない(DHB上のItemknn)。
0.69
These findings open up a new set of questions concerning the effects of data flow on model performance. これらの発見は、データフローがモデルパフォーマンスに与える影響に関する新しい質問のセットを開く。 0.77
Single-value evaluation could not catch such insights, leaving out these joint data-method effects. 単一値評価はそのような洞察を得られず、これらの共同データ-メソッド効果を排除した。 0.54
One possible way to underline them correctly is to evaluate methods continuously over time, which is the core idea behind CVTT. 正しいアンダーライン化の1つの方法は、CVTTの基本的な考え方であるメソッドを継続的に評価することである。
訳抜け防止モード: それらを正しく下敷きにする方法の1つが CVTTの基本的な考え方である,メソッドを継続的に評価する。
0.72
5.3 Effects of Data Preparation Strategies As discussed in Section 4, CVTT could work with expand and window strategies. 5.3 第4節で述べたデータ準備戦略の効果 cvttは拡張戦略とウィンドウ戦略で機能する。 0.80
While the expand one is commonly used in literature [52], we additionally explore a window-based strategy with different window lengths. 拡張戦略は文献[52]で一般的に用いられるが、ウィンドウ長の異なるウィンドウベースの戦略も検討する。 0.70
The results for 1, 3, and 5 window lengths could be found in Figure 2, rows 2, 3, 4, respectively. 1, 3, 5ウィンドウの長さの結果は,それぞれ図2,行2,行3,4で確認できた。 0.76
Several observations can be made based on these results. これらの結果に基づいていくつかの観測が可能である。 0.58
First, with the window strategy, the performance of ALS stops decaying over time, mainly concentrating around an intermediate value. まず、ウィンドウ戦略により、ALSの性能は時間とともに低下し、主に中間値を中心に集中する。 0.72
We also observe a correlation between window length and ALS performance, where the larger the length used, the less 𝑀𝐴𝑃@10 score is achieved by ALS (Figure 3 (h, i)). また,ウィンドウ長とALS性能の相関を観測し,使用する長さが大きくなるほどMAP@10スコアが小さくなる(図3(h,i))。 0.68
Secondly, the widely known expand strategy achieves the best performance only for 6 out of 24 methods (Figure 3), suggesting that further research of data preparation approaches is required. 第2に、広く知られている展開戦略は、24の手法のうち6つでのみ最高の性能を達成し(第3図)、データ準備アプローチのさらなる研究が必要であることを示唆する。 0.73
The last interesting insight from this comparison is that it may be possible to avoid having to provide a model with a full history of user interactions. この比較から得られた最も興味深い洞察は、ユーザーインタラクションの完全な履歴を持つモデルを提供する必要がなくなる可能性があることである。 0.74
Instead, it could be enough to use just the amount that would converge for current user preferences. 代わりに、現在のユーザーの好みに収束する量だけを使うだけで十分かもしれない。 0.67
5.4 Effects of Forecast Horizon One experiential question that practitioners could be interested in concerns the changes in model performance rankings with varied interval steps. 5.4 予測水平効果 実践者が様々な段階のモデルパフォーマンスランキングの変更に関心を持つ可能性のある経験的疑問。 0.78
To answer this question, we repeat our initial experiments varying the period step within two weeks, one month, and two months. この質問に答えるために、最初の実験を2週間、1ヶ月、2ヶ月以内の周期ステップで繰り返します。 0.67
The results of such a comparison can be found in Figure 4. このような比較の結果は図4に示されている。 0.81
While we have found some differences over time in the models’ ranking, we could not observe any strong trends caused by the forecasting horizon. モデルのランキングには時間とともにいくつかの違いが見られたが、予測の地平線によって引き起こされる強い傾向は観測できなかった。 0.67
Therefore, these results suggest that model selection remains the same even under varied horizons. したがって, モデル選択は, 様々な地平線の下でも同一であることを示す。 0.61
5.5 Effects of Delayed Evaluation In Figure 5, we probe the robustness of the methods for delayed evaluation. 5.5 遅延評価の効果 図5 では、遅延評価手法の堅牢性について検討する。 0.74
We note that many methods (top 4 out of 8) could degrade significantly without just-in-time re-training. ジャストインタイムで再トレーニングすることなく、多くのメソッド(8つ中4つ)が大幅に劣化する可能性があることに注意する。 0.50
To be more concrete, we observed SVD performance drop from 0.51 to 0.45 𝑀𝐴𝑃@10 on TTRS and from 0.43 to 0.37 𝑀𝐴𝑃@10 on DHB in just two periods. 具体的には,TTRSでは0.51~0.45MAP@10,DHBでは0.43~0.37MAP@10であった。
訳抜け防止モード: もっと具体的に言うと。 TTRS 上の SVD 性能は 0.51 から 0.45 MAP@10 に低下した。 そして、DHB上の0.43から0.37 MAP@10の2つの期間で。
0.62
On the other hand, there is a model subset (EASE, SLIM, TopPopular), in which performance stays the same over the whole time. 一方、モデルサブセット(EASE、SLIM、TopPopular)があり、パフォーマンスはずっと同じです。
訳抜け防止モード: 一方、モデル部分集合が存在する。 (EASE、SLIM、TopPopular ) 常に同じパフォーマンスを保っています
0.53
These results once again highlight the importance of model re-training and re-evaluation over time, which is the core idea behind CVTT. これらの結果は、CVTTの中核となる概念であるモデル再訓練と再評価の重要性を再び強調する。 0.76
Moreover, based on these results, a possible direction for practitioners would be to combine robust (such as EASE) and adaptive (SVD and others) approaches together for better performance. さらに、これらの結果に基づいて、実践者にとっての可能な方向性は、堅牢(EASEなど)と適応(SVDなど)のアプローチを組み合わせてパフォーマンスを向上させることである。 0.74
4According to recent studies [28], DHB dataset has an items novelty rate drop in the most recent months, but its further investigation can be seen as out of the scope of this paper. 4)最近の研究によると、DHBデータセットは最近の数カ月で項目の新規度が低下する傾向にあるが、さらなる調査は本論文の範囲外と見なすことができる。 0.77
英語(論文から抽出)日本語訳スコア
CVTT: Cross-Validation Through Time CVTT: 時間を通してのクロスバリデーション 0.61
11 6 STRENGTHS, LIMITATIONS & OPPORTUNITIES This paper presents an intuitive idea by combining advancements from the fields of data splitting, cross-validation, and RecSys offline evaluation. 11 6 STRENGTHS, LIMITATIONS & OPPORTUNITIES この論文はデータ分割, クロスバリデーション, および RecSys のオフライン評価の分野からの進歩を組み合わせることで直感的なアイデアを提示する。 0.60
We present CVTT: a very simple method that leverages model performance over time for a nuanced comparison. cvtt: ニュアンス比較のために,時間とともにモデル性能を活用する,非常にシンプルな手法である。 0.71
The resulting pipeline highlights valuable insights of the effects of data and evaluation setups. 結果のパイプラインでは、データと評価設定の影響に関する貴重な洞察が強調されている。 0.60
Additionally, it questions the commonly used expand data preparation strategy. さらに、一般的に使用される拡張データ準備戦略にも疑問を呈する。 0.65
Strengths: The strength of our method lies in its simplicity and applicability to almost any RecSys algorithm using time-aware data. 強み:我々の手法の強みは、時間認識データを用いたほぼすべてのRecSysアルゴリズムにその単純さと適用性にある。 0.75
CVTT is a generalization of the global temporal split approach applied for cross-validation over time. CVTTは、時間とともにクロスバリデーションに適用されるグローバル時間分割アプローチの一般化である。 0.68
Such cross-validation can be considered a very practical evaluation methodology that helps avoid the issues of data leakage. このような相互評価は、データ漏洩の問題を回避できる非常に実用的な評価手法と考えられる。 0.65
Moreover, Figure 2 shows that such evaluation highlights the important data updates. さらに、図2は、この評価が重要なデータ更新を強調することを示している。 0.62
Limitations: While this work demonstrates promises of continuous evaluation over time, it does not investigate all possible data leakage problems that might exist. 限界: この研究は、時間とともに連続的な評価の約束を実証するが、存在する可能性のあるデータ漏洩の問題を全て調査するわけではない。 0.64
Real-world datasets could have many seasonal items, which should be correctly taken into account by practitioners. 実世界のデータセットには多くの季節的な項目があり、実践者が正しく考慮する必要がある。 0.62
Additionally, continuous evaluation requires many more computational resources than alternative methods, complicating its applicability in practice. さらに、連続的な評価には、他の方法よりも多くの計算資源が必要であり、実際の適用性は複雑である。
訳抜け防止モード: さらに、連続評価は代替手法よりも多くの計算資源を必要とする。 適用性を複雑にします
0.76
Opportunities: CVTT stands for a simple yet practical evaluation methodology that is compatible with various methods. 機会: cvttは、様々な方法と互換性のある、単純で実用的な評価手法である。 0.64
This evaluation strategy opens up avenues for cross-domain model comparison, a better understanding of data factor influence of the model performance, and more informed method selection for one’s needs. この評価戦略は、クロスドメインなモデル比較の道を開き、モデルのパフォーマンスに対するデータ要因の影響をよりよく理解し、ニーズに対してよりインフォームドな方法を選択する。 0.85
REFERENCES [1] M. Mehdi Afsar, Trafford Crump, and Behrouz H. Far. m. mehdi afsar、trafford crump、behrouz h. farを参照。 0.57
2021. Reinforcement learning based recommender systems: A survey. 2021. 強化学習に基づく推薦システム:調査 0.52
CoRR abs/2101.06286 CoRR abs/2101.06286 0.25
(2021). arXiv:2101.06286 https://arxiv.org/ab s/2101.06286 (2021). arXiv:2101.06286 https://arxiv.org/ab s/2101.06286 0.29
[2] Vito Walter Anelli, Amra Delic, Gabriele Sottocornola, Jessie Smith, Nazareno Andrade, Luca Belli, Michael M. Bronstein, Akshay Gupta, Sofia Ira Ktena, Alexandre Lung-Yut-Fong, Frank Portman, Alykhan Tejani, Yuanpu Xie, Xiao Zhu, and Wenzhe Shi. [2] Vito Walter Anelli, Amra Delic, Gabriele Sottocornola, Jessie Smith, Nazareno Andrade, Luca Belli, Michael M. Bronstein, Akshay Gupta, Sofia Ira Ktena, Alexandre Lung-Yut-Fong, Frank Portman, Alykhan Tejani, Yuanpu Xie, Xiao Zhu, Wenzhe Shi
訳抜け防止モード: 2 ]ヴィトー・ウォルター・アネッリ、アムラ・デリク、ガブリエル・ソットコノラ jessie smith, nazareno andrade, luca belli, michael m. bronstein, akshay gupta, sofia ira ktena, alexandre lung - yut - fong, フランク・ポートマン アリカン・テジャニ センプー・シエ シャオ・ズウ そして、ウェンジー・シー。
0.59
2020. RecSys 2020 Challenge Workshop: Engagement Prediction on Twitter’s Home Timeline. 2020. recsys 2020 challenge workshop: engagement prediction on twitterのホームタイムライン。 0.58
In RecSys 2020: Fourteenth ACM Conference on Recommender Systems, Virtual Event, Brazil, September 22-26, 2020, Rodrygo L. T. Santos, Leandro Balby Marinho, Elizabeth M. Daly, Li Chen, Kim Falk, Noam Koenigstein, and Edleno Silva de Moura (Eds.). RecSys 2020: 14th ACM Conference on Recommender Systems, Virtual Event, Brazil, September 22-26, 2020, Rodrygo L. T. Santos, Leandro Balby Marinho, Elizabeth M. Daly, Li Chen, Kim Falk, Noam Koenigstein, Edleno Silva de Moura (Eds.)
訳抜け防止モード: in recsys 2020 : 14th acm conference on recommender systems, virtual event, brazil 2020年9月22日-26日、ロドリゴ・l・t・サントス。 leandro balby marinho, elizabeth m. daly, li chen, kim falk, noam koenigstein氏とedleno silva de moura氏(eds)。
0.71
ACM, 623–627. ACM 623-627。 0.73
https://doi.org/10.1 145/3383313.3411532 https://doi.org/10.1 145/3383313.3411532 0.15
[3] Khalid Anwar and Shahab Sohail. [3] khalid anwarとshahab sohail。 0.30
2019. Machine Learning Techniques for Book Recommendation: An Overview. 2019. 書籍レコメンデーションのための機械学習技術:概要 0.56
SSRN Electronic Journal (01 2019). SSRN Electronic Journal (01 2019)。 0.80
https://doi.org/10.2 139/ssrn.3356349 https://doi.org/10.2 139/ssrn.3356349 0.15
[4] Ting Bai, Lixin Zou, Wayne Xin Zhao, Pan Du, Weidong Liu, Jian-Yun Nie, and Ji-Rong Wen. [4]天梅、リクシンゾウ、ウェイン・シン・シャオ、パン・デュ、ワイドン・リュー、ジャン・ユン・ニー、ジ・ロン・ウェン。
訳抜け防止モード: [4 ]天梅、リクシンゾウ、ウェイン・シン・シャオ、 Pan Du, Weidong Liu, Jian - Yun Nie, And Ji - Rong Wen
0.68
2019. CTRec: A Long-Short Demands Evolution Model 2019. ctrec: 長い短い要求進化モデル 0.54
for Continuous-Time Recommendation. 継続的時間を推奨する。 0.53
In SIGIR. 675–684. SIGIR所属。 675–684. 0.47
[5] Linas Baltrunas, Tadas Makcinskas, and Francesco Ricci. 5] linas baltrunas、tadas makcinskas、francesco ricci。 0.44
2010. Group recommendations with rank aggregation and collaborative filtering. 2010. ランク集約と協調フィルタリングによるグループレコメンデーション。 0.51
In RecSys. 119–126. RecSysで。 119–126. 0.54
[6] Joeran Beel. 6] ジョーラン・ビール 0.47
2017. It’s Time to Consider "Time" when Evaluating Recommender-System Algorithms [Proposal]. 2017. Recommender-System Algorithms [Proposal]を評価するとき、「時間」を考える時が来た。 0.61
(08 2017). (08 2017). 0.43
[7] James Bennett and Stan Lanning. 7] ジェームズ・ベネットと スタン・ラニング 0.55
2007. The netflix prize. 2007. netflix prize 受賞。 0.59
In Proceedings of the 13th ACM SIGKDD International Conference on Knowledge Discovery 第13回ACM SIGKDD国際知識発見会議に参加して 0.84
and Data Mining, San Jose, California, USA, August 12-15, 2007. カリフォルニア州サンノゼのデータマイニング 2007年8月12日-15日 0.57
ACM. [8] Pedro G Campos, Fernando Díez, and Manuel Sánchez-Montañés. acm。 8] Pedro G Campos, Fernando Díez, Manuel Sánchez-Montañés 0.49
2011. Towards a more realistic evaluation: testing the ability to predict future 2011. より現実的な評価に向けて: 未来を予測する能力をテストする 0.59
tastes of matrix factorization-based recommenders. マトリックス因子化に基づくレコメンダの味覚 0.58
In RecSys. 309–312. RecSysで。 309–312. 0.54
[9] Rocío Cañamares, Pablo Castells, and Alistair Moffat. 9]Rocío Cañamares, Pablo Castells, Alistair Moffat。 0.32
2020. Offline evaluation options for recommender systems. 2020. 推奨システムのオフライン評価オプション。 0.59
Information Retrieval Journal 23, 4 情報検索ジャーナル23,4 0.66
(2020), 387–410. (2020), 387–410. 0.49
https://doi.org/10.1 007/s10791-020-09371 -3 https://doi.org/10.1 007/s10791-020-09371 -3 0.11
[10] Ching-Wei Chen, Paul Lamere, Markus Schedl, and Hamed Zamani. 10] チン=ヴァイ・チェン、ポール・ラミア、マルコス・シェデル、ハメド・ザマニ 0.41
2018. Recsys Challenge 2018: Automatic Music Playlist Continuation. 2018. Recsys Challenge 2018: Automatic Music Playlist Continuation (英語) 0.65
In Proceedings of the 12th ACM Conference on Recommender Systems (Vancouver, British Columbia, Canada) (RecSys ’18). 第12回 ACM Conference on Recommender Systems (Vancouver, British Columbia, Canada) のまとめ(RecSys ’18) 0.75
Association for Computing Machinery, New York, NY, USA, 527–528. Association for Computing Machinery, New York, NY, USA, 527–528。 0.46
https://doi.org/10.1 145/3240323.3240342 https://doi.org/10.1 145/3240323.3240342 0.15
[11] Paolo Cremonesi, Yehuda Koren, and Turrin Roberto. Paolo Cremonesi氏、Yehuda Koren氏、Turrin Roberto氏。 0.27
2010. Performance of recommender algorithms on top-N recommendation tasks. 2010. トップNレコメンデーションタスクにおける推奨アルゴリズムのパフォーマンス。 0.59
In RecSys. [12] Maurizio Ferrari Dacrema, Paolo Cremonesi, and Dietmar Jannach. RecSysで。 12] Maurizio Ferrari Dacrema, Paolo Cremonesi, Dietmar Jannach 0.52
2019. Are we really making much progress? 2019. 私たちは本当に大きな進歩を遂げていますか? 0.47
A worrying analysis of recent neural recommendation approaches. 最近の不安分析 ニューラルレコメンデーションアプローチ。 0.29
In RecSys. 101–109. RecSysで。 101–109. 0.54
[13] Yi Ding and Xue Li. [13]Yi DingとXue Li。 0.34
2005. Time weight collaborative filtering. 2005. 時間重み協調フィルタリング。 0.54
Proceedings of the 14th ACM international conference on Information and knowledge 第14回ACM国際情報・知識会議の開催報告 0.80
management - CIKM ’05 (2005), 485–492. マネジメント - CIKM ’05 (2005), 485–492。 0.82
https://doi.org/10.1 145/1099554.1099689 https://doi.org/10.1 145/1099554.1099689 0.15
[14] Chong Feng, Muzammil Khan, Arif Ur Rahman, and Arshad Ahmad. 14] chong feng、muzammil khan、arif ur rahman、arshad ahmad。 0.51
2020. News Recommendation Systems - Accomplishments, Challenges Future 2020. ニュースレコメンデーションシステム - 補足, 今後の課題 0.50
Directions. IEEE Access 8 (2020), 16702–16725. 方向。 IEEE Access 8 (2020), 16702–16725。 0.39
https://doi.org/10.1 109/ACCESS.2020.2967 792 https://doi.org/10.1 109/ACCESS.2020.2967 792 0.13
英語(論文から抽出)日本語訳スコア
12 Sergey Kolesnikov and Mikhail Andronov 12 セルゲイ・コレスニコフとミハイル・アンドロノフ 0.42
[15] Valeria Fionda and Giuseppe Pirrò. 15] ヴァレリア・フィオンダとジュゼッペ・ピリ 0.55
2019. Triple2Vec: Learning Triple Embeddings from Knowledge Graphs. 2019. Triple2Vec: 知識グラフから3つの埋め込みを学ぶ。 0.53
CoRR abs/1905.11691 (2019). CoRR abs/1905.11691 (2019)。 0.67
arXiv:1905.11691 http://arxiv.org/abs /1905.11691 arXiv: 1905.11691 http://arxiv.org/abs / 1905.11691 0.15
[16] F. Maxwell Harper and Joseph A. Konstan. 16] f・マクスウェル・ハーパーと ジョセフ・a・コンスタン 0.59
2015. The MovieLens Datasets: History and Context. 2015. movielensデータセット: 履歴とコンテキスト。 0.53
ACM Trans. Interact. ACMトランス。 相互作用する。 0.62
Intell. Syst. インテリ。 シスト。 0.54
5, 4, Article 19 (dec 第5条,第4条 (dec) 0.63
2015), 19 pages. 2015年、19頁。 0.28
https://doi.org/10.1 145/2827872 https://doi.org/10.1 145/2827872 0.17
[17] Ruining He and Julian McAuley. 17]彼とジュリアン・マコーリーを破滅させた 0.57
2016. VBPR: visual Bayesian Personalized Ranking from implicit feedback. 2016. VBPR: 暗黙のフィードバックによる視覚ベイズ個人格付け。 0.58
In AAAI. 144–150. AAAI所属。 144–150. 0.49
[18] Xiangnan He, Lizi Liao, Hanwang Zhang, Liqiang Nie, Xia Hu, and Tat-Seng Chua. [18]Xiangnan He、Lizi Liao、Hanwang Zhang、Liqiang Nie、Xia Hu、Tat-Seng Chua。 0.35
2017. Neural collaborative filtering. 2017. ニューラルネットワークによる協調フィルタリング 0.51
In WWW. 173–182. WWW所属。 173–182. 0.50
[19] Cheng-Kang Hsieh, Longqi Yang, Yin Cui, Tsung-Yi Lin, Serge Belongie, and Deborah Estrin. 19] チェン・カン・ヘー、ロンチー・ヤン、イン・キュイ、ツン・イ・リン、セルジュ・エンティー、デボラ・エストリン 0.38
2017. Collaborative Metric Learning. 2017. コラボレーティブなメトリクス学習。 0.57
In WWW. 193–201. WWW所属。 193–201. 0.50
[20] Haoji Hu and Xiangnan He. [20]ハオジフと西南ヘ。 0.24
2019. Sets2Sets: Learning from Sequential Sets with Neural Networks. 2019. Sets2Sets: ニューラルネットワークによるシーケンスセットからの学習。 0.59
In SIGKDD. 1491–1499. SIGKDD所属。 1491–1499. 0.46
[21] Haoji Hu, Xiangnan He, Jinyang Gao, and Zhi-Li Zhang. 21]ハオジフ、西南ヘ、ジニャンガオ、zhi-li zhang 0.37
2020. Modeling Personalized Item Frequency Information for Next-basket Recommendation. 2020. next-basketレコメンデーションのためのパーソナライズされたアイテム頻度情報のモデル化 0.46
1071–1080. 1071–1080. 0.35
https://doi.org/10.1 145/3397271.3401066 https://doi.org/10.1 145/3397271.3401066 0.15
[22] Yifan Hu, Yehuda Koren, and Chris Volinsky. [22]Yifan Hu、Yehuda Koren、Chris Volinsky。 0.30
2008. Collaborative Filtering for Implicit Feedback Datasets. 2008. 入射フィードバックデータセットのための協調フィルタリング 0.59
In 2008 Eighth IEEE International Conference 2008年 第8回ieee国際会議 0.75
on Data Mining. データマイニングについて。 0.51
263–272. https://doi.org/10.1 109/ICDM.2008.22 263–272. https://doi.org/10.1 109/ICDM.2008.22 0.24
[23] Yitong Ji, Aixin Sun, Jie Zhang, and Chenliang Li. 【23】李東治、愛進孫、江張、陳林李。 0.26
2020. On Offline Evaluation of Recommender Systems. 2020. 推薦システムのオフライン評価について 0.55
CoRR abs/2010.11060 (2020). corr abs/2010.11060 (2020)。 0.61
arXiv:2010.11060 arXiv:2010.11060 0.20
https://arxiv.org/ab s/2010.11060 https://arxiv.org/ab s/2010.11060 0.17
[24] Yitong Ji, Aixin Sun, Jie Zhang, and Chenliang Li. 【24】李東治、愛進孫、江張、陳林李。 0.25
2020. A Re-Visit of the Popularity Baseline in Recommender Systems. 2020. Recommender Systemsにおける人気ベースラインの再検討 0.56
In Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval (Virtual Event, China) (SIGIR ’20). 第43回国際acm情報検索研究開発会議(virtual event, china, sigir ’20)で開催。 0.54
Association for Computing Machinery, New York, NY, USA, 1749–1752. Association for Computing Machinery, New York, NY, USA, 1749–1752 (英語) 0.85
https://doi.org/10.1 145/3397271.3401233 https://doi.org/10.1 145/3397271.3401233 0.15
[25] ZHOU Ao-ying JI Wen-di, WANG Xiao-ling. [25]Zhou Ao-ying JI Wen-di, Wang Xiao-ling 0.34
2013. Techniques for estimating click-through rates of Web advertisements: A survey. 2013. Web広告のクリックスルー率を推定する手法:調査 0.53
http: //hdsfdxzkb.xml-jour nal.net/en/article/i d/24855 http: hdsfdxzkb.xml-journa l.net/en/article/id/ 24855 0.25
[26] Wang-Cheng Kang and Julian McAuley. [26]Wang-Cheng KangとJulian McAuley。 0.42
2018. Self-attentive sequential recommendation. 2018. 自己注意型シーケンシャルレコメンデーション。 0.43
In ICDM. 197–206. icdmで 197–206. 0.32
[27] Mesut Kaya, Derek Bridge, and Nava Tintarev. [27]Mesut Kaya、Derek Bridge、Nava Tintarev。 0.28
2020. Ensuring Fairness in Group Recommendations by Rank-Sensitive Balancing of Relevance. 2020. ランク・センシティブ・バランシングによるグループ勧告の公正性の確保 0.54
In RecSys. 101–110. 院 リサイスだ 101–110. 0.36
[28] Sergey Kolesnikov, Oleg Lashinin, Michail Pechatov, and Alexander Kosov. 28] セルゲイ・コレスニコフ、オレグ・ラシニン、ミハイル・ペチャトフ、アレクサンドル・コソフ。 0.46
2021. TTRS: Tinkoff Transactions Recommender System benchmark. 2021. TTRS: Tinkoff Transactions Recommender Systemベンチマーク。 0.62
CoRR abs/2110.05589 (2021). CoRR abs/2110.05589 (2021)。 0.33
arXiv:2110.05589 https://arxiv.org/ab s/2110.05589 arXiv:2110.05589 https://arxiv.org/ab s/2110.05589 0.15
[29] Yehuda Koren and Robert M. Bell. 29] イェーダ・コーレンとロバート・m・ベル 0.43
2015. Advances in Collaborative Filtering. 2015. 協調フィルタリングの進歩。 0.53
In Recommender Systems Handbook, Francesco Ricci, Lior Rokach, and Recommender Systems Handbook, Francesco Ricci, Lior Rokach, and 0.39
Bracha Shapira (Eds.). ブラチャ・シャピラ(Bracha Shapira)。 0.49
Springer, 77–118. スプリンガー、77-118。 0.31
https://doi.org/10.1 007/978-1-4899-7637- 6_3 https://doi.org/10.1 007/978-1-4899-7637- 6_3 0.10
[30] Duc-Trong Le, Hady W. Lauw, and Yuan Fang. [30]Duc-Trong Le、Hady W. Lauw、Yuan Fang。 0.35
2019. Correlation-Sensitiv e Next-Basket Recommendation. 2019. 相関に敏感なnext-basketレコメンデーション。 0.33
In Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence, IJCAI-19. 第28回人工知能国際会議(IJCAI-19)に参加して 0.64
International Joint Conferences on Artificial Intelligence Organization, 2808–2814. 人工知能組織に関する国際共同会議、2808-2814。 0.68
https://doi.org/10.2 4963/ijcai.2019/389 https://doi.org/10.2 4963/ijcai.2019/389 0.13
[31] Hea In Lee, Il Young Choi, Hyun Sil Moon, and Jae Kyeong Kim. 31]リーのヘー、イル・ヤング・チョイ、ヒョン・シル・ムーン、ジェイ・キョン・キム 0.55
2020. A Multi-Period Product Recommender System in Online Food Market based 2020. オンライン食品市場における多時期商品推薦システム 0.60
on Recurrent Neural Networks. リカレントニューラルネットワークについて 0.69
Sustainability 12, 3 (2020). サステナビリティ12、3(2020年)。 0.63
https://doi.org/10.3 390/su12030969 https://doi.org/10.3 390/su12030969 0.16
[32] Jiacheng Li, Yujie Wang, and Julian McAuley. [32]Jiacheng Li、Yujie Wang、Julian McAuley。 0.29
2020. Time Interval Aware Self-Attention for Sequential Recommendation. 2020. 時系列レコメンデーションのための時間間隔アウェアセルフアテンション 0.50
In WSDM. 322–330. wsdm所属。 322–330. 0.37
[33] Tao Li, Jiandong Wang, Huiping Chen, Xinyu Feng, and Feiyue Ye. 【33】李太夫・王慈東・陳英・新入・永恵 0.39
2006. A NMF-based collaborative filtering recommendation algorithm. 2006. NMFに基づく協調フィルタリング推薦アルゴリズム 0.57
In 2006 6th World Congress on Intelligent Control and Automation, Vol. 2006年 第6回知的制御・自動化国際会議に参加して 0.69
2. IEEE, 6082–6086. 2. IEEE 6082-6086。 0.64
[34] Xiaopeng Li and James She. [34]Xiaopeng LiとJames She。 0.37
2017. Collaborative Variational Autoencoder for Recommender Systems. 2017. リコメンダシステムのための協調的変分オートエンコーダ 0.52
In SIGKDD. 305–314. SIGKDD所属。 305–314. 0.46
[35] Dawen Liang, Rahul G Krishnan, Matthew D Hoffman, and Tony Jebara. Dawen Liang氏、Rahul G Krishnan氏、Matthew D Hoffman氏、Tony Jebara氏。 0.66
2018. Variational autoencoders for collaborative filtering. 2018. 協調フィルタリングのための変分オートエンコーダ 0.54
In WWW. 689–698. WWW所属。 689–698. 0.50
[36] Sam Lobel, Chunyuan Li, Jianfeng Gao, and Lawrence Carin. [36]サム・ローベル、チュンユアン・リー、ジャンフェン・ガオ、ローレンス・キャリン。 0.55
2019. Towards Amortized Ranking-Critical Training for Collaborative Filtering. 2019. amortized ranking-critical training for collaborative filtering へ向けて 0.40
CoRR abs/1906.04281 (2019). CoRR abs/1906.04281 (2019)。 0.54
arXiv:1906.04281 http://arxiv.org/abs /1906.04281 arXiv:1906.04281 http://arxiv.org/abs /1906.04281 0.15
[37] Yichao Lu, Ruihai Dong, and Barry Smyth. [37]イチャ・ル、ルイ・ドン、バリー・スマイス。 0.45
2018. Coevolutionary Recommendation Model: Mutual Learning between Ratings and Reviews. 2018. 共進化的レコメンデーションモデル:評価とレビューの相互学習。 0.58
In WWW. 773–782. 院 WWW! 773–782. 0.38
[38] Chen Ma, Peng Kang, Bin Wu, Qinglong Wang, and Xue Liu. [38]チェン・マ、ペン・カン、ビン・ウー、チンロン・ワン、ザウ・リウ 0.53
2019. Gated Attentive-Autoencode r for Content-Aware Recommendation. 2019. コンテンツ認識レコメンデーションのためのゲート注意オートエンコーダ。 0.40
In WSDM. 519–527. wsdm所属。 519–527. 0.37
[39] Zaiqiao Meng, Richard McCreadie, Craig Macdonald, and Iadh Ounis. 39] ザイカイオ・メン、リチャード・マクラディー、クレイグ・マクドナルド、iadh ounis。 0.47
2019. Variational Bayesian Context-aware Representation for Grocery 2019. 食料品の変分ベイズ文脈認識表現 0.51
Recommendation. In CARS2.0@RecSys. 推薦だ CARS2.0@RecSys。 0.47
[40] Zaiqiao Meng, Richard McCreadie, Craig Macdonald, and Iadh Ounis. Zaiqiao Meng氏、Richard McCreadie氏、Craig Macdonald氏、Iadh Ounis氏。 0.35
2020. Exploring Data Splitting Strategies for the Evaluation of Recommendation Models. 2020. 推薦モデル評価のためのデータ分割戦略の検討。 0.59
In Fourteenth ACM Conference on Recommender Systems (Virtual Event, Brazil) (RecSys ’20). 第14回 ACM Conference on Recommender Systems (Virtual Event, Brazil) (RecSys ’20) に参加して 0.85
Association for Computing Machinery, New York, NY, USA, 681–686. Association for Computing Machinery, New York, NY, USA, 681-686。 0.86
https://doi.org/10.1 145/3383313.3418479 https://doi.org/10.1 145/3383313.3418479 0.15
[41] Xia Ning and George Karypis. [41]Xia NingとGeorge Karypis。 0.39
2011. Slim: Sparse linear methods for top-n recommender systems. 2011. slim: トップnレコメンダシステムのためのスパース線形メソッド。 0.59
In ICDM. [42] V Sree Parvathy and T K Ratheesh. icdmで [42]V Sree ParvathyとT K Ratheesh。 0.34
2017. Friend recommendation system for online social networks: A survey. 2017. オンラインソーシャルネットワークのための友人推薦システム:調査 0.61
In 2017 International conference of 2017年の国際会議において 0.73
Electronics, Communication and Aerospace Technology (ICECA), Vol. 電子工学、通信工学、航空宇宙工学(ICECA)。 0.66
2. 359–365. 2. 359–365. 0.39
https://doi.org/10.1 109/ICECA.2017.82128 34 https://doi.org/10.1 109/ICECA.2017.82128 34 0.13
[43] Dip Paul and Subhradeep Kundu. [43]Dip PaulとSubhradeep Kundu。 0.37
2020. A Survey of Music Recommendation Systems with a Proposed Music Recommendation System. 2020. 楽曲推薦システムによる楽曲推薦システムに関する調査 0.49
In Emerging Technology in Modelling and Graphics, Jyotsna Kumar Mandal and Debika Bhattacharya (Eds.). 発展にむけて モデリングとグラフィクスの技術、Jyotsna Kumar MandalとDebika Bhattacharya (Eds.)。 0.55
Springer Singapore, Singapore, 279–285. シンガポール、シンガポール、279-285。 0.72
[44] Massimo Quadrana, Paolo Cremonesi, and Dietmar Jannach. 44]Massimo Quadrana、Paolo Cremonesi、Dietmar Jannach。 0.58
2018. Sequence-Aware Recommender Systems. 2018. シーケンス対応レコメンダシステム。 0.45
ACM Comput. Surv. 略称はacm。 サーヴ。 0.47
51, 4, Article 66 第51条、第4条、第66条 0.50
(July 2018), 36 pages. (2018年7月)、36頁。 0.43
https://doi.org/10.1 145/3190616 https://doi.org/10.1 145/3190616 0.17
英語(論文から抽出)日本語訳スコア
CVTT: Cross-Validation Through Time CVTT: 時間を通してのクロスバリデーション 0.61
13 [45] Pengjie Ren, Zhumin Chen, Jing Li, Zhaochun Ren, Jun Ma, and Maarten Rijke. 13 [45]Pengjie Ren、Zhumin Chen、Jing Li、Zhaochun Ren、Jun Ma、Maarten Rijke。 0.58
2019. RepeatNet: A Repeat Aware Neural Recommendation https: 2019. repeatnet: 繰り返し認識するニューラルレコメンデーション https: 0.50
Machine for Session-Based Recommendation. セッションベース勧告のためのマシン。 0.61
Proceedings of the AAAI Conference on Artificial Intelligence 33 (07 2019), 4806–4813. AAAI Conference on Artificial Intelligence 33 (07 2019), 4806–4813 に参加。 0.39
//doi.org/10.1609/aa ai.v33i01.33014806 /doi.org/10.1609/aaa i.v33i01.33014806 0.06
[46] Steffen Rendle. ステファン・レンドル(Steffen Rendle)。 0.43
2010. Factorization Machines. 2010. ファクトリゼーションマシン。 0.42
In ICDM 2010, The 10th IEEE International Conference on Data Mining, Sydney, Australia, 14-17 December 2010, Geoffrey I. Webb, Bing Liu, Chengqi Zhang, Dimitrios Gunopulos, and Xindong Wu (Eds.). ICDM 2010, The 10th IEEE International Conference on Data Mining, Sydney, Australia, 14-17 December 2010, Geoffrey I. Webb, Bing Liu, Chengqi Zhang, Dimitrios Gunopulos, Xindong Wu (Eds)。
訳抜け防止モード: 第10回IEEE International Conference on Data Mining, 2010に参加して オーストラリアのシドニー, 2010年12月14日 - 17日, ジェフリー・I・ウェッブ Bing Liu, Chengqi Zhang, Dimitrios Gunopulos, and Xindong Wu (Eds .)
0.85
IEEE Computer Society, 995–1000. ieee computer society、995-1000。 0.59
https://doi.org/10.1 109/ICDM.2010.127 https://doi.org/10.1 109/ICDM.2010.127 0.13
[47] Steffen Rendle, Christoph Freudenthaler, Zeno Gantner, and Lars Schmidt-Thieme. Steffen Rendle氏、Christoph Freudenthaler氏、Zeno Gantner氏、Lars Schmidt-Thieme氏。 0.36
2009. BPR: Bayesian personalized ranking from implicit feedback. 2009. BPR: 暗黙のフィードバックからベイジアンのパーソナライズされたランキング。 0.51
In UAI. 452–461. UAI所属。 452–461. 0.52
[48] Steffen Rendle, Christoph Freudenthaler, and Lars Schmidt-Thieme. Steffen Rendle氏、Christoph Freudenthaler氏、Lars Schmidt-Thieme氏。 0.33
2010. Factorizing personalized markov chains for next-basket recommendation. 2010. 次世代レコメンデーションのためのパーソナライズされたマルコフ連鎖の要因 0.40
In WWW. 811–820. WWW所属。 811–820. 0.50
[49] Dimitris Sacharidis. 49]Dimitris Sacharidis氏。 0.29
2019. Top-N group recommendations with fairness. 2019. トップnグループのレコメンデーション。 0.46
In SAC. 1663–1670. SAC所属。 1663–1670. 0.52
[50] Noveen Sachdeva, Giuseppe Manco, Ettore Ritacco, and Vikram Pudi. Noveen Sachdeva, Giuseppe Manco, Ettore Ritacco, Vikram Pudi. [50] Noveen Sachdeva, Giuseppe Manco, Ettore Ritacco, Vikram Pudi. 0.33
2019. Sequential Variational Autoencoders for Collaborative Filtering. 2019. 協調フィルタリングのための逐次変分オートエンコーダ 0.55
In WSDM. 600–608. 院 wsdm所属。 600–608. 0.40
[51] Badrul Sarwar, George Karypis, Joseph Konstan, and John Riedl. 51]Badrul Sarwar、George Karypis、Joseph Konstan、John Riedl。 0.33
2001. Item-Based Collaborative Filtering Recommendation Algorithms. 2001. アイテムベースのコラボレーティブフィルタリング推奨アルゴリズム。 0.59
In Proceedings of the 10th International Conference on World Wide Web (Hong Kong, Hong Kong) (WWW ’01). 第10回world wide web国際会議(香港、香港)の議事録 (www ’01)。 0.62
Association for Computing Machinery, New York, NY, USA, 285–295. Association for Computing Machinery, New York, NY, USA, 285–295。 0.46
https://doi.org/10.1 145/371920.372071 https://doi.org/10.1 145/37 1920.372071 0.13
[52] Teresa Scheidt and Joeran Beel. 52] テレサ・シャイトとジョーラン・ビール 0.56
2021. Time-dependent evaluation of recommender systems. 2021. 推薦システムの時間依存性評価 0.59
In Perspectives 2021 (CEUR Workshop Proceedings, Vol. 2955). 2021 (ceur workshop proceedings, vol. 2955) を参照。 0.71
CEUR Workshop Proceedings. CEURワークショップ開催。 0.58
Publisher Copyright: © 2021 Copyright for this paper by its authors. 出版者著作権:2021年 著作者によるこの論文の著作権。 0.75
; 2021 Perspectives on the Evaluation of Recommender Systems Workshop, Perspectives 2021 ; Conference date: 25-09-2021. 【2021年】レコメンダシステムワークショップの評価に関する展望】開催日:25-09-2021。 0.54
[53] Suvash Sedhain, Aditya Krishna Menon, Scott Sanner, and Lexing Xie. 53]Suvash Sedhain, Aditya Krishna Menon, Scott Sanner, Lexing Xie。 0.34
2015. AutoRec: Autoencoders Meet Collaborative Filtering. 2015. AutoRec: オートエンコーダは協調フィルタリングと出会う。 0.56
In WWW. 111–112. WWW所属。 111–112. 0.50
[54] Nisha Sharma and Mala Dutta. 54] ニーシャ・シャーマとマラ・ドゥッタ 0.45
2020. Movie Recommendation Systems: A Brief Overview. 2020. Movie Recommendation Systems: A Brief Overview - インターネット・ムービー・データベース(英語) 0.43
In Proceedings of the 8th International Conference on Computer and Communications Management (Singapore, Singapore) (ICCCM’20). 第8回コンピュータ通信管理国際会議(シンガポール・シンガポール)(ICCCM'20)の開催報告 0.65
Association for Computing Machinery, New York, NY, USA, 59–62. Association for Computing Machinery, New York, NY, USA, 59-62。 0.89
https://doi.org/10.1 145/3411174.3411194 https://doi.org/10.1 145/3411174.3411194 0.15
[55] Harald Steck. [55] ハラルド・ステック 0.50
2019. Embarrassingly Shallow Autoencoders for Sparse Data. 2019. スパースデータのための恥ずかしいほど浅いオートエンコーダ。 0.45
In The World Wide Web Conference (San Francisco, CA, USA) (WWW World Wide Web Conference (San Francisco, CA, USA) に参加して 0.79
’19). Association for Computing Machinery, New York, NY, USA, 3251–3257. ’19). Association for Computing Machinery, New York, NY, USA, 3251–3257 0.42
https://doi.org/10.1 145/3308558.3313710 https://doi.org/10.1 145/3308558.3313710 0.15
[56] Fei Sun, Jun Liu, Jian Wu, Changhua Pei, Xiao Lin, Wenwu Ou, and Peng Jiang. [56]フェイ・スン、ジュン・リュー、ジャン・ウー、チャンワ・ペイ、シャオ・リン、ウェン・ウー、ペン・ジアン 0.48
2019. BERT4Rec: Sequential recommendation with bidirectional 2019. BERT4Rec: 双方向のシーケンスレコメンデーション 0.57
encoder representations from transformer. トランスフォーマからのエンコーダ表現。 0.66
In CIKM. 1441–1450. CIKM。 1441–1450. 0.31
[57] Zhu Sun, Di Yu, Hui Fang, Jie Yang, Xinghua Qu, Jie Zhang, and Cong Geng. [57]Zhu Sun, Di Yu, Hui Fang, Jie Yang, Xinghua Qu, Jie Zhang, Cong Geng。
訳抜け防止モード: 57 ]zhu sun, di yu, hui fang, jie yang、xinghua qu、jie zhang、cong gengなど。
0.57
2020. Are We Evaluating Rigorously? 2020. 厳格に評価していますか? 0.42
Benchmarking Recommendation for Reproducible Evaluation and Fair Comparison. ベンチマーク勧告 再現可能な評価と公平な比較のためです 0.64
In Proceedings of the 14th ACM Conference on Recommender Systems. 第14回 acm conference on recommender systems 参加報告 0.63
[58] Mengting Wan, Di Wang, Jie Liu, Paul Bennett, and Julian McAuley. 58] ワン、ディ・ワン、ジー・リウ、ポール・ベネット、ジュリアン・マコーリー 0.44
2018. Representing and Recommending Shopping Baskets with Complementarity, 2018. 相補性のある買い物かごの表現と推薦 0.50
Compatibility and Loyalty. In CIKM. 互換性と忠誠。 CIKM。 0.51
1133–1142. 1133–1142. 0.35
[59] Xiang Wang, Xiangnan He, Meng Wang, Fuli Feng, and Tat-Seng Chua. [59]Xiang Wang、Xiangnan He、Meng Wang、Fuli Feng、Tat-Seng Chua。 0.37
2019. Neural graph collaborative filtering. 2019. ニューラルグラフ協調フィルタリング 0.49
In SIGIR. 165–174. SIGIR所属。 165–174. 0.47
[60] Heitor Werneck, Nícollas Silva, Matheus Carvalho, Adriano C.M. Pereira, Fernando Mourão, and Leonardo Rocha. Heitor Werneck氏、Nícollas Silva氏、Matheus Carvalho氏、Adriano C.M. Pereira氏、Fernando Mourão氏、Leonardo Rocha氏。 0.39
2021. A systematic mapping on POI recommendation: Directions, contributions and limitations of recent studies. 2021. POIレコメンデーションに関する体系的なマッピング:最近の研究の方向性、貢献、限界。 0.55
Information Systems (2021), 101789. 情報システム(2021年)、101789年。 0.79
https://doi.org/10.1 016/j.is. https://doi.org/10.1 016/j.is 0.18
2021.101789 2021.101789 0.29
[61] Yao Wu, Christopher DuBois, Alice X Zheng, and Martin Ester. Yao Wu氏、Christopher DuBois氏、Alice X Zheng氏、Martin Ester氏。 0.58
2016. Collaborative denoising auto-encoders for top-n recommender systems. 2016. トップnレコメンダシステムのための協調型自動エンコーダ。 0.45
In WSDM. 153–162. 院 wsdm所属。 153–162. 0.40
[62] Lin Xiao, Zhang Min, Zhang Yongfeng, Gu Zhaoquan, Liu Yiqun, and Ma Shaoping. [62]Lin Xiao、Zhang Min、Zhang Yongfeng、Gu Zhaoquan、Liu Yiqun、Ma Shaoping。 0.29
2017. Fairness-aware group recommendation with pareto- 2017. フェアネス-パレートによるグループ推薦- 0.47
efficiency. In RecSys. 効率だ RecSysで。 0.71
107–115. [63] Teng Xiao, Shangsong Liang, and Zaiqiao Meng. 107–115. [63]天王、張宗、Zaiqiao Meng。 0.30
2019. Dynamic Collaborative Recurrent Learning. 2019. 動的コラボレーティブ・リカレント学習。 0.59
In CIKM. 1151–1160. CIKM。 1151–1160. 0.31
[64] Lu Yu, Chuxu Zhang, Shangsong Liang, and Xiangliang Zhang. [64]ルーユ、チュクジュ・チャン、シャンソン・リョン、Xiangliang Zhang。 0.57
2019. Multi-order attentive ranking model for sequential recommendation. 2019. シーケンシャルレコメンデーションのためのマルチオーダー注意ランキングモデル 0.57
In AAAI. 5709–5716. AAAI所属。 5709–5716. 0.49
[65] Hamed Zamani and W Bruce Croft. 65]ハメド・ザマニとw・ブルース・クロフト 0.48
2020. Learning a Joint Search and Recommendation Model from User-Item Interactions. 2020. ユーザ-アイテムインタラクションによる共同探索と推薦モデルの学習 0.61
In WSDM. 717–725. wsdm所属。 717–725. 0.37
[66] Yang Zhang, Fuli Feng, Chenxu Wang, Xiangnan He, Meng Wang, Y. Li, and Yongdong Zhang. [66]ヤン・チャン、フーリ・フェン、チェンク・ワン、Xiangnan He、メン・ワン、Y・リー、ヨンドン・チャン。
訳抜け防止モード: 66]yang zhang, fuli feng, chenxu wang, チャンナン・ヘ、メン・ワン、y・リー、ヨンドン・チャン。
0.64
2020. How to Retrain Recommender System? 2020. Recommender Systemのリトレーニング方法 0.53
: A Sequential Meta-Learning Method. 逐次的メタラーニング手法 0.40
Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval (2020). 第43回国際情報検索研究開発会議(2020年)に参加して 0.59
[67] Yin Zhang, Ziwei Zhu, Yun He, and James Caverlee. [67]Yin Zhang、Ziwei Zhu、Yun He、James Caverlee。 0.34
2020. Content-Collaborativ e Disentanglement Representation Learning for Enhanced 2020. エンハンスメントのためのコンテンツ協調型ディスタングル表現学習 0.50
Recommendation. In RecSys. 推薦だ RecSysで。 0.63
43–52. [68] Jin Peng Zhou, Zhaoyue Cheng, Felipe Perez, and Maksims Volkovs. 43–52. [68]ジン・ペン・シュウ、ジャユ・チョン、フェリペ・ペレス、マキシムス・ヴォルコフス 0.39
2020. TAFA: Two-headed Attention Fused Autoencoder for Context-Aware 2020. TAFA: コンテキスト認識のための2本頭の注意融合オートエンコーダ 0.46
Recommendations. In RecSys. 勧告。 RecSysで。 0.52
338–347. 338–347. 0.35
                           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。