論文の概要、ライセンス

# (参考訳) スムースレーティングスケールを用いたテンソルベース協調フィルタリング [全文訳有]

Tensor-based Collaborative Filtering With Smooth Ratings Scale ( http://arxiv.org/abs/2205.05070v1 )

ライセンス: CC BY 4.0
Nikita Marin, Elizaveta Makhneva, Maria Lysyuk, Vladimir Chernyy, Ivan Oseledets, Evgeny Frolov(参考訳) 従来のコラボレーティブフィルタリング手法は,ユーザの評価知覚における不一致の影響を考慮しない。 アイテムに5つ星を割り当てることがほとんどないユーザもいれば、選択したアイテムに5つ星を割り当てるユーザも少なくない。 同じ項目を経験したとしても、評価スタイルにおける系統的不一致は、データから適切なパターンを効果的に抽出するレコメンダシステムの能力の系統的エラーにつながる。 この問題を緩和するために、人口レベルの異なる評価値間の依存性を表すレーティングの類似度行列を導入する。 したがって,評価値間の相関が平均的に存在する場合,ユーザ率の低下や低下の影響をオフセットすることで,提案する推奨値の品質を向上させることができる。

Conventional collaborative filtering techniques don't take into consideration the effect of discrepancy in users' rating perception. Some users may rarely give 5 stars to items while others almost always assign 5 stars to the chosen item. Even if they had experience with the same items this systematic discrepancy in their evaluation style will lead to the systematic errors in the ability of recommender system to effectively extract right patterns from data. To mitigate this problem we introduce the ratings' similarity matrix which represents the dependency between different values of ratings on the population level. Hence, if on average the correlations between ratings exist, it is possible to improve the quality of proposed recommendations by off-setting the effect of either shifted down or shifted up users' rates.
公開日: Tue, 10 May 2022 17:55:25 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 0 1 2 2 0 2 y a m 0 1 である。 0.53
] R I . s c [ ] R 私は。 sc [ 0.46
1 v 0 7 0 5 0 1 v 0 7 0 5 0 0.43
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Tensor-based Collaborative Filtering With Smooth Ratings Scale スムースレーティングスケールを用いたテンソルベース協調フィルタリング 0.66
NIKITA MARIN, Skolkovo Institute of Science and Technology, Russia ELIZAVETA MAKHNEVA, Skolkovo Institute of Science and Technology, Russia MARIA LYSYUK, Skolkovo Institute of Science and Technology, Russia VLADIMIR CHERNYY, Skolkovo Institute of Science and Technology, Russia IVAN OSELEDETS∗, Skolkovo Institute of Science and Technology, Russia EVGENY FROLOV, Skolkovo Institute of Science and Technology, Russia ニキタ・マリン、スコルコボ科学技術研究所、ロシア ELIZAVETA MAKHNEVA、スコルコボ科学技術研究所、ロシア MARIA LYSYUK、スコルコボ科学技術研究所、ロシア VLADIMIR CHERNYY、スコルコボ科学技術研究所、ロシア IVAN OSELEDETS∗、スコルコボ科学技術研究所、ロシア EVGENY FROLOV、スコルコボ科学技術研究所
訳抜け防止モード: ニキータ・マリン, ロシア科学技術大学 elizaveta makhneva skolkovo institute of science and technology, russia maria lysyuk, skolkovo institute of science and technology, ロシア ウラジーミル チェルニー、skolkovo institute of science and technology, russia ivan oseledets∗, skolkovo institute of science and technology, russia evgeny frolov, skolkovo institute of science and technology,russia
0.72
Conventional collaborative filtering techniques don’t take into consideration the effect of discrepancy in users’ rating perception. 従来のコラボレーティブフィルタリング手法は,ユーザの評価知覚における不一致の影響を考慮に入れていない。 0.82
Some users may rarely give 5 stars to items while others almost always assign 5 stars to the chosen item. アイテムに5つ星を割り当てることがほとんどないユーザもいれば、選択したアイテムに5つ星を割り当てるユーザも少なくない。 0.63
Even if they had experience with the same items this systematic discrepancy in their evaluation style will lead to the systematic errors in the ability of recommender system to effectively extract right patterns from data. 同じ項目を経験したとしても、評価スタイルにおける系統的不一致は、データから適切なパターンを効果的に抽出するレコメンダシステムの能力の系統的エラーにつながる。 0.82
To mitigate this problem we introduce the ratings’ similarity matrix which represents the dependency between different values of ratings on the population level. この問題を緩和するために、人口レベルの異なる評価値間の依存性を表すレーティングの類似度行列を導入する。 0.81
Hence, if on average the correlations between ratings exist, it is possible to improve the quality of proposed recommendations by off-setting the effect of either shifted down or shifted up users’ rates. したがって、平均的なレーティング間の相関が存在すれば、ユーザのレートを下げたり下げたりする効果をオフセットすることで、提案されたレコメンデーションの品質を向上させることができる。 0.71
Additional Key Words and Phrases: Collaborative Filtering; Top-N Recommendation キーワードとフレーズの追加:協調フィルタリング,トップN勧告 0.87
ACM Reference Format: Nikita Marin, Elizaveta Makhneva, Maria Lysyuk, Vladimir Chernyy, Ivan Oseledets, and Evgeny Frolov. ACM参照フォーマット:Nikita Marin、Elizaveta Makhneva、Maria Lysyuk、Vladimir Chernyy、Ivan Oseledets、Evgeny Frolov。 0.65
2022. Tensor-based Collaborative Filtering With Smooth Ratings Scale. 2022. Smooth Ratings Scaleを用いたテンソルベース協調フィルタリング 0.60
1, 1 (May 2022), 14 pages. 第1巻(2022年5月)、14頁。 0.41
https://doi.org/10.1 145/nnnnnnn.nnnnnnn https://doi.org/10.1 145/nnnnnnn.nnnnnnn 0.15
1 INTRODUCTION Recommendations reliability significantly depends on the unbiasedness of feedback provided by users. 1 インストラクション勧告の信頼性は,ユーザのフィードバックの偏りに大きく依存する。 0.85
In many contemporary recommendation models, it is often implicitly assumed that user feedback explicitly expressed in the form of e g ratings represents an accurate picture of a perceived quality of products and allows to unambiguously discern subjective preferences of individuals. 現代の多くのレコメンデーションモデルでは、egレーティングの形で明示的に表現されたユーザーフィードバックは製品の品質を正しく表現し、個人の主観的な好みをあいまいに識別することができると暗黙的に仮定されることが多い。 0.72
On the other hand, there is a widespread concern regarding noise and inconsistencies in user ratings stemming from a wide range of possible reasons. 一方,ユーザ評価のノイズや不整合性については,様々な理由から広く懸念されている。 0.66
For instance, in psychology, there is a well-known assimilation/contras t effect [17]. 例えば心理学では、よく知られた同化/対照効果[17]がある。 0.75
Users tend to conform with historical ratings if the perceived product quality is not far from its rating (assimilation). ユーザーは、製品の品質が評価から遠くない(同化)場合、歴史的評価に適合する傾向にある。 0.81
On the contrary, if the product quality is too far from the historical ratings they start deviating from these benchmarks (contrast). 逆に、製品の品質が過去の評価から遠すぎると、これらのベンチマーク(コントラスト)から逸脱し始めます。 0.69
In this regard, ∗Also with AI Research Institute, Moscow, Russia. この点に関して、∗Alsoはロシア、モスクワのAI研究所と提携している。 0.56
Authors’ addresses: Nikita Marin, Skolkovo Institute of Science and Technology, Moscow, Russia, marin.nikita@mail.ru ; Elizaveta Makhneva, Skolkovo Institute of Science and Technology, Moscow, Russia, elizavetamakhneva@ma il.ru; Maria Lysyuk, Skolkovo Institute of Science and Technology, Moscow, Russia, mlysyuk@nes.ru; Vladimir Chernyy, Skolkovo Institute of Science and Technology, Moscow, Russia, Vladimir.Chernyy@sko ltech.ru; Ivan Oseledets, Skolkovo Institute of Science and Technology, Moscow, Russia, I.Oseledets@skoltech .ru; Evgeny Frolov, Skolkovo Institute of Science and Technology, Moscow, Russia, Evgeny.Frolov@skolte ch.ru. Authors’ addresses: Nikita Marin, Skolkovo Institute of Science and Technology, Moscow, Russia, marin.nikita@mail.ru ; Elizaveta Makhneva, Skolkovo Institute of Science and Technology, Moscow, Russia, elizavetamakhneva@ma il.ru; Maria Lysyuk, Skolkovo Institute of Science and Technology, Moscow, Russia, mlysyuk@nes.ru; Vladimir Chernyy, Skolkovo Institute of Science and Technology, Moscow, Russia, Vladimir.Chernyy@sko ltech.ru; Ivan Oseledets, Skolkovo Institute of Science and Technology, Moscow, Russia, I.Oseledets@skoltech .ru; Evgeny Frolov, Skolkovo Institute of Science and Technology, Moscow, Russia, Evgeny.Frolov@skolte ch.ru.
訳抜け防止モード: 著者の住所 : スコルコヴォ科学技術研究所ニキータ・マリン モスクワ, ロシア, marin.nikita@mail.ru ; Elizaveta Makhneva, Skolkovo Institute of Science and Technology モスクワ, ロシア, エリザベタフネヴァ@mail.ru, ; Maria Lysyuk, Skolkovo Institute of Science and Technology モスクワ, ロシア, mlysyuk@nes.ru, Vladimir Chernyy, Skolkovo Institute of Science and Technology モスクワ, ロシア, ウラジーミル. Chernyy@skoltech.ru, Ivan Oseledets, Skolkovo Institute of Science and Technology モスクワ, ロシア, I.Oseledets@skoltech .ru; Evgeny Frolov, Skolkovo Institute of Science and Technology モスクワ、ロシア、Evgeny.Frolov@skolte ch.ru
0.91
Permission to make digital or hard copies of all or part of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page. 本作品のデジタル又はハードコピー又は一部を個人的又は教室で使用するための許可は、利益または商業的利益のためにコピーが作成または配布されず、コピーがこの通知及び第1ページの引用を満たしていることが条件として、無償で付与される。
訳抜け防止モード: この作品の全部又は一部をデジタル又はハードコピーして個人または教室での使用許可 手数料なしで与えられます 利益や商業上の利益のためにコピーは作られない そのコピーには この通知と 最初のページの全文が書かれています
0.82
Copyrights for components of this work owned by others than ACM must be honored. ACM以外の者が所有するこの作品のコンポーネントの著作権を尊重しなければならない。 0.62
Abstracting with credit is permitted. クレジットによる抽象化は許可されている。 0.48
To copy otherwise, or republish, to post on servers or to redistribute to lists, requires prior specific permission and/or a fee. サーバーにポストしたり、リストを再配布したりするには、事前の特定の許可と/または料金が必要である。 0.60
Request permissions from permissions@acm.org. permissions@acm.org からの許可を要求する。 0.65
© 2022 Association for Computing Machinery. 2022年 - 計算機学会設立。 0.54
Manuscript submitted to ACM ACMに提出された写本 0.63
Manuscript submitted to ACM ACMに提出された写本 0.63
1 1 0.43
英語(論文から抽出)日本語訳スコア
2 Marin and Makhneva, et al 2 マリンとマフネヴァなど 0.45
feedback loops – an inevitable attribute of recommender systems – are likely to amplify such effects to a greater extent. フィードバックループ — 推奨システムの避けられない属性 — は、そのような効果をより広範囲に増幅する可能性がある。 0.70
For example, if an online system exposes average product ratings to users, it may steer their provided individual feedback, which in turn will lead to even more inaccurate average ratings estimation and spiral the loop further. 例えば、オンラインシステムが平均的な製品評価をユーザに公開すると、提供された個々のフィードバックが制御され、その結果、平均評価がさらに不正確になり、ループがさらにスパイラルになる。 0.76
Another inconsistency may stem from the evolution of provided user feedback in time. 別の矛盾は、時間内に提供されるユーザフィードバックの進化に起因している可能性がある。 0.52
Cosley et al [3] conducted an experiment with 212 participants who were asked to re-rate 40 movies they had already seen and rated in the center of the 1-5 scale (i.e., from 2 to 4). cosley et al [3]は212名の参加者で実験を行い、1~5のスケール(つまり2から4まで)で既に見ていた40本の映画を再評価するよう求められた。 0.75
The results showed that the participants were consistent with their initial opinion only in 60% of the cases. その結果,初回評価は60%に留まり,初回評価と一致した。
訳抜け防止モード: その結果 参加者は最初の意見と一致し,症例の60%に留まった。
0.69
As a follow-up, Amatriain et al [1] learnt the structure of these differences. 続いて、Amatriain et al [1] はこれらの違いの構造を学習した。 0.74
They found that the probability of inconsistencies was the largest for 2- and 3-star ratings at the 5-star scale. その結果、不整合の確率は5つ星スケールで2つ星と3つ星の評価で最大であることが判明した。 0.53
That is, given two consequent trials 𝑥1 and 𝑥2 from the same individual, the most frequent change pattern was either switching from 3 stars at 𝑥1 to 2 stars at 𝑥2, or replacing 4 stars at 𝑥1 with 3 stars at 𝑥2. つまり、同じ天体からの2つの連続した公理 x1 と x2 を考えると、最も頻繁な変化パターンは、x1 で3つ星から x2 で2つ星に切り替えるか、x1 で4つ星を x2 で3つ星に置き換えるかである。
訳抜け防止モード: つまり、同じ個人から2つの連続試行 x1 と x2 が与えられる。 最も頻繁な変化パターンは x1で3つ星から x2で2つ星に切り替えることです x1の4つ星をx2の3つ星に置き換えます
0.79
Other combinations with even more pronounced shifts were also present, albeit less frequently. さらに顕著なシフトを伴う他の組み合わせも存在したが、頻度は低かった。 0.64
In general, it turned out that users were likely to change their opinion about the same movies within just a few weeks. 一般的に、ユーザーは数週間以内に同じ映画について意見を変える可能性が高いことが判明した。 0.82
The striking conclusion that can be made from these observations is not only that different users may have different scales of a perceived quality of products, but even the same user’s scale may shift in time and also depend on some external factors and context. これらの観察から得られる顕著な結論は、異なるユーザが製品の品質の異なるスケールを持っているだけでなく、同じユーザのスケールも時間とともに変化し、外部要因やコンテキストに依存する可能性がある、ということです。 0.83
The examples above expose an intricate subjective nature of explicit user feedback, which in turn may have a significant impact on real-world personalization services. 上記の例は、明示的なユーザーフィードバックの複雑な主観的性質を露呈しており、現実のパーソナライズサービスに大きな影響を与える可能性がある。 0.70
An informative and insightful illustration of that comes from Netflix, a popular online personalized video-streaming service. Netflixは、オンラインのパーソナライズされたビデオストリーミングサービスだ。 0.46
For a very long time, the Netflix app interface allowed users to provide feedback in the form of 5-star ratings. 長い間、netflixのアプリインターフェースは、ユーザーが5つ星の評価という形でフィードバックを提供することができた。 0.74
Such explicit feedback data was even a part of the famous Netflix Prize competition conducted from 2006 to 2009. このような明確なフィードバックデータは、2006年から2009年にかけて行われた有名なNetflix Prizeコンペティションの一部にもなった。 0.53
Later, in 2017, Netflix replaced ratings with a “simpler and more intuitive thumbs-up and thumbs-down” option1. 2017年、Netflixは評価を「シンプルで直感的なサムアップとサムダウン」オプション1に置き換えた。 0.70
Part of the reason was to lessen the confusion about the functionality and purposes of a rating system, and another part was to “learn even more about your unique tastes”. 理由の1つは、格付けシステムの機能と目的に関する混乱を減らすことであり、もう1つは“あなたのユニークな好みについてもっと学ぶこと”だった。
訳抜け防止モード: 理由の1つは、レーティングシステムの機能と目的に関する混乱を減らすことであった。 もうひとつは,“あなたのユニークな味についてさらに学ぶ”ことだ。
0.74
Recently, however, the binary grading was found to be insufficient and was extended with “super-like” or “double thumb-up”2 to help Netflix learn better representations of user preferences. しかし、最近、バイナリグレーディングが不十分であることが判明し、Netflixがユーザー好みの表現をより良く学習できるように、“Super-like”あるいは“Double thumb-up”2で拡張された。 0.68
Essentially, Netflix went from 5-level to 2-level grading system but then had to extend it to at least 3 levels. 基本的に、Netflixは5レベルから2レベルのグレードシステムに移行したが、その後少なくとも3レベルまで拡張しなければならなかった。 0.62
From the personalization service perspective, there are two main aspects that emerge from the Netflix’s case and seem to be relatively common. パーソナライズサービスの観点から見ると、Netflixのケースには2つの主な側面があり、比較的一般的と思われる。 0.66
One is related to users’ competency in properly engaging with the service and understanding its functionality. ひとつは、ユーザーがサービスと適切に関わり、その機能を理解する能力に関するものだ。 0.75
Another one is related to learning a better recommendation model using the collected behavioral data. もうひとつは,収集した行動データを使って,よりよいレコメンデーションモデルを学ぶことだ。 0.63
Leaving aside the former aspect, we are interested in understanding whether it was necessary to downgrade the rating scale with the aim of learning a more accurate recommendation model. 前者の側面は別として、より正確なレコメンデーションモデルを学ぶために評価尺度を格下げする必要があるかを理解することに興味があります。 0.70
What if there is a better way to deal with the initial 5-star system and gracefully handle rating inconsistencies induced by numerous reasons of a different (and often unknown) nature? もし最初の5つ星システムに対処するより良い方法があり、異なる(しばしば不明な)性質の多くの理由によって引き起こされる不一致を優雅に処理できるとしたらどうだろう? 0.68
We hypothesize that rating values contain useful for recommendations information and reducing noise in feedback by scaling its values can make the signal from ratings even stronger and allows to get better quality of recommendations. 我々は、評価値がレコメンデーション情報に有用であり、その値を拡大することでフィードバックのノイズを減らすことは、評価からの信号をより強くし、レコメンデーションの質を向上させることができると仮定する。 0.65
In this work, we aim to verify this hypothesis by introducing the notion of “ratings similarity” or “rating proximity”. 本研究では,「レーティングの類似性」や「レーティングの近接性」の概念を導入することにより,この仮説を検証することを目的とする。
訳抜け防止モード: この作品では レーティング類似度」または「レーティング近接度」の概念を導入することにより、この仮説を検証する。
0.81
We will use it to build a smoother representation of user preferences that makes a recommendation model to become more robust against discrepancies in rating patterns. ユーザー好みのスムーズな表現を構築するために、評価パターンの相違に対してより堅牢になるように推奨モデルを構築します。 0.73
The main contributions of are work are as follows: 作品の主な貢献は次のとおりである。 0.77
(1) We introduce rating values smoothing in tensor-based model by using similarity matrix. 1) 類似度行列を用いてテンソルモデルにおける評価値の平滑化を導入する。 0.72
(2) We considered different similarity matrices and various rating aggregating conditions to explore the influence 2)異なる類似度行列と様々な評価集約条件を考慮した影響調査 0.76
on the target metric value. 目標のメートル法値です 0.65
1https://about.netfl ix.com/en/news/goodb ye-stars-hello-thumb s 2https://about.netfl ix.com/en/news/two-t humbs-up-even-better -recommendations Manuscript submitted to ACM 1https://about.netfl ix.com/en/news/goodb ye-stars-hello-thumb s 2https://about.netfl ix.com/en/news/two-t humbs-up-even-better -recommendations Manuscript が ACM に提出された。 0.22
英語(論文から抽出)日本語訳スコア
Tensor-based Collaborative Filtering With Smooth Ratings Scale スムースレーティングスケールを用いたテンソルベース協調フィルタリング 0.66
3 (3) We show that suggested method can outperform strong baselines like matrix factorization methods, tensor-based 3 (3)提案手法は,行列因数分解法,テンソルベースなど,強い基底線を上回り得ることを示す。 0.56
models and neural autoencoder. モデルとニューラルオートエンコーダ。 0.74
The rest of this paper is organized as follows. 本論文の残りは以下のとおり整理される。 0.76
Section 2 describes the related work. 第2節では、関連する作業について記述する。 0.39
In section 3 we present the problem description, introduce the notion of similarity matrix and explain the core of the proposed method based on the Hybrid SVD [10] and CoFFee models [8]. 第3節では,問題を記述し,類似性行列の概念を導入し,提案手法のコアをハイブリッドSVD[10]とCoFFeeモデル [8]に基づいて説明する。 0.85
Section 4 gives the overview of the proposed evaluation metrics, namely the MCC metric that is of particular importance for the proposed method since it penalizes for giving irrelevant recommendations. 第4節では、提案されている評価基準の概要、すなわち、提案手法に特に重要なmccメトリックについて説明する。 0.60
In section 5 we describe the full experimental pipeline: describe the datasets, full data pre-processing, baselines and evaluation steps procedure. 第5節では、完全な実験パイプラインについて説明する。 データセット、全データの前処理、ベースライン、評価手順を記述する。 0.62
In section 6 the obtained results are analyzed. 第6条では、得られた結果を解析する。 0.56
Section 7 concludes the paper. 第7節はその論文を締めくくる。 0.55
Source code for reproducing the results are presented in an online repository 3. 結果を再生するソースコードをオンラインリポジトリ3に表示する。 0.73
2 RELATED WORK As a rule, a standard prediction scheme in recommender systems is based on the prediction of the ratings first. 2 RELATED WORK 規則として、レコメンダシステムにおける標準的な予測スキームは、まず評価の予測に基づいている。 0.77
After that the ranking of the items is inferred from the obtained rating predictions. その後、得られた評価予測から項目の順位を推定する。 0.68
However, this strategy relies on two assumptions. しかし、この戦略は二つの仮定に依存している。 0.57
First, that rating is a form of explicit feedback. まず、その評価は明示的なフィードバックの形式です。 0.71
Second, that the problem of ratings prediction is the same as the optimization of item rankings. 第二に、評価予測の問題はアイテムランキングの最適化と同じである。 0.67
A range of papers challenge these assumptions. 様々な論文がこれらの仮定に異議を唱えている。 0.36
Thus, MF like models with bias is an attempt to debias individual rating scales. したがって、バイアスのあるMFのようなモデルは、個々の評価尺度を逸脱させようとする試みである。 0.58
But it will fail in the case of systematic shifts, e g when two users have similar tastes but ratings are shifted in opposite directions (one user tends to provide more pessimistic ratings while another user tends to rate more optimistically). しかし、2人のユーザーが類似した好みを持っているが、評価が反対方向にシフトしている(一方のユーザーは悲観的な評価を提供し、他方のユーザーは楽観的に評価する傾向がある)ような体系的な変化では失敗するだろう。 0.68
Despite the additional complexity, such approaches were shown to be outperformed by much simpler PureSVD model [4]. 余分な複雑さにもかかわらず、そのようなアプローチはより単純なPureSVDモデル[4]よりも優れていることが示されました。
訳抜け防止モード: それ以上の複雑さにもかかわらず このようなアプローチは より単純なpuresvdモデル[4 ]に勝ること。
0.65
It was shown to suffer from certain effects related to the fact that ratings are of an ordinal nature, rather then just cardinal values [8]. 評価が順序的な性質であるという事実に関連する特定の効果に苦しむことが示され、その代わりに単に基数[8]に留まった。 0.63
Besides, as it was stated in the introduction, some psychological effects like the assimilation/contras t effect can be detected in the form of the historical raing perception. また、序文で述べられているように、アシミレーションやコントラスト効果などの心理的効果は、歴史的レイイング知覚の形で検出することができる。 0.62
Zhang et al [19] proposed the Historical Influence Aware Latent Factor Model model that aims to find and mitigate historical distortions in a single user rating. Zhang氏ら[19]は、歴史的歪みを単一のユーザ評価で発見し緩和することを目的とした、ヒストリカルインフルエンスAware Latent Factor Modelを提案した。 0.65
Extracting users’ real preferences from the noisy historical ratings solves the problem of distortion both on the macro and micro levels. ノイズの多い歴史的評価からユーザの実際の好みを抽出することは、マクロレベルとマイクロレベルの両方で歪みを解消する。
訳抜け防止モード: ノイズの多い歴史的評価からユーザーの実際の好みを抽出する マクロレベルとマイクロレベルの両方で歪みの問題を解く。
0.73
At the macro-level wrong historical ratings mislead the future buyers and, as a result, it leads to wrong decisions. マクロレベルの誤った歴史的評価は、将来の購入者を誤解させ、その結果、誤った決定につながる。 0.68
At the micro-level if the rating doesn’t reflect true user’s opinion, the recommender system is not able anymore to provide high-quality recommendations. マイクロレベルでは、レーティングが真のユーザの意見を反映していない場合、推奨システムはもはや高品質なレコメンデーションを提供することができない。 0.65
Finally, there are papers that look at the ordinal structure of ratings. 最後に、評価の順序構造を考察する論文がある。 0.59
For instance, OrdRec model [12] doesn’t treat user feedback values as a number rather than as an order. 例えば、OrdRecモデル[12]では、ユーザのフィードバックの値を順序ではなく数字として扱っていません。 0.80
Such representation allows the users to have different internal scoring scales. このような表現は、ユーザーが異なる内部スコア尺度を持つことができる。 0.58
Further this idea was supported by Markov Random Fields for Recommender Systems [14] that model user preference relations and are able to discover the second-order and the higher-order interactions among users and items. さらに、このアイデアはmarkov random fields for recommender systems [14] によって支持され、ユーザの好み関係をモデル化し、ユーザとアイテム間の二階間および高階間インタラクションを見つけることができる。 0.71
3 PROBLEM FORMULATION 3.1 Problem Description While there are many possible inconsistencies in users’ perception this work aims to solve the problem of different perception of the rating scale by users. 3 ProBLEM FORMULATION 3.1 Problem Description ユーザの認識には矛盾点が多いが,本研究は,ユーザによる評価尺度の異なる知覚の問題を解決することを目的としている。 0.78
Consider the following example. 以下の例を考えてみよう。 0.67
For some people giving a 5 star rating to an item is an extraordinary event, they do it rarely and only in exceptional cases. アイテムに5つ星のレーティングを与えるのは異常な出来事であり、稀で例外的な場合に限られる。
訳抜け防止モード: 項目に5つ星のレーティングを与える人は、特別なイベントです。 稀に、例外的な場合にのみ行われる。
0.74
Other users are more generous and most of their ratings are 4 and 5 stars. 他のユーザーはより寛大で、評価のほとんどは4つ星と5つ星だ。 0.73
This leads to a situation where the recommender system treats different ratings as different signals which may be misleading. これは、レコメンダシステムが異なるレーティングを誤解を招く可能性のある異なるシグナルとして扱う状況につながる。 0.65
For example, given two users where the first one rated three last films as 例えば、最初の1本が最後の3本の映画を評価した2人のユーザーが 0.65
3https://github.com/ anonymouspap/latte_r ecsys 3https://github.com/ anonymouspap/latte_r ecsys 0.16
Manuscript submitted to ACM ACMに提出された写本 0.63
英語(論文から抽出)日本語訳スコア
4 Marin and Makhneva, et al 4 マリンとマフネヴァなど 0.45
3, 4, 4 and another user rated exactly the same films as 4, 5, 5, we should understand that these are the same sets of preferences. 3, 4, 4 そして別のユーザーが4, 5, 5と全く同じ映画を評価 すると、これらは選好のセットであることを理解すべきである。 0.81
To tackle this problem, this work imposes some notion of similarity. この問題に対処するために、この研究は類似性の概念を課している。 0.55
3.2 Similarity matrices As it was mentioned above, the main advantage of our approach is in the direct modelling of the dependency between values of ratings. 3.2 類似度行列 上記のように、このアプローチの主な利点は、評価値間の依存性を直接モデル化することである。 0.86
The properly modelled nature of the object can boost the performance of prediction in comparison with the more sophisticated (neural) models. オブジェクトの適切にモデル化された性質は、より洗練された(神経)モデルと比較して予測性能を向上させることができる。 0.71
The similarity matrix reflects the proximity between the values of ratings which can be interpreted as a correlation between them. 類似度行列は、それらの相関として解釈できる評価値間の近接性を反映している。 0.80
The closer these values are, the larger the correlation between them. これらの値がより近いほど、それらの相関は大きくなる。 0.71
However, this dependency can be modelled in different ways. しかし、この依存関係は異なる方法でモデル化できる。 0.79
The considered modelling laws are presented below: 下記のモデリング法則は以下のとおりである。 0.66
1+𝑒−𝑥 , 𝑥 ∈ [−6, 6] 1 2 arctan 𝑥 + 1 3√ 𝑥 + 1 1+𝑒−𝑥 , 𝑥 ∈ [−6, 6] 1 2 arctan 𝑥 + 1 3√ 𝑥 + 1 0.47
• Linear dependency : 𝑓 (𝑥) = 𝑥, 𝑥 ∈ [0, 1] • Sigmoid dependency : 𝑓 (𝑥) = • Arctan dependency : 𝑓 (𝑥) = 1 • Cube-root dependency : 𝑓 (𝑥) = 1 2 The linear dependency models the linear decrease in correlation between the rating values the far the rating values are from each other. • 線形依存性 : f (x) = x, x ∈ [0, 1] • sigmoid dependency : f (x) = • arctan dependency : f (x) = 1 • cube-root dependency : f (x) = 1 2 線形依存モデルは、評価値間の相関を線形に減少させる。 0.71
In contrast, the non-linear models (sigmoid, arctan and cubic root) are chosen in order to cluster ratings with low values, ratings with high values and make center ratings far from both of these clusters. 対照的に、非線形モデル(シグモイド、アルクタン、立方根)は、低い値の格付け、高い値の格付け、そしてこれらの2つのクラスタから遠ざかる中心格付けのために選択される。 0.72
Thus, for instance, in case of 5-values rating scale "1" and "2" rating values will be clustered together as well as "4" and "5" rating values. したがって、例えば5つの値の格付け尺度「1」と「2」の格付け値を「4」と「5」の格付け値とともにクラスタ化する。 0.67
Different non-linear laws will address this pattern to the different extent. 異なる非線形法則は、このパターンを異なる範囲で扱う。 0.78
For example, correlation between "3" and "2" for the sigmoid law is 0.55 while for the arctan law is 0.67, that is sigmoid law is more «aggressive». 例えば、シグモイドの法則の「3」と「2」の相関関係は 0.55 であり、アルクタンの法則は 0.67 である。
訳抜け防止モード: 例えば、シグモイド法における「3」と「2」の相関は0.55であり、アルカン法では0.67である。 つまり、シグモイドの法則はより攻撃的である。
0.69
2 , 𝑥 ∈ [−𝜋/2, 𝜋/2] 2 , 𝑥 ∈ [−1, 1] 2 , 𝑥 ∈ [−𝜋/2, 𝜋/2] 2 , 𝑥 ∈ [−1, 1] 0.49
To obtain the specific values in the matrices one can apply the «law» in the following way. 行列の具体的値を得るためには、次の方法で slaw を適用できる。 0.61
We choose the range of x values for particular function in a way to make y values be in [0, 1]. 我々は y の値を [0, 1] にするために、特定の関数の x 値の範囲を選択する。 0.84
Then, the 𝑛 values 𝑣1, 𝑣2, ..., 𝑣𝑛 (where 𝑛 is the amount of rating values ) are uniformly chosen from this range. そして、この範囲から、n値v1,v2,...,vn(nはレーティング値の量である)を一様に選択する。 0.65
Finally, the value in the i-th row j-th column in the correlation matrix is equal to 1 − |𝑓 (𝑣𝑖) − 𝑓 (𝑣 𝑗)| where f is the function which models the law of interest. 最後に、相関行列の i 番目の列 j 番目の列の値は 1 − |f (vi) − f (v j)| に等しい。 0.49
Below are presented the similarity matrices with different dependencies for the case where ratings are in range from 1 to 5. 評価値が 1 から 5 までの場合に異なる依存性を持つ類似度行列を以下に示す。 0.70
Correlations are rounded up to two decimal places. 相関は2つの小数点まで丸められる。 0.66
The value in the i-th row j-th column in the matrix stands for the correlation between i-th and j-th value of the rating. 行列におけるi-th行j-th列の値は、評価のi-th値とj-th値との相関を表す。 0.73
(b) Sigmoid dependency b)シグモイド依存症 0.69
(cid:169)(cid:173)(c id:173)(cid:173)(cid :173)(cid:173)(cid:1 73)(cid:173)(cid:173 )(cid:173)(cid:171) (cid:169)(cid:173)(c id:173)(cid:173)(cid :173)(cid:173)(cid:1 73)(cid:173)(cid:173 )(cid:173)(cid:171) 0.36
”1” ”2” ”3” ”4” ”5” ”1” ”2” ”3” ”4” ”5” 0.43
(a) Linear dependency ”4” 0.25 0.5 0.75 1 0.75 (a)線形依存性 ”4” 0.25 0.5 0.75 1 0.75 0.33
”2” 0.75 1 0.75 0.5 0.25 ”2” 0.75 1 0.75 0.5 0.25 0.31
”3” 0.5 0.75 1 0.75 0.5 ”3” 0.5 0.75 1 0.75 0.5 0.31
”1” 1 0.75 0.5 0.25 0 ”1” 1 0.75 0.5 0.25 0 0.35
”5” 0 0.25 0.5 0.75 1 ”5” 0 0.25 0.5 0.75 1 0.35
(cid:170)(cid:174)(c id:174)(cid:174)(cid :174)(cid:174)(cid:1 74)(cid:174)(cid:174 )(cid:174)(cid:172) (cid:170)(cid:174)(c id:174)(cid:174)(cid :174)(cid:174)(cid:1 74)(cid:174)(cid:174 )(cid:174)(cid:172)) 0.35
(cid:169)(cid:173)(c id:173)(cid:173)(cid :173)(cid:173)(cid:1 73)(cid:173)(cid:173 )(cid:173)(cid:171) (cid:169)(cid:173)(c id:173)(cid:173)(cid :173)(cid:173)(cid:1 73)(cid:173)(cid:173 )(cid:173)(cid:171) 0.36
”1” 1 0.96 0.5 0.05 0 ”1” 1 0.96 0.5 0.05 0 0.35
”2” 0.96 1 0.55 0.09 0.05 ”2” 0.96 1 0.55 0.09 0.05 0.31
”3” 0.5 0.55 1 0.55 0.5 ”3” 0.5 0.55 1 0.55 0.5 0.31
”4” 0.05 0.09 0.55 1 0.96 ”4” 0.05 0.09 0.55 1 0.96 0.31
”5” 0 0.05 0.5 0.96 1 ”5” 0 0.05 0.5 0.96 1 0.35
(cid:170)(cid:174)(c id:174)(cid:174)(cid :174)(cid:174)(cid:1 74)(cid:174)(cid:174 )(cid:174)(cid:172) (cid:170)(cid:174)(c id:174)(cid:174)(cid :174)(cid:174)(cid:1 74)(cid:174)(cid:174 )(cid:174)(cid:172)) 0.35
(cid:169)(cid:173)(c id:173)(cid:173)(cid :173)(cid:173)(cid:1 73)(cid:173)(cid:173 )(cid:173)(cid:171) (cid:169)(cid:173)(c id:173)(cid:173)(cid :173)(cid:173)(cid:1 73)(cid:173)(cid:173 )(cid:173)(cid:171) 0.36
(c) Arctan dependency ”4” 0.17 0.33 0.67 1 0.83 (c)ArctanDepend ”4” 0.17 0.33 0.67 1 0.83 0.35
”2” 0.83 1 0.67 0.33 0.17 ”2” 0.83 1 0.67 0.33 0.17 0.31
”3” 0.5 0.67 1 0.67 0.5 ”3” 0.5 0.67 1 0.67 0.5 0.31
”1” 1 0.83 0.5 0.17 0 ”1” 1 0.83 0.5 0.17 0 0.35
”5” 0 0.17 0.5 0.83 1 ”5” 0 0.17 0.5 0.83 1 0.35
(cid:170)(cid:174)(c id:174)(cid:174)(cid :174)(cid:174)(cid:1 74)(cid:174)(cid:174 )(cid:174)(cid:172) (cid:170)(cid:174)(c id:174)(cid:174)(cid :174)(cid:174)(cid:1 74)(cid:174)(cid:174 )(cid:174)(cid:172)) 0.35
(cid:169)(cid:173)(c id:173)(cid:173)(cid :173)(cid:173)(cid:1 73)(cid:173)(cid:173 )(cid:173)(cid:171) (cid:169)(cid:173)(c id:173)(cid:173)(cid :173)(cid:173)(cid:1 73)(cid:173)(cid:173 )(cid:173)(cid:171) 0.36
(d) Cube-root dependency ”1” 1 0.9 0.5 0.1 0 (d)立方根依存性「1」10.90.50.10 0.37
”4” 0.1 0.21 0.6 1 0.9 ”4” 0.1 0.21 0.6 1 0.9 0.62
”2” 0.9 1 0.6 0.21 0.1 ”2” 0.9 1 0.6 0.21 0.1 0.62
”3” 0.5 0.6 1 0.6 0.5 ”3” 0.5 0.6 1 0.6 0.5 0.31
”5” 0 0.1 0.5 0.9 1 ”5” 0 0.1 0.5 0.9 1 0.71
(cid:170)(cid:174)(c id:174)(cid:174)(cid :174)(cid:174)(cid:1 74)(cid:174)(cid:174 )(cid:174)(cid:172) (cid:170)(cid:174)(c id:174)(cid:174)(cid :174)(cid:174)(cid:1 74)(cid:174)(cid:174 )(cid:174)(cid:172)) 0.35
3.3 Models 3.3.1 Prerequisites. 3.3モデル 3.3.1 前提条件。 0.46
The idea of the proposed approach lies at the intersection of the HybridSVD model [10] and CoFFee model (Collaborative Full Feedback Model) [8]. 提案手法の考え方は,hybridsvdモデル [10] と coffee model (collaborative full feedback model) [8] の交点にある。 0.66
The novelty of the HybridSVD model [10] was in taking into consideration the side similarity between users and/or between items. hybridsvdモデル [10] の新規性は,ユーザ間の側相似性とアイテム間の相似性を考慮したものである。 0.72
The standard PureSVD approach can be reformulated as an eigendecomposition problem of a scaled user-based or item-based cosine similarity. 標準的なPureSVDアプローチは、スケールされたユーザベースまたはアイテムベースのコサイン類似性の固有分解問題として再構成することができる。
訳抜け防止モード: 標準的なPureSVDアプローチは、スケールしたユーザの固有分解問題として再構成できる ---------- コサインの類似性
0.70
In the user-based case the eigendecomposition is made for 𝑅𝑅𝑇 matrix, Manuscript submitted to ACM ユーザベースの場合、固有分解は RRT 行列に対して行われ、ACM に提出される。 0.58
英語(論文から抽出)日本語訳スコア
Tensor-based Collaborative Filtering With Smooth Ratings Scale スムースレーティングスケールを用いたテンソルベース協調フィルタリング 0.66
5 where 𝑅 ∈ R𝑀×𝑁 is a matrix of interactions with M users and N items. 5 R ∈ RM×N は M ユーザと N 項目との相互作用の行列である。 0.63
If we take the 𝑘𝑖 𝑗 = 𝑟𝑇 𝑖 𝑟 𝑗 element of this matrix, that is the similarity score between users i and j, the contribution of each item is taken into consideration only in case it is presented in the preference profiles of both users i and j. この行列の Ki j = rT i r j 要素、つまりユーザ i と j の類似点をとると、各項目の寄与は、ユーザ i と j の両方の選好プロファイルに示される場合にのみ考慮される。 0.65
So, such problem statement doesn’t take into account the possible dependency between items (and users). したがって、そのような問題ステートメントはアイテム(およびユーザ)間の依存性を考慮に入れない。 0.75
To tackle this problem, the authors suggest to replace scalar product 𝑖 𝑆𝑟 𝑗, where 𝑆 ∈ R𝑁×𝑁 is a symmetric matrix that incorporates side information between 𝑟𝑇 𝑖 𝑟 𝑗 with a bilinear form 𝑟𝑇 items. この問題に対処するため、著者らはスカラー積 i Sr j を置き換えることを提案し、そこで S ∈ RN×N は rT i r j と双線型形式 rT 項目の間の側情報を含む対称行列である。 0.80
The second model that inspired this paper is the CoFFee model [8]. この論文に触発された2つ目のモデルは、CoFFeeモデル[8]です。 0.69
According to a well-known folding-in technique [7] the prediction of ratings in a PureSVD case for the new users can be obtained as 𝑉𝑉 𝑇 𝑝, where p is a vector of preferences of a user and V is an orthogonal factor of latent movies representation obtained in the standard SVD approach. よく知られている折り畳み込み技術[7]によれば、新規ユーザに対するPureSVDケースのレーティングの予測は、pがユーザの好みのベクトル、Vが標準SVDアプローチで得られた潜像表現の直交因子であるVVTpとして得ることができる。 0.72
Now assume the extreme case where we have only one rating provided by the user. さて、ユーザーが提供する格付けが1つしかない極端な場合を想定します。
訳抜け防止モード: さて、極端なケースを仮定します。 ユーザによる評価は 1つだけです
0.65
Irrespective of the value of this rating (either it will be 2 or 5) it will just rescale the values in the product 𝑉𝑉 𝑇 . この格付けの値によらず(もし 2 か 5 になるなら)、単に製品 vv t の値を再スケールするだけである。 0.68
Since the final ranking doesn’t depend on the value of this scaling factor in this particular case, it highlights the problem of the suggested method. 最終ランキングは、この特定のケースでこのスケーリングファクターの値に依存しないので、推奨されるメソッドの問題を強調する。 0.60
For solving it, the authors propose the following framework. これを解決するため、著者らは以下の枠組みを提案する。 0.61
This model predicts the relevance scores which can be further used for selecting top-n recommendations: このモデルは、トップnレコメンデーションの選択にさらに使用できる関連スコアを予測する。 0.61
𝑓𝑈 : 𝑈 𝑠𝑒𝑟 × 𝐼𝑡𝑒𝑚 × 𝑅𝑎𝑡𝑖𝑛𝑔 → 𝑅𝑒𝑙𝑒𝑣𝑎𝑛𝑐𝑒 𝑆𝑐𝑜𝑟𝑒 𝑓𝑈 : 𝑈 𝑠𝑒𝑟 × 𝐼𝑡𝑒𝑚 × 𝑅𝑎𝑡𝑖𝑛𝑔 → 𝑅𝑒𝑙𝑒𝑣𝑎𝑛𝑐𝑒 𝑆𝑐𝑜𝑟𝑒 0.42
Let’s have a tensor X ∈ RM×N×K, where M is the total amount of users, N is the total amount of items and K is the テンソル X ∈ RM×N×K とし、M はユーザの総量、N はアイテムの総量、K はアイテムの総量とする。 0.62
total amount of rating values. The values of the tensor X are binary: 評価値の総量です テンソル x の値は二元数である。 0.59
𝑥𝑖 𝑗𝑘 = 1 if (i,j,k) ∈ 𝐻 i,j,k) ∈ h のとき、jk = 1 である。 0.67
𝑥𝑖 𝑗𝑘 = 0 otherwise xi jk = 0 でなければ 0.80
(1) where 𝐻 is a history of recommendations. (1) H はレコメンデーションの歴史です。 0.43
So, triplet (i, j, k) characterizes whether user i has seen movie j and gave it rating k. したがって、triplet (i, j, k) はユーザー i が movie j を見たかどうかを特徴付け、評価 k を与えた。 0.64
Next step is the tensor decomposition for obtaining latent representations of users, movies and ratings. 次のステップは、ユーザ、映画、レーティングの潜在表現を取得するためのテンソル分解である。 0.51
Using Tucker decomposition [11] (which authors proved to be the most efficient) one can obtain the following representation: タッカー分解[11](著者が最も効率的であることを証明した)を使えば、次の表現が得られる。 0.72
(2) In equation (2) G ∈ R𝑟1×𝑟2×𝑟3, 𝑈 ∈ R𝑀×𝑟1, 𝑉 ∈ R𝑁×𝑟2, 𝑊 ∈ R𝐾×𝑟3, where (𝑟1, 𝑟2, 𝑟3) is a multilinear rank of the (2) 方程式 (2) G ∈ Rr1×r2×r3, U ∈ RM×r1, V ∈ RN×r2, W ∈ RK×r3, ここで (r1, r2, r3) は多線型ランクである。 0.86
X ≈ G ×1 U ×2 V ×3 W x は g × 1 u × 2 v × 3 w である。 0.59
decomposition. This decomposition can be effectively computed with a higher order orthogonal iterations (HOOI) algorithm [5]. 分解 この分解は高次直交反復法(HOOI)アルゴリズム[5]で効果的に計算できる。 0.47
Using matrices obtained from decomposition predicted ratings for a user 𝑖 given the binary matrix of preferences 𝑃𝑖 ユーザの分解予測評価から得られた行列を用いて、好みの2次行列をPiとする 0.71
can be calculated as: (3) where 𝑅𝑖 ∈ RN×K, 𝑃𝑖 ∈ RN×K. 以下で計算できます (3) ここでは Ri ∈ RN×K, Pi ∈ RN×K となる。 0.73
In contrast to the conventional models that predict a single score for an item, the output of this model is a vector of scores where each score states for the likeliness of each rating to belong to an item. アイテムの1つのスコアを予測する従来のモデルとは対照的に、このモデルの出力はスコアのベクトルであり、各評価の類似度について各スコアがアイテムに属することを示す。 0.72
These scores metaphorically compared by Frolov and Oseledets [8] with «fifty shades of ratings» allow to better represent ratings prediction structure and can enforce ranking by aggregating this information to the different extent. これらのスコアはフロロフとオセデッツ [8] に比喩的に比較され、評価の予測構造をより良く表現することができ、この情報を異なる範囲に集約することでランキングを強制することができる。 0.70
𝑅𝑖 ≈ 𝑉𝑉 𝑇 𝑃𝑖𝑊𝑊 𝑇 𝑅𝑖 ≈ 𝑉𝑉 𝑇 𝑃𝑖𝑊𝑊 𝑇 0.42
3.3.2 LaTTe. 3.3.2 LaTTe 0.31
Our model which we call LaTTe (Latent Attention Model) combines inside itself the idea of tensor representation and similarity matrix between ratings. LaTTe(Latent Attention Model)と呼ばれる私たちのモデルは、テンソル表現の概念とレーティング間の類似性行列を内包する。 0.81
Idea of similarity matrix is taken from the HybridSVD model while the tensor representation of triples user-item-rating relates to the CoFFee model. 類似性行列の考え方はハイブリッドSVDモデルから取られるが、三重項のテンソル表現はCoFFeeモデルと関係する。 0.76
It was proved by Burke [2] that バーク[2]によって証明された 0.54
Manuscript submitted to ACM ACMに提出された写本 0.63
英語(論文から抽出)日本語訳スコア
6 Marin and Makhneva, et al 6 マリンとマフネヴァなど 0.45
models that combine both collaborative data and side information demonstrate better performance in many cases. 協調データとサイド情報を組み合わせたモデルは、多くの場合、より良いパフォーマンスを示す。 0.72
The exact similarity matrices are taken from section Similarity matrices. 正確な類似度行列はセクション類似度行列から取り出される。 0.68
Following Frolov and Oseledets [9] the solution of the eigendecomposition problem can be represented in the form Frolov と Oseledets に続いて[9] 固有分解問題の解は形式で表すことができる 0.81
of standard truncated SVD of an auxiliary matrix and is approximated as: 補助行列の標準的な切り裂かれたSVDの、そして、次のように近似される 0.54
Note that(cid:98)𝑊 ∈ R𝐾×𝑟3 corresponds to the auxiliary latent space. 注意: (cid:98)W ∈ RK×r3 は補助潜在空間に対応する。 0.72
The latent representation of ratings in the original 原文における評定の潜在的表現 0.53
(4) space is then represented as: (4) 空間は次のように表される。 0.53
(cid:98)X ≈ G ×1(cid:98)U ×2(cid:98)V ×3(cid:98)W (cid:98)X > G ×1(cid:98)U ×2(cid:98)V ×3(cid:98)W 0.39
2(cid:98)𝑊 2(cid:98)w である。 0.56
𝑊 = 𝐾− 1 From the HybridSVD model and folding-in for the CoFFee model it’s easy to obtain the folding-in for LaTTe: 𝑊 = 𝐾− 1 コーヒーモデルのhybridsvdモデルとfolding-inモデルから、ラテ用のfolding-inを得ることは簡単です。
訳抜け防止モード: 𝑊 = 𝐾− 1 HybridSVDモデルとフォールディングから - CoFFeeモデルでは簡単です 折り畳み,折り畳み,折り畳み,折り畳み. -LaTTe用:
0.63
𝑅𝑖 ≈ 𝑉𝑉 𝑇 𝑃𝑖𝐾 1 𝑅𝑖 ≈ 𝑉𝑉 𝑇 𝑃𝑖𝐾 1 0.42
2𝑊𝑊 𝑇 𝐾− 1 2𝑊𝑊 𝑇 𝐾− 1 0.42
2 (5) (6) 4 EVALUATION METRICS As it was described in Frolov and Oseledets [8] standard metrics of offline evaluation are insensitive to irrelevant items predictions. 2 (5) (6) 4 評価指標 frolov と oseledets [8] で説明したように、オフライン評価の標準指標は、無関係な項目予測に影響を受けない。 0.49
We overestimate the performance of our model when we use metrics that don’t take into account the rating left by user as a feedback. ユーザが残した評価を考慮に入れないメトリクスをフィードバックとして使用する場合、モデルのパフォーマンスを過大評価します。
訳抜け防止モード: 私たちはモデルの性能を過大評価します。 ユーザの残した評価を考慮しないメトリクスをフィードバックとして使用しています。
0.79
For example, a user actually watches the movie we recommended but put a dislike – this situation shouldn’t be considered as a successful recommendation. 例えば、ユーザーが推奨する映画を実際に見ているが、嫌われている ― この状況は、推奨映画とは見なすべきではない。 0.67
One of the solutions to this problem is to divide rating values into two classes using a negativity threshold value4 [8]. この問題の解決策の1つは、負のしきい値4[8]を使って評価値を2つのクラスに分けることである。
訳抜け防止モード: この問題に対する解決策の1つは 評価値をネガティビティ閾値4[8]を用いて2つのクラスに分割する。
0.80
Using this notion we can calculate true positive (TP), false positive (FP), true negative (TN), false negative (FN). この概念を用いて、真正(TP)、偽正(FP)、真負(TN)、偽負(FN)を計算することができる。 0.72
It should be noted that we don’t take into account those recommendations for which we didn’t get any feedback from a user. 注意すべきなのは、ユーザからのフィードバックが得られなかったこれらの推奨事項を考慮に入れていないことです。 0.75
It can’t be interpreted as false positive since we don‘t know the real rating – it may be the case that the user just missed our recommendation and still has a chance to take it later providing positive or negative feedback. 本当のレーティングを知らないので、偽陽性とは解釈できない ― ユーザーが推薦を逃したばかりで、後になって肯定的あるいは否定的なフィードバックを提供するチャンスがあるかもしれない。 0.63
Standard metrics like precision and recall now can be calculated in a usual way. 精度やリコールといった標準的なメトリクスは、通常の方法で計算できる。 0.73
On the contrary, HR and MRR metrics [6] need some changes: we can still calculate them but we should divide each of them into two parts (HR for positive ratings, HR+, and HR for negative ratings, HR−; MRR for positive ratings, MRR+ and MRR for negative ratings, MRR−). それとは対照的に、HRとMRRのメトリクス [6] にはいくつかの変更が必要である: まだ計算できるが、それぞれを2つに分ける必要がある(正のレーティングはHR、負のレーティングはHR+、HR、正のレーティングはHR−、正のレーティングはMRR+、MRR−)。 0.75
Both HR and MRR show how many items are relevant for users – that’s why we would like them to be as high as possible. HRとMRRはどちらも、ユーザにとって何つのアイテムが関係しているかを示している。
訳抜け防止モード: HRとMRRは、ユーザにとってどれだけのアイテムが関係があるかを示す だからこそ、できるだけ高いものにしたいのです。
0.69
But this logic changes for negative ratings – they are not relevant for users. しかし、このロジックはネガティブな評価に対して変わります。 0.40
So, HR− and MRR− are aimed to be as low as possible. したがって、HR-とMRR-は可能な限り低いことを目標としている。 0.62
This approach allows us to track both aspects of our model’s performance. このアプローチにより、モデルのパフォーマンスの両側面を追跡することができます。 0.74
Namely, predicting relevant items and avoiding irrelevant ones. すなわち、関連するアイテムを予測し、無関係なものを避ける。 0.55
This makes our task quite close to a classification task – more relevant metrics are available, e g ROC-AUC, PR-AUC, etc. これにより、タスクは分類タスクに非常に近い — ROC-AUC、PR-AUCなど、より関連するメトリクスが利用可能になります。 0.60
[8]. However, these metrics may show different results, i.e. one model is good for a positive class, another one is good for a negative class. [8]. しかし、これらのメトリクスは異なる結果を示す可能性がある。つまり、あるモデルは正のクラスに、別のモデルは負のクラスに良い。 0.54
We want to have one metric to see the overall performance of the model and tune it accurately. モデルの全体的なパフォーマンスを確認して、正確にチューニングするための、ひとつのメトリックが必要です。 0.60
So, we need to combine results for both classes in one metric. したがって、両方のクラスの結果を1つのメトリックで組み合わせる必要があります。 0.68
For that we use Matthews correlation coefficient – another classification metric. そのため、別の分類計量であるマシューズ相関係数を用いる。 0.64
This coefficient shows correlation between relevant and predicted items5. この係数は関連する項目5と予測項目5の相関を示す。 0.64
So we want this coefficient to be as ですから私たちはこの係数を 0.67
4values of ratings which are less that threshold are considered as negative, and vice versa 5between true and predicted labels in terms of binary classification Manuscript submitted to ACM 4 閾値未満のレーティングの値が負と見なされ、逆に ACM に提出された二項分類マニュアルで真と予測されたラベルが5 である。 0.73
英語(論文から抽出)日本語訳スコア
Tensor-based Collaborative Filtering With Smooth Ratings Scale スムースレーティングスケールを用いたテンソルベース協調フィルタリング 0.66
7 high as possible. You can find example of correlation calculations in Figure 1 – one may notice that unknown rating is not included due to reasons described earlier. 7 できるだけ高い 相関計算の例を図1に示すことができます – 前述した理由から、未知のレーティングが含まれていないことに気付くかも知れません。
訳抜け防止モード: 7 できるだけ高い 図1で相関計算の例を見ることができます 前述の理由により、未知の評価は含まれないことに気づくこともある。
0.56
Fig. 1. The graph shows an example of calculating MCC metric. 図1。 このグラフはMCCメトリックの計算例を示している。 0.52
Stars in the recommendations column show recommended items. レコメンデーションコラムのスターは推奨アイテムを表示します。 0.69
Numbers in the holdout column show actual rating for predicted items (if they are in holdout, otherwise there is no rating). holdout カラムの数値は、予測されたアイテムの実際のレーティングを示しています( holdout にある場合、それ以外はレーティングはありません)。 0.60
Numbers that highlighted by green color are "positive" ratings, by red color – "negative" ratings. 緑の色で強調される数字は、赤い色で「肯定的な」評価である。 0.65
Both columns can be converted to one-hot vectors where 1 corresponds to positive class, 0 – to negative class. どちらの列も 1 が正のクラス、0 から負のクラスに対応する 1-ホットベクトルに変換できる。 0.82
These vectors can be used to calculate MCC if we find correlation between them これらのベクトルは、それらの相関が見つかるとMCCを計算するのに使うことができる 0.67
We can also derive Matthews correlation coefficient in terms of TP, FP, TN, FN: また、TP、FP、TN、FNの項でマシューズ相関係数を導出することもできる。 0.65
𝑀𝐶𝐶 = √︁(𝑇 𝑃 + 𝐹 𝑁) · (𝑇 𝑃 + 𝐹 𝑃) · (𝑇 𝑁 + 𝐹 𝑃) · (𝑇 𝑁 + 𝐹 𝑁) √(1+1)·(1+1)·(1+1)·(1+1) = 0 𝑀𝐶𝐶 = √︁(𝑇 𝑃 + 𝐹 𝑁) · (𝑇 𝑃 + 𝐹 𝑃) · (𝑇 𝑁 + 𝐹 𝑃) · (𝑇 𝑁 + 𝐹 𝑁) √(1+1)·(1+1)·(1+1)·(1+1) = 0 0.46
𝑇 𝑃 · 𝑇 𝑁 − 𝐹 𝑃 · 𝐹 𝑁 𝑇 𝑃 · 𝑇 𝑁 − 𝐹 𝑃 · 𝐹 𝑁 0.42
1·1−1·1 For our example (see Figure 1): 𝑀𝐶𝐶 = This metric combines classical precision and recall (HR in our case) in one metric [16]. 1·1−1·1 私たちの例(図1: MCC = この計量は古典的精度とリコール(我々の場合はHR)を1つの計量 [16] で結合する。 0.46
Additionally, this metric is insensitive to class imbalance. さらに、この計量は 階級不均衡に敏感です 0.68
We also consider coverage (the amount of unique items recommended to all users divided by the amount of unique また、カバー範囲(各ユーザに対して推奨されるユニークなアイテムの量)についても検討する。 0.65
items in the training dataset) to estimate the diversity of predictions. 予測の多様性を推定するためのトレーニングデータセットの項目)。 0.76
Totally, we consider the following metrics to evaluate models: HR+, HR−, MRR+, MRR−, coverage, MCC. 本稿では, HR+, HR−, MRR+, MRR−, カバレッジ, MCCのモデルを評価するための指標について考察する。
訳抜け防止モード: 総じて、以下の指標を考察する。 to evaluate model: HR+, HR−, MRR+, MRR−, coverage, MCC。
0.81
MCC is the metric we use to tune models. MCCは モデルのチューニングに使用するメトリクス。 0.64
5 EXPERIMENTAL SETUP 5.1 Datasets To test our hypothesis we use publicly available Movielens 6 (1M and 10M) and Amazon 7 "CDs and Vinyl", "Electronics" and "Video Games" datasets. 5 ExPERIMENTAL SETUP 5.1 Datasets 仮説をテストするには、公開されているMovielens 6 (1Mと10M) と Amazon 7 "CDs and Vinyl" と "Electronics" と "Video Games" のデータセットを使用します。 0.75
Each of these Amazon datasets is the subset of the original data in which all users and これらのamazonデータセットは、すべてのユーザと元のデータのサブセットである。 0.78
6https://grouplens.o rg/datasets/movielen s/ 7http://snap.stanfor d.edu/data/amazon/pr oductGraph/categoryF iles/ 6https://grouplens.o rg/datasets/movielen s/ 7http://snap.stanfor d.edu/data/amazon/pr oductGraph/categoryF iles/ 0.12
Manuscript submitted to ACM ACMに提出された写本 0.63
0FN511⭐TP41-⭐N/A-0TN201⭐FP10HoldoutRecommend ationsMCC = corrcoef([0,1,0,1], [1,1,0,0]) = 0 0FN511-TP41-A-0TN201 -FP10HoldoutRecommen dationsMCC = corrcoef([0,1,0,1], [1,1,0,0]) = 0 0.22
英語(論文から抽出)日本語訳スコア
8 Marin and Makhneva, et al 8 マリンとマフネヴァなど 0.45
items have at least 5 reviews (it is the so-called 5-core filtering). アイテムには少なくとも5つのレビューがある(いわゆる5コアフィルタリング)。 0.80
Also we decided to take one not filtered Amazon dataset - "Video Games" from Amazon Review Data (2018) 8. また、Amazon Review Data (2018) 8から、フィルタされていないAmazonデータセット - "Video Games"を取り出すことにした。 0.78
Data description of each dataset is presented in Table 各データセットのデータ記述はテーブルに示されます 0.82
1. Next, we analyzed the distributions of rating values in all of the suggested datasets. 次に,提案するすべてのデータセットにおける評価値の分布を分析した。 0.77
These distributions are presented in Figure これらの分布は図に示されます 0.69
2. For Movielens 10M we transformed ratings into 5 -scale range (more details in section 6.3 Algorithms). 2.Movielens 10Mではレーティングを5スケールにしました(詳細はセクション6.3アルゴリズムを参照)。 0.69
As you can see, the distributions of ratings in Amazon dataset are very biased towards "5" value. ご覧のとおり、Amazonデータセットのレーティングの分布は“5”の値に非常に偏っている。 0.77
The different pattern can be observed in the Movielens datasets. movielensデータセットでは、異なるパターンを見ることができる。 0.72
Distributions of these datasets look like shifted normal distribution. これらのデータセットの分布は、シフト正規分布のように見える。 0.58
Table 1. Numerical statistics of the datasets. 表1。 データセットの数値統計。 0.73
Dataset Movielens 1M Movielens 10M データセット Movielens 100M Movielens 1000M 0.50
Amazon CDs and Vinil (5-core) Amazon Electronics (5-core) Amazon Video Games (5-core) Amazon CDとVinil(5コア)Amazon Electronics(5コア)Amazon Video Games(5コア) 0.41
Amazon Video Games (not filtered) amazonのビデオゲーム(フィルターなし) 0.88
N_review N_users N_items N_rates 1000209 10000054 1097592 1689188 231780 1324753 N_review N_users N_items N_rates 1000209 10000054 1097592 1689188 231780 1324753 0.34
6040 69878 75258 192403 24303 826767 6040 69878 75258 192403 24303 826767 0.43
3706 10677 64443 63001 10672 50210 3706 10677 64443 63001 10672 50210 0.42
5 10 5 5 5 5 5 10 5 5 5 5 0.43
Fig. 2. The distribution of rating values. 図2。 評価値の分布。 0.58
5.2 Data preprocessing In order to simulate experiments as similar as possible to the real life process, we conducted special preprocessing of data by the timestamp parameter. 5.2 データ前処理 実生活プロセスと可能な限り類似した実験をシミュレートするために, タイムスタンプパラメータによるデータの特別前処理を行った。 0.86
First of all, we decided to split data on train and test parts – last 20% of the most recent reviews (by timestamp) were included to the test part. まず、列車とテストのパーツでデータを分割することにしました。最新のレビュー(タイムスタンプによる)の20%はテストに含まれていました。 0.74
An exception was made for Amazon "Electronics" dataset where we splitted data using 5% of the most recent reviews to make holdout size be equal to 10k (the size that doesn’t overload computations and is still efficient for making consistent conclusions). Amazon "Electronics"データセットには例外があり、最新のレビューの5%を使ってデータを分割して、ホールドアウトサイズを10kにしました(計算をオーバーロードせず、一貫性のある結論を出すのに効率的です)。 0.74
This split was made to avoid "predictions 8https://nijianmo.gi thub.io/amazon/index .html Manuscript submitted to ACM この分割は、acmに提出された"predictions 8https://nijianmo.gi thub.io/amazon/index .html"を避けるために行われた。 0.43
英語(論文から抽出)日本語訳スコア
Tensor-based Collaborative Filtering With Smooth Ratings Scale スムースレーティングスケールを用いたテンソルベース協調フィルタリング 0.66
9 from future". Then, the test part of data was split into validation and test part by using "leave-last-out" method of obtaining holdout items twice: last items of all users from test data went to test holdout, and last items from remaining test data went to validation holdout. 9 テストデータからすべてのユーザの最後の項目がテストホールドアウトに、残りのテストデータの最後の項目がバリデーションホールドアウトに送られた。
訳抜け防止モード: 9 その後、データのテスト部は検証とテスト部に分割された。 leave - last -out"メソッドを使って2回ホールドアウトアイテムを取得する テストデータからの最後の項目は、テストホールトアウトです。 残ったテストデータの最後の項目は 検証ホールトアウトでした
0.58
Also we removed items from both of the holdouts that were not presented in the training dataset. また、トレーニングデータセットに表示されていない両方のホールトアウトからアイテムを削除しました。 0.70
5.3 Algorithms We compared the suggested method with existing algorithms for generating top-n recommendations. 5.3アルゴリズム 提案手法を既存のアルゴリズムと比較し、トップnレコメンデーションを生成する。 0.70
In this comparison were used the following algorithms: この比較では以下のアルゴリズムを用いた。 0.84
• Random model that generates recommendations randomly for all users. •全ユーザに対してランダムにレコメンデーションを生成するランダムモデル。 0.72
• Most Popular (MP) model always predicts the most popular items in the dataset for all users. • Most Popular(MP)モデルは、データセットで常に最も人気のあるアイテムを予測します。 0.82
• Normalized PureSVD - EigenRec-inspired [10, 15] model uses singular value decomposition (SVD) of the user-item matrix to obtain latent vectors that are used in the top-n generating method. • 正規化されたPureSVD - EigenRecにインスパイアされた[10,15]モデルは、ユーザイトム行列の特異値分解(SVD)を使用して、トップn生成法で使用される遅延ベクトルを得る。
訳抜け防止モード: •正規化puresvd - eigenrec - inspired [ 10, 15 ] model using singular value decomposition (svd ) of the user - item matrix トップ−n生成法で使用される潜在ベクトルを得る。
0.82
Additionally it reweights "popularity" of items by multiplication on diagonal matrix that allows to avoid predicting only popular items. さらに、人気アイテムのみの予測を避けるために対角行列に乗算することで、アイテムの「人気度」を再強調する。 0.61
This baseline is stronger than usual PureSVD. この基準線は通常のPureSVDよりも強い。 0.68
• EASEr [18] is linear model with constraints for final weights matrix. • EASEr [18] は最終重み行列の制約付き線型モデルである。 0.85
• MultiVAE [13] is neural network approach, which is a regularized Variational Autoencoder with multinomial •MultiVAE[13]は、多項型正規化変分オートエンコーダであるニューラルネットワークアプローチである 0.87
likelihood, denoted as Mult-VAE 𝑃𝑅. Mult-VAE PRと表記される。 0.59
• CoFFee [8] model uses tensor factorization algorithm (HOOI) to generate recommendations using 3-dimensional representation of input user-item matrix. • CoFFee [8] モデルでは, テンソル分解アルゴリズム (HOOI) を用いて, 入力されたユーザ-テム行列の3次元表現を用いてレコメンデーションを生成する。
訳抜け防止モード: • coffee [ 8 ] model using tensor factorization algorithm (hooi ) 入力ユーザ−アイテム行列の3次元表現を用いてレコメンデーションを生成する。
0.79
In this model the normalization matrix were also used to reweight "popularity" of items. このモデルでは、正規化行列はアイテムの「人気」の重み付けにも用いられた。 0.68
• LaTTe is the proposed tensor-based approach with “smoothed” ratings. LaTTeは“スムーズな”評価を持つテンソルベースのアプローチだ。 0.54
This model uses normalization as well as このモデルは正規化だけでなく 0.76
MP and CoFFee models. MP と CoFFee のモデル。 0.91
To make a valid comparison of the models we tune them. モデルの有効な比較をするために、調整します。 0.75
The first two baselines haven’t got any hyperparameters for tuning. 最初の2つのベースラインにはチューニングのためのハイパーパラメータがない。 0.71
In Normalized PureSVD model we tuned two parameters: normalization factor that was used in the normalization matrix’s power and dimensionality (rank) of the latent space of the users and items in SVD. 正規化されたPureSVDモデルでは、正規化行列のパワーとユーザ潜在空間の次元性(ランク)とSVDのアイテムの正規化係数の2つのパラメータを調整した。 0.73
First parameter took values from [0, 2] with step 0.1 and for second one we use the following grid - (2 × 2𝑖, 3 × 2𝑖), 𝑖 ∈ [5, 8]. 第1のパラメータは[0, 2]からステップ0.1の値を取り、第2のパラメータは次のグリッド((2 × 2i, 3 × 2i), i ∈ [5, 8])を使用する。 0.83
In EASEr model we tuned L2-norm regularization parameter 𝜆 from [50, 950] with step 50. EASErモデルでは、ステップ50で[50, 950]からL2-ノルム正規化パラメータλを調整した。 0.71
When it came to the tuning of Mult-VAE 𝑃𝑅 we studied tuning process suggested in the original paper [13]. Mult-VAE PRのチューニングについて,本論文[13]で提案したチューニングプロセスについて検討した。 0.60
During it we focused on three hyperparameters: annealing factor 𝛽 (a coefficient in front of the Kullback-Leiber term, which is a part of the final loss), network architecture (number of neurons in the 1st and 2nd hidden layers) and batch size. その間、我々は3つのハイパーパラメーターに焦点を当てた:アニーリング因子β(最終損失の一部であるクルバック・リーバー項の前にある係数)、ネットワークアーキテクチャ(第1層と第2層に隠されたニューロンの数)、バッチサイズ。 0.72
As it comes to the annealing factor we followed the original idea with early stopping: once 𝛽 achieved the best Matthew’s correlation coefficient (MCC) for the last 10 epochs, we fixed it and trained the network from the scratch. βが過去10回最高のMatthew相関係数(MCC)を達成したら、それを修正し、ネットワークをゼロからトレーニングしました。
訳抜け防止モード: 焼鈍因子に関しては、私たちは最初のアイデアを早期停止で追った。 : βが過去10回で最も良いマシュー相関係数(MCC)を達成したとき。 修復して ネットワークを ゼロから訓練した。
0.67
After tuning we picked one, which achieved the best MCC for training. チューニング後、トレーニングで最高のmccを達成した1つを選びました。 0.57
In addition, we checked different architectures for Mult-VAE𝑃𝑅 model because of the poor description of the original tuning parameters of hidden layers. さらに,Mult-VAEPRモデルに対して,隠蔽層の本来のチューニングパラメータが不十分なため,異なるアーキテクチャを検証した。 0.72
For all such experiments we used batch size of 500 as it was suggested in the original paper. このような実験はすべて、オリジナルの論文で提案されたように、500のバッチサイズを使用しました。 0.63
Other tensor-based models (CoFFee and LaTTe) are the extension of Normalized PureSVD model in 3D space, so we consider to use normalization factor from PureSVD in these models, intuitively because "popularity" of the items doesn’t change in the extended 3D space. 他のテンソルベースモデル(coffeeとlatte)は、3d空間における正規化puresvdモデルの拡張であるため、これらのモデルではpuresvdからの正規化係数が用いられる。
訳抜け防止モード: 他のテンソルベースモデル (CoFFee と LaTTe ) は正規化された純SVDモデルの3次元空間の拡張である。 そこで我々はこれらのモデルでPureSVDの正規化因子を使用することを検討します。 は、拡張された3D空間では変わらないからです。
0.71
The latent space dimensionalities were tuned for the both of the tensor-factorization models. 潜在空間次元はテンソル分解モデルの両方に対して調整された。 0.66
Besides, we consider to take the equal dimensionality for users and items latent spaces, so these spaces’ dimensionality numbers were taken from the same grid as it was used in the Normalized PureSVD tuning. さらに、ユーザとアイテムの潜在空間の等次元性も考慮し、これらの空間の次元数は正規化されたpuresvdチューニングで使用されたのと同じグリッドから取られた。 0.76
The ratings’ Manuscript submitted to ACM 格付けマニュアルがACMに提出された 0.65
英語(論文から抽出)日本語訳スコア
10 Marin and Makhneva, et al 10 マリンとマフネヴァなど 0.45
rank number was taken from [2, 5] with step 1. ランク番号はステップ1で [2, 5] から取られた。 0.78
Additionally, we made hyperparameters’ tuning of different LaTTe models with all our proposed similarity matrices. さらに,提案した類似度行列を全て組み合わせたLaTTeモデルのハイパーパラメータのチューニングを行った。 0.75
5.4 Evaluation process Metrics described in section 4 were calculated for top-10 items during the evaluation process. 5.4 第4節に記載されている評価過程を評価過程で上位10項目について算出した。 0.58
As our target metric we consider MCC@10. ターゲットのメトリクスはmcc@10です。 0.50
Since ratings in tensor-based models (CoFFee and LaTTe) have their own dimension, these models predict the vector of scores for each pair user-item, instead of just a single number like in the conventional matrix factorization models. テンソルベースモデル(CoFFeeとLaTTe)のレーティングはそれぞれの次元を持つため、これらのモデルは従来の行列分解モデルのような1つの数ではなく、各ペアのユーザイテムに対するスコアのベクトルを予測する。 0.77
Each component of this vector describes a score for this pair based on the condition of a possible user’s feedback to the item. このベクトルの各コンポーネントは、アイテムに対するユーザのフィードバックの条件に基づいて、このペアのスコアを記述する。 0.71
To deal with the different ratings’ range we propose universal method of taking into account ratings influence. 異なる評価範囲に対応するために,評価の影響を考慮した普遍的な方法を提案する。 0.71
We convert all ranges of ratings into 5-values scale by considering top 20% of the sorted in descending order ratings’ values as "5", values from 20-40% we considered as "4" and so on. 我々は、下級格付けの値の上位20%を「5」、私たちが「4」とみなした20~40%の値とすることで、全ての評価範囲を5値尺度に変換します。 0.78
E.g. in 10-values scale scores of "9" and "10" in the vector are summed up into one value which we assign to rating "5" in the new scale. 例えば、ベクターの「9」と「10」の10値のスケールスコアを1つの値に集約し、新しいスケールの「5」の評価を割り当てる。 0.68
After such transformation we get the vector with only 5 values. このような変換の後、ベクトルは5つの値しか持たない。 0.66
However, this rating scale transformation method can be changed for different systems if there is some side information about rating values’ perception by users inside the system. しかし、システム内のユーザによる評価値の知覚に関するサイド情報があれば、異なるシステムでこのレーティングスケール変換方法を変更することができる。 0.85
Also we make an assumption that rating "3" and higher can be treated as positive rating (it is needed to calculate TP, TN, FP and FN). また、「3」以上の格付けを正の格付けとして扱うことができると仮定する(TP、TN、FP、FNを計算する必要がある)。 0.65
We combined predicted scores using its hidden "context" described above as it was suggested in [8]. 我々は,[8]で示唆されたように,上述の「文脈」を隠蔽して予測スコアを合成した。 0.65
In our experiments we consider several combinations of elements of this vector: only "5" ratings, ”4”+ ”5”, ”3”+ ”4”+ ”5” and ”3”+ ”4”+ ”5”− ”1” − ”2” "contexts". 実験では、このベクトルの要素のいくつかの組み合わせを検討する: “5” レーティングのみ、”4”+ ”5”、”3”+ ”4”+ ”5”、”3”+ ”4”+ ”5”− ”1” − ”2” 「コンテキスト」。 0.85
The last expression means that we sum the last three scores of the predicted vector and subtract scores for values "1" and "2" to obtain the final score for the particular pair user-item. 最後の式は、予測ベクトルの最後の3つのスコアと値 "1" と "2" の減算スコアを和って、特定のペアのユーザイテムの最終スコアを得ることを意味する。 0.75
The intuition is that in the last setup we encourage the high scores for the high rating values (3, 4, 5) and additionally penalize high scores for the low values of ratings (1,2). 直感的には、最後の設定では、高い評価値 (3, 4, 5) に対して高いスコアを奨励し、さらに低い評価値 (1,2) に対して高いスコアを罰する。 0.74
6 RESULTS The results for models (tuned on the valudation data) on the test datasets are presented in Table 2. 6結果 テストデータセットのモデル(評価データに基づいて調整された)の結果が表2に示されます。 0.85
For Movielens datasets our model shows the best 𝑀𝐶𝐶@10 value among all other models and relatively high 𝐻𝑅+ value. Movielensデータセットでは、私たちのモデルは、他のすべてのモデルの中で最高のMCC@10値と比較的高いHR+値を示しています。 0.57
We concluded that such results were achieved because of the close connectivity between suggested similarity matrices and the distribution of ratings on these datasets. その結果,提案する類似度行列とこれらのデータセット上の評価値の分布との密接な関係が得られた。 0.78
On the Amazon 5-core filtered datasets our model shows the same or lower performance in comparison with other models. amazon 5-core filtered datasetsでは、モデルが他のモデルと同等か低いパフォーマンスを示しています。 0.78
Distributions of ratings on these datasets (Figure 2) can be the reason of such results. これらのデータセットに対する評価の分布(図2)は、そのような結果の理由である。 0.72
Our approach of "smoothing" ratings assumed a close similarity between "5" and "4" rating values and greater differences between "3" and "4" values. smoothing」評価のアプローチは、"5" と "4" の評価値と、"3" と "4" の値の差が大きいことを仮定した。 0.69
However, this property stays unsatisfied according to the plotted histogram of ratings. しかし、この性質は評価のプロットされたヒストグラムにより満足できないままである。 0.52
Besides, the choice of the threshold for defining positive ratings can be the reason of the worse result on the datasets too. さらに、ポジティブ評価を定義するためのしきい値の選択は、データセットの悪い結果の原因にもなり得る。 0.75
Due to this observation the results could have been possibly improved in case of a different similarity matrix. この観察により、異なる類似性マトリックスの場合、結果は改善された可能性がある。 0.76
For instance, choosing a matrix that creates a considerable gap between "5" value rating and another values in terms of correlation could have resolved the issue. 例えば、"5"値のレーティングと相関性の観点から他の値との間にかなりのギャップを生み出す行列を選択することで、この問題を解決できた。
訳抜け防止モード: 例えば、行列を選択する。 5”の価値評価と,相関性の観点からの他の値の間に,かなりのギャップを生じさせます 問題は解決できた
0.71
Beyond this, choosing "5" as a new threshold for positive ratings could have been a better strategy. これ以外にも、ポジティブ評価の新しいしきい値として「5」を選ぶ方が良い戦略だったかもしれない。
訳抜け防止モード: さらに,肯定評価の新しいしきい値として"5"を選択する より良い戦略だったかもしれない
0.87
For non-filtered Amazon dataset for video games we get the best result with considerable gap from other models. ビデオゲームの非フィルタリングAmazonデータセットでは、他のモデルとはかなりの差で最高の結果が得られる。 0.65
We can see a little improvement in performance of LaTTe compare to unfiltered version of this dataset. LaTTeのパフォーマンスは、このデータセットの未フィルタリングバージョンと比較して少し改善されています。 0.68
While for the Manuscript submitted to ACM ACMに提出されたマニュアルの在り方 0.65
英語(論文から抽出)日本語訳スコア
Tensor-based Collaborative Filtering With Smooth Ratings Scale スムースレーティングスケールを用いたテンソルベース協調フィルタリング 0.66
11 PureSVD (which was the best on filtered version) there is a decrease in performance by 2%. 11 puresvd(フィルタされたバージョンで最高の)では、パフォーマンスが2%低下している。 0.58
One of the possible reasons of such situation is that our model is more robust to the noise we have in data: users or items with small number of available reviews have not much useful information we can include in the model. このような状況の可能性のある理由の1つは、私たちのモデルがデータにあるノイズに対してより堅牢であることである。
訳抜け防止モード: そのような状況の考えられる理由の1つは 私たちのモデルは、データ中のノイズに対してより堅牢です : 利用可能なレビュー数が少ないユーザやアイテムは、モデルに含めることのできるあまり有用な情報を持っていません。
0.78
However, our approach allows to deal with this problem since we consider also correlation between ratings which give us more data in comparison to other models. しかし,本手法では,他のモデルと比較してデータ量が多いレーティング間の相関も考慮し,この問題に対処できる。 0.80
Table 2. Comparison of the models’ performance on each of the datasets. 表2。 各データセットにおけるモデルのパフォーマンスの比較。 0.75
Dataset Movielens 1m データセット Movielens 1m 0.53
Movielens 10m フィルムレンズ10m 0.45
Amazon CDs_and_Vinyl (5-core) Amazon CDs_and_Vinyl(5コア) 0.31
Amazon Electronics (5-core) Amazon Electronics(5コア) 0.46
Amazon Video Games (5-core) amazonのビデオゲーム(5コア) 0.81
Amazon Video Games (not filtered) amazonのビデオゲーム(フィルターなし) 0.88
HR+ HR− MRR+ MRR− Coverage HR+HR−MRR+MRR−カバー 0.65
MCC HR+ HR− MRR+ MRR− Coverage MCC HR+ HR− MRR+ MRR− カバー 0.71
MCC HR+ HR− MRR+ MRR− Coverage MCC HR+ HR− MRR+ MRR− カバー 0.71
Metric@10 Random 0.0023 0.0000 0.0012 0.0000 0.9936 0.0221 0.0009 0.0000 0.0002 0.0000 1.0000 0.0120 0.0001 0.0000 0.0000 0.0000 0.9703 0.0027 0.0002 0.0000 0.0000 0.0000 0.9387 0.0049 0.0009 0.0002 0.0003 0.0002 0.9965 -0.0076 0.0001 0.000 0.000 0.000 0.9984 0.0043 Metric@10 Random 0.0023 0.0000 0.0012 0.0000 0.9936 0.0221 0.0009 0.0000 0.0002 0.0000 1.0000 0.0120 0.0001 0.0000 0.0000 0.0000 0.9703 0.0027 0.0002 0.0000 0.0000 0.0000 0.9387 0.0049 0.0009 0.0002 0.0003 0.0002 0.9965 -0.0076 0.0001 0.000 0.000 0.000 0.9984 0.0043 0.21
MCC HR+ HR− MRR+ MRR− Coverage MCC HR+ HR− MRR+ MRR− カバー 0.71
MCC HR+ HR− MRR+ MRR− Coverage MCC HR+ HR− MRR+ MRR− カバー 0.71
MCC HR+ HR− MRR+ MRR− Coverage MCC HR+ HR− MRR+ MRR− カバー 0.71
MCC MP 0.0224 0.0006 0.0078 0.0001 0.0301 0.0604 0.0425 0.0050 0.0160 0.0016 0.0276 0.0212 0.0027 0.0001 0.0007 0.0001 0.0003 -0.0019 0.0219 0.0010 0.0103 0.0005 0.0002 0.0254 0.0100 0.0013 0.0033 0.0005 0.0013 -0.0051 0.0350 0.0030 0.0108 0.0010 0.0003 0.0239 MCC MP 0.0224 0.0006 0.0078 0.0001 0.0301 0.0604 0.0425 0.0050 0.0160 0.0016 0.0276 0.0212 0.0027 0.0001 0.0007 0.0001 0.0003 -0.0019 0.0219 0.0010 0.0103 0.0005 0.0002 0.0254 0.0100 0.0013 0.0033 0.0005 0.0013 -0.0051 0.0350 0.0030 0.0108 0.0010 0.0003 0.0239 0.31
PureSVD EASEr MultiVAE CoFFee 0.0431 0.0495 0.0023 0.0058 0.0198 0.0166 0.0005 0.0010 0.2354 0.1302 0.0711 0.0447 0.0671 0.0920 0.0056 0.0035 0.0279 0.0370 0.0014 0.0019 0.1091 0.1646 0.0769 0.0706 0.0186 0.0268 0.0005 0.0012 0.0080 0.0122 0.0002 0.0005 0.0680 0.0980 0.0128 0.0008 0.0223 0.0295 0.0006 0.0010 0.0125 0.0111 0.0003 0.0003 0.0237 0.0092 0.0347 0.0374 0.0485 0.0739 0.0035 0.0018 0.0221 0.0339 0.0011 0.0018 0.1002 0.3458 0.0482 0.0522 0.0185 0.0450 0.0012 0.0035 0.0093 0.0268 0.0005 0.0018 0.0266 0.0094 0.0254 0.0318 PureSVD EASEr MultiVAE CoFFee 0.0431 0.0495 0.0023 0.0058 0.0198 0.0166 0.0005 0.0010 0.2354 0.1302 0.0711 0.0447 0.0671 0.0920 0.0056 0.0035 0.0279 0.0370 0.0014 0.0019 0.1091 0.1646 0.0769 0.0706 0.0186 0.0268 0.0005 0.0012 0.0080 0.0122 0.0002 0.0005 0.0680 0.0980 0.0128 0.0008 0.0223 0.0295 0.0006 0.0010 0.0125 0.0111 0.0003 0.0003 0.0237 0.0092 0.0347 0.0374 0.0485 0.0739 0.0035 0.0018 0.0221 0.0339 0.0011 0.0018 0.1002 0.3458 0.0482 0.0522 0.0185 0.0450 0.0012 0.0035 0.0093 0.0268 0.0005 0.0018 0.0266 0.0094 0.0254 0.0318 0.20
0.0558 0.0040 0.0225 0.0011 0.2713 0.0711 0.0902 0.0055 0.0366 0.0020 0.2144 0.0757 0.0654 0.0020 0.0320 0.0009 0.5785 0.0194 0.0522 0.0028 0.0288 0.0014 0.4382 0.0350 0.0840 0.0057 0.0375 0.0027 0.6076 0.0373 0.1233 0.0117 0.0636 0.0056 0.3776 0.0368 0.0558 0.0040 0.0225 0.0011 0.2713 0.0711 0.0902 0.0055 0.0366 0.0020 0.2144 0.0757 0.0654 0.0020 0.0320 0.0009 0.5785 0.0194 0.0522 0.0028 0.0288 0.0014 0.4382 0.0350 0.0840 0.0057 0.0375 0.0027 0.6076 0.0373 0.1233 0.0117 0.0636 0.0056 0.3776 0.0368 0.20
0.0587 0.0052 0.0188 0.0015 0.3344 0.0641 0.0836 0.0061 0.0305 0.0020 0.3491 0.0635 0.0394 0.0013 0.0173 0.0006 0.4853 0.0122 0.0455 0.0021 0.0216 0.0008 0.2968 0.0383 0.0730 0.0060 0.0288 0.0026 0.5472 0.0220 0.1331 0.0147 0.0646 0.0066 0.1993 0.0222 0.0587 0.0052 0.0188 0.0015 0.3344 0.0641 0.0836 0.0061 0.0305 0.0020 0.3491 0.0635 0.0394 0.0013 0.0173 0.0006 0.4853 0.0122 0.0455 0.0021 0.0216 0.0008 0.2968 0.0383 0.0730 0.0060 0.0288 0.0026 0.5472 0.0220 0.1331 0.0147 0.0646 0.0066 0.1993 0.0222 0.20
LaTTe 0.0598 0.0029 0.0196 0.0005 0.2097 0.0875 0.0808 0.0043 0.0325 0.0016 0.1759 0.0771 0.0185 0.0003 0.0077 0.0001 0.0414 0.0196 0.0221 0.0009 0.0119 0.0003 0.0084 0.0295 0.0652 0.0037 0.0285 0.0018 0.1422 0.0415 0.0368 0.0016 0.0208 0.0007 0.0121 0.0469 LaTTe 0.0598 0.0029 0.0196 0.0005 0.2097 0.0875 0.0808 0.0043 0.0325 0.0016 0.1759 0.0771 0.0185 0.0003 0.0077 0.0001 0.0414 0.0196 0.0221 0.0009 0.0119 0.0003 0.0084 0.0295 0.0652 0.0037 0.0285 0.0018 0.1422 0.0415 0.0368 0.0016 0.0208 0.0007 0.0121 0.0469 0.20
Also to show the importance of choice of the right approach for scaling ratings we compare values of target metric 𝑀𝐶𝐶@10 that were obtained by LaTTe model with different similarity matrices on all datasets. また、評価をスケールするために適切なアプローチを選択することの重要性を示すために、LaTTeモデルで得られたターゲットメトリックMCC@10の値を、すべてのデータセットで異なる類似度行列で比較する。 0.77
Results of the comparison are presented in Table 3. 比較結果は表3に示されています。 0.83
We concluded that for each dataset the best value of target metric was reached Manuscript submitted to ACM 各データセットについて、目標メトリックの最良の値が ACM に提出された Manuscript に到達したと結論付けた。 0.62
英語(論文から抽出)日本語訳スコア
12 Marin and Makhneva, et al 12 マリンとマフネヴァなど 0.45
with different similarity matrix and with different context aggregation condition. 異なる類似性行列と異なるコンテキスト集約条件を持つ。 0.73
To provide more intuition, the unique combination between context aggregation and proximity matrix can boost the performance considerably. より直感的に、コンテキストアグリゲーションと近接行列のユニークな組み合わせにより、性能を大幅に向上させることができる。
訳抜け防止モード: より直感的に コンテキストアグリゲーションと近接行列のユニークな組み合わせは、パフォーマンスを大幅に向上させる。
0.61
For instance, for Movielens 10M the best were "4"+"5" condition and sigmoid law while for the Amazon Video Games (not filtered) dataset "3"+"4"+"5"-"2"-"1" condition and cube-root law turned out to outperform other combinations. 例えばMovielens 10Mでは、最も優れたのは"4"+"5"条件とシグモイド法であり、Amazon Video Games(フィルタされていない)データセット"3"+"4"+"5"-"2"-"1"条件と立方根法は他の組み合わせよりも優れていた。 0.77
Beyond this, one more important observation can be made. これ以外にも、重要な観測が1つできる。 0.76
Since for some of the datasets only one context aggregation value is prevalent irrespective of the law it means that changing negativity threshold (which in our case is "3") may lead to better results. データセットのいくつかは、法によらず1つのコンテキストアグリゲーション値のみが一般的であるため、負性閾値の変化(この場合「3」)はより良い結果をもたらす可能性がある。 0.73
If there is no signal from current negativity threshold then choosing another threshold value can increase the performance. 現在の負性閾値からの信号がなければ、別の閾値を選択することで性能が向上する。
訳抜け防止モード: 現在の負性閾値からの信号がない場合 別のしきい値を選ぶと パフォーマンスが向上します
0.86
Also we noticed that on some of the Amazon datasets we obtained the much higher MCC@10 value on test data by LaTTe models tuned by HR@10. また、Amazonデータセットのいくつかでは、HR@10によって調整されたLaTTeモデルによるテストデータに対して、はるかに高いMCC@10値が得られました。 0.65
For example, on Video Games (5-core) dataset we reached 0.0480 value of MCC@10 on test data on LaTTe model tuned by HR@10. 例えば、Video Games(5コア)データセットでは、HR@10でチューニングされたLaTTeモデルのテストデータに対して、MCC@10の0.0480値に達しました。 0.61
This value is much better than performance of the model tuned by target metric. この値は、ターゲットメトリックによって調整されたモデルのパフォーマンスよりもはるかに優れている。 0.66
Moreover, LaTTe model shows worse result in comparison with CoFFee model on this dataset. さらに、このデータセット上のCoFFeeモデルと比較すると、LaTTeモデルは悪い結果を示す。 0.70
It means that incorrect choice of scaling ratings technique can not only slightly decrease the quality, but can make it even worse by "confusing" the model. つまり、スケールレーティングテクニックの誤った選択は、品質をわずかに低下させるだけでなく、モデルを“理解”することでさらに悪化させる可能性がある、ということです。 0.61
In particular, according to the MCC metrics we try to increase the amount of good recommendations in line with the decrease of the amount of bad recommendations. 特に、mccの指標によると、悪い推奨の量の減少に合わせて、良い推奨の量を増加させようとしています。 0.61
In case the best context aggregation threshold is defined in a wrong way it misleads the model in a way it can’t properly distinguish what is bad and good rating value. 最高のコンテキストアグリゲーションしきい値が間違った方法で定義されている場合、それはモデルが悪いものと良い評価値とを正しく区別できない方法で誤解を招く。 0.86
For example, if we include "3" rating value in the threshold for defining positive ratings while it’s not true we start recommending the items with this rating in the case of MCC tuning. 例えば、正のレーティングを定義するためにしきい値に"3"のレーティング値が含まれている場合、それは真実ではありませんが、mccチューニングの場合、このレーティングでアイテムを推奨し始めます。
訳抜け防止モード: 例えば、 肯定的な評価を定義するしきい値に“3”の評価値が含まれていますが、それは正しくありません。 MCCチューニングの場合、この評価の項目を推奨し始めます。
0.66
However, tuning by HR allows to make recommendations irrespective of the defined threshold and, as a consequence, it leads to better achieved results by both metrics. しかしながら、HRによるチューニングは、定義されたしきい値に関係なくレコメンデーションを可能にし、その結果、両方のメトリクスによるより良い結果をもたらす。 0.62
To sum up, smoothing of ratings lead to better results for some datasets. 要約すると、評価のスムーズ化は、いくつかのデータセットでより良い結果をもたらす。 0.57
Choice of matrices and negativity threshold 行列の選択と負性閾値 0.77
strongly depends on the data. データに強く依存しています 0.68
Using side information about users’ feedback may also be useful. ユーザのフィードバックに関するサイド情報の使用も有効かもしれない。 0.75
Table 3. Comparison of the MCC@10 metric on all datasets obtained by our method on different similarity matrices. 表3。 異なる類似度行列を用いた全データセットにおけるmcc@10測定値の比較 0.56
Also for each metric value we added the best context aggregation condition. また、各メトリック値に対して、最高のコンテキスト集約条件を追加しました。 0.60
Dataset Movielens 1M データセット movielens 1m 0.52
Movielens 10M フィルムレンズ10m 0.44
Amazon CDs and Vinil (5-core) Amazon CDとVinil(5コア) 0.85
Amazon Electronics (5-core) Amazon Electronics(5コア) 0.46
Amazon Video Games (5-core) amazonのビデオゲーム(5コア) 0.81
Amazon Video Games (not filtered) amazonのビデオゲーム(フィルターなし) 0.88
Manuscript submitted to ACM ACMに提出された写本 0.63
Linear 0.0875 "5" 0.0644 "4"+"5" 0.0124 直線 0.0875 "5" 0.0644 "4"+"5" 0.0124 0.55
"5" 0.0282 "4"+"5" 0.0415 "5" 0.0282 "4"+"5" 0.0415 0.46
"5" 0.0373 "5" 0.0373 0.42
"5" "3"+"4"+"5"-"2"-"1" "5" "3"+"4"+"5"-"2"-"1" 0.34
"3"+"4"+"5"-"2"-"1" "3"+"4"+"5"-"2"-"1" 0.26
Sigmoid 0.0816 Sigmoid 0.0816 0.35
"5" 0.0771 "4" + "5" 0.0196 "5" 0.0771 "4" + "5" 0.0196 0.42
0.0295 "4" + "5" 0.0382 0.0295 "4" + "5" 0.0382 0.42
0.0435 "5" 0.0435 "5" 0.36
"5" Arctan 0.0810 "5" アルクタン 0.0810 0.45
"5" 0.0646 "4"+"5" 0.0164 "5" 0.0646 "4"+"5" 0.0164 0.46
0.0281 0.0367 0.0281 0.0367 0.29
"5" "5" "5" "5" "5" "5" 0.42
0.0389 Cube-root 0.0389 キューブ根 0.44
0.0871 "3"+"4"+"5"-"2"-"1" 0.0871 "3"+"4"+"5"-"2"-"1" 0.27
0.0748 "4"+"5" 0.0148 0.0748 "4"+"5" 0.0148 0.49
"5" 0.0276 "5" 0.0276 0.36
0.0382 "5" 0.0382 "5" 0.36
0.0469 "3"+"4"+"5"-"2"-"1" 0.0469 "3"+"4"+"5"-"2"-"1" 0.27
"3"+"4"+"5"-"2"-"1" "3"+"4"+"5"-"2"-"1" 0.26
英語(論文から抽出)日本語訳スコア
Tensor-based Collaborative Filtering With Smooth Ratings Scale スムースレーティングスケールを用いたテンソルベース協調フィルタリング 0.66
13 7 CONCLUSIONS The proposed approach shows that the appropriate choice of ratings’ "smoothing" (similarity matrix) can considerably improve performance of the proposed recommendations. 13 7の結論 提案手法は,評価の適切な選択(類似度行列)により,提案手法の性能が大幅に向上することを示す。 0.79
We observe this effect due to the decreasing discrepancy in users’ rating perception. この効果は,ユーザの評価知覚のばらつきが減少することによるものである。 0.75
This confirms our hypothesis about powerful signal from ratings we can get when we reduce the noise. これはノイズを減らすことで得られる評価から得られる強力な信号に関する私たちの仮説を裏付けるものです。 0.62
Besides, better ratings representation can lead to a better quality of recommendations without the need of significantly increasing the complexity of solution. さらに、レーティングの改善は、ソリューションの複雑さを大幅に増やさなくても、レコメンデーションの品質向上につながる可能性がある。 0.59
We have shown that integration of specific similarity matrix in existed model (CoFFee in our case) increases the quality of recommendations in comparison to the original model – we can see more relevant items and/or less irrelevant ones. 既存のモデル(この場合はCoFFee)における特定の類似度行列の統合は、オリジナルのモデルと比較して推奨の質を高めることが示されている。 0.63
For some datasets we achieved the best result even among all considered models (including EASEr and MultiVAE). いくつかのデータセットでは、考慮されたすべてのモデル(easerとmultivaeを含む)で最高の結果を得ました。 0.54
Our approach can be potentially applied to other methods as well and is not specific to tensor factorization. 我々の手法は他の手法にも適用できる可能性があり、テンソル分解に特化していない。 0.60
Extending it to neural or other approaches is an interesting research direction. 延長 神経や他のアプローチへのアプローチは 興味深い研究の方向です 0.59
However, the choice of this smoothing should be based on the initial nature of the dependency between rating values. しかし、この平滑化の選択は、評価値間の依存性の最初の性質に基づいて行うべきである。 0.71
Revealing this dependency is a kind of art. この依存関係は一種の芸術です。 0.65
As it has been showed, one of the hints can be found in the distributions of ratings. 示されているように、ヒントの1つは評価の分布に見ることができる。 0.62
Manuscript submitted to ACM ACMに提出された写本 0.63
英語(論文から抽出)日本語訳スコア
14 Marin and Makhneva, et al 14 マリンとマフネヴァなど 0.45
REFERENCES [1] Xavier Amatriain, Josep M Pujol, and Nuria Oliver. ReferenceS [1] Xavier Amatriain, Josep M Pujol, Nuria Oliver 0.32
2009. I like it... i like it not: Evaluating user ratings noise in recommender systems. 2009. 私は、レコメンダシステムにおけるユーザーレーティングのノイズを評価するのが好きではありません。 0.52
In International Conference on User Modeling, Adaptation, and Personalization. 海外では ユーザモデリング、適応、パーソナライズに関する会議。 0.62
Springer, 247–258. スプリンガー、247-258。 0.54
[2] Robin Burke. [2]ロビン・バーク。 0.70
2002. Hybrid recommender systems: Survey and experiments. 2002. ハイブリッドレコメンドシステム: 調査と実験。 0.55
User modeling and user-adapted interaction 12, 4 (2002), 331–370. ユーザモデリングとユーザ適応インタラクション 12, 4 (2002), 331–370。 0.84
[3] Dan Cosley, Shyong K Lam, Istvan Albert, Joseph A Konstan, and John Riedl. 3]Dan Cosley、Shyong K Lam、Istvan Albert、Joseph A Konstan、John Riedl。 0.33
2003. Is seeing believing? 2003. 信じているのか? 0.52
How recommender system interfaces affect レコメンダシステムインターフェースがどう影響するか 0.68
users’ opinions. In Proceedings of the SIGCHI conference on Human factors in computing systems. ユーザーの意見。 In Proceedings of the SIGCHI Conference on Human Factor in Computing Systems 0.52
585–592. [4] Paolo Cremonesi, Yehuda Koren, and Roberto Turrin. 585–592. 4]paolo cremonesi、yehuda koren、roberto turrin。 0.40
2010. Performance of recommender algorithms on top-n recommendation tasks. 2010. トップnレコメンデーションタスクにおける推奨アルゴリズムのパフォーマンス。 0.58
In Proceedings of the fourth ACM conference on Recommender systems. 手続き中 第4回ACMレコメンダーシステム会議の開催。 0.60
39–46. [5] Lieven De Lathauwer, Bart De Moor, and Joos Vandewalle. 39–46. 5] Lieven de Lathauwer, Bart De Moor, Joos Vandewalle 0.32
2000. On the best rank-1 and rank-(r 1, r 2,..., rn) approximation of higher-order tensors. 2000. 最高階数 1 とランク (r 1, r 2, ..., rn) 上の高階テンソルの近似について。 0.54
SIAM journal on Matrix Analysis and Applications 21, 4 (2000), 1324–1342. SIAM Journal on Matrix Analysis and Applications 21, 4 (2000), 1324–1342。 0.43
[6] Mukund Deshpande and George Karypis. 6]Mukund Deshpande氏とGeorge Karypis氏。 0.79
2004. Item-based top-n recommendation algorithms. 2004. アイテムベーストップnレコメンデーションアルゴリズム。 0.50
ACM Transactions on Information Systems (TOIS) 22, ACM Transactions on Information Systems (TOIS) 22 0.38
1 (2004), 143–177. 1 (2004), 143–177. 0.48
[7] Michael D Ekstrand, John T Riedl, and Joseph A Konstan. Michael D Ekstrand氏、John T Riedl氏、Joseph A Konstan氏。 0.66
2011. Collaborative filtering recommender systems. 2011. 協調フィルタリング推奨システム。 0.57
Now Publishers Inc. [8] Evgeny Frolov and Ivan Oseledets. 現在は出版社。 8] エヴゲニー・フロロフと イヴァン・オセデット 0.48
2016. Fifty shades of ratings: how to benefit from a negative feedback in top-N recommendations tasks. 2016. 50種類の評価:トップNのレコメンデーションタスクにおいてネガティブなフィードバックの恩恵を受ける方法。 0.58
In Proceedings of the 10th ACM Conference on Recommender Systems. 院 第10回 acm conference on recommender systems 参加報告 0.57
91–98. [9] Evgeny Frolov and Ivan Oseledets. 91–98. 9] エヴゲニー・フロロフと イヴァン・オセデット 0.36
2018. Revealing the Unobserved by Linking Collaborative Behavior and Side Knowledge. 2018. 協調行動と側面知識のリンクによる未観測領域の探索 0.54
arXiv preprint arXiv プレプリント 0.83
arXiv:1807.10634 (2018). arXiv:1807.10634 (2018)。 0.68
[10] Evgeny Frolov and Ivan Oseledets. 10] エヴゲニー・フロロフと イヴァン・オセデット 0.37
2019. HybridSVD: when collaborative information is not enough. 2019. HybridSVD: コラボレーション情報が不十分な場合。 0.59
In Proceedings of the 13th ACM conference on 第13回ACM会議に参加して 0.81
recommender systems. 331–339. 推薦システム 331–339. 0.39
[11] Tamara G Kolda and Brett W Bader. 11]Tamara G KoldaとBrett W Bader。 0.30
2009. Tensor decompositions and applications. 2009. テンソル分解と応用 0.46
SIAM review 51, 3 (2009), 455–500. SIAM Review 51, 3 (2009), 455-500。 0.39
[12] Yehuda Koren and Joe Sill. 12] イェフダ・コーレンとジョー・シル 0.34
2011. Ordrec: an ordinal model for predicting personalized item rating distributions. 2011. Ordrec: パーソナライズされたアイテム評価分布を予測するための順序モデル。 0.59
In Proceedings of the fifth ACM 第5acmの手続において 0.74
conference on Recommender systems. Recommender システムに関するカンファレンス。 0.78
117–124. [13] Dawen Liang, Rahul G Krishnan, Matthew D Hoffman, and Tony Jebara. 117–124. 13]ダウェン・リアン、ラウル・g・クリシュナン、マシュー・d・ホフマン、トニー・ジェバラ 0.43
2018. Variational autoencoders for collaborative filtering. 2018. 協調フィルタリングのための変分オートエンコーダ 0.54
In Proceedings of the 2018 world wide web conference. 訴訟の手続において 2018年のワールドワイドウェブカンファレンスです 0.57
689–698. [14] Shaowu Liu, Gang Li, Truyen Tran, and Yuan Jiang. 689–698. 14]シャオウ・リウ、ガン・リ、トゥルーエン・トラン、元江 0.40
2016. Preference relation-based Markov random fields for recommender systems. 2016. 推薦システムのための選好関係に基づくマルコフ確率場 0.51
In Asian Conference on Machine Learning. アジアでは 機械学習に関する会議。 0.81
PMLR, 157–172. PMLR 157-172。 0.68
[15] Athanasios N Nikolakopoulos, Vassilis Kalantzis, Efstratios Gallopoulos, and John D Garofalakis. Athanasios N Nikolakopoulos, Vassilis Kalantzis, Efstratios Gallopoulos, John D Garofalakis. [15] Athanasios N Nikolakopoulos, Vassilis Kalantzis, Efstratios Gallopoulos. 0.36
2019. EigenRec: generalizing PureSVD for effective 2019. EigenRec: 効果的なPureSVDの一般化 0.56
and efficient top-N recommendations. そして効率的なトップNレコメンデーション。 0.51
Knowledge and Information Systems 58, 1 (2019), 59–81. ナレッジ・アンド・インフォメーション・システムズ58,1 (2019), 59-81。 0.56
[16] Gunnar Schröder, Maik Thiele, and Wolfgang Lehner. 16] Gunnar Schröder, Maik Thiele, Wolfgang Lehner。 0.33
2011. Setting goals and choosing metrics for recommender system evaluations. 2011. 目標を設定し、推奨システム評価のためのメトリクスを選択する。 0.52
In UCERSTI2 ucersti2では 0.43
workshop at the 5th ACM conference on recommender systems, Chicago, USA, Vol. 第5回acm conference on recommender systems, chicago, usa, vol. ワークショップ 0.70
23. 53. [17] Muzafer Sherif and Carl I Hovland. 23. 53. 17] ムザファー・シェリフとカール・ホヴランド 0.39
1961. Social judgment: Assimilation and contrast effects in communication and attitude change. 1961. 社会的判断:コミュニケーションと態度の変化における同化とコントラスト効果。 0.62
(1961). [18] Harald Steck. (1961). 18] ハラルド・ステック 0.40
2019. Embarrassingly shallow autoencoders for sparse data. 2019. スパースデータのための恥ずかしいほど浅いオートエンコーダ。 0.47
In The World Wide Web Conference. World Wide Web Conferenceに参加。 0.78
3251–3257. 3251–3257. 0.35
[19] Xiaoying Zhang, Junzhou Zhao, and John CS Lui. 【19】青雄陽、順周、ジョン・c・ルイ。 0.51
2017. Modeling the assimilation-contras t effects in online product rating systems: Debiasing and 2017. オンライン製品評価システムにおける同化コントラスト効果のモデル化:デバイアスとデバイアス 0.50
recommendations. In Proceedings of the Eleventh ACM Conference on Recommender Systems. 推薦だ 11th ACM Conference on Recommender Systems に参加して 0.61
98–106. Manuscript submitted to ACM 98–106. ACMに提出された写本 0.49
                             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。