論文の概要: I know why you like this movie: Interpretable Efficient Multimodal
Recommender
- arxiv url: http://arxiv.org/abs/2006.09979v1
- Date: Tue, 9 Jun 2020 09:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 15:47:12.990862
- Title: I know why you like this movie: Interpretable Efficient Multimodal
Recommender
- Title(参考訳): この映画が好きな理由が分かる: 解釈可能な効率的なマルチモーダルレコメンデーション
- Authors: Barbara Rychalska, Dominika Basaj, Jacek D\k{a}browski, Micha{\l}
Daniluk
- Abstract要約: 効率的なマニフォールド密度推定器(EMDE)モデルが導入された。
ModelはLocal Sensitive HashingとCount-Min Sketchアルゴリズムを利用する。
項目検索手法の特性により,このモデルをホワイトボックス設定で解釈することが可能であることを示す。
- 参考スコア(独自算出の注目度): 3.1378836894753177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the Efficient Manifold Density Estimator (EMDE) model has been
introduced. The model exploits Local Sensitive Hashing and Count-Min Sketch
algorithms, combining them with a neural network to achieve state-of-the-art
results on multiple recommender datasets. However, this model ingests a
compressed joint representation of all input items for each user/session, so
calculating attributions for separate items via gradient-based methods seems
not applicable. We prove that interpreting this model in a white-box setting is
possible thanks to the properties of EMDE item retrieval method. By exploiting
multimodal flexibility of this model, we obtain meaningful results showing the
influence of multiple modalities: text, categorical features, and images, on
movie recommendation output.
- Abstract(参考訳): 近年,EMDE(Efficient Manifold Density Estimator)モデルが導入されている。
このモデルはLocal Sensitive HashingとCount-Min Sketchアルゴリズムを利用して、ニューラルネットワークと組み合わせて、複数の推奨データセットの最先端結果を達成する。
しかし,本モデルでは,各ユーザ/セッション毎の入力項目の圧縮結合表現を取り入れているため,勾配に基づく手法による個別項目の属性の計算は適用できないと考えられる。
EMDEアイテム検索手法の特性により,このモデルをホワイトボックスで解釈することが可能であることが証明された。
本モデルのマルチモーダルフレキシビリティを活用し,映画のレコメンデーション出力にテキスト,カテゴリ特徴,画像といった複数のモダリティの影響を示す有意義な結果を得る。
関連論文リスト
- Scalable Inference for Bayesian Multinomial Logistic-Normal Dynamic Linear Models [0.5735035463793009]
この記事では、$textitFenrir$と呼ばれる、後続状態推定に対する効率的で正確なアプローチを開発します。
我々の実験から、フェンリルはスタンよりも3桁効率が良いことが示唆された。
当社のメソッドは,C++で記述されたユーザフレンドリなソフトウェアライブラリとして,Rインターフェースを備えたコミュニティで利用可能です。
論文 参考訳(メタデータ) (2024-10-07T23:20:14Z) - Hierarchical Visual Categories Modeling: A Joint Representation Learning and Density Estimation Framework for Out-of-Distribution Detection [28.442470704073767]
本稿では,分布外データと分布内データとを分離する階層型視覚カテゴリーモデリング手法を提案する。
我々は、CIFAR、iNaturalist、SUN、Places、Textures、ImageNet-O、OpenImage-Oを含む7つの人気のあるベンチマーク実験を行った。
我々の視覚表現は古典的手法で学習した特徴と比較して競争力がある。
論文 参考訳(メタデータ) (2024-08-28T07:05:46Z) - Spatio-Temporal Side Tuning Pre-trained Foundation Models for Video-based Pedestrian Attribute Recognition [58.79807861739438]
既存の歩行者認識アルゴリズム(PAR)は主に静的画像に基づいて開発されている。
本稿では,時間的情報を完全に活用できるビデオフレームを用いて,人間の属性を理解することを提案する。
論文 参考訳(メタデータ) (2024-04-27T14:43:32Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - Dissecting Multimodality in VideoQA Transformer Models by Impairing Modality Fusion [54.33764537135906]
VideoQA Transformerモデルは標準ベンチマークで競合性能を示す。
これらのモデルはビデオとテキストからリッチなマルチモーダル構造とダイナミックスを一緒に捉えていますか?
彼らはバイアスと刺激的な特徴を利用して高いスコアを達成していますか?
論文 参考訳(メタデータ) (2023-06-15T06:45:46Z) - Multimodal E-Commerce Product Classification Using Hierarchical Fusion [0.0]
提案手法は,本課題における一助モデルの性能と類似モデルの性能を有意に向上させた。
我々は,複数のヒューズ技術を用いて実験を行い,単一モーダルネットワークの個別埋め込みを結合する最も優れた手法は,結合と特徴ベクトルの平均化によるものであることを確認した。
論文 参考訳(メタデータ) (2022-07-07T14:04:42Z) - Visualising Deep Network's Time-Series Representations [93.73198973454944]
機械学習モデルの普及にもかかわらず、多くの場合、モデルの内部で起きていることに関する洞察のないブラックボックスとして運用される。
本稿では,多次元時系列データの可視化に着目し,この問題に対処する手法を提案する。
高周波在庫市場データセットの実験は、この方法が迅速かつ識別可能な可視化を提供することを示しています。
論文 参考訳(メタデータ) (2021-03-12T09:53:34Z) - Sparse-Interest Network for Sequential Recommendation [78.83064567614656]
本稿では,シーケンシャルレコメンデーションのためのtextbfSparse textbfInterest textbfNEtwork(SINE)を提案する。
我々のスパース関心モジュールは、大きなコンセプトプールから各ユーザに対してスパースの概念セットを適応的に推測することができる。
SINEは最先端の手法よりも大幅に改善できる。
論文 参考訳(メタデータ) (2021-02-18T11:03:48Z) - Unsupervised Learning Consensus Model for Dynamic Texture Videos
Segmentation [12.462608802359936]
動的テクスチャのセグメンテーションのための効果的な教師なし学習コンセンサスモデルを提案する。
提案モデルでは,分類対象画素の周辺部における再量子化局所2値パターン(LBP)ヒストグラムの値の集合を特徴として用いた。
挑戦的なSynthDBデータセットで実施された実験は、ULCMが大幅に高速で、コーディングが簡単で、単純で、パラメータが限られていることを示している。
論文 参考訳(メタデータ) (2020-06-29T16:40:59Z) - An efficient manifold density estimator for all recommendation systems [3.2981402185055213]
本研究では,任意のベクトル表現を局所的類似性の性質とスムーズな確率密度を簡潔に表現する枠組みを提案する。
我々の近似表現は、固定サイズであり、単純な付加的な構成性を持つのが望ましい性質を持ち、ニューラルネットワークによる処理には特に適している。
トップkとセッションベースのレコメンデーション設定の両方にEを適用することで、ユニモーダルとマルチモーダルの両方の設定で、複数のオープンデータセットに対して、最先端の新たな結果を確立します。
論文 参考訳(メタデータ) (2020-06-02T19:20:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。