論文の概要: RaMen: Multi-Strategy Multi-Modal Learning for Bundle Construction
- arxiv url: http://arxiv.org/abs/2507.14361v1
- Date: Fri, 18 Jul 2025 20:51:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:31.857541
- Title: RaMen: Multi-Strategy Multi-Modal Learning for Bundle Construction
- Title(参考訳): RaMen: バンドル構築のためのマルチストラテジーマルチモード学習
- Authors: Huy-Son Nguyen, Quang-Huy Nguyen, Duc-Hoang Pham, Duc-Trong Le, Hoang-Quynh Le, Padipat Sitkrongwong, Atsuhiro Takasu, Masoud Mansoury,
- Abstract要約: 本稿では,バンドル構築のための総合的マルチストラテジー手法であるRaMenを提案する。
RaMenは内在的(特性)と外在的(協調的)の両方の情報を使ってバンドル構造をモデル化する。
ESLはタスク固有の注意機構を用いて、複数モーダルデータをエンコードし、アイテム間の直接的な協調関係を成す。
ISLはハイパーエッジ依存関係とハイパーグラフメッセージパッシングを計算し、アイテムのグループ間で共有された潜在意図を明らかにする。
- 参考スコア(独自算出の注目度): 5.474697842201926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing studies on bundle construction have relied merely on user feedback via bipartite graphs or enhanced item representations using semantic information. These approaches fail to capture elaborate relations hidden in real-world bundle structures, resulting in suboptimal bundle representations. To overcome this limitation, we propose RaMen, a novel method that provides a holistic multi-strategy approach for bundle construction. RaMen utilizes both intrinsic (characteristics) and extrinsic (collaborative signals) information to model bundle structures through Explicit Strategy-aware Learning (ESL) and Implicit Strategy-aware Learning (ISL). ESL employs task-specific attention mechanisms to encode multi-modal data and direct collaborative relations between items, thereby explicitly capturing essential bundle features. Moreover, ISL computes hyperedge dependencies and hypergraph message passing to uncover shared latent intents among groups of items. Integrating diverse strategies enables RaMen to learn more comprehensive and robust bundle representations. Meanwhile, Multi-strategy Alignment & Discrimination module is employed to facilitate knowledge transfer between learning strategies and ensure discrimination between items/bundles. Extensive experiments demonstrate the effectiveness of RaMen over state-of-the-art models on various domains, justifying valuable insights into complex item set problems.
- Abstract(参考訳): バンドル構築に関する既存の研究は、二部グラフやセマンティック情報を用いた拡張項目表現によるユーザフィードバックにのみ依存している。
これらのアプローチは実世界のバンドル構造に隠された精巧な関係を捉えることができず、結果として準最適バンドル表現をもたらす。
この制限を克服するために,バンドル構築のための総合的マルチストラテジーアプローチを提供する新しい手法であるRaMenを提案する。
RaMen は Explicit Strategy-Aware Learning (ESL) と Implicit Strategy-Aware Learning (ISL) を通じてバンドル構造をモデル化するために、内在的(特性)と外在的(協調的)両方の情報を利用する。
ESLはタスク固有のアテンション機構を用いて、複数モーダルデータを符号化し、アイテム間の直接的な協調関係を符号化し、必須バンドル特徴を明示的にキャプチャする。
さらに、ISLはハイパーエッジ依存関係とハイパーグラフメッセージパッシングを計算し、アイテムのグループ間で共有された潜在意図を明らかにする。
多様な戦略を統合することで、RaMenはより包括的で堅牢なバンドル表現を学ぶことができる。
一方,マルチストラテジーアライメント・アンド・差別モジュールは,学習戦略間の知識伝達を促進し,アイテム・バンドル間の識別を確保するために使用される。
広範囲にわたる実験は、RaMenが様々な領域における最先端モデルに対して有効であることを示し、複雑なアイテムセット問題に対する貴重な洞察を正当化する。
関連論文リスト
- Cross-Modal Few-Shot Learning: a Generative Transfer Learning Framework [58.362064122489166]
本稿では,ラベル付きデータに頼らず,複数のモードにまたがるインスタンスの認識を目的としたクロスモーダルなFew-Shot Learningタスクを提案する。
本研究では,人間が概念を抽象化し,一般化する方法をシミュレートし,ジェネレーティブトランスファー学習フレームワークを提案する。
GTLは、RGB-Sketch、RGB-赤外線、RGB-Depthの7つのマルチモーダルデータセットにまたがる最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-10-14T16:09:38Z) - Towards a Unified View of Preference Learning for Large Language Models: A Survey [88.66719962576005]
大きな言語モデル(LLM)は、非常に強力な能力を示す。
成功するための重要な要因の1つは、LLMの出力を人間の好みに合わせることである。
選好学習のすべての戦略を、モデル、データ、フィードバック、アルゴリズムの4つの構成要素に分解する。
論文 参考訳(メタデータ) (2024-09-04T15:11:55Z) - Fine-tuning Multimodal Large Language Models for Product Bundling [53.01642741096356]
Bundle-MLLMは,大規模言語モデル(LLM)をハイブリットアイテムトークン化アプローチにより微調整する新しいフレームワークである。
具体的には、テキスト、メディア、およびリレーショナルデータを統一トークン化に統合し、テキストトークンと非テキストトークンを区別するソフトな分離トークンを導入する。
1)バンドルパターンを学習し,2)製品バンドル固有のマルチモーダルセマンティック理解の強化を行う。
論文 参考訳(メタデータ) (2024-07-16T13:30:14Z) - SLRL: Structured Latent Representation Learning for Multi-view Clustering [24.333292079699554]
マルチビュークラスタリング(MVC)は、異なるビュー間の固有の一貫性と相補性を活用して、クラスタリングの結果を改善することを目的としている。
MVCでの広範な研究にもかかわらず、既存のほとんどのメソッドは、主にクラスタリングの有効性を高めるためにビューをまたいだ補完的な情報を活用することに重点を置いています。
本稿では,構造化潜在表現学習に基づくマルチビュークラスタリング手法を提案する。
論文 参考訳(メタデータ) (2024-07-11T09:43:57Z) - Combining Supervised Learning and Reinforcement Learning for Multi-Label Classification Tasks with Partial Labels [27.53399899573121]
本稿では,強化学習の探索能力と教師あり学習の活用能力を組み合わせたRLベースのフレームワークを提案する。
文書レベルの関係抽出を含む各種タスクに対する実験結果から,フレームワークの一般化と有効性を示す。
論文 参考訳(メタデータ) (2024-06-24T03:36:19Z) - Zero-Shot Relational Learning for Multimodal Knowledge Graphs [31.215889061734295]
多様なマルチモーダル情報と知識グラフ構造を統合するために, マルチモーダル学習者, 構造コンソリエータ埋め込みジェネレータという3つのコンポーネントからなる新しいエンドツーエンドフレームワークを提案する。
3つのマルチモーダル知識グラフの評価結果は,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-09T11:14:45Z) - Multi-modal Semantic Understanding with Contrastive Cross-modal Feature
Alignment [11.897888221717245]
マルチモーダルな特徴アライメントを実現するためのCLIP誘導型コントラスト学習型アーキテクチャを提案する。
我々のモデルはタスク固有の外部知識を使わずに実装が簡単であり、そのため、他のマルチモーダルタスクに容易に移行できる。
論文 参考訳(メタデータ) (2024-03-11T01:07:36Z) - Preserving Modality Structure Improves Multi-Modal Learning [64.10085674834252]
大規模マルチモーダルデータセットによる自己教師付き学習は、人間のアノテーションに頼ることなく、意味的に意味のある埋め込みを学ぶことができる。
これらの手法は、モダリティ固有の埋め込みに存在する意味構造を無視して、ドメイン外のデータをうまく一般化するのに苦労することが多い。
共同埋め込み空間におけるモダリティ特異的な関係を保ち, 一般化性を向上させるためのセマンティック・構造保存整合性アプローチを提案する。
論文 参考訳(メタデータ) (2023-08-24T20:46:48Z) - Knowledge-Enhanced Hierarchical Information Correlation Learning for
Multi-Modal Rumor Detection [82.94413676131545]
マルチモーダルなうわさ検出のための知識強化型階層型情報相関学習手法(KhiCL)を提案する。
KhiCLは異質な一様性特徴を共通特徴空間に伝達するために、クロスモーダルな関節辞書を利用する。
画像やテキストから視覚的およびテキスト的実体を抽出し、知識関連推論戦略を設計する。
論文 参考訳(メタデータ) (2023-06-28T06:08:20Z) - Semantically Consistent Multi-view Representation Learning [11.145085584637744]
SCMRL(Semantically Consistent Multi-view Representation Learning)を提案する。
SCMRLは、基礎となる多視点セマンティックコンセンサス情報を抽出し、その情報を利用して、統合された特徴表現学習を導く。
いくつかの最先端のアルゴリズムと比較して、広範な実験はその優位性を示している。
論文 参考訳(メタデータ) (2023-03-08T04:27:46Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。