論文の概要: Universal Reusability in Recommender Systems: The Case for Dataset- and Task-Independent Frameworks
- arxiv url: http://arxiv.org/abs/2506.03391v1
- Date: Tue, 03 Jun 2025 21:00:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.051778
- Title: Universal Reusability in Recommender Systems: The Case for Dataset- and Task-Independent Frameworks
- Title(参考訳): リコメンダシステムにおけるユニバーサルリユースビリティ:データセットとタスク非依存フレームワークの場合
- Authors: Tri Kurniawan Wijaya, Xinyang Shao, Gonzalo Fiz Pontiveros, Edoardo D'Amico,
- Abstract要約: 本稿では,導入障壁を最小限に抑えつつ,レコメンデータシステムの再利用可能性の最大化を目的としたフレームワークを提案する。
本稿では、DTIRSの概念を紹介し、レベル1の自動化からレベル2の自動化に移行するロードマップを確立する。
一般化と特殊化、計算オーバーヘッド、スケーラビリティのトレードオフなど、重要な課題について論じる。
- 参考スコア(独自算出の注目度): 0.7124736158080939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems are pivotal in delivering personalized experiences across industries, yet their adoption and scalability remain hindered by the need for extensive dataset- and task-specific configurations. Existing systems often require significant manual intervention, domain expertise, and engineering effort to adapt to new datasets or tasks, creating barriers to entry and limiting reusability. In contrast, recent advancements in large language models (LLMs) have demonstrated the transformative potential of reusable systems, where a single model can handle diverse tasks without significant reconfiguration. Inspired by this paradigm, we propose the Dataset- and Task-Independent Recommender System (DTIRS), a framework aimed at maximizing the reusability of recommender systems while minimizing barriers to entry. Unlike LLMs, which achieve task generalization directly, DTIRS focuses on eliminating the need to rebuild or reconfigure recommendation pipelines for every new dataset or task, even though models may still need retraining on new data. By leveraging the novel Dataset Description Language (DsDL), DTIRS enables standardized dataset descriptions and explicit task definitions, allowing autonomous feature engineering, model selection, and optimization. This paper introduces the concept of DTIRS and establishes a roadmap for transitioning from Level-1 automation (dataset-agnostic but task-specific systems) to Level-2 automation (fully dataset- and task-independent systems). Achieving this paradigm would maximize code reusability and lower barriers to adoption. We discuss key challenges, including the trade-offs between generalization and specialization, computational overhead, and scalability, while presenting DsDL as a foundational tool for this vision.
- Abstract(参考訳): レコメンダシステムは、業界全体でパーソナライズされたエクスペリエンスを提供する上で重要なものだが、その採用とスケーラビリティは、広範なデータセットやタスク固有の設定の必要性によって妨げられている。
既存のシステムは、しばしば、新しいデータセットやタスクに適応するために、重要な手作業の介入、ドメインの専門知識、エンジニアリングの努力を必要とします。
対照的に、大規模言語モデル(LLM)の最近の進歩は、単一のモデルが大幅な再構成なしに多様なタスクを処理できる再利用可能なシステムの変換可能性を示している。
このパラダイムに着想を得たDataset- and Task-Independent Recommender System(DTIRS)を提案する。
タスクの一般化を直接達成するLLMとは異なり、DTIRSは、新しいデータセットやタスクごとにレコメンデーションパイプラインを再構築または再構成する必要をなくすことに重点を置いている。
新たなデータセット記述言語(DsDL)を活用することで、DTIRSは標準化されたデータセット記述と明示的なタスク定義を可能にし、自律的な機能エンジニアリング、モデル選択、最適化を可能にする。
本稿では、DTIRSの概念を導入し、レベル1の自動化(データセットに依存しないがタスク固有のシステム)からレベル2の自動化(データセットとタスクに依存しないシステム)に移行するロードマップを確立する。
このパラダイムを達成すれば、コードの再利用性と採用障壁の低減が可能になる。
我々は、一般化と特殊化、計算オーバーヘッド、スケーラビリティのトレードオフを含む主要な課題について論じ、一方で、DsDLをこのビジョンの基礎となるツールとして提示する。
関連論文リスト
- Data Requirement Goal Modeling for Machine Learning Systems [0.8854624631197942]
本研究は,機械学習システムにおけるデータ要件の特定において,非専門家を導くアプローチを提案する。
我々はまず,白書を調査し,データ要求目標モデル(DRGM)を開発した。
次に、実世界のプロジェクトに基づいた2つの実証的な例を通して、このアプローチを検証する。
論文 参考訳(メタデータ) (2025-04-10T11:30:25Z) - FlexVLN: Flexible Adaptation for Diverse Vision-and-Language Navigation Tasks [13.969116430006215]
視覚・言語ナビゲーション(VLN)の革新的階層的アプローチであるFlexVLNを提案する。
教師付き学習ベースのインストラクションフォロワのナビゲーション能力とLLM Plannerの堅牢な一般化能力を統合する。
一般化能力を評価するために,REVERIE,SOON,CVDN-targetをドメイン外のデータセットとみなす。
論文 参考訳(メタデータ) (2025-03-18T06:58:41Z) - Meta-Statistical Learning: Supervised Learning of Statistical Inference [59.463430294611626]
この研究は、大きな言語モデル(LLM)の成功を駆動するツールと原則が、分散レベルのタスクに取り組むために再利用可能であることを実証している。
本稿では,統計的推論タスクを教師付き学習問題として再構成するマルチインスタンス学習に触発されたメタ統計学習を提案する。
論文 参考訳(メタデータ) (2025-02-17T18:04:39Z) - Dataset-Agnostic Recommender Systems [0.47109219881156855]
DAReSは、微調整を必要とせずに、単一のデータセットをさまざまなデータセットに自律的に適応できるようにすることを目的としている。
DareSは、さまざまなアプリケーションドメインにまたがるレコメンデーションシステムを構築するための、より効率的でスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2025-01-13T13:01:00Z) - Continual LLaVA: Continual Instruction Tuning in Large Vision-Language Models [93.5327725085853]
連続LLaVA(Continuous LLaVA)は、LVLMにおける連続的な命令チューニングに適したリハーサルフリーな手法である。
実験により,提案した連続LLaVAは,連続的な命令チューニング過程における忘れを著しく減らし,従来の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-11-04T19:55:32Z) - A New Pipeline For Generating Instruction Dataset via RAG and Self Fine-Tuning [0.0]
本研究では,特定のドメインを微調整するための高品質な命令データセットを構築するパイプラインを提案する。
ドメイン固有の文書を取り込み、パイプラインは関連性のある適切な命令を生成する。
ケーススタディでは、専門知識と患者情報の繊細な取り扱いを必要とする領域である精神医学の領域にこのアプローチを適用した。
論文 参考訳(メタデータ) (2024-08-12T03:52:11Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Generalization with Lossy Affordances: Leveraging Broad Offline Data for
Learning Visuomotor Tasks [65.23947618404046]
本研究では,広範囲なデータを用いたオフライン強化学習を通じて,時間的拡張タスクの目標条件付きポリシを取得するフレームワークを提案する。
新たなタスク目標に直面した場合、フレームワークは余裕モデルを使用して、元のタスクをより簡単な問題に分解するサブゴールとして、損失のある表現のシーケンスを計画する。
我々は,従来の作業からロボット体験の大規模データセットを事前学習し,手動の報酬工学を使わずに視覚入力から,新しいタスクを効率的に微調整できることを実証した。
論文 参考訳(メタデータ) (2022-10-12T21:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。