論文の概要: DeepMTL2R: A Library for Deep Multi-task Learning to Rank
- arxiv url: http://arxiv.org/abs/2602.14519v1
- Date: Mon, 16 Feb 2026 07:11:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.244266
- Title: DeepMTL2R: A Library for Deep Multi-task Learning to Rank
- Title(参考訳): DeepMTL2R:Deep Multi-task Learning to Rankのライブラリ
- Authors: Chaosheng Dong, Peiyao Xiao, Yijia Wang, Kaiyi Ji,
- Abstract要約: DeepMTL2Rはオープンソースのマルチタスク学習のためのディープラーニングフレームワークである。
不均一な関連信号を統合されたコンテキスト認識モデルに統合する。
このフレームワークには21の最先端マルチタスク学習アルゴリズムが含まれている。
- 参考スコア(独自算出の注目度): 36.519146464183386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents DeepMTL2R, an open-source deep learning framework for Multi-task Learning to Rank (MTL2R), where multiple relevance criteria must be optimized simultaneously. DeepMTL2R integrates heterogeneous relevance signals into a unified, context-aware model by leveraging the self-attention mechanism of transformer architectures, enabling effective learning across diverse and potentially conflicting objectives. The framework includes 21 state-of-the-art multi-task learning algorithms and supports multi-objective optimization to identify Pareto-optimal ranking models. By capturing complex dependencies and long-range interactions among items and labels, DeepMTL2R provides a scalable and expressive solution for modern ranking systems and facilitates controlled comparisons across MTL strategies. We demonstrate its effectiveness on a publicly available dataset, report competitive performance, and visualize the resulting trade-offs among objectives. DeepMTL2R is available at \href{https://github.com/amazon-science/DeepMTL2R}{https://github.com/amazon-science/DeepMTL2R}.
- Abstract(参考訳): 本稿では,MTL2R(Multi-task Learning to Rank)のためのオープンソースのディープラーニングフレームワークであるDeepMTL2Rについて述べる。
DeepMTL2Rは、トランスフォーマーアーキテクチャの自己認識機構を活用することにより、異種関連信号を統一されたコンテキスト認識モデルに統合し、多種多様かつ潜在的に矛盾する対象を効果的に学習することを可能にする。
このフレームワークには21の最先端マルチタスク学習アルゴリズムが含まれており、パレート最適ランキングモデルを特定するための多目的最適化をサポートしている。
DeepMTL2Rは、アイテムやラベル間の複雑な依存関係と長距離のインタラクションをキャプチャすることで、現代的なランキングシステムに対してスケーラブルで表現力のあるソリューションを提供し、MTL戦略間の制御された比較を容易にする。
公開データセット上での有効性を実証し、競合性能を報告し、目的間のトレードオフを視覚化する。
DeepMTL2R は \href{https://github.com/amazon-science/DeepMTL2R}{https://github.com/amazon-science/DeepMTL2R} で入手できる。
関連論文リスト
- DeepMEL: A Multi-Agent Collaboration Framework for Multimodal Entity Linking [18.8210909297317]
Multimodal Entity Linkingは、テキストとビジュアルの言及と、マルチモーダルな知識グラフのエンティティを関連付けることを目的としている。
現状の手法では、不完全文脈情報、粗いクロスモーダル融合、共同言語モデル(LLM)と大規模視覚モデル(LVM)の難しさといった課題に直面している。
マルチエージェント協調推論に基づく新しいフレームワークであるDeepMELを提案する。
論文 参考訳(メタデータ) (2025-08-21T11:24:26Z) - TEM^3-Learning: Time-Efficient Multimodal Multi-Task Learning for Advanced Assistive Driving [22.22943635900334]
TEM3-Learningは、ドライバーの感情認識、運転者行動認識、交通状況認識、車両行動認識を共同で最適化する新しいフレームワークである。
4つのタスクにまたがって最先端の精度を実現し、600万パラメータ未満の軽量アーキテクチャを維持し、142.32 FPSの推論速度を実現している。
論文 参考訳(メタデータ) (2025-06-22T16:12:27Z) - Mixture-of-Experts Meets In-Context Reinforcement Learning [49.19791753312034]
In-context reinforcement learning (ICRL)は、下流タスクにRLエージェントを適用するための有望なパラダイムとして登場した。
本稿では,Mix-of-Experts (MoE) のアーキテクチャをトランスフォーマーに基づく決定モデルに導入する,革新的なフレームワークであるT2MIRを提案する。
本稿では,T2MIRがテキスト内学習能力を大幅に向上させ,各種ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-06-05T06:29:14Z) - Aligning Multimodal LLM with Human Preference: A Survey [62.89722942008262]
大規模言語モデル(LLM)は、タスク固有のトレーニングを必要とせずに、単純なプロンプトで幅広い汎用タスクを処理できる。
MLLM(Multimodal Large Language Models)は、視覚的、聴覚的、テキスト的データを含む複雑なタスクに対処する大きな可能性を実証している。
しかし、真理性、安全性、o1のような推論、および人間の嗜好との整合性に関する重要な問題は未解決のままである。
論文 参考訳(メタデータ) (2025-03-18T17:59:56Z) - SM3Det: A Unified Model for Multi-Modal Remote Sensing Object Detection [79.58755811919366]
本稿では,リモートセンシングのためのマルチモーダルデータセットとマルチタスクオブジェクト検出(M2Det)という新しいタスクを提案する。
水平方向または指向方向の物体を、あらゆるセンサーから正確に検出するように設計されている。
この課題は、1)マルチモーダルモデリングの管理に関わるトレードオフ、2)マルチタスク最適化の複雑さに起因する。
論文 参考訳(メタデータ) (2024-12-30T02:47:51Z) - GSSF: Generalized Structural Sparse Function for Deep Cross-modal Metric Learning [51.677086019209554]
ペアワイド類似性学習のためのモダリティ間の強力な関係を捕捉する汎用構造スパースを提案する。
距離メートル法は、対角線とブロック対角線の2つの形式を微妙にカプセル化する。
クロスモーダルと2つの余分なユニモーダル検索タスクの実験は、その優位性と柔軟性を検証した。
論文 参考訳(メタデータ) (2024-10-20T03:45:50Z) - Multi-modal Semantic Understanding with Contrastive Cross-modal Feature
Alignment [11.897888221717245]
マルチモーダルな特徴アライメントを実現するためのCLIP誘導型コントラスト学習型アーキテクチャを提案する。
我々のモデルはタスク固有の外部知識を使わずに実装が簡単であり、そのため、他のマルチモーダルタスクに容易に移行できる。
論文 参考訳(メタデータ) (2024-03-11T01:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。