論文の概要: MODE: Multi-Objective Adaptive Coreset Selection
- arxiv url: http://arxiv.org/abs/2512.21152v1
- Date: Wed, 24 Dec 2025 12:43:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.780622
- Title: MODE: Multi-Objective Adaptive Coreset Selection
- Title(参考訳): MODE: 多目的適応コアセットの選択
- Authors: Tanmoy Mukherjee, Pierre Marquis, Zied Bouraoui,
- Abstract要約: モードは、クラスバランスの早期強調、表現学習時の多様性、収束時の不確実性といった、選択基準をトレーニングフェーズに適応させる。
MODEは(1-1/e)-近似をO(n log n)複雑性で達成し、データユーティリティの進化に関する解釈可能な洞察を提供しながら、競合精度を示す。
- 参考スコア(独自算出の注目度): 24.64208190328432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Mode(Multi-Objective adaptive Data Efficiency), a framework that dynamically combines coreset selection strategies based on their evolving contribution to model performance. Unlike static methods, \mode adapts selection criteria to training phases: emphasizing class balance early, diversity during representation learning, and uncertainty at convergence. We show that MODE achieves (1-1/e)-approximation with O(n \log n) complexity and demonstrates competitive accuracy while providing interpretable insights into data utility evolution. Experiments show \mode reduces memory requirements
- Abstract(参考訳): モデルの性能向上に寄与するコアセット選択戦略を動的に組み合わせたフレームワークであるMode(Multi-Objective Adaptive Data efficiency)を提案する。
静的メソッドとは異なり、Shamodeはクラスバランスの早期強調、表現学習時の多様性、収束時の不確実性といった、選択基準をトレーニングフェーズに適応させる。
MODEは(1-1/e)-近似をO(n \log n)複雑性で達成し、データユーティリティの進化に関する解釈可能な洞察を提供しながら、競合精度を示す。
実験の結果、‘mode’はメモリ要求を減少させる
関連論文リスト
- Improving Multimodal Sentiment Analysis via Modality Optimization and Dynamic Primary Modality Selection [54.10252086842123]
マルチモーダル・センティメント・アナリティクス(MSA)は、ビデオにおける言語、音響、視覚データから感情を予測することを目的としている。
本稿では,モーダリティ最適化と動的一次モーダリティ選択フレームワーク(MODS)を提案する。
4つのベンチマークデータセットの実験では、MODSが最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2025-11-09T11:13:32Z) - Learning Robust Stereo Matching in the Wild with Selective Mixture-of-Experts [29.52183168979229]
SMoEStereoは,Low-Rank Adaptation (LoRA) とMixture-of-Experts (MoE) モジュールの融合により,VFMをステレオマッチングに適用する新しいフレームワークである。
提案手法は,データセット固有の適応を伴わない複数のベンチマークに対して,最先端のクロスドメインと共同一般化を示す。
論文 参考訳(メタデータ) (2025-07-07T03:19:04Z) - Modality Equilibrium Matters: Minor-Modality-Aware Adaptive Alternating for Cross-Modal Memory Enhancement [13.424541949553964]
そこで本研究では,微調整を適応的に優先順位付けしてバランスを保ち,融合を促進させるシェープリー誘導型交互訓練フレームワークを提案する。
我々は4つのマルチモーダル・ベンチマーク・データセットのバランスと精度の両面での性能評価を行い,その手法がSOTA(State-of-the-art)の結果を達成した。
論文 参考訳(メタデータ) (2025-05-26T02:02:57Z) - Enhancing Online Continual Learning with Plug-and-Play State Space Model and Class-Conditional Mixture of Discretization [72.81319836138347]
オンライン連続学習(OCL)は、以前に学習したタスクの知識を保持しながら、一度だけ現れるデータストリームから新しいタスクを学習することを目指している。
既存の方法の多くはリプレイに依存しており、正規化や蒸留によるメモリ保持の強化に重点を置いている。
既存のほとんどのメソッドに組み込むことができ、適応性を直接改善できるプラグイン・アンド・プレイモジュールであるS6MODを導入する。
論文 参考訳(メタデータ) (2024-12-24T05:25:21Z) - Mamba-FSCIL: Dynamic Adaptation with Selective State Space Model for Few-Shot Class-Incremental Learning [115.79349923044663]
FSCIL(Few-shot class-incremental Learning)は、限られた例から新しいクラスを段階的に学習することを目的としている。
静的アーキテクチャは固定パラメータ空間に依存して、逐次到着するデータから学習し、現在のセッションに過度に適合する傾向がある。
本研究では,FSCILにおける選択状態空間モデル(SSM)の可能性について検討する。
論文 参考訳(メタデータ) (2024-07-08T17:09:39Z) - Mining Stable Preferences: Adaptive Modality Decorrelation for
Multimedia Recommendation [23.667430143035787]
そこで我々は,ユーザの安定な嗜好を学習するための,新しいモダリティ記述型静的学習フレームワークMODESTを提案する。
サンプル再重み付け手法に着想を得た提案手法は,各項目の重み付けを推定し,重み付け分布の異なるモジュラリティの特徴が重み付けされるようにすることを目的としている。
提案手法は,既存のマルチメディアレコメンデーションバックボーンのプレイ・アンド・プラグモジュールとして利用できる。
論文 参考訳(メタデータ) (2023-06-25T09:09:11Z) - Adaptive Discrete Communication Bottlenecks with Dynamic Vector
Quantization [76.68866368409216]
入力に条件付けされた離散化の厳密度を動的に選択する学習を提案する。
コミュニケーションボトルネックの動的に変化する厳密さは、視覚的推論や強化学習タスクにおけるモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-02-02T23:54:26Z) - Balancing Constraints and Submodularity in Data Subset Selection [43.03720397062461]
より少ないトレーニングデータを用いて、従来のディープラーニングモデルと同様の精度が得られることを示す。
新たな多様性駆動客観的関数を提案し,マトロイドを用いたクラスラベルと決定境界の制約のバランスをとる。
論文 参考訳(メタデータ) (2021-04-26T19:22:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。