論文の概要: AI Model Modulation with Logits Redistribution
- arxiv url: http://arxiv.org/abs/2603.12755v1
- Date: Fri, 13 Mar 2026 07:57:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.986394
- Title: AI Model Modulation with Logits Redistribution
- Title(参考訳): ログの再配布によるAIモデル修正
- Authors: Zihan Wang, Zhongkui Ma, Xinguo Feng, Zhiyang Mei, Ethan Ma, Derui Wang, Minhui Xue, Guangdong Bai,
- Abstract要約: AIMはモデル変調パラダイムであり、単一のモデルが特定のエンド要件を満たすための多様な振る舞いを示すことを可能にする。
トレーニングデータに依存しない,再学習のない方法で運用する,ロジット再配布戦略を導入する。
本評価では, 画像分類, セマンティックセグメンテーション, テキスト生成を対象とするAlモデル変調のためのAIMの実用性と汎用性を確認した。
- 参考スコア(独自算出の注目度): 24.570627116539512
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large-scale models are typically adapted to meet the diverse requirements of model owners and users. However, maintaining multiple specialized versions of the model is inefficient. In response, we propose AIM, a novel model modulation paradigm that enables a single model to exhibit diverse behaviors to meet the specific end requirements. AIM enables two key modulation modes: utility and focus modulations. The former provides model owners with dynamic control over output quality to deliver varying utility levels, and the latter offers users precise control to shift model's focused input features. AIM introduces a logits redistribution strategy that operates in a training data-agnostic and retraining-free manner. We establish a formal foundation to ensure AIM's regulation capability, based on the statistical properties of logits ordering via joint probability distributions. Our evaluation confirms AIM's practicality and versatility for Al model modulation, with tasks spanning image classification, semantic segmentation and text generation, and prevalent architectures including ResNet, SegFormer and Llama.
- Abstract(参考訳): 大規模モデルは通常、モデル所有者と利用者の多様な要求を満たすように適合する。
しかし、モデルの複数の特殊バージョンを維持することは非効率である。
そこで本研究では,単一モデルが特定のエンド要件を満たすための多様な行動を示すことのできる,新しいモデル変調パラダイムであるAIMを提案する。
AIMは2つの主要な変調モード(ユーティリティとフォーカス変調)を可能にする。
前者は、様々なユーティリティレベルを提供するために出力品質を動的に制御するモデルオーナーを提供し、後者は、モデルの焦点を絞った入力機能を変更するための正確な制御を提供する。
AIMは、トレーニングデータに依存しない、再学習のない方法で機能する、ロジッツ再配布戦略を導入する。
我々は,共同確率分布によるロジット順序の統計的性質に基づいて,AIMの規制能力を確保するための公式な基盤を確立する。
評価では,画像分類,セマンティックセグメンテーション,テキスト生成,ResNet,SegFormer,Llamaなど,AIMのAlモデル変調の実用性と汎用性を確認した。
関連論文リスト
- An Integrated Fusion Framework for Ensemble Learning Leveraging Gradient Boosting and Fuzzy Rule-Based Models [59.13182819190547]
ファジィ規則に基づくモデルは解釈可能性に優れ、様々な分野に広く応用されている。
複雑な設計仕様や大規模データセットのスケーラビリティといった課題に直面している。
本稿では,モデル性能と解釈可能性を高めるために,両パラダイムの強みを融合した統合統合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T10:28:23Z) - Slice or the Whole Pie? Utility Control for AI Models [9.587648499842185]
NNObfuscatorを使うと、単一のモデルをリアルタイムで適用でき、複数のレベルのパフォーマンスへのアクセスを制御することができる。
このメカニズムにより、モデル所有者は階層化されたアクセスを設定でき、フリーティアのユーザがベースラインレベルのパフォーマンスを享受でき、プレミアムのユーザは機能強化の恩恵を受けることができる。
実験の結果,NNObfuscatorはモデルに適応性を持たせることができた。
論文 参考訳(メタデータ) (2025-08-06T03:45:09Z) - OptMerge: Unifying Multimodal LLM Capabilities and Modalities via Model Merging [124.91183814854126]
モデルマージは、複数のエキスパートモデルをひとつのモデルに組み合わせようとしている。
本稿ではMLLMのトレーニングと評価のタスクを明確に分割したモデルマージ研究のベンチマークを紹介する。
モデルマージは、トレーニングデータを必要とせずに改善されたMLLMを構築するための有望な方法であることがわかった。
論文 参考訳(メタデータ) (2025-05-26T12:23:14Z) - Vision-Language-Action Model and Diffusion Policy Switching Enables Dexterous Control of an Anthropomorphic Hand [2.7036595757881323]
微調整された視覚・言語・行動モデルと拡散モデルの相対的利点を組み合わせたハイブリッド制御法を提案する。
VLAモデルのみを使用する場合と比較して,このモデル切替手法は80%以上の成功率を示す。
論文 参考訳(メタデータ) (2024-10-17T20:49:45Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - Predictable MDP Abstraction for Unsupervised Model-Based RL [93.91375268580806]
予測可能なMDP抽象化(PMA)を提案する。
元のMDPで予測モデルを訓練する代わりに、学習されたアクション空間を持つ変換MDPでモデルを訓練する。
我々はPMAを理論的に解析し、PMAが以前の教師なしモデルベースRLアプローチよりも大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-02-08T07:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。