論文の概要: Metanetworks as Regulatory Operators: Learning to Edit for Requirement Compliance
- arxiv url: http://arxiv.org/abs/2512.15469v1
- Date: Wed, 17 Dec 2025 14:13:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.02134
- Title: Metanetworks as Regulatory Operators: Learning to Edit for Requirement Compliance
- Title(参考訳): 規制オペレータとしてのMetanetworks - 要件コンプライアンスの編集を学ぶ
- Authors: Ioannis Kalogeropoulos, Giorgos Bouritsas, Yannis Panagakis,
- Abstract要約: 編集者がNN自体であるニューラルネットワーク(NN)、すなわちグラフメタネットワークを編集することを学びます。
特に、メタネットワークはNNの人口で訓練されており、強制される要件とNNの効用の保存という2つの条件からなる目的を最小化している。
- 参考スコア(独自算出の注目度): 17.68183983479062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning models are increasingly deployed in high-stakes settings, e.g. as decision support systems in various societal sectors or in critical infrastructure, designers and auditors are facing the need to ensure that models satisfy a wider variety of requirements (e.g. compliance with regulations, fairness, computational constraints) beyond performance. Although most of them are the subject of ongoing studies, typical approaches face critical challenges: post-processing methods tend to compromise performance, which is often counteracted by fine-tuning or, worse, training from scratch, an often time-consuming or even unavailable strategy. This raises the following question: "Can we efficiently edit models to satisfy requirements, without sacrificing their utility?" In this work, we approach this with a unifying framework, in a data-driven manner, i.e. we learn to edit neural networks (NNs), where the editor is an NN itself - a graph metanetwork - and editing amounts to a single inference step. In particular, the metanetwork is trained on NN populations to minimise an objective consisting of two terms: the requirement to be enforced and the preservation of the NN's utility. We experiment with diverse tasks (the data minimisation principle, bias mitigation and weight pruning) improving the trade-offs between performance, requirement satisfaction and time efficiency compared to popular post-processing or re-training alternatives.
- Abstract(参考訳): 機械学習モデルは、様々な社会的セクターや重要なインフラにおける意思決定支援システムなど、ハイテイクな環境でますます展開されているため、デザイナや監査官は、モデルがパフォーマンス以上の幅広い要件(規則、公正性、計算上の制約など)を満たすことを保証する必要性に直面している。
ポストプロセッシング手法はパフォーマンスを損なう傾向があるが、それはしばしば微調整や、スクラッチからのトレーニング、しばしば時間を要する、あるいは利用できない戦略に反する。
ニーズを満たすためにモデルを効率的に編集し、それらのユーティリティを犠牲にすることなくよいのか?
本研究では、ニューラルネットワーク(NN)の編集を学習し、エディタがNN自体(グラフメタネットワーク)であり、単一の推論ステップまで編集する、データ駆動型の統一フレームワークを用いて、これをアプローチする。
特に、メタネットワークはNNの人口で訓練されており、強制される要件とNNの効用の保存という2つの条件からなる目的を最小化している。
各種タスク(データ最小化の原則、バイアス緩和、ウェイトプルーニング)を実験することで、一般的な後処理や再トレーニングの代替に比べて、パフォーマンス、要求満足度、時間効率のトレードオフを改善することができる。
関連論文リスト
- Deep Hierarchical Learning with Nested Subspace Networks [53.71337604556311]
大規模ニューラルネットワークのためのNested Subspace Networks (NSN)を提案する。
NSNは、単一のモデルを連続した計算予算の範囲で動的かつきめ細かな調整を可能にする。
我々は,NSNを訓練済みのLLMに外科的に適用し,スムーズで予測可能な計算性能フロンティアを解き放つことができることを示した。
論文 参考訳(メタデータ) (2025-09-22T15:13:14Z) - Slice or the Whole Pie? Utility Control for AI Models [9.587648499842185]
NNObfuscatorを使うと、単一のモデルをリアルタイムで適用でき、複数のレベルのパフォーマンスへのアクセスを制御することができる。
このメカニズムにより、モデル所有者は階層化されたアクセスを設定でき、フリーティアのユーザがベースラインレベルのパフォーマンスを享受でき、プレミアムのユーザは機能強化の恩恵を受けることができる。
実験の結果,NNObfuscatorはモデルに適応性を持たせることができた。
論文 参考訳(メタデータ) (2025-08-06T03:45:09Z) - Neural Network Reprogrammability: A Unified Theme on Model Reprogramming, Prompt Tuning, and Prompt Instruction [57.19302613163439]
モデル適応のための統一フレームワークとして,ニューラルネットワークの再プログラム可能性を導入する。
本稿では,4つの重要な側面にまたがる情報操作アプローチを分類する分類法を提案する。
残る技術的課題や倫理的考察も分析する。
論文 参考訳(メタデータ) (2025-06-05T05:42:27Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Multi-Objective Optimization for Sparse Deep Multi-Task Learning [0.0]
重み付きチェビシェフスキャラライゼーションを用いたディープニューラルネットワーク(DNN)のトレーニングのための多目的最適化アルゴリズムを提案する。
本研究の目的は,DNNモデルの持続可能性問題,特にDeep Multi-Taskモデルに焦点をあてることである。
論文 参考訳(メタデータ) (2023-08-23T16:42:27Z) - Style Normalization and Restitution for DomainGeneralization and
Adaptation [88.86865069583149]
効果的なドメイン一般化モデルは、一般化および判別可能な特徴表現を学習することが期待される。
本稿では,ネットワークの高一般化と識別能力を確保するために,新しいスタイル正規化・再構成モジュール(SNR)を設計する。
論文 参考訳(メタデータ) (2021-01-03T09:01:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。