論文の概要: Toward Robust Non-Transferable Learning: A Survey and Benchmark
- arxiv url: http://arxiv.org/abs/2502.13593v2
- Date: Fri, 07 Mar 2025 13:45:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:24:26.431378
- Title: Toward Robust Non-Transferable Learning: A Survey and Benchmark
- Title(参考訳): 非参照型学習のロバスト化に向けて:調査とベンチマーク
- Authors: Ziming Hong, Yongli Xiang, Tongliang Liu,
- Abstract要約: 非伝達学習(NTL)は、ディープラーニングモデルの一般化能力を再構築することを目的とした課題である。
NTLの性能とロバスト性を評価する最初のベンチマークであるNTLBenchを紹介する。
我々はNTLの実践的応用と今後の方向性と課題について論じる。
- 参考スコア(独自算出の注目度): 51.52542476904985
- License:
- Abstract: Over the past decades, researchers have primarily focused on improving the generalization abilities of models, with limited attention given to regulating such generalization. However, the ability of models to generalize to unintended data (e.g., harmful or unauthorized data) can be exploited by malicious adversaries in unforeseen ways, potentially resulting in violations of model ethics. Non-transferable learning (NTL), a task aimed at reshaping the generalization abilities of deep learning models, was proposed to address these challenges. While numerous methods have been proposed in this field, a comprehensive review of existing progress and a thorough analysis of current limitations remain lacking. In this paper, we bridge this gap by presenting the first comprehensive survey on NTL and introducing NTLBench, the first benchmark to evaluate NTL performance and robustness within a unified framework. Specifically, we first introduce the task settings, general framework, and criteria of NTL, followed by a summary of NTL approaches. Furthermore, we emphasize the often-overlooked issue of robustness against various attacks that can destroy the non-transferable mechanism established by NTL. Experiments conducted via NTLBench verify the limitations of existing NTL methods in robustness. Finally, we discuss the practical applications of NTL, along with its future directions and associated challenges.
- Abstract(参考訳): 過去数十年にわたり、研究者は主にモデルの一般化能力の改善に焦点を合わせてきたが、そのような一般化を規制することへの注意は限られていた。
しかし、モデルが意図しないデータ(例えば有害データや不正データ)に一般化する能力は、悪意のある敵によって予期せぬ方法で利用され、モデル倫理に違反する可能性がある。
ディープラーニングモデルの一般化能力の再構築を目的としたNTL(Non-transferable Learning)を提案し,これらの課題に対処した。
この分野では、多くの方法が提案されているが、既存の進歩の包括的なレビューと、現在の限界の徹底的な分析は、いまだに欠落している。
本稿では,NTLに関する初の総合的な調査を行い,NTLの性能と堅牢性を評価する最初のベンチマークであるNTLBenchを導入することにより,このギャップを埋める。
具体的には、まずタスク設定、一般的なフレームワーク、NTLの基準を紹介し、次にNTLアプローチの概要を紹介する。
さらに,NTLが確立した非伝達機構を破壊できる様々な攻撃に対して,しばしば見過ごされるロバスト性の問題を強調した。
NTLBenchを用いて行った実験は、既存のNTL法の堅牢性の限界を検証する。
最後に,NTLの実用化と今後の方向性,課題について論じる。
関連論文リスト
- A Comprehensive Survey on Evidential Deep Learning and Its Applications [64.83473301188138]
Evidential Deep Learning (EDL)は、単一のフォワードパスで最小限の追加計算で信頼性の高い不確実性推定を提供する。
まず、主観的論理理論であるEDLの理論的基礎を掘り下げ、他の不確実性推定フレームワークとの区別について議論する。
さまざまな機械学習パラダイムや下流タスクにまたがる広範な応用について詳しく述べる。
論文 参考訳(メタデータ) (2024-09-07T05:55:06Z) - Directed Exploration in Reinforcement Learning from Linear Temporal Logic [59.707408697394534]
リニア時間論理(LTL)は強化学習におけるタスク仕様のための強力な言語である。
合成された報酬信号は基本的に疎結合であり,探索が困難であることを示す。
我々は、仕様をさらに活用し、それに対応するリミット決定性B"uchi Automaton(LDBA)をマルコフ報酬プロセスとしてキャストすることで、よりよい探索を実現することができることを示す。
論文 参考訳(メタデータ) (2024-08-18T14:25:44Z) - Parameter-Efficient Fine-Tuning for Continual Learning: A Neural Tangent Kernel Perspective [125.00228936051657]
本稿では,タスク関連機能を適応的に生成しながら,タスク固有のパラメータ記憶を不要にする新しいフレームワークNTK-CLを紹介する。
最適化可能なパラメータを適切な正規化で微調整することにより、NTK-CLは確立されたPEFT-CLベンチマーク上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-07-24T09:30:04Z) - On the Hardness of Faithful Chain-of-Thought Reasoning in Large Language Models [25.029579061612456]
大規模言語モデル(LLM)は、医療などの重要な領域における現実世界のアプリケーションにますます採用されている。
これらのモデルによって生成されたCoT(Chain-of-Thought)推論が、その基盤となる振る舞いを忠実に捉えることが重要である。
論文 参考訳(メタデータ) (2024-06-15T13:16:44Z) - On the Generalization Ability of Unsupervised Pretraining [53.06175754026037]
教師なし学習の最近の進歩は、教師なし事前学習、および微調整がモデル一般化を改善することを示している。
本稿では、教師なし事前学習中に得られた知識の伝達可能性に影響を及ぼす重要な要因をその後の微調整フェーズに照らす新しい理論的枠組みを提案する。
この結果は教師なし事前学習と微調整のパラダイムの理解を深め、より効果的な事前学習アルゴリズムの設計に光を当てることができる。
論文 参考訳(メタデータ) (2024-03-11T16:23:42Z) - Uncertainty Regularized Evidential Regression [5.874234972285304]
Evidential Regression Network (ERN)は、深層学習とDempster-Shaferの理論を統合する新しいアプローチである。
特定のアクティベーション関数は非負の値を強制するために使わなければならない。
本稿では,この限界を理論的に解析し,克服するための改善を提案する。
論文 参考訳(メタデータ) (2024-01-03T01:18:18Z) - Self-Admitted Technical Debt Detection Approaches: A Decade Systematic Review [5.670597842524448]
技術的負債 (Technical debt, TD) とは、ソフトウェア開発において、最適な設計やコード決定に関連する長期的なコストを表す用語である。
開発者がこれらのトレードオフを明確に認めると、SATD(Self-Admitted Technical Debt)が発生する。
SATDの自動検出は、ますます重要な研究領域となっている。
論文 参考訳(メタデータ) (2023-12-19T12:01:13Z) - Hypothesis Transfer Learning with Surrogate Classification Losses:
Generalization Bounds through Algorithmic Stability [3.908842679355255]
仮説伝達学習(HTL)は、以前のタスクレバレッジを新たなターゲットにすることで、ドメイン適応と対比する。
本稿では,機械学習アルゴリズム解析のための魅力的な理論フレームワークであるアルゴリズム安定性によるHTLの学習理論について検討する。
論文 参考訳(メタデータ) (2023-05-31T09:38:21Z) - On the Learning of Non-Autoregressive Transformers [91.34196047466904]
非自己回帰変換器(Non-autoregressive Transformer、NAT)は、テキスト生成モデルのファミリーである。
NAT学習の課題を明らかにするため,理論的および経験的分析を行った。
論文 参考訳(メタデータ) (2022-06-13T08:42:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。