論文の概要: Revisiting the Relation Between Robustness and Universality
- arxiv url: http://arxiv.org/abs/2510.19427v1
- Date: Wed, 22 Oct 2025 09:53:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.537677
- Title: Revisiting the Relation Between Robustness and Universality
- Title(参考訳): ロバスト性と普遍性の関係を再考する
- Authors: M. Klabunde, L. Caspari, F. Lemmerich,
- Abstract要約: 仮説を再検討し、その一般性をテストする。
特定の設定において高い表現的類似性というJonesの主な主張を検証するが、結果は異なるデータセット間で一致しない。
また、予測的行動は普遍性の増加と収束せず、従って普遍性ではないことも明らかになった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The modified universality hypothesis proposed by Jones et al. (2022) suggests that adversarially robust models trained for a given task are highly similar. We revisit the hypothesis and test its generality. While we verify Jones' main claim of high representational similarity in specific settings, results are not consistent across different datasets. We also discover that predictive behavior does not converge with increasing robustness and thus is not universal. We find that differing predictions originate in the classification layer, but show that more universal predictive behavior can be achieved with simple retraining of the classifiers. Overall, our work points towards partial universality of neural networks in specific settings and away from notions of strict universality.
- Abstract(参考訳): Jones et al (2022) によって提唱された修正普遍性仮説は、与えられたタスクのために訓練された逆向きに堅牢なモデルが非常によく似ていることを示唆している。
仮説を再検討し、その一般性をテストする。
特定の設定において高い表現的類似性というJonesの主な主張を検証するが、結果は異なるデータセット間で一致しない。
また,予測行動は強靭性の増加に収束せず,普遍的ではないことも確認した。
異なる予測は分類層に由来するが、より普遍的な予測行動は分類器の単純な再学習によって達成できることを示す。
全体として、我々の研究はニューラルネットワークの特定の設定における部分的普遍性を指し、厳密な普遍性の概念から遠ざかっている。
関連論文リスト
- Deep Learning is Not So Mysterious or Different [54.5330466151362]
我々は、異常な一般化行動はニューラルネットワークとは異なるものではないと主張している。
我々はこれらの現象を説明する上で重要な統一原理として、軟性誘導バイアスを提示する。
また、ディープラーニングが、表現学習の能力など、他の方法と相対的に異なる点を強調します。
論文 参考訳(メタデータ) (2025-03-03T22:56:04Z) - Pathologies of Predictive Diversity in Deep Ensembles [29.893614175153235]
古典的な結果は、予測多様性の促進が低容量モデルのアンサンブルのパフォーマンスを向上させることを証明している。
ここでは、これらの直観が高容量ニューラルネットワークアンサンブル(ディープアンサンブル)には適用されないことを示す。
論文 参考訳(メタデータ) (2023-02-01T19:01:18Z) - Malign Overfitting: Interpolation Can Provably Preclude Invariance [30.776243638012314]
補間にもかかわらずモデルを適切に一般化する「良性過剰適合」は、堅牢性や公正性が望ましい設定に好ましくない可能性があることを示す。
本研究では,非補間型分類器の確率的不変性を学習するアルゴリズムを提案し,解析する。
論文 参考訳(メタデータ) (2022-11-28T19:17:31Z) - Assaying Out-Of-Distribution Generalization in Transfer Learning [103.57862972967273]
私たちは、経験的に対処するメッセージの相違を強調して、以前の作業の統一的なビューを取ります。
私たちは9つの異なるアーキテクチャから、多数の、あるいは少数の設定で31K以上のネットワークを微調整しました。
論文 参考訳(メタデータ) (2022-07-19T12:52:33Z) - Regularising for invariance to data augmentation improves supervised
learning [82.85692486314949]
入力毎に複数の拡張を使用すれば、一般化が向上することを示す。
本稿では,個々のモデル予測のレベルにおいて,この不変性を助長する明示的な正規化手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T11:25:45Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - Learning from Aggregate Observations [82.44304647051243]
本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
論文 参考訳(メタデータ) (2020-04-14T06:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。