論文の概要: Representational Multiplicity Should Be Exposed, Not Eliminated
- arxiv url: http://arxiv.org/abs/2206.08890v1
- Date: Fri, 17 Jun 2022 16:53:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 13:08:42.654297
- Title: Representational Multiplicity Should Be Exposed, Not Eliminated
- Title(参考訳): 表現の多重性は排除されるべきではない
- Authors: Ari Heljakka, Martin Trapp, Juho Kannala, Arno Solin
- Abstract要約: トレーニング中に同様のパフォーマンスを持つ2つの機械学習モデルは、現実世界のパフォーマンス特性を非常に異なるものにすることができる。
これは、表現的多重性(RM)として表されるモデルの内部の明確な違いを意味する。
本研究では,RMを解析するための概念的かつ実験的な設定を導入し,特定のトレーニング手法が他の方法よりも系統的にRMを大きくすることを示す。
- 参考スコア(独自算出の注目度): 27.495944788838457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is prevalent and well-observed, but poorly understood, that two machine
learning models with similar performance during training can have very
different real-world performance characteristics. This implies elusive
differences in the internals of the models, manifesting as representational
multiplicity (RM). We introduce a conceptual and experimental setup for
analyzing RM and show that certain training methods systematically result in
greater RM than others, measured by activation similarity via singular vector
canonical correlation analysis (SVCCA). We further correlate it with predictive
multiplicity measured by the variance in i.i.d. and out-of-distribution test
set predictions, in four common image data sets. We call for systematic
measurement and maximal exposure, not elimination, of RM in models. Qualitative
tools such as our confabulator analysis can facilitate understanding and
communication of RM effects to stakeholders.
- Abstract(参考訳): トレーニング中に同様のパフォーマンスを持つ2つの機械学習モデルが、実世界のパフォーマンス特性とは全く異なる可能性があることは、一般的でよく理解されていない。
このことは、表現的多重性(RM)として表されるモデルの内部の明確な違いを意味する。
本稿では,rm分析のための概念的および実験的な設定を導入し,single vector canonical correlation analysis (svcca) による活性化類似性を用いて,特定の訓練方法が系統的に他の方法よりも大きなrmをもたらすことを示す。
さらに,4つの共通画像データセットにおいて,分散度および分布外テストセットの予測によって測定された予測多重度と相関する。
我々は,モデルにおけるrmの体系的測定と最大露出を求める。
コンファビュレータ分析のような定性的なツールは、利害関係者へのRM効果の理解とコミュニケーションを容易にします。
関連論文リスト
- Revealing Multimodal Contrastive Representation Learning through Latent
Partial Causal Models [85.67870425656368]
マルチモーダルデータに特化して設計された統一因果モデルを提案する。
マルチモーダル・コントラスト表現学習は潜在結合変数の同定に優れていることを示す。
実験では、仮定が破られたとしても、我々の発見の堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Mitigating Biases with Diverse Ensembles and Diffusion Models [99.6100669122048]
拡散確率モデル(DPM)を利用したアンサンブル多様化フレームワークを提案する。
DPMは、相関した入力特徴を示すサンプルを用いて訓練しても、新しい特徴の組み合わせで画像を生成することができることを示す。
そこで本研究では,DPM誘導の多様化は,制御信号の追加を必要とせず,一次ショートカットキューへの依存を取り除くのに十分であることを示す。
論文 参考訳(メタデータ) (2023-11-23T15:47:33Z) - Understanding the Robustness of Multi-modal Contrastive Learning to
Distribution Shift [15.995056923785567]
CLIPのようなマルチモーダルな対照的な学習アプローチは、分散シフトに対して堅牢な学習表現において、顕著な成功を収めている。
実証的な成功にもかかわらず、そのような一般化可能な表現を学習するメカニズムは理解されていない。
論文 参考訳(メタデータ) (2023-10-08T02:25:52Z) - Leveraging Diffusion Disentangled Representations to Mitigate Shortcuts
in Underspecified Visual Tasks [92.32670915472099]
拡散確率モデル(DPM)を用いた合成カウンターファクトの生成を利用したアンサンブルの多様化フレームワークを提案する。
拡散誘導型分散化は,データ収集を必要とする従来の手法に匹敵するアンサンブル多様性を達成し,ショートカットからの注意を回避できることを示す。
論文 参考訳(メタデータ) (2023-10-03T17:37:52Z) - Using Explainable Boosting Machine to Compare Idiographic and Nomothetic
Approaches for Ecological Momentary Assessment Data [2.0824228840987447]
本稿では,非線形解釈型機械学習(ML)モデルを用いた分類問題について検討する。
木々の様々なアンサンブルは、不均衡な合成データセットと実世界のデータセットを用いて線形モデルと比較される。
2つの実世界のデータセットのうちの1つで、知識蒸留法は改善されたAUCスコアを達成する。
論文 参考訳(メタデータ) (2022-04-04T17:56:37Z) - An empirical evaluation of attention-based multi-head models for
improved turbofan engine remaining useful life prediction [9.282239595143787]
シングルユニット(ヘッド)は、多変量時系列信号に基づいて訓練されたディープラーニングアーキテクチャにおける従来の入力特徴抽出器である。
この研究は、従来のシングルヘッド深層学習モデルを、コンテキスト固有のヘッドを開発することにより、より堅牢な形式に拡張する。
論文 参考訳(メタデータ) (2021-09-04T01:13:47Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - Mean Embeddings with Test-Time Data Augmentation for Ensembling of
Representations [8.336315962271396]
表現のアンサンブルを考察し、MeTTA(Test-time augmentation)を用いた平均埋め込みを提案する。
MeTTAは、教師付きモデルと自己教師付きモデルの両方において、ImageNetの線形評価の質を大幅に向上させる。
我々は、より高品質な表現を推論するためにアンサンブルの成功を広めることが、多くの新しいアンサンブルアプリケーションを開く重要なステップであると信じている。
論文 参考訳(メタデータ) (2021-06-15T10:49:46Z) - A comprehensive comparative evaluation and analysis of Distributional
Semantic Models [61.41800660636555]
我々は、静的DSMによって生成されたり、BERTによって生成された文脈化されたベクトルを平均化して得られるような、型分布ベクトルの包括的評価を行う。
その結果、予測ベースモデルの優越性は現実よりも明らかであり、ユビキタスではないことが明らかとなった。
我々は認知神経科学からRepresentational similarity Analysis(RSA)の方法論を借りて、分布モデルによって生成された意味空間を検査する。
論文 参考訳(メタデータ) (2021-05-20T15:18:06Z) - Machine learning for causal inference: on the use of cross-fit
estimators [77.34726150561087]
より優れた統計特性を得るために、二重ローバストなクロスフィット推定器が提案されている。
平均因果効果(ACE)に対する複数の推定器の性能評価のためのシミュレーション研究を行った。
機械学習で使用する場合、二重確率のクロスフィット推定器は、バイアス、分散、信頼区間のカバレッジで他のすべての推定器よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-21T23:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。