論文の概要: Exploring Alignment of Representations with Human Perception
- arxiv url: http://arxiv.org/abs/2111.14726v1
- Date: Mon, 29 Nov 2021 17:26:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 14:57:33.412195
- Title: Exploring Alignment of Representations with Human Perception
- Title(参考訳): 人間の知覚による表現のアライメントの探索
- Authors: Vedant Nanda and Ayan Majumdar and Camila Kolling and John P.
Dickerson and Krishna P. Gummadi and Bradley C. Love and Adrian Weller
- Abstract要約: モデルによって類似した表現にマッピングされた入力は、人間によっても同様に認識されるべきであることを示す。
我々のアプローチは、モデルが人間の知覚に合致する程度を測ります。
アーキテクチャやトレーニングパラダイム,トレーニング損失,データ拡張といったモデルのさまざまな特性が,人間の知覚に整合した表現の学習において重要な役割を担っていることが分かりました。
- 参考スコア(独自算出の注目度): 47.53970721813083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We argue that a valuable perspective on when a model learns \textit{good}
representations is that inputs that are mapped to similar representations by
the model should be perceived similarly by humans. We use
\textit{representation inversion} to generate multiple inputs that map to the
same model representation, then quantify the perceptual similarity of these
inputs via human surveys. Our approach yields a measure of the extent to which
a model is aligned with human perception. Using this measure of alignment, we
evaluate models trained with various learning paradigms (\eg~supervised and
self-supervised learning) and different training losses (standard and robust
training). Our results suggest that the alignment of representations with human
perception provides useful additional insights into the qualities of a model.
For example, we find that alignment with human perception can be used as a
measure of trust in a model's prediction on inputs where different models have
conflicting outputs. We also find that various properties of a model like its
architecture, training paradigm, training loss, and data augmentation play a
significant role in learning representations that are aligned with human
perception.
- Abstract(参考訳): 我々は、モデルが \textit{good} 表現を学ぶときの貴重な視点として、モデルによって類似した表現にマッピングされる入力は、人間によっても同様に知覚されるべきである、と論じる。
我々は、同じモデル表現にマップする複数の入力を生成するために、textit{representation inversion}を使用し、その入力の知覚的類似性を人間のサーベイを通して定量化する。
我々のアプローチは、モデルが人間の知覚と一致している程度を測定する。
このアライメント尺度を用いて,様々な学習パラダイム(教師付き学習と自己教師付き学習)と異なるトレーニング損失(標準的かつ堅牢なトレーニング)で訓練されたモデルを評価する。
以上の結果から,人間の知覚と表現のアライメントは,モデルの性質に有用な洞察を与えることが示唆された。
例えば、人間の知覚との整合性は、異なるモデルの出力が矛盾する入力に対するモデルの予測に対する信頼の尺度として利用することができる。
また,モデルのさまざまな特性として,そのアーキテクチャ,トレーニングパラダイム,トレーニング損失,データ拡張が,人間の知覚に合わせた学習表現において重要な役割を担っていることもわかりました。
関連論文リスト
- When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Evaluating Multiview Object Consistency in Humans and Image Models [68.36073530804296]
我々は、物体の形状に関するゼロショット視覚的推論を必要とする認知科学の実験的設計を活用する。
我々は500人以上の参加者から行動データの35万件の試行を収集した。
次に、一般的な視覚モデルの性能を評価する。
論文 参考訳(メタデータ) (2024-09-09T17:59:13Z) - Dual Thinking and Perceptual Analysis of Deep Learning Models using Human Adversarial Examples [5.022336433202968]
視覚における双対思考の知覚は、直感的および論理的処理からの推論が異なるイメージを必要とする。
我々は、人間の視覚における二重思考の枠組みの証拠を提供するために、敵対的データセットを導入する。
また,人間の視覚の計算モデルとして分類モデルを用いた場合の批判についても検討した。
論文 参考訳(メタデータ) (2024-06-11T05:50:34Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Longer Fixations, More Computation: Gaze-Guided Recurrent Neural
Networks [12.57650361978445]
人間はさまざまなペースでテキストを読み、機械学習モデルはそれぞれのトークンを同じように扱う。
本稿では,この直感を固定誘導並列RNNやレイヤを用いた新しいモデルに変換する。
興味深いことに、ニューラルネットワークによって予測される固定期間は、人間の固定と多少似ている。
論文 参考訳(メタデータ) (2023-10-31T21:32:11Z) - Evaluating alignment between humans and neural network representations in image-based learning tasks [5.657101730705275]
トレーニング済みの860ドルのニューラルネットワークモデルの表現が、人間の学習軌跡にどのようにマッピングされているかテストしました。
トレーニングデータセットのサイズは人間の選択に沿った中核的な決定要因であるのに対し、マルチモーダルデータ(テキストと画像)による対照的なトレーニングは、人間の一般化を予測するために現在公開されているモデルの一般的な特徴であることがわかった。
結論として、事前訓練されたニューラルネットワークは、タスク間で伝達可能な認知の基本的な側面を捉えているように見えるため、認知モデルのための表現を抽出するのに役立つ。
論文 参考訳(メタデータ) (2023-06-15T08:18:29Z) - Visual Affordance Prediction for Guiding Robot Exploration [56.17795036091848]
我々は,ロボット探索を導くための視覚能力の学習手法を開発した。
VQ-VAEの潜伏埋め込み空間における条件分布の学習にはTransformerベースのモデルを用いる。
本稿では,ロボット操作における視覚的目標条件付きポリシー学習において,目標サンプリング分布として機能することで探索を導くために,トレーニングされた余裕モデルをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2023-05-28T17:53:09Z) - Alignment with human representations supports robust few-shot learning [14.918671859247429]
我々は、人間との表現的アライメントの程度と、数発の学習課題におけるパフォーマンスとの間には、U字型の関係があることを示すべきである。
また、高度に整合したモデルは、自然な敵攻撃とドメインシフトの両方に対してより堅牢であることを示す。
以上の結果から,人間のアライメントはしばしば十分ではあるが必要ではないことが示唆された。
論文 参考訳(メタデータ) (2023-01-27T21:03:19Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Human-Understandable Decision Making for Visual Recognition [30.30163407674527]
モデル学習プロセスに人間の知覚の優先順位を組み込むことにより,深層ニューラルネットワークを訓練する新たなフレームワークを提案する。
提案モデルの有効性を2つの古典的視覚認識タスクで評価する。
論文 参考訳(メタデータ) (2021-03-05T02:07:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。