論文の概要: Exploring Alignment of Representations with Human Perception
- arxiv url: http://arxiv.org/abs/2111.14726v1
- Date: Mon, 29 Nov 2021 17:26:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 14:57:33.412195
- Title: Exploring Alignment of Representations with Human Perception
- Title(参考訳): 人間の知覚による表現のアライメントの探索
- Authors: Vedant Nanda and Ayan Majumdar and Camila Kolling and John P.
Dickerson and Krishna P. Gummadi and Bradley C. Love and Adrian Weller
- Abstract要約: モデルによって類似した表現にマッピングされた入力は、人間によっても同様に認識されるべきであることを示す。
我々のアプローチは、モデルが人間の知覚に合致する程度を測ります。
アーキテクチャやトレーニングパラダイム,トレーニング損失,データ拡張といったモデルのさまざまな特性が,人間の知覚に整合した表現の学習において重要な役割を担っていることが分かりました。
- 参考スコア(独自算出の注目度): 47.53970721813083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We argue that a valuable perspective on when a model learns \textit{good}
representations is that inputs that are mapped to similar representations by
the model should be perceived similarly by humans. We use
\textit{representation inversion} to generate multiple inputs that map to the
same model representation, then quantify the perceptual similarity of these
inputs via human surveys. Our approach yields a measure of the extent to which
a model is aligned with human perception. Using this measure of alignment, we
evaluate models trained with various learning paradigms (\eg~supervised and
self-supervised learning) and different training losses (standard and robust
training). Our results suggest that the alignment of representations with human
perception provides useful additional insights into the qualities of a model.
For example, we find that alignment with human perception can be used as a
measure of trust in a model's prediction on inputs where different models have
conflicting outputs. We also find that various properties of a model like its
architecture, training paradigm, training loss, and data augmentation play a
significant role in learning representations that are aligned with human
perception.
- Abstract(参考訳): 我々は、モデルが \textit{good} 表現を学ぶときの貴重な視点として、モデルによって類似した表現にマッピングされる入力は、人間によっても同様に知覚されるべきである、と論じる。
我々は、同じモデル表現にマップする複数の入力を生成するために、textit{representation inversion}を使用し、その入力の知覚的類似性を人間のサーベイを通して定量化する。
我々のアプローチは、モデルが人間の知覚と一致している程度を測定する。
このアライメント尺度を用いて,様々な学習パラダイム(教師付き学習と自己教師付き学習)と異なるトレーニング損失(標準的かつ堅牢なトレーニング)で訓練されたモデルを評価する。
以上の結果から,人間の知覚と表現のアライメントは,モデルの性質に有用な洞察を与えることが示唆された。
例えば、人間の知覚との整合性は、異なるモデルの出力が矛盾する入力に対するモデルの予測に対する信頼の尺度として利用することができる。
また,モデルのさまざまな特性として,そのアーキテクチャ,トレーニングパラダイム,トレーニング損失,データ拡張が,人間の知覚に合わせた学習表現において重要な役割を担っていることもわかりました。
関連論文リスト
- Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Has Your Pretrained Model Improved? A Multi-head Posterior Based
Approach [25.927323251675386]
我々は、世界的知識の源として各エンティティに関連するメタ機能を活用し、モデルからエンティティ表現を採用する。
本稿では,これらの表現とメタ機能との整合性を,事前学習モデルの評価指標として用いることを提案する。
提案手法の有効性は,関係データセットを用いたモデル,大規模言語モデル,画像モデルなど,様々な領域で実証されている。
論文 参考訳(メタデータ) (2024-01-02T17:08:26Z) - Longer Fixations, More Computation: Gaze-Guided Recurrent Neural
Networks [12.57650361978445]
人間はさまざまなペースでテキストを読み、機械学習モデルはそれぞれのトークンを同じように扱う。
本稿では,この直感を固定誘導並列RNNやレイヤを用いた新しいモデルに変換する。
興味深いことに、ニューラルネットワークによって予測される固定期間は、人間の固定と多少似ている。
論文 参考訳(メタデータ) (2023-10-31T21:32:11Z) - Visual Grounding Helps Learn Word Meanings in Low-Data Regimes [53.7168869241458]
現代のニューラル言語モデル(LM)は、人間の文の生成と理解をモデル化するための強力なツールである。
しかし、これらの結果を得るためには、LMは明らかに非人間的な方法で訓練されなければならない。
より自然主義的に訓練されたモデルは、より人間らしい言語学習を示すのか?
本稿では,言語習得における重要なサブタスクである単語学習の文脈において,この問題を考察する。
論文 参考訳(メタデータ) (2023-10-20T03:33:36Z) - Visual Affordance Prediction for Guiding Robot Exploration [56.17795036091848]
我々は,ロボット探索を導くための視覚能力の学習手法を開発した。
VQ-VAEの潜伏埋め込み空間における条件分布の学習にはTransformerベースのモデルを用いる。
本稿では,ロボット操作における視覚的目標条件付きポリシー学習において,目標サンプリング分布として機能することで探索を導くために,トレーニングされた余裕モデルをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2023-05-28T17:53:09Z) - Alignment with human representations supports robust few-shot learning [14.918671859247429]
我々は、人間との表現的アライメントの程度と、数発の学習課題におけるパフォーマンスとの間には、U字型の関係があることを示すべきである。
また、高度に整合したモデルは、自然な敵攻撃とドメインシフトの両方に対してより堅牢であることを示す。
以上の結果から,人間のアライメントはしばしば十分ではあるが必要ではないことが示唆された。
論文 参考訳(メタデータ) (2023-01-27T21:03:19Z) - Geometric and Topological Inference for Deep Representations of Complex
Networks [13.173307471333619]
我々は、トポロジと表現の幾何学を強調する統計のクラスを提示する。
モデル選択に使用する場合の感度と特異性の観点から,これらの統計値を評価する。
これらの新しい手法により、脳やコンピューター科学者は、脳やモデルによって学習された動的表現変換を可視化することができる。
論文 参考訳(メタデータ) (2022-03-10T17:14:14Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Human-Understandable Decision Making for Visual Recognition [30.30163407674527]
モデル学習プロセスに人間の知覚の優先順位を組み込むことにより,深層ニューラルネットワークを訓練する新たなフレームワークを提案する。
提案モデルの有効性を2つの古典的視覚認識タスクで評価する。
論文 参考訳(メタデータ) (2021-03-05T02:07:33Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。