論文の概要: Supervised Contrastive Learning for Affect Modelling
- arxiv url: http://arxiv.org/abs/2208.12238v1
- Date: Thu, 25 Aug 2022 17:40:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:19:16.520793
- Title: Supervised Contrastive Learning for Affect Modelling
- Title(参考訳): 影響モデリングのための教師付きコントラスト学習
- Authors: Kosmas Pinitas, Konstantinos Makantasis, Antonios Liapis, Georgios N.
Yannakakis
- Abstract要約: 情報に影響を及ぼすことを考慮に入れた訓練表現のための3つの異なる教師付きコントラスト学習手法を導入する。
その結果、コントラスト学習の表現能力と、影響モデルの精度を高めるための効率が示された。
- 参考スコア(独自算出の注目度): 2.570570340104555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Affect modeling is viewed, traditionally, as the process of mapping
measurable affect manifestations from multiple modalities of user input to
affect labels. That mapping is usually inferred through end-to-end
(manifestation-to-affect) machine learning processes. What if, instead, one
trains general, subject-invariant representations that consider affect
information and then uses such representations to model affect? In this paper
we assume that affect labels form an integral part, and not just the training
signal, of an affect representation and we explore how the recent paradigm of
contrastive learning can be employed to discover general high-level
affect-infused representations for the purpose of modeling affect. We introduce
three different supervised contrastive learning approaches for training
representations that consider affect information. In this initial study we test
the proposed methods for arousal prediction in the RECOLA dataset based on user
information from multiple modalities. Results demonstrate the representation
capacity of contrastive learning and its efficiency in boosting the accuracy of
affect models. Beyond their evidenced higher performance compared to end-to-end
arousal classification, the resulting representations are general-purpose and
subject-agnostic, as training is guided though general affect information
available in any multimodal corpus.
- Abstract(参考訳): 伝統的に、測定可能なマッピングのプロセスは、ラベルに影響を与えるユーザ入力の複数のモードからのマニフェストに影響を及ぼす。
このマッピングは通常、エンドツーエンドの機械学習プロセスを通じて推論される。
代わりに、情報に影響を与えることを考慮し、その表現を使って影響をモデル化する主題不変表現を訓練するとしたらどうでしょう?
本稿では,影響ラベルが感情表現の訓練信号だけでなく,重要な部分を形成していると仮定し,近年のコントラスト学習のパラダイムを応用して,感情表現をモデル化するための一般的なハイレベルな感情注入表現を発見する方法について検討する。
情報に影響を与える表現を学習するための3つの異なる教師付きコントラスト学習手法を提案する。
本稿では,複数のモーダルからのユーザ情報に基づいて,RECOLAデータセットの覚醒予測手法を提案する。
その結果、比較学習の表現能力と影響モデルの精度を高める効果が示された。
エンド・ツー・エンドの覚醒分類よりも高いパフォーマンスを示すだけでなく、トレーニングはマルチモーダルコーパスで利用可能な一般的な影響情報によって誘導されるため、結果として得られる表現は汎用的で主題に依存しない。
関連論文リスト
- Separating common from salient patterns with Contrastive Representation
Learning [2.250968907999846]
コントラスト分析は、2つのデータセット間の変動の共通要因を分離することを目的としている。
変分オートエンコーダに基づく現在のモデルは意味表現の学習において性能が劣っている。
コントラスト分析に適合した意味表現表現を学習するためのコントラスト学習の活用を提案する。
論文 参考訳(メタデータ) (2024-02-19T08:17:13Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - The Influences of Color and Shape Features in Visual Contrastive
Learning [0.0]
本稿では,個々の画像特徴(色や形状など)がモデル性能に与える影響について検討する。
実験結果から、教師付き表現と比較して、コントラスト表現は類似した色を持つオブジェクトとクラスタリングする傾向にあることが示された。
論文 参考訳(メタデータ) (2023-01-29T15:10:14Z) - Task Formulation Matters When Learning Continually: A Case Study in
Visual Question Answering [58.82325933356066]
継続的な学習は、以前の知識を忘れずに、一連のタスクでモデルを漸進的にトレーニングすることを目的としている。
本稿では,視覚的質問応答において,異なる設定がパフォーマンスに与える影響について詳細に検討する。
論文 参考訳(メタデータ) (2022-09-30T19:12:58Z) - Generalizable Information Theoretic Causal Representation [37.54158138447033]
本稿では,観測データから因果表現を学習するために,仮説因果グラフに基づいて相互情報量で学習手順を規則化することを提案する。
この最適化は、因果性に着想を得た学習がサンプルの複雑さを減らし、一般化能力を向上させるという理論的保証を導出する反ファクト的損失を伴う。
論文 参考訳(メタデータ) (2022-02-17T00:38:35Z) - Data-Centric Machine Learning in the Legal Domain [0.2624902795082451]
本稿では,データセットの変化がモデルの性能に与える影響について考察する。
法律ドメインから公開されている3つのデータセットを用いて,そのサイズ,列車/テストの分割,および人間のラベル付け精度がパフォーマンスに与える影響について検討する。
観察された効果は、特にクラスごとのパフォーマンスを考慮した場合、驚くほど顕著である。
論文 参考訳(メタデータ) (2022-01-17T23:05:14Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Explaining Black Box Predictions and Unveiling Data Artifacts through
Influence Functions [55.660255727031725]
影響関数は、影響力のあるトレーニング例を特定することによって、モデルの判断を説明する。
本稿では,代表課題における影響関数と共通単語順応法の比較を行う。
我々は,学習データ中の成果物を明らかにすることができる影響関数に基づく新しい尺度を開発した。
論文 参考訳(メタデータ) (2020-05-14T00:45:23Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。