論文の概要: From the Lab to the Wild: Affect Modeling via Privileged Information
- arxiv url: http://arxiv.org/abs/2305.10919v1
- Date: Thu, 18 May 2023 12:31:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 15:25:30.105145
- Title: From the Lab to the Wild: Affect Modeling via Privileged Information
- Title(参考訳): 研究室から野生まで:特権的情報によるモデリングに影響を及ぼす
- Authors: Konstantinos Makantasis, Kosmas Pinitas, Antonios Liapis, Georgios N.
Yannakakis
- Abstract要約: 制御された実験室環境で訓練されたモデル(生体内)を、制御されていない現実世界の設定(生体内)に確実に移行するにはどうすればよいか?
厳密な情報は、実験室で利用可能な複数のモダリティでモデルをトレーニングし、大きなパフォーマンス低下なしには、野生で運用できないモダリティを無視します。
- 参考スコア(独自算出の注目度): 2.570570340104555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How can we reliably transfer affect models trained in controlled laboratory
conditions (in-vitro) to uncontrolled real-world settings (in-vivo)? The
information gap between in-vitro and in-vivo applications defines a core
challenge of affective computing. This gap is caused by limitations related to
affect sensing including intrusiveness, hardware malfunctions and availability
of sensors. As a response to these limitations, we introduce the concept of
privileged information for operating affect models in real-world scenarios (in
the wild). Privileged information enables affect models to be trained across
multiple modalities available in a lab, and ignore, without significant
performance drops, those modalities that are not available when they operate in
the wild. Our approach is tested in two multimodal affect databases one of
which is designed for testing models of affect in the wild. By training our
affect models using all modalities and then using solely raw footage frames for
testing the models, we reach the performance of models that fuse all available
modalities for both training and testing. The results are robust across both
classification and regression affect modeling tasks which are dominant
paradigms in affective computing. Our findings make a decisive step towards
realizing affect interaction in the wild.
- Abstract(参考訳): 制御された実験条件(in-vivo)で訓練されたモデルから、制御されていない実環境(in-vivo)へ、どのように確実に移行できるか?
in-vitro と in-vivo のアプリケーション間の情報ギャップは、感情コンピューティングのコアチャレンジを定義する。
このギャップは、侵入性、ハードウェアの故障、センサーの可用性を含む感覚に影響する制限によって引き起こされる。
これらの制約に応えて、実世界のシナリオ(野生)における影響モデルを操作するための特権情報の概念を導入する。
特権付き情報により、影響モデルが実験室で利用可能な複数のモダリティにわたってトレーニングされ、大幅なパフォーマンス低下なくして、ワイルドで動作しても利用できないモダリティを無視することができる。
私たちのアプローチは2つのマルチモーダルな影響データベースでテストされています。
すべてのモダリティを使用して影響モデルをトレーニングし、モデルをテストするために生の映像フレームのみを使用することによって、トレーニングとテストの両方で利用可能なモダリティを融合するモデルのパフォーマンスに到達します。
分類と回帰の両方で頑健な結果は、感情コンピューティングにおいて支配的なパラダイムであるモデリングタスクに影響を及ぼす。
我々の発見は、野生における影響の相互作用の実現に向けて決定的な一歩を踏み出した。
関連論文リスト
- Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Mind the Gap Between Synthetic and Real: Utilizing Transfer Learning to Probe the Boundaries of Stable Diffusion Generated Data [2.6016285265085526]
学生モデルは、実際のデータで訓練されたモデルと比較して、精度が著しく低下している。
実データまたは合成データを用いてこれらのレイヤをトレーニングすることにより、ドロップが主にモデルの最終的なレイヤに由来することを明らかにする。
この結果から,実際のトレーニングデータの量とモデルの精度とのトレードオフの改善が示唆された。
論文 参考訳(メタデータ) (2024-05-06T07:51:13Z) - Representation Learning for Wearable-Based Applications in the Case of
Missing Data [20.37256375888501]
実環境におけるマルチモーダルセンサデータは、データ品質が低く、データアノテーションが限られているため、依然として困難である。
本稿では,不足するウェアラブルデータに対する表現学習について検討し,最新統計手法と比較する。
本研究は,マスキングに基づく自己指導型学習タスクの設計と開発に関する知見を提供する。
論文 参考訳(メタデータ) (2024-01-08T08:21:37Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - On the Connection between Pre-training Data Diversity and Fine-tuning
Robustness [66.30369048726145]
下流の有効ロバスト性に影響を与える主な要因はデータ量である。
各種自然および合成データソースから抽出した事前学習分布について,本研究の成果を示す。
論文 参考訳(メタデータ) (2023-07-24T05:36:19Z) - Supervised Contrastive Learning for Affect Modelling [2.570570340104555]
情報に影響を及ぼすことを考慮に入れた訓練表現のための3つの異なる教師付きコントラスト学習手法を導入する。
その結果、コントラスト学習の表現能力と、影響モデルの精度を高めるための効率が示された。
論文 参考訳(メタデータ) (2022-08-25T17:40:19Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - A Weighted Solution to SVM Actionability and Interpretability [0.0]
実行可能性(Actionability)は、機械学習モデルの解釈可能性や説明可能性と同じくらい重要であり、進行中で重要な研究トピックである。
本稿では,線形SVMモデルと非線形SVMモデルの両方において,動作可能性の問題に対する解を求める。
論文 参考訳(メタデータ) (2020-12-06T20:35:25Z) - Reducing Risk of Model Inversion Using Privacy-Guided Training [0.0]
最近の攻撃では、訓練されたモデルから機密情報を推測することができた。
本稿では,木系モデルにおけるモデル逆転攻撃に対する対策について述べる。
論文 参考訳(メタデータ) (2020-06-29T09:02:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。