論文の概要: Fairness-Aware Few-Shot Learning for Audio-Visual Stress Detection
- arxiv url: http://arxiv.org/abs/2511.09039v1
- Date: Thu, 13 Nov 2025 01:27:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.370648
- Title: Fairness-Aware Few-Shot Learning for Audio-Visual Stress Detection
- Title(参考訳): 聴覚的ストレス検出のためのフェアネス対応Few-Shot学習
- Authors: Anushka Sanjay Shelke, Aditya Sneh, Arya Adyasha, Haroon R. Lone,
- Abstract要約: ストレス検出のための公正なメタ学習フレームワークであるFairM2Sを提案する。
FairM2Sは、メタトレーニングと適応フェーズの両方において、等化オッドの制約を統合する。
この論文でデータセットとFairM2Sを公開しています。
- 参考スコア(独自算出の注目度): 1.189955933770711
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness in AI-driven stress detection is critical for equitable mental healthcare, yet existing models frequently exhibit gender bias, particularly in data-scarce scenarios. To address this, we propose FairM2S, a fairness-aware meta-learning framework for stress detection leveraging audio-visual data. FairM2S integrates Equalized Odds constraints during both meta-training and adaptation phases, employing adversarial gradient masking and fairness-constrained meta-updates to effectively mitigate bias. Evaluated against five state-of-the-art baselines, FairM2S achieves 78.1% accuracy while reducing the Equal Opportunity to 0.06, demonstrating substantial fairness gains. We also release SAVSD, a smartphone-captured dataset with gender annotations, designed to support fairness research in low-resource, real-world contexts. Together, these contributions position FairM2S as a state-of-the-art approach for equitable and scalable few-shot stress detection in mental health AI. We release our dataset and FairM2S publicly with this paper.
- Abstract(参考訳): AIによるストレス検出の公平性は、平等なメンタルヘルスにとって重要であるが、既存のモデルは、特にデータ障害のシナリオにおいて、しばしばジェンダーバイアスを示す。
そこで本研究では,音声視覚データを利用したストレス検出のための公正なメタ学習フレームワークであるFairM2Sを提案する。
FairM2Sは、メタトレーニングと適応フェーズの両方で等化オッドの制約を統合し、対向勾配マスキングとフェアネス制約のメタ更新を利用してバイアスを効果的に緩和する。
最先端の5つのベースラインに対して評価され、FairM2Sは78.1%の精度を達成し、Equal Opportunityを0.06に下げた。
私たちはまた、低リソースで現実世界のコンテキストにおける公正さの研究を支援するために設計された、ジェンダーアノテーションを備えたスマートフォンでキャプチャされたデータセットであるSAVSDをリリースしました。
これらのコントリビューションは、FairM2Sを、メンタルヘルスAIにおける公平でスケーラブルな数ショットのストレス検出のための最先端のアプローチとして位置付けている。
この論文でデータセットとFairM2Sを公開しています。
関連論文リスト
- Fairness Mediator: Neutralize Stereotype Associations to Mitigate Bias in Large Language Models [66.5536396328527]
LLMは必然的にトレーニングデータから急激な相関関係を吸収し、偏りのある概念と特定の社会的グループの間のステレオタイプ的関連をもたらす。
ステレオタイプアソシエーションを中和するバイアス緩和フレームワークであるFairness Mediator (FairMed)を提案する。
本フレームワークは, ステレオタイプアソシエーションプローバーと, 対向型デバイアス中和剤の2つの主成分からなる。
論文 参考訳(メタデータ) (2025-04-10T14:23:06Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを提案する。
本フレームワークは,1)不変なFEを学習するためのクラスタ逆効果,2)REのためのベイズニューラルネットワーク,3)最終的な予測のためにFEとREを組み合わせた混合関数,を通じて,クラスタ不変な固定効果(FE)とクラスタ固有ランダムエフェクト(RE)を定量化する。
公正なMEDLフレームワークは、年齢で86.4%、人種で64.9%、性で57.8%、結婚で36.2%の公正性を向上し、堅牢な予測性能を維持している。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - Through the Fairness Lens: Experimental Analysis and Evaluation of
Entity Matching [17.857838691801884]
アルゴリズムの公平さは、機械バイアスとその社会的影響に対処するためのタイムリーなトピックとなっている。
これら2つのトピックに関する広範な研究にもかかわらず、エンティティマッチングの公平性にはほとんど注意が払われていない。
フェアネスのレンズを通してEMを監査するためのソーシャルデータセットを2つ生成する。
論文 参考訳(メタデータ) (2023-07-06T02:21:08Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。