論文の概要: PREFAB: PREFerence-based Affective Modeling for Low-Budget Self-Annotation
- arxiv url: http://arxiv.org/abs/2601.13904v1
- Date: Tue, 20 Jan 2026 12:30:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.305402
- Title: PREFAB: PREFerence-based Affective Modeling for Low-Budget Self-Annotation
- Title(参考訳): PreFAB:低予算自己アノテーションのためのプレフェレンスに基づく感情モデル
- Authors: Jaeyoung Moon, Youjin Choi, Yucheon Park, David Melhart, Georgios N. Yannakakis, Kyung-Joong Kim,
- Abstract要約: 低予算の自己アノテーションであるPreFABは、完全なアノテーションではなく、感情的な反射領域をターゲットにしている。
PreFABは、相対的な感情変化を検出するために嗜好学習モデルを採用し、アノテータは刺激の残りの部分を補間しながら、選択したセグメントのみをラベル付けするように指示する。
その結果、PreFABは、作業負荷を軽減しつつ、感情的インフレクションをモデル化する上で、ベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 9.564467981235257
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-annotation is the gold standard for collecting affective state labels in affective computing. Existing methods typically rely on full annotation, requiring users to continuously label affective states across entire sessions. While this process yields fine-grained data, it is time-consuming, cognitively demanding, and prone to fatigue and errors. To address these issues, we present PREFAB, a low-budget retrospective self-annotation method that targets affective inflection regions rather than full annotation. Grounded in the peak-end rule and ordinal representations of emotion, PREFAB employs a preference-learning model to detect relative affective changes, directing annotators to label only selected segments while interpolating the remainder of the stimulus. We further introduce a preview mechanism that provides brief contextual cues to assist annotation. We evaluate PREFAB through a technical performance study and a 25-participant user study. Results show that PREFAB outperforms baselines in modeling affective inflections while mitigating workload (and conditionally mitigating temporal burden). Importantly PREFAB improves annotator confidence without degrading annotation quality.
- Abstract(参考訳): 自己アノテーション(Self Annotation)は、感情的コンピューティングにおいて感情的状態ラベルを収集するための金の標準である。
既存のメソッドは通常、完全なアノテーションに依存しており、ユーザーはセッション全体にわたって継続的に感情的な状態をラベル付けする必要がある。
このプロセスはきめ細かいデータを生成するが、時間がかかり、認知的に要求され、疲労やエラーを起こしやすい。
これらの問題に対処するため,全アノテーションではなく情動領域を対象とする低予算の振り返り自己アノテーションであるPreFABを提案する。
PreFABは、ピーク・エンドの規則と感情の規則的な表現に基づいて、相対的な感情の変化を検知し、刺激の残りの部分を補間しながら、アノテータに選択されたセグメントのみをラベル付けするように指示する嗜好学習モデルを採用している。
さらに、アノテーションを補助するための短い文脈的手がかりを提供するプレビューメカニズムを導入します。
プレFABの評価は,技術パフォーマンス研究と25名を対象に行った。
その結果,PreFABは作業負荷軽減(および条件付き時間的負担軽減)を図りながら,感情的インフレクションのモデル化においてベースラインよりも優れていた。
重要なことは、PreFABはアノテーションの品質を劣化させることなくアノテーションの信頼性を向上させる。
関連論文リスト
- Model Guidance via Robust Feature Attribution [8.871622130949085]
提案手法は,最先端手法と比較してテスト時の誤分類を20%削減する。
また、実験前の設定を自然言語処理タスクを含むように拡張します。
論文 参考訳(メタデータ) (2025-06-24T14:47:15Z) - Overcoming Language Priors for Visual Question Answering Based on Knowledge Distillation [7.755718939237373]
従来の研究では、視覚的質問応答(VQA)モデルは、解答予測に言語優先に依存する傾向があることが指摘されている。
本稿では, VQAタスクにおける先行性ジレンマに対処するため, 知識蒸留を利用した新しい手法KDARを提案する。
提案手法は, VQA-CPv2out-of-distribution (OOD)ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2025-01-10T03:42:37Z) - Vision-language Assisted Attribute Learning [53.60196963381315]
大規模な属性ラベリングは通常不完全で部分的である。
既存の属性学習手法は、欠落したラベルを否定的な扱いをすることが多い。
利用可能な視覚言語知識を活用して、モデル学習の強化に欠落しているラベルを明確に明らかにする。
論文 参考訳(メタデータ) (2023-12-12T06:45:19Z) - IDEAL: Influence-Driven Selective Annotations Empower In-Context Learners in Large Language Models [63.15355173909631]
本稿では,影響駆動型選択的アノテーション手法を提案する。
アノテーションのコストを最小限に抑えつつ、コンテキスト内サンプルの品質を向上させることを目的としている。
様々なベンチマークで提案手法の優位性を確認する実験を行った。
論文 参考訳(メタデータ) (2023-10-16T22:53:54Z) - Quality and Efficiency of Manual Annotation: Pre-annotation Bias [1.949293198748152]
この実験の目的は、事前アノテーションを用いた場合の最終的なアノテーション品質を判断することである。
実験により、事前アノテーションはより高速な手動構文アノテーションのための効率的なツールであることが確認された。
論文 参考訳(メタデータ) (2023-06-15T17:41:14Z) - The CARE Dataset for Affective Response Detection [8.758091990334615]
本稿では,7つの感情的反応に応じて注釈付けされた230万のソーシャルメディア投稿のデータセットであるCARE$_db$を紹介した。
人間のアノテーションとは異なり、ここで記述するアノテーションプロセスは、メソッドのカバレッジを拡大するために反復することができる。
本稿では,CAREアノテーションがクラウドソースアノテーションと良好に比較できることを示す実験について述べる。
論文 参考訳(メタデータ) (2022-01-28T02:17:50Z) - Understanding and Mitigating Annotation Bias in Facial Expression
Recognition [3.325054486984015]
現存する多くの著作は、人為的なアノテーションは金本位制であり、偏見のないものと見なすことができると仮定している。
顔の表情認識に焦点をあて、実験室で制御されたデータセットと現場のデータセットのラベルバイアスを比較する。
本稿では,顔動作単位(AU)を活用し,三重項損失を対象関数に組み込むAU校正顔表情認識フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-19T05:28:07Z) - Just Label What You Need: Fine-Grained Active Selection for Perception
and Prediction through Partially Labeled Scenes [78.23907801786827]
提案手法は,コストに配慮した手法と,部分的にラベル付けされたシーンを通じて詳細なサンプル選択を可能にする一般化を導入している。
実世界の大規模自動運転データセットに関する我々の実験は、微粒な選択が知覚、予測、下流計画タスクのパフォーマンスを向上させることを示唆している。
論文 参考訳(メタデータ) (2021-04-08T17:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。