論文の概要: Embracing Uncertainty: Decoupling and De-bias for Robust Temporal
Grounding
- arxiv url: http://arxiv.org/abs/2103.16848v1
- Date: Wed, 31 Mar 2021 07:00:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:47:11.313729
- Title: Embracing Uncertainty: Decoupling and De-bias for Robust Temporal
Grounding
- Title(参考訳): 不確実性を受け入れる:ロバストな時間的接地のためのデカップリングとデバイアス
- Authors: Hao Zhou, Chongyang Zhang, Yan Luo, Yanjun Chen, Chuanping Hu
- Abstract要約: 時間接地は、言語クエリによって、未トリミングビデオ内の時間境界をローカライズすることを目的としている。
クエリの不確実性とラベルの不確実性という2つのタイプの避けられない人間の不確実性の課題に直面しています。
人間の不確実性を受け入れる新しいDeNet(Decoupling and De-bias)を提案する。
- 参考スコア(独自算出の注目度): 23.571580627202405
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Temporal grounding aims to localize temporal boundaries within untrimmed
videos by language queries, but it faces the challenge of two types of
inevitable human uncertainties: query uncertainty and label uncertainty. The
two uncertainties stem from human subjectivity, leading to limited
generalization ability of temporal grounding. In this work, we propose a novel
DeNet (Decoupling and De-bias) to embrace human uncertainty: Decoupling - We
explicitly disentangle each query into a relation feature and a modified
feature. The relation feature, which is mainly based on skeleton-like words
(including nouns and verbs), aims to extract basic and consistent information
in the presence of query uncertainty. Meanwhile, modified feature assigned with
style-like words (including adjectives, adverbs, etc) represents the subjective
information, and thus brings personalized predictions; De-bias - We propose a
de-bias mechanism to generate diverse predictions, aim to alleviate the bias
caused by single-style annotations in the presence of label uncertainty.
Moreover, we put forward new multi-label metrics to diversify the performance
evaluation. Extensive experiments show that our approach is more effective and
robust than state-of-the-arts on Charades-STA and ActivityNet Captions
datasets.
- Abstract(参考訳): 時間的グラウンディングは、言語クエリによる未トリミングビデオ内の時間的境界のローカライズを目的としているが、クエリの不確実性とラベルの不確実性という、避けられない人間の不確実性という2つのタイプの課題に直面している。
この2つの不確実性は人間の主観性に起因し、時間的接地の限定的な一般化能力に繋がる。
本稿では、人間の不確実性を受け入れるための新しいDeNet(Decoupling and De-bias)を提案する。
この関係特徴は,主に骨格的な単語(名詞や動詞を含む)に基づくもので,クエリの不確実性の存在下での基本的かつ一貫した情報を抽出することを目的としている。
一方,スタイルライクな単語(形容詞,副詞などを含む)に割り当てられた修飾された特徴は主観的な情報を表し,パーソナライズされた予測をもたらす; De-bias - ラベルの不確実性の存在下での単一スタイルアノテーションによるバイアスを軽減するために,多様な予測を生成するデバイアス機構を提案する。
さらに,性能評価の多様化を図るため,新しいマルチラベル指標を提案する。
大規模な実験により、我々のアプローチはCharades-STAおよびActivityNet Captionsデータセットの最先端技術よりも効果的で堅牢であることが示された。
関連論文リスト
- Certainly Uncertain: A Benchmark and Metric for Multimodal Epistemic and Aleatoric Awareness [106.52630978891054]
視覚言語AIシステムに特有の不確実性の分類法を提案する。
また、精度と校正誤差の両方によく相関する新しい計量信頼度重み付き精度を導入する。
論文 参考訳(メタデータ) (2024-07-02T04:23:54Z) - Spurious Feature Eraser: Stabilizing Test-Time Adaptation for Vision-Language Foundation Model [86.9619638550683]
視覚言語基礎モデルは、画像とテキストのペアデータに拡張性があるため、多数の下流タスクで顕著な成功を収めている。
しかし、これらのモデルは、決定ショートカットの結果、きめ細かな画像分類などの下流タスクに適用した場合に重大な制限を呈する」。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - CUE: An Uncertainty Interpretation Framework for Text Classifiers Built
on Pre-Trained Language Models [28.750894873827068]
本稿では,PLMモデルに固有の不確かさを解釈することを目的とした,CUEと呼ばれる新しいフレームワークを提案する。
摂動と原文表現の予測不確実性の違いを比較することにより,不確実性の原因となる潜伏次元を同定することができる。
論文 参考訳(メタデータ) (2023-06-06T11:37:46Z) - Ambiguity Meets Uncertainty: Investigating Uncertainty Estimation for
Word Sense Disambiguation [5.55197751179213]
既存の教師付き手法は、WSDを分類タスクとして扱い、優れたパフォーマンスを実現した。
本稿では,WSD 向けに設計されたベンチマークにおける不確実性推定(UE)を広範囲に研究する。
本研究では, モデルが適切に設計されたテストシナリオにおいて, 選択されたUEスコアを用いて, モデルによるデータとモデルの不確実性を捕捉する能力について検討し, モデルの不確実性を十分に反映するが, モデルの不確実性を過小評価する。
論文 参考訳(メタデータ) (2023-05-22T15:18:15Z) - Human-Guided Fair Classification for Natural Language Processing [9.652938946631735]
本稿では、教師なしスタイル転送とGPT-3のゼロショット機能を利用して、意味論的に類似した文を生成する方法を示す。
これらのペアの多くは、毒性分類の文脈における公正性に関する人間の直感と一致していることを確認した。
論文 参考訳(メタデータ) (2022-12-20T10:46:40Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Dealing with Disagreements: Looking Beyond the Majority Vote in
Subjective Annotations [6.546195629698355]
主観的タスクに対するマルチアノテータモデルの有効性について検討する。
このアプローチは、トレーニング前にラベルをアグリゲートするよりも、同じまたは良いパフォーマンスが得られることを示す。
提案手法は予測の不確かさを推定する手段も提供し,従来の手法よりもアノテーションの不一致との相関が良好であることを示す。
論文 参考訳(メタデータ) (2021-10-12T03:12:34Z) - CertainNet: Sampling-free Uncertainty Estimation for Object Detection [65.28989536741658]
ニューラルネットワークの不確実性を推定することは、安全クリティカルな設定において基本的な役割を果たす。
本研究では,オブジェクト検出のための新しいサンプリング不要不確実性推定法を提案する。
私たちはそれをCertainNetと呼び、各出力信号に対して、オブジェクト性、クラス、位置、サイズという、別の不確実性を提供するのは、これが初めてです。
論文 参考訳(メタデータ) (2021-10-04T17:59:31Z) - Dive into Ambiguity: Latent Distribution Mining and Pairwise Uncertainty
Estimation for Facial Expression Recognition [59.52434325897716]
DMUE(DMUE)という,アノテーションのあいまいさを2つの視点から解決するソリューションを提案する。
前者に対しては,ラベル空間における潜伏分布をよりよく記述するために,補助的マルチブランチ学習フレームワークを導入する。
後者の場合、インスタンス間の意味的特徴のペアワイズ関係を完全に活用して、インスタンス空間のあいまいさの程度を推定する。
論文 参考訳(メタデータ) (2021-04-01T03:21:57Z) - I Beg to Differ: A study of constructive disagreement in online
conversations [15.581515781839656]
コンテンツ論争を含む7,425のwikipediaトークページ会話のコーパスを構築した。
モデレーターによる調停に不一致がエスカレートされるかどうかを予測するタスクを定義します。
我々は,様々なニューラルモデルを開発し,会話の構造を考慮すれば予測精度が向上することを示す。
論文 参考訳(メタデータ) (2021-01-26T16:36:43Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。