論文の概要: Disentangled and Robust Representation Learning for Bragging
Classification in Social Media
- arxiv url: http://arxiv.org/abs/2210.15180v1
- Date: Thu, 27 Oct 2022 05:15:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 13:54:21.912929
- Title: Disentangled and Robust Representation Learning for Bragging
Classification in Social Media
- Title(参考訳): ソーシャルメディアにおけるブラッグ分類のためのアンタングルとロバスト表現学習
- Authors: Xiang Li, Yucheng Zhou
- Abstract要約: 本稿では,アンタングルに基づく表現強化とドメイン認識の対角戦略を用いたブラッギング分類手法を提案する。
実験により,本手法が他の手法と比較して最先端性能を実現することを示す。
- 参考スコア(独自算出の注目度): 13.839612475240687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Researching bragging behavior on social media arouses interest of
computational (socio) linguists. However, existing bragging classification
datasets suffer from a serious data imbalance issue. Because labeling a
data-balance dataset is expensive, most methods introduce external knowledge to
improve model learning. Nevertheless, such methods inevitably introduce noise
and non-relevance information from external knowledge. To overcome the
drawback, we propose a novel bragging classification method with
disentangle-based representation augmentation and domain-aware adversarial
strategy. Specifically, model learns to disentangle and reconstruct
representation and generate augmented features via disentangle-based
representation augmentation. Moreover, domain-aware adversarial strategy aims
to constrain domain of augmented features to improve their robustness.
Experimental results demonstrate that our method achieves state-of-the-art
performance compared to other methods.
- Abstract(参考訳): ソーシャルメディアにおけるブラッグ行動の研究は、計算言語学者の興味を喚起する。
しかし、既存のブラッグ分類データセットは深刻なデータ不均衡の問題に悩まされている。
データバランスデータセットのラベル付けは高価であるため、ほとんどの手法はモデル学習を改善するために外部知識を導入する。
それにもかかわらず、このような手法は必然的に外部知識からノイズや非関連情報を導入する。
この欠点を克服するために,ディスタングルに基づく表現増強とドメイン認識の敵対戦略を用いたブラッギング分類手法を提案する。
具体的には、モデルがディエントグルとリコンストラクションの表現を学習し、ディエントグルベースの表現拡張によって拡張された特徴を生成する。
さらに、ドメイン対応の敵戦略は、拡張機能のドメインを制約し、堅牢性を向上させることを目的としている。
実験により,本手法が他の手法と比較して最先端性能を実現することを示す。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Sexism Detection on a Data Diet [14.899608305188002]
モデルのトレーニング中に、インフルエンススコアを利用してデータポイントの重要性を推定する方法を示します。
ドメイン外の3つのデータセット上で異なるプルーニング戦略を用いて、データプルーニングに基づいてトレーニングされたモデル性能を評価する。
論文 参考訳(メタデータ) (2024-06-07T12:39:54Z) - Deep Active Learning with Noise Stability [24.54974925491753]
ラベルのないデータの不確実性推定は、アクティブな学習に不可欠である。
本稿では,雑音の安定性を利用して不確実性を推定する新しいアルゴリズムを提案する。
本手法はコンピュータビジョン,自然言語処理,構造データ解析など,様々なタスクに適用可能である。
論文 参考訳(メタデータ) (2022-05-26T13:21:01Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Contextual Fusion For Adversarial Robustness [0.0]
ディープニューラルネットワークは、通常、1つの特定の情報ストリームを処理し、様々な種類の敵の摂動に影響を受けやすいように設計されている。
そこで我々はPlaces-CNNとImagenet-CNNから並列に抽出した背景特徴と前景特徴を組み合わせた融合モデルを開発した。
グラデーションをベースとした攻撃では,フュージョンは乱れのないデータの性能を低下させることなく,分類の大幅な改善を可能にする。
論文 参考訳(メタデータ) (2020-11-18T20:13:23Z) - Towards Domain-Agnostic Contrastive Learning [103.40783553846751]
そこで本研究では,DACLという対照的学習に対するドメインに依存しない新しいアプローチを提案する。
このアプローチの鍵となるのは、Mixupノイズを使用して、入力レベルと隠された状態レベルの両方で異なるデータサンプルを混合することで、類似した、異種なサンプルを作成することです。
以上の結果から,DACLはガウスノイズなどの他のドメインに依存しないノイズ発生手法よりも優れるだけでなく,SimCLRのようなドメイン固有の手法とうまく結合していることがわかった。
論文 参考訳(メタデータ) (2020-11-09T13:41:56Z) - Adversarial Augmentation Policy Search for Domain and Cross-Lingual
Generalization in Reading Comprehension [96.62963688510035]
理解モデルを読むことは、しばしばトレーニングデータセットのニュアンスに過度に適合し、敵対的な評価に失敗する。
本稿では,複数の効果的な敵と自動データ拡張ポリシー探索手法を提案し,対角的評価に対して,読解理解モデルをより堅牢にすることを目的とする。
論文 参考訳(メタデータ) (2020-04-13T17:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。