論文の概要: Modeling Uncertainty in Personalized Emotion Prediction with Normalizing
Flows
- arxiv url: http://arxiv.org/abs/2312.06034v1
- Date: Sun, 10 Dec 2023 23:21:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 17:29:56.828457
- Title: Modeling Uncertainty in Personalized Emotion Prediction with Normalizing
Flows
- Title(参考訳): 正規化フローによるパーソナライズされた感情予測の不確かさのモデル化
- Authors: Piotr Mi{\l}kowski, Konrad Karanowski, Patryk Wielopolski, Jan
Koco\'n, Przemys{\l}aw Kazienko, Maciej Zi\k{e}ba
- Abstract要約: 本研究では,条件付き正規化フローを用いて予測の不確かさを捉える新しい手法を提案する。
感情認識とヘイトスピーチを含む3つの主観的NLP課題に対して,本手法の有効性を検証した。
開発した手法によって得られた情報により,従来の手法を超越したハイブリッドモデルの構築が可能となった。
- 参考スコア(独自算出の注目度): 6.32047610997385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing predictive models for subjective problems in natural language
processing (NLP) remains challenging. This is mainly due to its
non-deterministic nature and different perceptions of the content by different
humans. It may be solved by Personalized Natural Language Processing (PNLP),
where the model exploits additional information about the reader to make more
accurate predictions. However, current approaches require complete information
about the recipients to be straight embedded. Besides, the recent methods focus
on deterministic inference or simple frequency-based estimations of the
probabilities. In this work, we overcome this limitation by proposing a novel
approach to capture the uncertainty of the forecast using conditional
Normalizing Flows. This allows us to model complex multimodal distributions and
to compare various models using negative log-likelihood (NLL). In addition, the
new solution allows for various interpretations of possible reader perception
thanks to the available sampling function. We validated our method on three
challenging, subjective NLP tasks, including emotion recognition and hate
speech. The comparative analysis of generalized and personalized approaches
revealed that our personalized solutions significantly outperform the baseline
and provide more precise uncertainty estimates. The impact on the text
interpretability and uncertainty studies are presented as well. The information
brought by the developed methods makes it possible to build hybrid models whose
effectiveness surpasses classic solutions. In addition, an analysis and
visualization of the probabilities of the given decisions for texts with high
entropy of annotations and annotators with mixed views were carried out.
- Abstract(参考訳): 自然言語処理(NLP)における主観的問題に対する予測モデルの設計は依然として困難である。
これは主に、その非決定論的性質と、異なる人間の内容に対する異なる認識によるものである。
これはパーソナライズされた自然言語処理(pnlp)によって解決される可能性があり、モデルでは読み手に関する追加情報を利用してより正確な予測を行う。
しかし、現在のアプローチでは、受信者の完全な情報を直接埋め込む必要がある。
さらに、近年の手法は、確率の決定論的推測や単純な周波数に基づく推定に焦点を当てている。
本研究では,条件付き正規化フローを用いて予測の不確かさを捉える新しい手法を提案することにより,この制限を克服する。
これにより、複雑なマルチモーダル分布をモデル化し、負の対数類似度(NLL)を用いて様々なモデルを比較することができる。
さらに、新しいソリューションでは、利用可能なサンプリング機能のおかげで、読者認識の様々な解釈が可能になる。
感情認識やヘイトスピーチを含む3つの主観的nlp課題について検証を行った。
一般化およびパーソナライズされたアプローチの比較分析により、我々のパーソナライズされたソリューションはベースラインを著しく上回り、より正確な不確実性推定を提供することがわかった。
テキストの解釈可能性と不確実性の研究にも影響がある。
開発した手法によって得られた情報により、従来のソリューションを超える効果を持つハイブリッドモデルを構築することができる。
また,アノテーションとアノテーションを混同したアノテータのエントロピーが高いテキストに対して,与えられた決定の確率分析と可視化を行った。
関連論文リスト
- DISCO: DISCovering Overfittings as Causal Rules for Text Classification Models [6.369258625916601]
ポストホックの解釈可能性法は、モデルの意思決定プロセスを完全に捉えるのに失敗する。
本稿では,グローバルなルールベースの説明を見つけるための新しい手法であるdisCOを紹介する。
DISCOは対話的な説明をサポートし、人間の検査者がルールベースの出力で突発的な原因を区別できるようにする。
論文 参考訳(メタデータ) (2024-11-07T12:12:44Z) - On Uncertainty In Natural Language Processing [2.5076643086429993]
この論文は、自然言語処理における不確実性が言語的、統計的、神経的な観点からどのように特徴づけられるかを研究する。
本研究では,非交換不能な共形予測に基づく自然言語生成における校正サンプリング手法を提案する。
最後に,補助予測器を用いた大規模ブラックボックス言語モデルの信頼性の定量化手法を開発した。
論文 参考訳(メタデータ) (2024-10-04T14:08:02Z) - It's All in the Mix: Wasserstein Machine Learning with Mixed Features [5.739657897440173]
混合機能問題の解法として,実用的なアルゴリズムを提案する。
提案手法は, 個々の特徴が存在する場合の既存手法を著しく上回りうることを示す。
論文 参考訳(メタデータ) (2023-12-19T15:15:52Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - Explaining Language Models' Predictions with High-Impact Concepts [11.47612457613113]
概念ベースの解釈可能性手法をNLPに拡張するための完全なフレームワークを提案する。
出力予測が大幅に変化する特徴を最適化する。
本手法は, ベースラインと比較して, 予測的影響, ユーザビリティ, 忠実度に関する優れた結果が得られる。
論文 参考訳(メタデータ) (2023-05-03T14:48:27Z) - Tailoring Language Generation Models under Total Variation Distance [55.89964205594829]
ニューラルネットワーク生成の標準パラダイムは、最適化方法として最大推定(MLE)を採用する。
言語生成に適用するための実践的境界を開発する。
本稿では,TVD推定のトレードオフのバランスをとるためのTaiLr の目標について紹介する。
論文 参考訳(メタデータ) (2023-02-26T16:32:52Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Interpretable Social Anchors for Human Trajectory Forecasting in Crowds [84.20437268671733]
本研究では,人混みの軌跡を予測できるニューラルネットワークシステムを提案する。
解釈可能なルールベースのインテントを学び、ニューラルネットワークの表現可能性を利用してシーン固有の残差をモデル化する。
私たちのアーキテクチャは、インタラクション中心のベンチマークTrajNet++でテストされています。
論文 参考訳(メタデータ) (2021-05-07T09:22:34Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。