論文の概要: From Generalized Laughter to Personalized Chuckles: Unleashing the Power
of Data Fusion in Subjective Humor Detection
- arxiv url: http://arxiv.org/abs/2312.11296v1
- Date: Mon, 18 Dec 2023 15:45:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 19:30:04.047294
- Title: From Generalized Laughter to Personalized Chuckles: Unleashing the Power
of Data Fusion in Subjective Humor Detection
- Title(参考訳): 一般娘からパーソナライズドチャックルへ:主観的音波検出におけるデータ融合のパワーを解き放つ
- Authors: Julita Bielaniewicz, Przemys{\l}aw Kazienko
- Abstract要約: 覚醒検出は、基本的に主観的であるユーモアの感覚に依存している。
ユーモア検出の課題は、トレーニングプロセスにパーソナライズされたデータを含めることによって大きなメリットがあることが示される。
パーソナライズされたデータセットの連結は、すべてのデータセットにまたがるアノテーションの範囲を標準化するコストにもかかわらず、ユーモア検出のパフォーマンスが大幅に向上する。
- 参考スコア(独自算出の注目度): 3.72780099946728
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The vast area of subjectivity in Natural Language Processing (NLP) poses a
challenge to the solutions typically used in generalized tasks. As exploration
in the scope of generalized NLP is much more advanced, it implies the
tremendous gap that is still to be addressed amongst all feasible tasks where
an opinion, taste, or feelings are inherent, thus creating a need for a
solution, where a data fusion could take place. We have chosen the task of
funniness, as it heavily relies on the sense of humor, which is fundamentally
subjective. Our experiments across five personalized and four generalized
datasets involving several personalized deep neural architectures have shown
that the task of humor detection greatly benefits from the inclusion of
personalized data in the training process. We tested five scenarios of training
data fusion that focused on either generalized (majority voting) or
personalized approaches to humor detection. The best results were obtained for
the setup, in which all available personalized datasets were joined to train
the personalized reasoning model. It boosted the prediction performance by up
to approximately 35% of the macro F1 score. Such a significant gain was
observed for all five personalized test sets. At the same time, the impact of
the model's architecture was much less than the personalization itself. It
seems that concatenating personalized datasets, even with the cost of
normalizing the range of annotations across all datasets, if combined with the
personalized models, results in an enormous increase in the performance of
humor detection.
- Abstract(参考訳): 自然言語処理(NLP)における主観性の広大な領域は、一般的に一般化されたタスクで使用されるソリューションに挑戦する。
一般化されたnlpの範囲の探求ははるかに進んでいるため、意見や味、感情が固有のすべての実現可能なタスクにおいて、依然として対処すべき膨大なギャップが暗示されるため、データ融合が起こる可能性のあるソリューションの必要性が生まれます。
私たちは、基本的に主観的なユーモアの感覚に大きく依存するため、面白さのタスクを選択しました。
複数のパーソナライズされたディープ・ニューラル・アーキテクチャを含む5つのパーソナライズされた4つの汎用データセットを対象とした実験では、トレーニングプロセスにパーソナライズされたデータを含めることで、ユーモア検出のタスクが大きなメリットがあることが示されている。
汎用的(多数決)か,あるいはユーモア検出へのパーソナライズされたアプローチに焦点をあてた,データ融合トレーニングの5つのシナリオをテストした。
最適な結果はセットアップのために得られ、利用可能なパーソナライズされたデータセットが結合され、パーソナライズされた推論モデルがトレーニングされた。
これにより、マクロF1スコアの約35%の予測性能が向上した。
このような大きな増加は、5つのパーソナライズされたテストセットすべてにおいて観察された。
同時に、モデルのアーキテクチャの影響は、パーソナライズ自体よりもずっと少なくなりました。
パーソナライズされたデータセットを連結することは、すべてのデータセットにまたがるアノテーションの範囲を正規化するコストがかかるにもかかわらず、パーソナライズされたモデルと組み合わせると、ユーモア検出のパフォーマンスが大幅に向上するように見える。
関連論文リスト
- Personality Alignment of Large Language Models [26.071445846818914]
大規模言語モデル(LLM)を整列する現在の手法は、一般的に一般的な人間の価値観や振る舞いを反映することを目的としている。
パーソナリティアライメントの概念を紹介する。
このアプローチは、個々のユーザや近縁なグループの特定の嗜好に合うように、LSMの反応と決定を調整します。
論文 参考訳(メタデータ) (2024-08-21T17:09:00Z) - Bayesian Neural Network For Personalized Federated Learning Parameter
Selection [2.130283000112442]
異種データの存在下でのフェデレーション学習の性能の低下は、この分野でもっとも差し迫った問題の一つである。
本研究では,従来の階層レベルのパーソナライズではなく,要素レベルのパーソナライズを提案する。
我々は,提案手法が既存のベースラインより優れていることを示すために,実世界の複数のデータセットに対してアルゴリズムの有効性を検証する。
論文 参考訳(メタデータ) (2024-02-25T13:37:53Z) - LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - Dirichlet-based Uncertainty Quantification for Personalized Federated
Learning with Improved Posterior Networks [9.54563359677778]
本稿では,グローバルおよびパーソナライズされたモデルの中からモデルを選択可能なフェデレーション学習への新たなアプローチを提案する。
これは、局所的およびグローバルな分布内および分布外データを検出するのに役立つ予測不確実性の慎重なモデリングによって達成される。
一般的な実世界の画像データセットに対する総合的な実験的評価は、アウト・オブ・ディストリビューション・データの存在下でのモデルの優れた性能を示している。
論文 参考訳(メタデータ) (2023-12-18T14:30:05Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - PRIOR: Personalized Prior for Reactivating the Information Overlooked in
Federated Learning [16.344719695572586]
各クライアントのグローバルモデルにパーソナライズされた事前知識を注入する新しいスキームを提案する。
提案したアプローチの中心は,Bregman Divergence (pFedBreD) による PFL フレームワークである。
提案手法は5つのデータセット上での最先端のパフォーマンスに到達し、8つのベンチマークで最大3.5%性能を向上する。
論文 参考訳(メタデータ) (2023-10-13T15:21:25Z) - Differentially Private Multi-Party Data Release for Linear Regression [40.66319371232736]
Differentially Private (DP) データリリースは、データ対象のプライバシを損なうことなくデータを広める、有望なテクニックである。
本稿では、異なる利害関係者が同じデータ対象グループに属する不整合な属性セットを所有するマルチパーティ設定に焦点を当てる。
提案手法は,データセットサイズが増大する最適(プライベートでない)解に収束することを示す。
論文 参考訳(メタデータ) (2022-06-16T08:32:17Z) - Federated Mixture of Experts [94.25278695272874]
FedMixは特別なモデルのアンサンブルをトレーニングできるフレームワークです。
類似したデータ特性を持つユーザが同じメンバーを選択して統計的強度を共有することを示す。
論文 参考訳(メタデータ) (2021-07-14T14:15:24Z) - Novel Human-Object Interaction Detection via Adversarial Domain
Generalization [103.55143362926388]
本研究では,新たな人-物間相互作用(HOI)検出の問題点を考察し,モデルの一般化能力を向上させることを目的とした。
この課題は、主に対象と述語の大きな構成空間に起因し、全ての対象と述語の組み合わせに対する十分な訓練データが欠如している。
本稿では,予測のためのオブジェクト指向不変の特徴を学習するために,対数領域の一般化の統一的な枠組みを提案する。
論文 参考訳(メタデータ) (2020-05-22T22:02:56Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。