論文の概要: "My life is miserable, have to sign 500 autographs everyday": Exposing Humblebragging, the Brags in Disguise
- arxiv url: http://arxiv.org/abs/2412.20057v1
- Date: Sat, 28 Dec 2024 07:14:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:01:22.820492
- Title: "My life is miserable, have to sign 500 autographs everyday": Exposing Humblebragging, the Brags in Disguise
- Title(参考訳): 『私の人生は惨めで、毎日500枚のサインを書かなければならない』:ハンブルブラッギングの展示、Dguiseのブラッグ
- Authors: Sharath Naganna, Saprativa Bhattacharjee, Pushpak Bhattacharyya, Biplab Banerjee,
- Abstract要約: テキスト中のハンブルブラッグを自動的に検出するタスクを導入する。
本研究では, 機械学習, ディープラーニング, および大規模言語モデルを用いて, ハンブルブラッギングを4タプルで定義し, 評価する。
実験の結果,ヒトでもハンブルブラッグの検出は容易ではないことがわかった。
- 参考スコア(独自算出の注目度): 44.578587269193015
- License:
- Abstract: Humblebragging is a phenomenon where individuals present self-promotional statements under the guise of modesty or complaints. For example, a statement like, "Ugh, I can't believe I got promoted to lead the entire team. So stressful!", subtly highlights an achievement while pretending to be complaining. Detecting humblebragging is important for machines to better understand the nuances of human language, especially in tasks like sentiment analysis and intent recognition. However, this topic has not yet been studied in computational linguistics. For the first time, we introduce the task of automatically detecting humblebragging in text. We formalize the task by proposing a 4-tuple definition of humblebragging and evaluate machine learning, deep learning, and large language models (LLMs) on this task, comparing their performance with humans. We also create and release a dataset called HB24, containing 3,340 humblebrags generated using GPT-4o. Our experiments show that detecting humblebragging is non-trivial, even for humans. Our best model achieves an F1-score of 0.88. This work lays the foundation for further exploration of this nuanced linguistic phenomenon and its integration into broader natural language understanding systems.
- Abstract(参考訳): ハンブルブラッギング(Humblebragging)とは、個々人が謙虚さや不満の念頭に自己宣伝的発言を見せる現象である。
例えば、"うん、チーム全体を率いるように昇進したとは思えない。ストレスが強い!"という文言は、不平を言っているふりをしながら、成果を微妙に強調している。
特に感情分析や意図認識といったタスクでは、機械が人間の言語のニュアンスをよりよく理解することが重要である。
しかし、この話題は計算言語学ではまだ研究されていない。
テキスト中のハンブルブラッグを自動的に検出するタスクを初めて紹介する。
本研究では,この課題に対して,Humblebraggingの4タプル定義を提案し,機械学習,ディープラーニング,大規模言語モデル(LLM)の評価を行い,その性能を人間と比較する。
また,GPT-4oを用いて生成した3,340個のハンブルブラッグを含むHB24というデータセットを作成した。
実験の結果,ヒトでもハンブルブラッグの検出は容易ではないことがわかった。
我々の最良のモデルはF1スコア0.88を達成する。
この研究は、このニュアンスド言語現象のさらなる探索と、より広範な自然言語理解システムへの統合の基礎を築いた。
関連論文リスト
- Who is bragging more online? A large scale analysis of bragging in social media [31.768287848321354]
本稿では,Twitter(米国)におけるブラッグ行動の大規模研究を行うために,計算社会言語学的手法を用いる。
本研究は,同一利用者内でのブラッグの頻度が時間の経過とともに低下していることを示す。
さらに、米国の若い、より教育を受け、人気のあるユーザーは、より自慢する傾向にある。
論文 参考訳(メタデータ) (2024-03-25T12:07:21Z) - Physics of Language Models: Part 3.2, Knowledge Manipulation [51.68385617116854]
本稿では,4つの基本的な知識操作タスクについて検討する。
言語モデルは知識検索に優れるが、最も単純な分類や比較タスクにも耐え難い。
また, GPT-4のような近代的な事前学習言語モデルにも適用できる。
論文 参考訳(メタデータ) (2023-09-25T17:50:41Z) - A Sentence is Worth a Thousand Pictures: Can Large Language Models Understand Hum4n L4ngu4ge and the W0rld behind W0rds? [2.7342737448775534]
LLM(Large Language Models)は、人間の言語的パフォーマンスに関する主張と関連付けられている。
対象認知システムの理論的に有意な表現としてLLMの寄与を分析する。
我々は,より高い処理レベルからのトップダウンフィードバックを通じて,モデルが全体像を見る能力を評価する。
論文 参考訳(メタデータ) (2023-07-26T18:58:53Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - Grounding Hindsight Instructions in Multi-Goal Reinforcement Learning
for Robotics [14.863872352905629]
本稿では,自然言語の目標表現に対するスパース報酬を用いたロボット強化学習に焦点を当てた。
まず,専門家のフィードバックを生かした後向きの指示再生機構を提案する。
次に,言語的後見命令を生成するセク2seqモデルを提案する。
論文 参考訳(メタデータ) (2022-04-08T22:01:36Z) - Do As I Can, Not As I Say: Grounding Language in Robotic Affordances [119.29555551279155]
大規模な言語モデルは、世界に関する豊富な意味知識を符号化することができる。
このような知識は、自然言語で表現された高レベルで時間的に拡張された命令を動作させようとするロボットにとって極めて有用である。
低レベルのスキルを大規模言語モデルと組み合わせることで,言語モデルが複雑かつ時間的に拡張された命令を実行する手順について高いレベルの知識を提供することを示す。
論文 参考訳(メタデータ) (2022-04-04T17:57:11Z) - Automatic Identification and Classification of Bragging in Social Media [25.874568334146122]
本稿では,計算言語学におけるブラッギングの大規模研究について紹介する。
我々は、自慢やそのタイプに注釈を付けたツイートの、新たに公開されたデータセットを紹介します。
以上の結果から,2次・複数クラス分類タスクにおいて,マクロF1のブラッグを最大72.42,35.95まで予測できることが示唆された。
論文 参考訳(メタデータ) (2022-03-11T10:33:42Z) - Learning Language-Conditioned Robot Behavior from Offline Data and
Crowd-Sourced Annotation [80.29069988090912]
本研究では,ロボットインタラクションの大規模なオフラインデータセットから視覚に基づく操作タスクを学習する問題について検討する。
クラウドソースの自然言語ラベルを用いたオフラインロボットデータセットの活用を提案する。
提案手法は目標画像仕様と言語条件付き模倣技術の両方を25%以上上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-02T17:42:13Z) - Introducing the Talk Markup Language (TalkML):Adding a little social
intelligence to industrial speech interfaces [0.0]
自然言語の理解は、AI研究の最も残念な失敗の1つだ。
本稿では、他の分野からアイデアを取り入れて実装した方法について述べる。
論文 参考訳(メタデータ) (2021-05-24T14:25:35Z) - TuringAdvice: A Generative and Dynamic Evaluation of Language Use [90.3029315711237]
言語理解モデルのための新しい課題タスクとデータセットであるTuringAdviceを提案する。
現実の人が現在直面している記述された状況を考えると、モデルは自然言語で有益なアドバイスを生成する必要がある。
実証的な結果は、今日のモデルがTuringAdviceで苦労していることを示している。
論文 参考訳(メタデータ) (2020-04-07T18:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。