論文の概要: Large Language Models for Subjective Language Understanding: A Survey
- arxiv url: http://arxiv.org/abs/2508.07959v1
- Date: Mon, 11 Aug 2025 13:10:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.109648
- Title: Large Language Models for Subjective Language Understanding: A Survey
- Title(参考訳): 主観的言語理解のための大規模言語モデル:調査
- Authors: Changhao Song, Yazhou Zhang, Hui Gao, Ben Yao, Peng Zhang,
- Abstract要約: 主観的言語理解(英: subjective language understanding)とは、客観的事実ではなく、個人的感情、意見、あるいは具体的意味を伝達するコンテンツを解釈または生成することを目的とする、自然言語処理タスクの幅広いセットを指す。
ChatGPTやLLaMAといった大規模言語モデル(LLM)の出現により、これらの固有のニュアンスなタスクにどのようにアプローチするかというパラダイムシフトが生まれました。
本研究では,感情分析,感情認識,皮肉検出,ユーモア理解,姿勢検出,比喩解釈,意図検出,美学評価などの主観的言語課題にLLMを適用した最近の進歩を概観する。
- 参考スコア(独自算出の注目度): 5.098933455438321
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Subjective language understanding refers to a broad set of natural language processing tasks where the goal is to interpret or generate content that conveys personal feelings, opinions, or figurative meanings rather than objective facts. With the advent of large language models (LLMs) such as ChatGPT, LLaMA, and others, there has been a paradigm shift in how we approach these inherently nuanced tasks. In this survey, we provide a comprehensive review of recent advances in applying LLMs to subjective language tasks, including sentiment analysis, emotion recognition, sarcasm detection, humor understanding, stance detection, metaphor interpretation, intent detection, and aesthetics assessment. We begin by clarifying the definition of subjective language from linguistic and cognitive perspectives, and we outline the unique challenges posed by subjective language (e.g. ambiguity, figurativeness, context dependence). We then survey the evolution of LLM architectures and techniques that particularly benefit subjectivity tasks, highlighting why LLMs are well-suited to model subtle human-like judgments. For each of the eight tasks, we summarize task definitions, key datasets, state-of-the-art LLM-based methods, and remaining challenges. We provide comparative insights, discussing commonalities and differences among tasks and how multi-task LLM approaches might yield unified models of subjectivity. Finally, we identify open issues such as data limitations, model bias, and ethical considerations, and suggest future research directions. We hope this survey will serve as a valuable resource for researchers and practitioners interested in the intersection of affective computing, figurative language processing, and large-scale language models.
- Abstract(参考訳): 主観的言語理解(英: subjective language understanding)とは、客観的事実ではなく、個人的感情、意見、あるいは具体的意味を伝達するコンテンツを解釈または生成することを目的とする、自然言語処理タスクの幅広いセットを指す。
ChatGPTやLLaMAといった大規模言語モデル(LLM)の出現に伴い、これらの固有のニュアンスなタスクへのアプローチのパラダイムシフトが生まれました。
本研究では,感情分析,感情認識,皮肉検出,ユーモア理解,姿勢検出,比喩解釈,意図検出,美学評価などの主観的言語課題にLLMを適用した最近の進歩を概観する。
まず、言語的・認知的な観点から主観的言語の定義を明確にし、主観的言語(例えば、あいまいさ、図形性、文脈依存)によって引き起こされる固有の課題を概説する。
次に、LLMアーキテクチャの進化、特に主観的タスクに利益をもたらす技術について調査し、LLMが微妙な人間的な判断をモデル化するのに適している理由を強調した。
8つのタスクそれぞれについて、タスク定義、キーデータセット、最先端のLCMベースのメソッド、そして残る課題を要約する。
我々は,タスク間の共通点と相違点を議論し,マルチタスク LLM アプローチが主観性の統一モデルをどのように生成するかを考察する。
最後に,データ制限やモデルバイアス,倫理的考察といったオープンな問題を特定し,今後の研究方向性を提案する。
この調査が、感情コンピューティング、図形言語処理、および大規模言語モデルとの交差に関心を持つ研究者や実践者にとって、貴重な情報源になることを願っている。
関連論文リスト
- Graph Representations for Reading Comprehension Analysis using Large Language Model and Eye-Tracking Biomarker [9.284765805642326]
理解を読むことは人間の認知発達の基本的なスキルである。
人間とLarge Language Models(LLM)がさまざまな文脈で言語をどのように理解しているかを比較する必要性が高まっている。
論文 参考訳(メタデータ) (2025-07-16T07:15:59Z) - Disambiguation in Conversational Question Answering in the Era of LLM: A Survey [36.37587894344511]
自然言語処理(NLP)におけるあいまいさは依然として根本的な課題である
LLM(Large Language Models)の出現により、あいまいさに対処することがさらに重要になった。
本稿では,言語駆動システムにおけるあいまいさの定義,形態,含意について考察する。
論文 参考訳(メタデータ) (2025-05-18T20:53:41Z) - Sparse Auto-Encoder Interprets Linguistic Features in Large Language Models [40.12943080113246]
スパースオートエンコーダ(SAE)を用いた系統的・包括的因果調査を提案する。
6次元から幅広い言語的特徴を抽出する。
本稿では,FRC(Feature Representation Confidence)とFIC(Feature Intervention Confidence)の2つの指標を紹介する。
論文 参考訳(メタデータ) (2025-02-27T18:16:47Z) - Beyond Profile: From Surface-Level Facts to Deep Persona Simulation in LLMs [50.0874045899661]
本稿では,文字のテキストワークに現れる言語パターンと独特の思考パターンの両方を再現するモデルである characterBot を紹介する。
著名な中国の作家ル・ジュンをケーススタディとして、17冊のエッセイ集から派生した4つの訓練課題を提案する。
これには、外部の言語構造と知識を習得することに焦点を当てた事前訓練タスクと、3つの微調整タスクが含まれる。
言語的正確性と意見理解の3つのタスクにおいて、キャラクタボットを評価し、適応されたメトリクスのベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2025-02-18T16:11:54Z) - The dynamics of meaning through time: Assessment of Large Language Models [2.5864824580604515]
本研究では,様々な大規模言語モデル(LLM)が意味の時間的ダイナミクスを捉える能力を評価することを目的とする。
比較分析にはChatGPT、GPT-4、Claude、Bard、Gemini、Llamaといった著名なモデルが含まれています。
発見は、各モデルの歴史的文脈と意味的シフトの扱いにおいて顕著な違いを示し、時間的意味的理解における強みと制限の両方を強調した。
論文 参考訳(メタデータ) (2025-01-09T19:56:44Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - A Survey on Large Language Models with Multilingualism: Recent Advances and New Frontiers [51.8203871494146]
LLM(Large Language Models)の急速な開発は、自然言語処理における顕著な多言語機能を示している。
LLMのブレークスルーにもかかわらず、多言語シナリオの研究は依然として不十分である。
本調査は,多言語問題に対する研究コミュニティの取り組みを支援することを目的としており,LLMに基づく多言語自然言語処理における中核概念,鍵技術,最新の発展の包括的理解を提供する。
論文 参考訳(メタデータ) (2024-05-17T17:47:39Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - Analyzing the Limits of Self-Supervision in Handling Bias in Language [52.26068057260399]
我々は、言語モデルが、認識、識別、抽出、言い換えの4つのタスクのセマンティクスをいかにうまく捉えているかを評価する。
分析の結果,言語モデルでは,ジェンダーや政治的アフィリエイトなど,様々なバイアス次元にまたがって,これらのタスクを広範囲にわたって実行することが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-16T05:36:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。