論文の概要: The Mask of Civility: Benchmarking Chinese Mock Politeness Comprehension in Large Language Models
- arxiv url: http://arxiv.org/abs/2602.03107v1
- Date: Tue, 03 Feb 2026 05:07:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.253002
- Title: The Mask of Civility: Benchmarking Chinese Mock Politeness Comprehension in Large Language Models
- Title(参考訳): 文明のマスク:大言語モデルにおける中国のモックポリテネスの理解のベンチマーク
- Authors: Yitong Zhang, Yuhan Xiang, Mingxuan Liu,
- Abstract要約: 本研究は,中国語の丁寧さ,不便さ,および模擬丁寧さの認識における代表的大言語モデル(LLM)の性能差を体系的に評価する。
- 参考スコア(独自算出の注目度): 8.468022832894883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: From a pragmatic perspective, this study systematically evaluates the differences in performance among representative large language models (LLMs) in recognizing politeness, impoliteness, and mock politeness phenomena in Chinese. Addressing the existing gaps in pragmatic comprehension, the research adopts the frameworks of Rapport Management Theory and the Model of Mock Politeness to construct a three-category dataset combining authentic and simulated Chinese discourse. Six representative models, including GPT-5.1 and DeepSeek, were selected as test subjects and evaluated under four prompting conditions: zero-shot, few-shot, knowledge-enhanced, and hybrid strategies. This study serves as a meaningful attempt within the paradigm of ``Great Linguistics,'' offering a novel approach to applying pragmatic theory in the age of technological transformation. It also responds to the contemporary question of how technology and the humanities may coexist, representing an interdisciplinary endeavor that bridges linguistic technology and humanistic reflection.
- Abstract(参考訳): 実践的な観点から,中国語の丁寧さ,不便さ,モックの丁寧さの認識における代表的大言語モデル(LLM)間の性能差を体系的に評価した。
実用的理解の既存のギャップに対処するため、本研究ではRapport Management TheoryとMock Politenessのフレームワークを採用し、真偽とシミュレートされた中国語の談話を組み合わせた3カテゴリのデータセットを構築した。
GPT-5.1やDeepSeekを含む6つの代表的なモデルが試験対象として選ばれ、ゼロショット、少数ショット、知識強化、ハイブリッド戦略の4つの条件下で評価された。
この研究は「大言語学」のパラダイムの中で有意義な試みであり、技術変革の時代において実用論を応用するための新しいアプローチを提供する。
また、テクノロジーと人文科学が共存し、言語技術とヒューマニズム的リフレクションを橋渡しする学際的努力を表しているという現代の疑問にも答えている。
関連論文リスト
- Pragmatics beyond humans: meaning, communication, and LLMs [0.0]
本論文は,言語が行動の道具として機能する動的インタフェースとして,プラグマティクスを再認識する。
論文は、この理解をさらに洗練し、方法論的に再考する必要があると主張している。
論文 参考訳(メタデータ) (2025-08-08T09:34:41Z) - Large Language Models as Neurolinguistic Subjects: Discrepancy between Performance and Competence [49.60849499134362]
本研究では,大言語モデル(LLM)の記号化(形式)および記号化(意味)に関する言語的理解について検討する。
ミニマルペアと診断プローブを組み合わせてモデル層間のアクティベーションパターンを解析する新しい手法を用いて,ニューロ言語学的アプローチを提案する。
その結果,(1)心理言語学的・神経言語学的手法では,言語能力と能力が異なっていること,(2)直接確率測定では言語能力が正確に評価されないこと,(3)指導のチューニングでは能力が大きく変化しないが,性能は向上しないことがわかった。
論文 参考訳(メタデータ) (2024-11-12T04:16:44Z) - Theoretical and Methodological Framework for Studying Texts Produced by Large Language Models [0.0]
本稿では,大規模言語モデル(LLM)の研究における概念的,方法論的,技術的課題について述べる。
LLMを基質とし、モデルがシミュレートするエンティティを区別する理論的な枠組みの上に構築されている。
論文 参考訳(メタデータ) (2024-08-29T17:34:10Z) - Saving the legacy of Hero Ibash: Evaluating Four Language Models for
Aminoacian [0.8158530638728501]
本研究は,未探索のアミノアシアン語における4つの最先端言語モデルを評価する。
テキスト生成、セマンティックコヒーレンス、文脈理解における適応性、有効性、限界を精査する。
論文 参考訳(メタデータ) (2024-02-28T07:22:13Z) - Six Fallacies in Substituting Large Language Models for Human Participants [0.0]
大規模言語モデル(LLM)のようなAIシステムは、行動研究や心理学研究における人間の参加者を置き換えることができるのだろうか?
ここでは「置き換え」の観点を批判的に評価し、その妥当性を損なう6つの解釈誤りを識別する。
それぞれの誤りは、LSMとは何か、人間の認知について何を教えてくれるのかについて、潜在的な誤解を表している。
論文 参考訳(メタデータ) (2024-02-06T23:28:23Z) - Improving Factuality and Reasoning in Language Models through Multiagent
Debate [95.10641301155232]
複数の言語モデルインスタンスが共通の最終回答に到達するために、複数のラウンドで個別の応答と推論プロセスを提案し、議論する言語応答を改善するための補完的なアプローチを提案する。
以上の結果から,本手法は様々なタスクにおける数学的・戦略的推論を著しく向上させることが示唆された。
我々のアプローチは、既存のブラックボックスモデルに直接適用され、調査するすべてのタスクに対して、同じ手順とプロンプトを使用することができる。
論文 参考訳(メタデータ) (2023-05-23T17:55:11Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。