論文の概要: The Mask of Civility: Benchmarking Chinese Mock Politeness Comprehension in Large Language Models
- arxiv url: http://arxiv.org/abs/2602.03107v1
- Date: Tue, 03 Feb 2026 05:07:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.253002
- Title: The Mask of Civility: Benchmarking Chinese Mock Politeness Comprehension in Large Language Models
- Title(参考訳): 文明のマスク:大言語モデルにおける中国のモックポリテネスの理解のベンチマーク
- Authors: Yitong Zhang, Yuhan Xiang, Mingxuan Liu,
- Abstract要約: 本研究は,中国語の丁寧さ,不便さ,および模擬丁寧さの認識における代表的大言語モデル(LLM)の性能差を体系的に評価する。
- 参考スコア(独自算出の注目度): 8.468022832894883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: From a pragmatic perspective, this study systematically evaluates the differences in performance among representative large language models (LLMs) in recognizing politeness, impoliteness, and mock politeness phenomena in Chinese. Addressing the existing gaps in pragmatic comprehension, the research adopts the frameworks of Rapport Management Theory and the Model of Mock Politeness to construct a three-category dataset combining authentic and simulated Chinese discourse. Six representative models, including GPT-5.1 and DeepSeek, were selected as test subjects and evaluated under four prompting conditions: zero-shot, few-shot, knowledge-enhanced, and hybrid strategies. This study serves as a meaningful attempt within the paradigm of ``Great Linguistics,'' offering a novel approach to applying pragmatic theory in the age of technological transformation. It also responds to the contemporary question of how technology and the humanities may coexist, representing an interdisciplinary endeavor that bridges linguistic technology and humanistic reflection.
- Abstract(参考訳): 実践的な観点から,中国語の丁寧さ,不便さ,モックの丁寧さの認識における代表的大言語モデル(LLM)間の性能差を体系的に評価した。
実用的理解の既存のギャップに対処するため、本研究ではRapport Management TheoryとMock Politenessのフレームワークを採用し、真偽とシミュレートされた中国語の談話を組み合わせた3カテゴリのデータセットを構築した。
GPT-5.1やDeepSeekを含む6つの代表的なモデルが試験対象として選ばれ、ゼロショット、少数ショット、知識強化、ハイブリッド戦略の4つの条件下で評価された。
この研究は「大言語学」のパラダイムの中で有意義な試みであり、技術変革の時代において実用論を応用するための新しいアプローチを提供する。
また、テクノロジーと人文科学が共存し、言語技術とヒューマニズム的リフレクションを橋渡しする学際的努力を表しているという現代の疑問にも答えている。
関連論文リスト
- The Qualitative Laboratory: Theory Prototyping and Hypothesis Generation with Large Language Models [0.0]
我々は、この特定のタスクに対して、ペルソナシミュレーションは確立された手法に対して明確な優位性をもたらすと論じる。
自然主義的な談話を生成することで、ヴィグネット調査でよく見られる散逸的な深さの欠如を克服する。
本稿では,気候受容の社会学的理論から派生したペルソナが政策メッセージに反応するプロトコルを提案する。
論文 参考訳(メタデータ) (2025-11-25T08:31:48Z) - Pragmatics beyond humans: meaning, communication, and LLMs [0.0]
本論文は,言語が行動の道具として機能する動的インタフェースとして,プラグマティクスを再認識する。
論文は、この理解をさらに洗練し、方法論的に再考する必要があると主張している。
論文 参考訳(メタデータ) (2025-08-08T09:34:41Z) - Large Language Models as Neurolinguistic Subjects: Discrepancy between Performance and Competence [49.60849499134362]
本研究では,大言語モデル(LLM)の記号化(形式)および記号化(意味)に関する言語的理解について検討する。
ミニマルペアと診断プローブを組み合わせてモデル層間のアクティベーションパターンを解析する新しい手法を用いて,ニューロ言語学的アプローチを提案する。
その結果,(1)心理言語学的・神経言語学的手法では,言語能力と能力が異なっていること,(2)直接確率測定では言語能力が正確に評価されないこと,(3)指導のチューニングでは能力が大きく変化しないが,性能は向上しないことがわかった。
論文 参考訳(メタデータ) (2024-11-12T04:16:44Z) - Unified Generative and Discriminative Training for Multi-modal Large Language Models [88.84491005030316]
生成的トレーニングにより、視覚言語モデル(VLM)は様々な複雑なタスクに取り組むことができる。
CLIPのようなモデルで実証された差別的トレーニングは、ゼロショットイメージテキストの分類と検索に優れています。
本稿では,両パラダイムの強みを統合する統一的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-01T01:51:31Z) - Theoretical and Methodological Framework for Studying Texts Produced by Large Language Models [0.0]
本稿では,大規模言語モデル(LLM)の研究における概念的,方法論的,技術的課題について述べる。
LLMを基質とし、モデルがシミュレートするエンティティを区別する理論的な枠組みの上に構築されている。
論文 参考訳(メタデータ) (2024-08-29T17:34:10Z) - Simulating Family Conversations using LLMs: Demonstration of Parenting
Styles [0.0]
本研究では,大規模言語モデル(LLM)を用いた模擬会話を通して,心理学的・言語的な研究を行うための枠組みを提案する。
提案手法は、特に潜在的な非倫理的言語や行動を含む人間の相互作用をシミュレートする上で、大きな利点を提供する。
論文 参考訳(メタデータ) (2024-03-10T09:18:43Z) - Saving the legacy of Hero Ibash: Evaluating Four Language Models for
Aminoacian [0.8158530638728501]
本研究は,未探索のアミノアシアン語における4つの最先端言語モデルを評価する。
テキスト生成、セマンティックコヒーレンス、文脈理解における適応性、有効性、限界を精査する。
論文 参考訳(メタデータ) (2024-02-28T07:22:13Z) - Six Fallacies in Substituting Large Language Models for Human Participants [0.0]
大規模言語モデル(LLM)のようなAIシステムは、行動研究や心理学研究における人間の参加者を置き換えることができるのだろうか?
ここでは「置き換え」の観点を批判的に評価し、その妥当性を損なう6つの解釈誤りを識別する。
それぞれの誤りは、LSMとは何か、人間の認知について何を教えてくれるのかについて、潜在的な誤解を表している。
論文 参考訳(メタデータ) (2024-02-06T23:28:23Z) - Regularized Conventions: Equilibrium Computation as a Model of Pragmatic
Reasoning [72.21876989058858]
本稿では,信号ゲームの正規化平衡を探索することにより,発話を生成・理解する実用的な言語理解のモデルを提案する。
このモデルでは、話者とリスナーは文脈的に適切な発話を探索し、ゲーム理論の最適規則に近づき、共有された'デフォルト'セマンティクスに近い意味のマッピングを意味づける。
論文 参考訳(メタデータ) (2023-11-16T09:42:36Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - Improving Factuality and Reasoning in Language Models through Multiagent
Debate [95.10641301155232]
複数の言語モデルインスタンスが共通の最終回答に到達するために、複数のラウンドで個別の応答と推論プロセスを提案し、議論する言語応答を改善するための補完的なアプローチを提案する。
以上の結果から,本手法は様々なタスクにおける数学的・戦略的推論を著しく向上させることが示唆された。
我々のアプローチは、既存のブラックボックスモデルに直接適用され、調査するすべてのタスクに対して、同じ手順とプロンプトを使用することができる。
論文 参考訳(メタデータ) (2023-05-23T17:55:11Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。