論文の概要: Comparing human and LLM politeness strategies in free production
- arxiv url: http://arxiv.org/abs/2506.09391v1
- Date: Wed, 11 Jun 2025 04:44:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.478288
- Title: Comparing human and LLM politeness strategies in free production
- Title(参考訳): 自由生産における人間とLLMの丁寧さ戦略の比較
- Authors: Haoran Zhao, Robert D. Hawkins,
- Abstract要約: 大規模言語モデル(LLM)におけるポリット音声の基本的なアライメントの課題
我々は,LLM が,制約された作業とオープンな作業の両方において,人間と LLM の応答を比較することによって,同様に文脈に敏感なレパートリーを採用できるかどうかを検討する。
大規模モデルでは計算実用学の文献から重要な選好を再現することができ、人間の評価者は驚くほどオープンな文脈でLLM生成の応答を好んでいる。
- 参考スコア(独自算出の注目度): 8.709788354490238
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Polite speech poses a fundamental alignment challenge for large language models (LLMs). Humans deploy a rich repertoire of linguistic strategies to balance informational and social goals -- from positive approaches that build rapport (compliments, expressions of interest) to negative strategies that minimize imposition (hedging, indirectness). We investigate whether LLMs employ a similarly context-sensitive repertoire by comparing human and LLM responses in both constrained and open-ended production tasks. We find that larger models ($\ge$70B parameters) successfully replicate key preferences from the computational pragmatics literature, and human evaluators surprisingly prefer LLM-generated responses in open-ended contexts. However, further linguistic analyses reveal that models disproportionately rely on negative politeness strategies even in positive contexts, potentially leading to misinterpretations. While modern LLMs demonstrate an impressive handle on politeness strategies, these subtle differences raise important questions about pragmatic alignment in AI systems.
- Abstract(参考訳): ポリット音声は、大規模言語モデル(LLM)の基本的なアライメント課題である。
人間は情報と社会的目標のバランスをとるための言語戦略の豊富なレパートリーを、ラプポートを構築する肯定的なアプローチ(補完、興味の表現)から、インポジションを最小化する負の戦略(ヘッジ、間接性)まで展開する。
我々は,LLM が,制約された作業とオープンな作業の両方において,人間と LLM の応答を比較することによって,同様に文脈に敏感なレパートリーを採用できるかどうかを検討する。
より大きなモデル(70億ドルのパラメータ)は、計算実用学の文献から重要な好みを再現することに成功し、人間の評価者は驚くほど、オープンな文脈でLLM生成の応答を好んでいる。
しかし、さらなる言語学的分析により、モデルは肯定的文脈においても負の丁寧な戦略に依存しており、誤解釈につながる可能性があることが明らかになった。
現代のLLMは、丁寧な戦略に印象的なハンドリングを示す一方で、これらの微妙な違いは、AIシステムにおける実用的アライメントに関する重要な疑問を提起する。
関連論文リスト
- Distributive Fairness in Large Language Models: Evaluating Alignment with Human Values [13.798198972161657]
多くの社会的問題は資源の分配に関係しており、公平さと経済効率は結果の望ましさにおいて重要な役割を担っている。
本稿では,大規模言語モデル (LLM) が基本的公平性の概念に準拠しているかどうかを考察し,人間の嗜好との整合性について検討する。
論文 参考訳(メタデータ) (2025-02-01T04:24:47Z) - Walking in Others' Shoes: How Perspective-Taking Guides Large Language Models in Reducing Toxicity and Bias [16.85625861663094]
社会心理学の原則に触発されて, LLMに多様な人間の視点を取り入れ, 反応を自己制御させる, textscPeT という新しい戦略を提案する。
2つの商用LCMと3つのオープンソースLCMに対して厳密な評価およびアブレーション研究を行い、より有害な応答を生み出す上でのtextscPeT の優位性を明らかにした。
論文 参考訳(メタデータ) (2024-07-22T04:25:01Z) - Advancing Annotation of Stance in Social Media Posts: A Comparative Analysis of Large Language Models and Crowd Sourcing [2.936331223824117]
ソーシャルメディア投稿における自動テキストアノテーションのための大規模言語モデル(LLM)は、大きな関心を集めている。
ソーシャルメディア投稿において,8つのオープンソースおよびプロプライエタリなLCMの性能分析を行った。
「我々の研究の顕著な発見は、姿勢を表わす文章の明快さが、LLMの姿勢判断が人間とどのように一致しているかにおいて重要な役割を担っていることである。」
論文 参考訳(メタデータ) (2024-06-11T17:26:07Z) - Explaining Large Language Models Decisions Using Shapley Values [1.223779595809275]
大規模言語モデル(LLM)は、人間の行動や認知過程をシミュレートするエキサイティングな可能性を開いた。
しかし, LLMを人体用スタンドインとして活用する妥当性は, いまだに不明である。
本稿では,モデルの出力に対する各プロンプト成分の相対的寄与を定量化するために,シェープリー値に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T22:49:43Z) - Nash Learning from Human Feedback [86.09617990412941]
ペアワイズフィードバックを用いた大規模言語モデルの微調整のための代替パイプラインを提案する。
我々はこのアプローチを人間のフィードバックからナッシュラーニング(NLHF)と呼ぶ。
ミラー降下原理に基づく新しいアルゴリズム解であるNash-MDを提案する。
論文 参考訳(メタデータ) (2023-12-01T19:26:23Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。