論文の概要: Large language models can enhance persuasion through linguistic feature
alignment
- arxiv url: http://arxiv.org/abs/2311.16466v2
- Date: Mon, 12 Feb 2024 16:20:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 21:31:03.416276
- Title: Large language models can enhance persuasion through linguistic feature
alignment
- Title(参考訳): 大規模言語モデルは言語機能アライメントによる説得力を高める
- Authors: Minkyu Shin and Jin Kim
- Abstract要約: 本研究では,大規模言語モデル(LLM)が,金融業界における消費者の苦情に対するデータを用いた人的コミュニケーションに与える影響について検討する。
ChatGPT のリリース直後に LLM の利用が急増していることが判明した。
計算言語学的分析は、LLMsによる様々な言語的特徴の強化によって、正の相関が説明できることを示唆している。
- 参考スコア(独自算出の注目度): 3.054681017071983
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although large language models (LLMs) are reshaping various aspects of human
life, our current understanding of their impacts remains somewhat constrained.
Here we investigate the impact of LLMs on human communication, using data on
consumer complaints in the financial industry. By employing an AI detection
tool on more than 820K complaints gathered by the Consumer Financial Protection
Bureau (CFPB), we find a sharp increase in the likely use of LLMs shortly after
the release of ChatGPT. Moreover, the likely LLM usage was positively
correlated with message persuasiveness (i.e., increased likelihood of obtaining
relief from financial firms). Computational linguistic analyses suggest that
the positive correlation may be explained by LLMs' enhancement of various
linguistic features. Based on the results of these observational studies, we
hypothesize that LLM usage may enhance a comprehensive set of linguistic
features, increasing message persuasiveness to receivers with heterogeneous
linguistic preferences (i.e., linguistic feature alignment). We test this
hypothesis in preregistered experiments and find support for it. As an instance
of early empirical demonstrations of LLM usage for enhancing persuasion, our
research highlights the transformative potential of LLMs in human
communication.
- Abstract(参考訳): 大きな言語モデル(LLM)は、人間の生活の様々な側面を再構築していますが、その影響に対する現在の理解は、多少制約があります。
本稿では、LLMが人的コミュニケーションに与える影響を、金融業界における消費者の苦情データを用いて調査する。
消費者金融保護局(CFPB)が収集した820万件以上の苦情に対してAI検出ツールを使用することで、ChatGPTのリリース直後のLSMの使用が大幅に増加することが判明した。
さらに, LLM使用の可能性は, メッセージの説得性(金融機関からの救済の可能性の増加)と肯定的に相関していた。
計算言語学的分析は、LLMの様々な言語的特徴の強化によって正の相関が説明できることを示している。
これらの観察研究の結果から,LLMの使用により言語的特徴の包括的集合が向上し,異種言語的嗜好を持つ受信者(言語的特徴アライメント)に対するメッセージの説得性が増大する可能性が示唆された。
我々は、この仮説を事前登録実験で検証し、それを支持する。
説得力を高めるためのLLMの初期の実証的な使用例として,人間のコミュニケーションにおけるLLMの変容の可能性を強調した。
関連論文リスト
- "I'm Not Sure, But...": Examining the Impact of Large Language Models' Uncertainty Expression on User Reliance and Trust [51.542856739181474]
不確実性の自然言語表現の違いが、参加者の信頼、信頼、全体的なタスクパフォーマンスにどのように影響するかを示す。
その結果, 一人称表情は, 参加者のシステムに対する信頼度を低下させ, 参加者の正確性を高めつつ, システムの回答に同調する傾向にあることがわかった。
以上の結果から,不確実性の自然言語表現の使用は,LLMの過度な依存を軽減するための効果的なアプローチである可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-01T16:43:55Z) - Can Language Models Recognize Convincing Arguments? [12.458437450959416]
大規模言語モデル(LLM)は、パーソナライズされ説得力のある誤情報やプロパガンダを作成するために、その潜在的な誤用を懸念している。
疑わしい議論を検出するための関連課題について,その性能について検討する。
これらのタスクにおいて、LLMは人間と同等に動作し、異なるLLMからの予測を組み合わせることで、大幅な性能向上が得られることを示す。
論文 参考訳(メタデータ) (2024-03-31T17:38:33Z) - Wait, It's All Token Noise? Always Has Been: Interpreting LLM Behavior Using Shapley Value [1.223779595809275]
大規模言語モデル(LLM)は、人間の行動や認知過程をシミュレートするエキサイティングな可能性を開いた。
しかし, LLMを人体用スタンドインとして活用する妥当性は, いまだに不明である。
本稿では,モデルの出力に対する各プロンプト成分の相対的寄与を定量化するために,シェープリー値に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T22:49:43Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by
Dissociating Language and Cognition [57.747888532651]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Beware of Words: Evaluating the Lexical Richness of Conversational Large
Language Models [3.0059120458540383]
対話型大言語モデル(LLM)が生成するテキストの語彙的リッチ性の評価と,それがモデルパラメータにどのように依存するかを検討する。
その結果、語彙豊かさがChatGPTのバージョンと、そのパラメータのいくつか、例えば存在ペナルティやモデルに割り当てられた役割にどのように依存しているかが示される。
論文 参考訳(メタデータ) (2024-02-11T13:41:17Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - FFT: Towards Harmlessness Evaluation and Analysis for LLMs with
Factuality, Fairness, Toxicity [21.539026782010573]
生成的人工知能の普及により、AI生成テキストによる潜在的な害に対する懸念が高まっている。
これまでの研究者は、生成言語モデルの無害性を評価するために多くの努力を払ってきた。
論文 参考訳(メタデータ) (2023-11-30T14:18:47Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - Are Large Language Models Really Robust to Word-Level Perturbations? [68.60618778027694]
本稿では,事前学習した報酬モデルを診断ツールとして活用する,新たな合理的評価手法を提案する。
より長い会話は、質問を理解する能力の観点から言語モデルの包括的把握を示す。
この結果から,LLMは日常言語でよく使われる単語レベルの摂動に対する脆弱性をしばしば示している。
論文 参考訳(メタデータ) (2023-09-20T09:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。