論文の概要: LLMs Homogenize Values in Constructive Arguments on Value-Laden Topics
- arxiv url: http://arxiv.org/abs/2509.10637v1
- Date: Fri, 12 Sep 2025 18:47:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.70451
- Title: LLMs Homogenize Values in Constructive Arguments on Value-Laden Topics
- Title(参考訳): LLMs Homogenize Values in Constructive Arguments on Value-Laden Topics
- Authors: Farhana Shahid, Stella Zhang, Aditya Vashistha,
- Abstract要約: 大規模言語モデル (LLMs) は、社会的・建設的な会話をオンラインで促進するためにますます使われている。
我々は,LLMが保守的価値を低下させる一方で,ベネヴァレンスや普遍主義といった社会的価値を上昇させることを示す。
これらのコメントが他の人によって読まれると、同性婚に反対する参加者やイスラム教は、人間によるコメントが彼らの価値観とより一致していることを発見した。
- 参考スコア(独自算出の注目度): 14.615844083836924
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly used to promote prosocial and constructive discourse online. Yet little is known about how they negotiate and shape underlying values when reframing people's arguments on value-laden topics. We conducted experiments with 347 participants from India and the United States, who wrote constructive comments on homophobic and Islamophobic threads, and reviewed human-written and LLM-rewritten versions of these comments. Our analysis shows that LLM systematically diminishes Conservative values while elevating prosocial values such as Benevolence and Universalism. When these comments were read by others, participants opposing same-sex marriage or Islam found human-written comments more aligned with their values, whereas those supportive of these communities found LLM-rewritten versions more aligned with their values. These findings suggest that LLM-driven value homogenization can shape how diverse viewpoints are represented in contentious debates on value-laden topics and may influence the dynamics of online discourse critically.
- Abstract(参考訳): 大規模言語モデル (LLM) は、オンライン上での社会的・建設的な談話を促進するためにますます使われている。
しかし、バリューラインドなトピックに関する人々の議論を反省する上で、彼らが根底にある価値をどのように交渉し形成するかについては、ほとんど分かっていない。
インドと米国から347人の参加者を対象に実験を行い、ホモフォビックスレッドとイスラム嫌悪スレッドについて構築的なコメントを書き、これらのコメントの人間による書き直し版とLDMによる書き直し版をレビューした。
我々の分析は、LLMが保守的価値を体系的に減らし、ベネヴァレンスや普遍主義のような社会的価値を高めていることを示している。
これらのコメントが他者によって読まれると、同性結婚やイスラム教に反対する参加者は、人間によるコメントが彼らの価値観とより一致しているのに対し、これらのコミュニティを支持する人々は、LSMで書き直されたバージョンは彼らの価値観とより一致していることがわかった。
これらの結果から, LLM による価値均質化は, 議論の場において, 多様な視点がどう表現されるか, オンライン談話の力学に批判的に影響を及ぼす可能性が示唆された。
関連論文リスト
- Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Measuring Spiritual Values and Bias of Large Language Models [28.892254056685008]
大規模言語モデル(LLM)は、様々なバックグラウンドを持つユーザにとって不可欠なツールとなっている。
これらのモデルは、事前学習データに埋め込まれた言語的・文化的ニュアンスを反映している。
このデータに固有の値と視点は、LCMの挙動に影響を与え、潜在的なバイアスをもたらす。
論文 参考訳(メタデータ) (2024-10-15T14:33:23Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Can LLMs Speak For Diverse People? Tuning LLMs via Debate to Generate Controllable Controversial Statements [30.970994382186944]
我々は,ユーザがプロンプトで定義した引数をサポートする文を生成する際のLCMの制御性を向上させる。
我々は,LLMを微調整する新しい議論・チューニングパイプラインを開発し,議論を通じて得られた文を生成する。
論文 参考訳(メタデータ) (2024-02-16T12:00:34Z) - Assessing LLMs for Moral Value Pluralism [2.860608352191896]
我々は、認識値共鳴(RVR)NLPモデルを用いて、与えられたテキストの文節に共鳴し矛盾する世界価値調査(WVS)値を特定する。
LLMはいくつかの西洋中心の値バイアスを示す。
以上の結果から,社会科学に情報提供された技術ソリューションの必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2023-12-08T16:18:15Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。