論文の概要: To Mask or to Mirror: Human-AI Alignment in Collective Reasoning
- arxiv url: http://arxiv.org/abs/2510.01924v1
- Date: Thu, 02 Oct 2025 11:41:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.112155
- Title: To Mask or to Mirror: Human-AI Alignment in Collective Reasoning
- Title(参考訳): マスクや鏡へ:集団推論における人間-AIアライメント
- Authors: Crystal Qian, Aaron Parisi, Clémentine Bouleau, Vivian Tsai, Maël Lebreton, Lucas Dixon,
- Abstract要約: 大規模言語モデル(LLM)は、集団的な意思決定をモデル化し、拡張するためにますます使われている。
集合的アライメントを評価するための実証的枠組みを提案する。
集合的推論における人間とAIのアライメントは、文脈、手がかり、モデル固有の帰納バイアスに依存することを実証的に実証する。
- 参考スコア(独自算出の注目度): 8.009150856358755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) are increasingly used to model and augment collective decision-making, it is critical to examine their alignment with human social reasoning. We present an empirical framework for assessing collective alignment, in contrast to prior work on the individual level. Using the Lost at Sea social psychology task, we conduct a large-scale online experiment (N=748), randomly assigning groups to leader elections with either visible demographic attributes (e.g. name, gender) or pseudonymous aliases. We then simulate matched LLM groups conditioned on the human data, benchmarking Gemini 2.5, GPT 4.1, Claude Haiku 3.5, and Gemma 3. LLM behaviors diverge: some mirror human biases; others mask these biases and attempt to compensate for them. We empirically demonstrate that human-AI alignment in collective reasoning depends on context, cues, and model-specific inductive biases. Understanding how LLMs align with collective human behavior is critical to advancing socially-aligned AI, and demands dynamic benchmarks that capture the complexities of collective reasoning.
- Abstract(参考訳): 大規模言語モデル(LLM)は集団的意思決定のモデル化や強化にますます利用されているため、人間の社会的推論との整合性を検討することが重要である。
個人レベルでの先行研究とは対照的に,集合的アライメントを評価するための実証的枠組みを提案する。
社会心理学におけるロスト・アット・シー (Lost at Sea) を用いて大規模なオンライン実験 (N=748) を行い、集団をランダムにリーダー選挙に割り当てる。
次に,人間のデータに調和したLLM群をシミュレーションし,Gemini 2.5, GPT 4.1, Claude Haiku 3.5, Gemma 3のベンチマークを行った。
LLMの行動は多岐にわたる: 人間のバイアスを反映するものもあれば、これらのバイアスを隠蔽して補償しようとするものもある。
集合的推論における人間とAIのアライメントは、文脈、手がかり、モデル固有の帰納バイアスに依存することを実証的に実証する。
LLMが集団的人間の行動とどのように協調するかを理解することは、社会的に整合したAIを進める上で重要であり、集団的推論の複雑さを捉える動的なベンチマークを要求する。
関連論文リスト
- Many LLMs Are More Utilitarian Than One [15.517396785549158]
道徳的判断は、大言語モデル(LLM)のアライメントと社会的推論に不可欠なものである。
マルチエージェントLLMシステムにおいて、同様のダイナミクスが出現するかどうかを考察する。
本稿では,AIアライメント,マルチエージェント設計,人工道徳推論の意義について論じる。
論文 参考訳(メタデータ) (2025-07-01T14:46:16Z) - Arbiters of Ambivalence: Challenges of Using LLMs in No-Consensus Tasks [52.098988739649705]
本研究では, LLMのバイアスと限界について, 応答生成器, 判定器, 討論器の3つの役割について検討した。
我々は、様々な先行的曖昧なシナリオを含む例をキュレートすることで、合意なしのベンチマークを開発する。
以上の結果から, LLMは, オープンエンドの回答を生成する際に, 曖昧な評価を行うことができる一方で, 審査員や討論者として採用する場合は, 合意なしのトピックにスタンスを取る傾向が示唆された。
論文 参考訳(メタデータ) (2025-05-28T01:31:54Z) - SocioVerse: A World Model for Social Simulation Powered by LLM Agents and A Pool of 10 Million Real-World Users [70.02370111025617]
本稿では,社会シミュレーションのためのエージェント駆動世界モデルであるSocioVerseを紹介する。
私たちのフレームワークは、4つの強力なアライメントコンポーネントと1000万の実際の個人からなるユーザプールを備えています。
SocioVerseは、多様性、信頼性、代表性を確保しつつ、大規模な人口動態を反映できることを示した。
論文 参考訳(メタデータ) (2025-04-14T12:12:52Z) - Measurement of LLM's Philosophies of Human Nature [113.47929131143766]
大規模言語モデル(LLM)を対象とする標準化された心理尺度を設計する。
現在のLSMは、人間に対する信頼の欠如を示す。
本稿では,LLMが継続的に価値体系を最適化できるメンタルループ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-03T06:22:19Z) - FairMindSim: Alignment of Behavior, Emotion, and Belief in Humans and LLM Agents Amid Ethical Dilemmas [23.26678104324838]
FairMindSimを導入し、不公平なシナリオを通じて道徳的ジレンマをシミュレートした。
我々はLLMエージェントを用いて人間の行動をシミュレートし,様々な段階のアライメントを確保した。
以上の結果から,GPT-4oは社会的正義の感覚が強く,人間はより豊かな感情を呈することが明らかとなった。
論文 参考訳(メタデータ) (2024-10-14T11:39:05Z) - Emergent social conventions and collective bias in LLM populations [0.0]
社会的慣行は、個人が集団を形成する方法を形成する社会調整のバックボーンである。
大規模言語モデル(LLM)エージェントの分散集団における普遍的な社会慣行の自然発生を示す実験結果を示す。
そして、エージェントが個別にバイアスを示さない場合でも、このプロセス中に集団バイアスがどれだけ強く現れるかを示す。
論文 参考訳(メタデータ) (2024-10-11T16:16:38Z) - Are Large Language Models Aligned with People's Social Intuitions for Human-Robot Interactions? [7.308479353736709]
大規模言語モデル(LLM)は、ロボット工学、特にハイレベルな行動計画にますます使われている。
本研究では,人間とロボットの相互作用のシナリオにおいて,LLMが人々の直感やコミュニケーションを再現するかどうかを検証する。
視覚モデルでは映像刺激の本質を捉えることができず、LLMは人よりもコミュニケーション行動や行動を評価する傾向にあることを示す。
論文 参考訳(メタデータ) (2024-03-08T22:23:23Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。