論文の概要: The Third Ambition: Artificial Intelligence and the Science of Human Behavior
- arxiv url: http://arxiv.org/abs/2603.07329v1
- Date: Sat, 07 Mar 2026 20:21:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.296249
- Title: The Third Ambition: Artificial Intelligence and the Science of Human Behavior
- Title(参考訳): 第3回 人工知能と人間の行動科学
- Authors: W. Russell Neuman, Chad Coleman,
- Abstract要約: 大型言語モデル (LLMs) は、前代未聞の人間の生成したテキストに基づいて訓練されている。
LLMは、人々がどう議論し、正当化し、ナレーションし、社会ドメイン間で規範を交渉するかにおいて、大規模な規則を符号化する。
この論文は、計算社会科学の長年の伝統の中で、この第3の野望を描いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Contemporary artificial intelligence research has been organized around two dominant ambitions: productivity, which treats AI systems as tools for accelerating work and economic output, and alignment, which focuses on ensuring that increasingly capable systems behave safely and in accordance with human values. This paper articulates and develops a third, emerging ambition: the use of large language models (LLMs) as scientific instruments for studying human behavior, culture, and moral reasoning. Trained on unprecedented volumes of human-produced text, LLMs encode large-scale regularities in how people argue, justify, narrate, and negotiate norms across social domains. We argue that these models can be understood as condensates of human symbolic behavior, compressed, generative representations that render patterns of collective discourse computationally accessible. The paper situates this third ambition within long-standing traditions of computational social science, content analysis, survey research, and comparative-historical inquiry, while clarifying the epistemic limits of treating model output as evidence. We distinguish between base models and fine-tuned systems, showing how alignment interventions can systematically reshape or obscure the cultural regularities learned during pretraining, and we identify instruct-only and modular adaptation regimes as pragmatic compromises for behavioral research. We review emerging methodological approaches including prompt-based experiments, synthetic population sampling, comparative-historical modeling, and ablation studies and show how each maps onto familiar social-scientific designs while operating at unprecedented scale.
- Abstract(参考訳): 生産性とは、AIシステムを仕事と経済的なアウトプットを加速するためのツールとして扱うことであり、アライメントは、能力の増大するシステムが人間の価値観に従って安全に振る舞うことに焦点を当てている。
本稿では、人間の行動、文化、道徳的推論を研究するための科学的な道具として、大規模言語モデル(LLM)の使用という第3の野心を具現化し、展開する。
人類が生成したテキストを前代未聞の巻で学習したLLMは、人々が社会ドメイン全体にわたる規範を論じ、正当化し、語り、交渉する方法において、大規模な規則を符号化している。
これらのモデルは、人間の象徴的行動、圧縮された、生成的表現の凝縮体として理解でき、集合談話のパターンを計算に利用することができると論じる。
この論文は、長期にわたる計算社会科学、コンテンツ分析、調査研究、および比較歴史調査の伝統の中で、モデル出力を証拠として扱うことの疫学的な限界を明確にしつつ、この第3の野心を定めている。
我々は,基本モデルと微調整システムとを区別し,アライメント介入が事前訓練中に学んだ文化的規則を体系的に再構築あるいは曖昧にする方法を示し,インストラクションのみおよびモジュール適応体制を行動研究の実用的妥協とみなす。
本研究は, 突発的な実験, 合成個体群サンプリング, 比較歴史モデリング, アブレーション研究などの方法論的アプローチを概観し, 前例のない規模で作業しながら, 社会科学的デザインをどうマップするかを示す。
関連論文リスト
- The Emergence of Social Science of Large Language Models [0.8582203861502194]
大規模言語モデル(LLM)の社会科学は、これらのシステムがマインドアトリビューションを誘発し、相互に相互作用し、人間の活動や制度を変革する方法について考察する。
社会心としてのLLMは、モデルが認知、道徳、偏見の帰属を示す行動を示し、テスト漏れや表面の手がかりのような課題に対処するかどうかを調査する。
ヒューマンインタラクションとしてのLLMは、LLMがタスク、学習、信頼、仕事、ガバナンスをどのように作り変え、ヒューマンAIインターフェースでリスクが生じるかを調べる。
論文 参考訳(メタデータ) (2025-09-29T14:55:14Z) - Evaluating AI Alignment in Eleven LLMs through Output-Based Analysis and Human Benchmarking [0.0]
大規模言語モデル(LLM)は、心理学的な研究や実践にますます使われているが、従来のベンチマークでは、実際の相互作用で表現される価値についてはほとんど明らかにされていない。
LLMが表現する値の出力に基づく評価であるPAPERSを導入する。
論文 参考訳(メタデータ) (2025-06-14T20:14:02Z) - Adaptive Token Boundaries: Integrating Human Chunking Mechanisms into Multimodal LLMs [0.0]
本研究は,ヒトのクロスモーダルチャンキング機構とトークン表現手法の並列性について,系統的研究を行った。
本稿では,適応的境界,階層的表現,認知科学の原理に基づくアライメント機構を取り入れた動的クロスモーダルトークン化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-03T09:14:24Z) - Human-Centric Foundation Models: Perception, Generation and Agentic Modeling [79.97999901785772]
人間中心のファンデーションモデルは、多様な人間中心のタスクを単一のフレームワークに統合します。
我々は,現在のアプローチを4つのグループに分類する分類法を提案することで,HcFMの包括的概要を示す。
この調査は、より堅牢で汎用的でインテリジェントなデジタルヒューマン・エンボディメントモデリングを目指す研究者や実践者のロードマップとして機能することを目的としている。
論文 参考訳(メタデータ) (2025-02-12T16:38:40Z) - Political Bias in LLMs: Unaligned Moral Values in Agent-centric Simulations [0.0]
モーラル・ファンデーション理論アンケートにおいて,パーソナライズされた言語モデルと人間の反応がどのように一致しているかを検討する。
我々は、オープンソースの生成言語モデルを異なる政治的ペルソナに適応させ、これらのモデルを繰り返し調査し、合成データセットを生成する。
解析の結果,モデルが複数の繰り返しにまたがって不整合な結果をもたらし,高い応答差が生じることがわかった。
論文 参考訳(メタデータ) (2024-08-21T08:20:41Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Predicting the long-term collective behaviour of fish pairs with deep learning [52.83927369492564]
本研究では,魚種Hemigrammus rhodostomusの社会的相互作用を評価するための深層学習モデルを提案する。
我々は、ディープラーニングのアプローチの結果と実験結果と、最先端の分析モデルの結果を比較した。
機械学習モデルにより、ソーシャルインタラクションは、微妙な実験的観測可能な解析的相互作用と直接競合できることを実証する。
論文 参考訳(メタデータ) (2023-02-14T05:25:03Z) - Human Trajectory Forecasting in Crowds: A Deep Learning Perspective [89.4600982169]
本稿では,既存の深層学習に基づくソーシャルインタラクションのモデル化手法について詳細に分析する。
本稿では、これらの社会的相互作用を効果的に捉えるための知識に基づく2つのデータ駆動手法を提案する。
我々は,人間の軌道予測分野において,重要かつ欠落したコンポーネントであるTrajNet++を大規模に開発する。
論文 参考訳(メタデータ) (2020-07-07T17:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。