論文の概要: Thinking beyond the anthropomorphic paradigm benefits LLM research
- arxiv url: http://arxiv.org/abs/2502.09192v1
- Date: Thu, 13 Feb 2025 11:32:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:48:51.926913
- Title: Thinking beyond the anthropomorphic paradigm benefits LLM research
- Title(参考訳): 人為的パラダイムを超えて考えることはLLM研究に役立つ
- Authors: Lujain Ibrahim, Myra Cheng,
- Abstract要約: 私たちは過去10年で何十万ものコンピュータサイエンス研究論文を分析しました。
大型言語モデル(LLM)研究における人類型用語の有病率と成長の実証的証拠を提示する。
これらの概念化は制限されている可能性があり、人間の類推を超えてLLMの理解と改善のための新たな道を開くと我々は主張する。
- 参考スコア(独自算出の注目度): 1.7392902719515677
- License:
- Abstract: Anthropomorphism, or the attribution of human traits to technology, is an automatic and unconscious response that occurs even in those with advanced technical expertise. In this position paper, we analyze hundreds of thousands of computer science research articles from the past decade and present empirical evidence of the prevalence and growth of anthropomorphic terminology in research on large language models (LLMs). This terminology reflects deeper anthropomorphic conceptualizations which shape how we think about and conduct LLM research. We argue these conceptualizations may be limiting, and that challenging them opens up new pathways for understanding and improving LLMs beyond human analogies. To illustrate this, we identify and analyze five core anthropomorphic assumptions shaping prominent methodologies across the LLM development lifecycle, from the assumption that models must use natural language for reasoning tasks to the assumption that model capabilities should be evaluated through human-centric benchmarks. For each assumption, we demonstrate how non-anthropomorphic alternatives can open new directions for research and development.
- Abstract(参考訳): 人相同性(人相同性、英: Anthropomorphism)は、技術的に高度な専門知識を持つ人でも起こる自動的かつ無意識的な反応である。
本稿では,過去10年間のコンピュータサイエンス研究論文数十万件を分析し,多言語モデル(LLM)研究における人為的用語の出現と成長の実証的証拠を提示する。
この用語は、LLM研究の考え方と実施方法を形成する、より深い人類学的概念化を反映している。
これらの概念化は制限されている可能性があり、人間の類推を超えてLLMの理解と改善のための新たな道を開くと我々は主張する。
そこで本研究では,LLM開発ライフサイクル全体において,モデルが自然言語を用いて推論タスクを行なわなければならないという仮定から,人間中心のベンチマークによってモデル機能を評価するべきという仮定に至るまで,5つの中核的人為的仮定を同定し,解析する。
各仮定に対して、非人為的代替手段が研究・開発のための新しい方向をいかに開けるかを示す。
関連論文リスト
- LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [49.58786377307728]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Human-Centric Foundation Models: Perception, Generation and Agentic Modeling [79.97999901785772]
人間中心のファンデーションモデルは、多様な人間中心のタスクを単一のフレームワークに統合します。
我々は,現在のアプローチを4つのグループに分類する分類法を提案することで,HcFMの包括的概要を示す。
この調査は、より堅牢で汎用的でインテリジェントなデジタルヒューマン・エンボディメントモデリングを目指す研究者や実践者のロードマップとして機能することを目的としている。
論文 参考訳(メタデータ) (2025-02-12T16:38:40Z) - Multi-turn Evaluation of Anthropomorphic Behaviours in Large Language Models [26.333097337393685]
ユーザーが大きな言語モデル(LLM)を人為的に形作る傾向は、AI開発者、研究者、政策立案者への関心が高まっている。
本稿では,現実的かつ多様な環境下での人為的 LLM の挙動を実証的に評価する手法を提案する。
まず,14の人為的行動のマルチターン評価を開発する。
次に,ユーザインタラクションのシミュレーションを用いて,スケーラブルで自動化されたアプローチを提案する。
第3に,対話型大規模人体調査(N=1101)を実施し,実際のユーザの人文的知覚を予測するモデル行動を検証する。
論文 参考訳(メタデータ) (2025-02-10T22:09:57Z) - Human-like conceptual representations emerge from language prediction [72.5875173689788]
大型言語モデル(LLM)における人間に似た概念表現の出現について検討した。
その結果、LLMは定義記述から概念を推論し、共有された文脈に依存しない構造に収束する表現空間を構築することができた。
我々の研究は、LLMが複雑な人間の認知を理解するための貴重なツールであり、人工知能と人間の知能の整合性を高めるための道を開くという見解を支持している。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - Theoretical and Methodological Framework for Studying Texts Produced by Large Language Models [0.0]
本稿では,大規模言語モデル(LLM)の研究における概念的,方法論的,技術的課題について述べる。
LLMを基質とし、モデルがシミュレートするエンティティを区別する理論的な枠組みの上に構築されている。
論文 参考訳(メタデータ) (2024-08-29T17:34:10Z) - Human-like object concept representations emerge naturally in multimodal large language models [24.003766123531545]
大規模言語モデルにおける対象概念の表現が人間とどのように関連しているかを明らかにするために,行動解析と神経画像解析を併用した。
その結果,66次元の埋め込みは非常に安定で予測的であり,人間の心的表現に類似したセマンティッククラスタリングが認められた。
本研究は、機械知能の理解を深め、より人間的な人工知能システムの開発を知らせるものである。
論文 参考訳(メタデータ) (2024-07-01T08:17:19Z) - Large language models as linguistic simulators and cognitive models in human research [0.0]
人間のようなテキストを生成する大きな言語モデル(LLM)の台頭は、行動や認知研究における人間の参加者を置き換える可能性についての議論を巻き起こした。
心理学・社会科学における言語モデルの基本的有用性を評価するために,この代替視点を批判的に評価する。
この視点は、行動科学と認知科学における言語モデルの役割を再定義し、言語シミュレータや認知モデルとして機能し、マシンインテリジェンスと人間の認知と思考の類似点と相違点に光を当てている。
論文 参考訳(メタデータ) (2024-02-06T23:28:23Z) - A Survey of Reasoning with Foundation Models [235.7288855108172]
推論は、交渉、医療診断、刑事捜査など、様々な現実世界の環境において重要な役割を担っている。
本稿では,推論に適応する基礎モデルを提案する。
次に、基礎モデルにおける推論能力の出現の背後にある潜在的な将来方向を掘り下げる。
論文 参考訳(メタデータ) (2023-12-17T15:16:13Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。