論文の概要: Humanizing Machines: Rethinking LLM Anthropomorphism Through a Multi-Level Framework of Design
- arxiv url: http://arxiv.org/abs/2508.17573v1
- Date: Mon, 25 Aug 2025 00:48:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.589988
- Title: Humanizing Machines: Rethinking LLM Anthropomorphism Through a Multi-Level Framework of Design
- Title(参考訳): 人間化マシン:多層設計によるLLM擬人化再考
- Authors: Yunze Xiao, Lynnette Hui Xian Ng, Jiarui Liu, Mona T. Diab,
- Abstract要約: 大規模言語モデル (LLM) は、テキストの人類学的特徴をますます示している。
我々は,ユーザ目標を支援するために意図的に調整可能なデザインの強調概念として人文準同型を扱わなければならないと論じる。
- 参考スコア(独自算出の注目度): 19.54520739842824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) increasingly exhibit \textbf{anthropomorphism} characteristics -- human-like qualities portrayed across their outlook, language, behavior, and reasoning functions. Such characteristics enable more intuitive and engaging human-AI interactions. However, current research on anthropomorphism remains predominantly risk-focused, emphasizing over-trust and user deception while offering limited design guidance. We argue that anthropomorphism should instead be treated as a \emph{concept of design} that can be intentionally tuned to support user goals. Drawing from multiple disciplines, we propose that the anthropomorphism of an LLM-based artifact should reflect the interaction between artifact designers and interpreters. This interaction is facilitated by cues embedded in the artifact by the designers and the (cognitive) responses of the interpreters to the cues. Cues are categorized into four dimensions: \textit{perceptive, linguistic, behavioral}, and \textit{cognitive}. By analyzing the manifestation and effectiveness of each cue, we provide a unified taxonomy with actionable levers for practitioners. Consequently, we advocate for function-oriented evaluations of anthropomorphic design.
- Abstract(参考訳): 大規模言語モデル(LLMs)は、その展望、言語、行動、推論機能にまたがる人間のような特性を、ますます表わす。
このような特徴は、より直感的で魅力的な人間とAIの相互作用を可能にする。
しかしながら、人間同型に関する現在の研究は主にリスクに重点を置いており、限られた設計ガイダンスを提供しながら、過剰信頼とユーザ欺きを強調している。
我々は、人間同型は、ユーザー目標をサポートするために意図的に調整できる「デザインの概念」として扱われるべきであると主張する。
複数の分野から抽出し, LLMに基づくアーティファクトの擬人化は, アーティファクトデザイナとインタプリタの相互作用を反映するべきであることを提案する。
この相互作用は、デザイナによってアーティファクトに埋め込まれたキューと、インタプリタがキューに対する(認知的な)応答によって促進される。
キューは、 \textit{perceptive, language, behavioral} と \textit{cognitive} の4つの次元に分けられる。
各キューの表示と有効性を分析することにより、実践者に対して実行可能なレバーを備えた統一された分類法を提供する。
その結果,人間型設計の関数指向評価を提唱した。
関連論文リスト
- Beyond Profile: From Surface-Level Facts to Deep Persona Simulation in LLMs [50.0874045899661]
本稿では,文字のテキストワークに現れる言語パターンと独特の思考パターンの両方を再現するモデルである characterBot を紹介する。
著名な中国の作家ル・ジュンをケーススタディとして、17冊のエッセイ集から派生した4つの訓練課題を提案する。
これには、外部の言語構造と知識を習得することに焦点を当てた事前訓練タスクと、3つの微調整タスクが含まれる。
言語的正確性と意見理解の3つのタスクにおいて、キャラクタボットを評価し、適応されたメトリクスのベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2025-02-18T16:11:54Z) - A Taxonomy of Linguistic Expressions That Contribute To Anthropomorphism of Language Technologies [55.99010491370177]
擬人化とは、非人間的な対象や実体に対する人間のような性質の帰属である。
人為的同型の影響を生産的に議論するためには、言語が成型できる様々な方法の共通語彙が必要である。
論文 参考訳(メタデータ) (2025-02-14T02:43:46Z) - Multi-turn Evaluation of Anthropomorphic Behaviours in Large Language Models [26.333097337393685]
ユーザーが大きな言語モデル(LLM)を人為的に形作る傾向は、AI開発者、研究者、政策立案者への関心が高まっている。
本稿では,現実的かつ多様な環境下での人為的 LLM の挙動を実証的に評価する手法を提案する。
まず,14の人為的行動のマルチターン評価を開発する。
次に,ユーザインタラクションのシミュレーションを用いて,スケーラブルで自動化されたアプローチを提案する。
第3に,対話型大規模人体調査(N=1101)を実施し,実際のユーザの人文的知覚を予測するモデル行動を検証する。
論文 参考訳(メタデータ) (2025-02-10T22:09:57Z) - Human-like conceptual representations emerge from language prediction [72.5875173689788]
大規模言語モデル(LLMs)は、言語データに対する次世代の予測を通じてのみ訓練され、顕著な人間的な振る舞いを示す。
これらのモデルは、人間に似た概念を発達させ、もしそうなら、そのような概念はどのように表現され、組織化されるのか?
以上の結果から,LLMは言語記述から他の概念に関する文脈的手がかりに関して柔軟に概念を導出できることが示唆された。
これらの結果は、構造化された人間のような概念表現が、現実世界の接地なしに言語予測から自然に現れることを証明している。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Mirages: On Anthropomorphism in Dialogue Systems [12.507948345088135]
本稿では,対話システムの人間同型化に寄与する言語的要因と,その影響について論じる。
今後の対話システム開発への取り組みは、設計、開発、リリース、記述に特に注意を払うことを推奨する。
論文 参考訳(メタデータ) (2023-05-16T20:50:46Z) - Learning Graph Representation of Person-specific Cognitive Processes
from Audio-visual Behaviours for Automatic Personality Recognition [17.428626029689653]
本稿では,対象対象者固有の認知を,個人固有のCNNアーキテクチャの形で表現することを提案する。
各人物固有のCNNは、ニューラルアーキテクチャサーチ(NAS)と新しい適応損失関数によって探索される。
実験の結果,生成したグラフ表現は対象者の性格特性とよく関連していることがわかった。
論文 参考訳(メタデータ) (2021-10-26T11:04:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。