論文の概要: A Scoping Review of the Ethical Perspectives on Anthropomorphising Large Language Model-Based Conversational Agents
- arxiv url: http://arxiv.org/abs/2601.09869v1
- Date: Wed, 14 Jan 2026 21:03:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.898589
- Title: A Scoping Review of the Ethical Perspectives on Anthropomorphising Large Language Model-Based Conversational Agents
- Title(参考訳): 大規模言語モデルに基づく会話エージェントの人類学的視点に関するスコーピングレビュー
- Authors: Andrea Ferrario, Rasita Vinay, Matteo Casserini, Alessandro Facchini,
- Abstract要約: 人間以外の存在が人間に似た性質を持つ人類形態化は、大きな言語モデル(LLM)に基づく会話エージェント(CA)の台頭により、ますます健全になっている。
このスコーピングレビューは、LLMベースのCAを5つのデータベースと3つのプレプリントリポジトリで人類学的に指向した研究をマッピングする。
- 参考スコア(独自算出の注目度): 39.49473274097833
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Anthropomorphisation -- the phenomenon whereby non-human entities are ascribed human-like qualities -- has become increasingly salient with the rise of large language model (LLM)-based conversational agents (CAs). Unlike earlier chatbots, LLM-based CAs routinely generate interactional and linguistic cues, such as first-person self-reference, epistemic and affective expressions that empirical work shows can increase engagement. On the other hand, anthropomorphisation raises ethical concerns, including deception, overreliance, and exploitative relationship framing, while some authors argue that anthropomorphic interaction may support autonomy, well-being, and inclusion. Despite increasing interest in the phenomenon, literature remains fragmented across domains and varies substantially in how it defines, operationalizes, and normatively evaluates anthropomorphisation. This scoping review maps ethically oriented work on anthropomorphising LLM-based CAs across five databases and three preprint repositories. We synthesize (1) conceptual foundations, (2) ethical challenges and opportunities, and (3) methodological approaches. We find convergence on attribution-based definitions but substantial divergence in operationalization, a predominantly risk-forward normative framing, and limited empirical work that links observed interaction effects to actionable governance guidance. We conclude with a research agenda and design/governance recommendations for ethically deploying anthropomorphic cues in LLM-based conversational agents.
- Abstract(参考訳): 人間以外の存在が人間のような性質を持つ現象である人類形態化は、大きな言語モデル(LLM)ベースの会話エージェント(CA)の台頭とともに、ますます健全になっている。
初期のチャットボットとは異なり、LCMベースのCAは、経験的作業がエンゲージメントを高める可能性がある、一人称自己参照、疫学、情緒的な表現のような、対話的および言語的な手がかりを日常的に生成する。
一方で、人為的形態化は、騙し、過信、搾取的関係のフレーミングなどの倫理的懸念を提起する一方で、人為的相互作用は自律性、幸福性、包摂性を支持する可能性があると主張する研究者もいる。
この現象への関心が高まりつつも、文学は領域によって断片化され続け、その定義、運用、規範的評価の仕方に大きく変化している。
このスコーピングレビューは、LLMベースのCAを5つのデータベースと3つのプレプリントリポジトリで人類学的に指向した研究をマッピングする。
我々は,(1)概念的基礎,(2)倫理的課題と機会,(3)方法論的アプローチを合成する。
我々は、帰属に基づく定義に収束するが、運用面ではかなり異なること、主にリスクフォワードの規範的フレーミング、そして観察された相互作用効果と行動可能なガバナンスガイダンスを関連付ける限定的な経験的作業を見出した。
LLMをベースとした会話エージェントに人為的手がかりを倫理的に展開するための研究課題と設計・ガバナンス勧告をまとめる。
関連論文リスト
- Agentic Reasoning for Large Language Models [122.81018455095999]
推論は推論、問題解決、意思決定の基礎となる基本的な認知プロセスである。
大規模言語モデル(LLM)は、クローズドワールド設定では強力な推論能力を示すが、オープンエンドおよび動的環境では苦労する。
エージェント推論は、連続的な相互作用を計画し、行動し、学習する自律的なエージェントとしてLLMを解釈することでパラダイムシフトを示す。
論文 参考訳(メタデータ) (2026-01-18T18:58:23Z) - Generative Human-Object Interaction Detection via Differentiable Cognitive Steering of Multi-modal LLMs [85.69785384599827]
人間と物体の相互作用(Human-object Interaction、HOI)の検出は、人と物体のペアとそれらの相互作用を局在させることを目的としている。
既存のメソッドはクローズドワールドの仮定の下で動作し、タスクを未定義の小さな動詞集合上の分類問題として扱う。
本稿では,閉集合分類タスクから開語彙生成問題へのHOI検出を再構成する新しい生成推論・ステアブル知覚フレームワークGRASP-HOを提案する。
論文 参考訳(メタデータ) (2025-12-19T14:41:50Z) - Taxonomy of User Needs and Actions [51.86289485979439]
会話AIの普及は、ユーザの計測目標と、それらを達成するための位置、適応、および社会的プラクティスをキャプチャするフレームワークの必要性を強調している。
このギャップに対処するために,1193人の人間とAIの会話の反復的質的分析によって構築された経験的基盤の枠組みであるTUNA(Taxonomy of User Needs and Actions)を紹介した。
TUNAは、ユーザアクションを情報検索、合成、手続き的ガイダンス、コンテンツ作成、ソーシャルインタラクション、メタ会話に関連する行動を含む3段階の階層に編成する。
論文 参考訳(メタデータ) (2025-10-07T17:04:42Z) - Pragmatics beyond humans: meaning, communication, and LLMs [0.0]
本論文は,言語が行動の道具として機能する動的インタフェースとして,プラグマティクスを再認識する。
論文は、この理解をさらに洗練し、方法論的に再考する必要があると主張している。
論文 参考訳(メタデータ) (2025-08-08T09:34:41Z) - Noosemia: toward a Cognitive and Phenomenological Account of Intentionality Attribution in Human-Generative AI Interaction [4.022364531869169]
本稿では,ヒトと生成型AIシステムとの相互作用から生じる新しい認知・現象学的パターンであるNoosemiaを紹介し,形式化する。
特定の条件下では、ユーザが意図性、エージェンシー、さらにはシステムの内部性をどう評価するかを説明するための多分野のフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-04T17:10:08Z) - Evaluating AI Alignment in Eleven LLMs through Output-Based Analysis and Human Benchmarking [0.0]
大規模言語モデル(LLM)は、心理学的な研究や実践にますます使われているが、従来のベンチマークでは、実際の相互作用で表現される価値についてはほとんど明らかにされていない。
LLMが表現する値の出力に基づく評価であるPAPERSを導入する。
論文 参考訳(メタデータ) (2025-06-14T20:14:02Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - Multi-turn Evaluation of Anthropomorphic Behaviours in Large Language Models [20.077019480409657]
ユーザーが大きな言語モデル(LLM)を人為的に形作る傾向は、AI開発者、研究者、政策立案者への関心が高まっている。
本稿では,現実的かつ多様な環境下での人為的 LLM の挙動を実証的に評価する手法を提案する。
まず,14の人為的行動のマルチターン評価を開発する。
次に,ユーザインタラクションのシミュレーションを用いて,スケーラブルで自動化されたアプローチを提案する。
第3に,対話型大規模人体調査(N=1101)を実施し,実際のユーザの人文的知覚を予測するモデル行動を検証する。
論文 参考訳(メタデータ) (2025-02-10T22:09:57Z) - Emergence of human-like polarization among large language model agents [79.96817421756668]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、分極を緩和するためのもっともらしい戦略を識別するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Harnessing the Power of Large Language Models for Empathetic Response Generation: Empirical Investigations and Improvements [28.630542719519855]
本研究では,大規模言語モデル(LLM)の共感応答生成における性能について実験的に検討する。
大規模な実験により, LLMは提案手法の利点を大いに生かし, 自動評価と人的評価の両方で最先端の性能を達成できることが示されている。
論文 参考訳(メタデータ) (2023-10-08T12:21:24Z) - The Machine Psychology of Cooperation: Can GPT models operationalise prompts for altruism, cooperation, competitiveness and selfishness in economic games? [0.0]
GPT-3.5大言語モデル(LLM)を用いて,協調的,競争的,利他的,利己的行動の自然言語記述を操作可能とした。
被験者と実験心理学研究で用いられるのと同様のプロトコルを用いて,課題環境を記述するためのプロンプトを用いた。
この結果から,LLM が様々な協調姿勢の自然言語記述を適切な作業行動の記述にある程度翻訳できることが示唆された。
論文 参考訳(メタデータ) (2023-05-13T17:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。