論文の概要: A Scoping Review of the Ethical Perspectives on Anthropomorphising Large Language Model-Based Conversational Agents
- arxiv url: http://arxiv.org/abs/2601.09869v1
- Date: Wed, 14 Jan 2026 21:03:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.898589
- Title: A Scoping Review of the Ethical Perspectives on Anthropomorphising Large Language Model-Based Conversational Agents
- Title(参考訳): 大規模言語モデルに基づく会話エージェントの人類学的視点に関するスコーピングレビュー
- Authors: Andrea Ferrario, Rasita Vinay, Matteo Casserini, Alessandro Facchini,
- Abstract要約: 人間以外の存在が人間に似た性質を持つ人類形態化は、大きな言語モデル(LLM)に基づく会話エージェント(CA)の台頭により、ますます健全になっている。
このスコーピングレビューは、LLMベースのCAを5つのデータベースと3つのプレプリントリポジトリで人類学的に指向した研究をマッピングする。
- 参考スコア(独自算出の注目度): 39.49473274097833
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Anthropomorphisation -- the phenomenon whereby non-human entities are ascribed human-like qualities -- has become increasingly salient with the rise of large language model (LLM)-based conversational agents (CAs). Unlike earlier chatbots, LLM-based CAs routinely generate interactional and linguistic cues, such as first-person self-reference, epistemic and affective expressions that empirical work shows can increase engagement. On the other hand, anthropomorphisation raises ethical concerns, including deception, overreliance, and exploitative relationship framing, while some authors argue that anthropomorphic interaction may support autonomy, well-being, and inclusion. Despite increasing interest in the phenomenon, literature remains fragmented across domains and varies substantially in how it defines, operationalizes, and normatively evaluates anthropomorphisation. This scoping review maps ethically oriented work on anthropomorphising LLM-based CAs across five databases and three preprint repositories. We synthesize (1) conceptual foundations, (2) ethical challenges and opportunities, and (3) methodological approaches. We find convergence on attribution-based definitions but substantial divergence in operationalization, a predominantly risk-forward normative framing, and limited empirical work that links observed interaction effects to actionable governance guidance. We conclude with a research agenda and design/governance recommendations for ethically deploying anthropomorphic cues in LLM-based conversational agents.
- Abstract(参考訳): 人間以外の存在が人間のような性質を持つ現象である人類形態化は、大きな言語モデル(LLM)ベースの会話エージェント(CA)の台頭とともに、ますます健全になっている。
初期のチャットボットとは異なり、LCMベースのCAは、経験的作業がエンゲージメントを高める可能性がある、一人称自己参照、疫学、情緒的な表現のような、対話的および言語的な手がかりを日常的に生成する。
一方で、人為的形態化は、騙し、過信、搾取的関係のフレーミングなどの倫理的懸念を提起する一方で、人為的相互作用は自律性、幸福性、包摂性を支持する可能性があると主張する研究者もいる。
この現象への関心が高まりつつも、文学は領域によって断片化され続け、その定義、運用、規範的評価の仕方に大きく変化している。
このスコーピングレビューは、LLMベースのCAを5つのデータベースと3つのプレプリントリポジトリで人類学的に指向した研究をマッピングする。
我々は,(1)概念的基礎,(2)倫理的課題と機会,(3)方法論的アプローチを合成する。
我々は、帰属に基づく定義に収束するが、運用面ではかなり異なること、主にリスクフォワードの規範的フレーミング、そして観察された相互作用効果と行動可能なガバナンスガイダンスを関連付ける限定的な経験的作業を見出した。
LLMをベースとした会話エージェントに人為的手がかりを倫理的に展開するための研究課題と設計・ガバナンス勧告をまとめる。
関連論文リスト
- Pragmatics beyond humans: meaning, communication, and LLMs [0.0]
本論文は,言語が行動の道具として機能する動的インタフェースとして,プラグマティクスを再認識する。
論文は、この理解をさらに洗練し、方法論的に再考する必要があると主張している。
論文 参考訳(メタデータ) (2025-08-08T09:34:41Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - Multi-turn Evaluation of Anthropomorphic Behaviours in Large Language Models [20.077019480409657]
ユーザーが大きな言語モデル(LLM)を人為的に形作る傾向は、AI開発者、研究者、政策立案者への関心が高まっている。
本稿では,現実的かつ多様な環境下での人為的 LLM の挙動を実証的に評価する手法を提案する。
まず,14の人為的行動のマルチターン評価を開発する。
次に,ユーザインタラクションのシミュレーションを用いて,スケーラブルで自動化されたアプローチを提案する。
第3に,対話型大規模人体調査(N=1101)を実施し,実際のユーザの人文的知覚を予測するモデル行動を検証する。
論文 参考訳(メタデータ) (2025-02-10T22:09:57Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Harnessing the Power of Large Language Models for Empathetic Response Generation: Empirical Investigations and Improvements [28.630542719519855]
本研究では,大規模言語モデル(LLM)の共感応答生成における性能について実験的に検討する。
大規模な実験により, LLMは提案手法の利点を大いに生かし, 自動評価と人的評価の両方で最先端の性能を達成できることが示されている。
論文 参考訳(メタデータ) (2023-10-08T12:21:24Z) - The Machine Psychology of Cooperation: Can GPT models operationalise prompts for altruism, cooperation, competitiveness and selfishness in economic games? [0.0]
GPT-3.5大言語モデル(LLM)を用いて,協調的,競争的,利他的,利己的行動の自然言語記述を操作可能とした。
被験者と実験心理学研究で用いられるのと同様のプロトコルを用いて,課題環境を記述するためのプロンプトを用いた。
この結果から,LLM が様々な協調姿勢の自然言語記述を適切な作業行動の記述にある程度翻訳できることが示唆された。
論文 参考訳(メタデータ) (2023-05-13T17:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。