論文の概要: Who Does What? Archetypes of Roles Assigned to LLMs During Human-AI Decision-Making
- arxiv url: http://arxiv.org/abs/2602.11924v1
- Date: Thu, 12 Feb 2026 13:23:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.830215
- Title: Who Does What? Archetypes of Roles Assigned to LLMs During Human-AI Decision-Making
- Title(参考訳): 人間のAI意思決定におけるLLMの役割の類型
- Authors: Shreya Chappidi, Jatinder Singh, Andra V. Krauze,
- Abstract要約: 本稿では,社会工学的相互作用パターンの再帰として定義された人間-LLMアーキタイプの概念を紹介する。
我々は,スコーピング文献レビューから得られた17の人間-LLMアーチタイプと113のLCM支援意思決定論文のテーマ分析について述べる。
我々は、意思決定制御、社会的階層、認知強制戦略、情報要求を含む、人間-LLMのアーキタイプ間の関連するトレードオフと設計選択を提示する。
- 参考スコア(独自算出の注目度): 7.680699347065006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs are increasingly supporting decision-making across high-stakes domains, requiring critical reflection on the socio-technical factors that shape how humans and LLMs are assigned roles and interact during human-in-the-loop decision-making. This paper introduces the concept of human-LLM archetypes -- defined as re-curring socio-technical interaction patterns that structure the roles of humans and LLMs in collaborative decision-making. We describe 17 human-LLM archetypes derived from a scoping literature review and thematic analysis of 113 LLM-supported decision-making papers. Then, we evaluate these diverse archetypes across real-world clinical diagnostic cases to examine the potential effects of adopting distinct human-LLM archetypes on LLM outputs and decision outcomes. Finally, we present relevant tradeoffs and design choices across human-LLM archetypes, including decision control, social hierarchies, cognitive forcing strategies, and information requirements. Through our analysis, we show that selection of human-LLM interaction archetype can influence LLM outputs and decisions, bringing important risks and considerations for the designers of human-AI decision-making systems
- Abstract(参考訳): LLMは、ハイテイクドメイン全体の意思決定をますます支援し、人間とLLMがどのように役割を割り当てられ、ループ内での意思決定において相互作用するかを形作る社会技術的要因を批判的に反映する必要がある。
本稿では、協調意思決定における人間とLLMの役割を構造化する社会技術的相互作用パターンの再帰として定義される、人間-LLMアーキタイプの概念を紹介する。
我々は,スコーピング文献レビューから得られた17の人間-LLMアーチタイプと113のLCM支援意思決定論文のテーマ分析について述べる。
そこで本研究では, 現実臨床診断におけるこれらの多種多様なアーチタイプの評価を行い, 異なるヒト-LLMアーチタイプがLCM出力および判定結果に与える影響について検討した。
最後に、意思決定制御、社会的階層化、認知強制戦略、情報要求を含む、人間-LLMアーキタイプ間の関連するトレードオフと設計選択を示す。
分析を通して,人間-LLMインタラクションのアーキタイプの選択がLLMの出力と決定に影響を与え,人間-AI意思決定システムの設計者にとって重要なリスクと考慮をもたらすことを示した。
関連論文リスト
- Noise, Adaptation, and Strategy: Assessing LLM Fidelity in Decision-Making [0.030586855806896043]
大規模言語モデル(LLM)は、社会科学シミュレーションでますます使われている。
本研究では,LLMエージェントが外部誘導と人為的ノイズのレベルが異なる条件下でどのように適応するかを検討するためのプロセス指向評価フレームワークを提案する。
LLMは、デフォルトでは、観察された人間の行動から分岐する安定的で保守的な戦略に収束する。
論文 参考訳(メタデータ) (2025-08-21T18:55:53Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - A Survey on Human Preference Learning for Large Language Models [81.41868485811625]
近年の多目的大言語モデル(LLM)の急激な増加は、より有能な基礎モデルと人間の意図を優先学習によって整合させることに大きく依存している。
本調査では、選好フィードバックのソースとフォーマット、選好信号のモデリングと使用、および、整列 LLM の評価について述べる。
論文 参考訳(メタデータ) (2024-06-17T03:52:51Z) - Comparing Rationality Between Large Language Models and Humans: Insights and Open Questions [6.201550639431176]
本稿では,大規模言語モデル(LLM)の急成長に焦点をあてる。
我々は,LLMの合理性と意思決定能力の増強において,人間フィードバックからの強化学習(RLHF)が果たす重要な役割を強調した。
論文 参考訳(メタデータ) (2024-03-14T18:36:04Z) - On the Decision-Making Abilities in Role-Playing using Large Language
Models [6.550638804145713]
大型言語モデル(LLM)はロールプレイングタスクにますます活用されている。
本稿では,LLMのポストロールプレイングにおける意思決定能力の評価に焦点をあてる。
論文 参考訳(メタデータ) (2024-02-29T02:22:23Z) - Determinants of LLM-assisted Decision-Making [0.0]
大規模言語モデル(LLM)は、人間の意思決定プロセスを強化するための多面的サポートを提供する。
本研究は,LCM支援による意思決定に影響を及ぼす決定因子の構造的概要と詳細な分析を提供する。
我々の発見は、人間とAIのコラボレーションにおける意思決定の質向上に不可欠であると見なすことができる。
論文 参考訳(メタデータ) (2024-02-27T10:24:50Z) - A Taxonomy of Human and ML Strengths in Decision-Making to Investigate
Human-ML Complementarity [30.23729174053152]
本稿では,人間とMLに基づく意思決定の違いを特徴付ける分類法を提案する。
相補性の許容条件を検討するための数学的アグリゲーションフレームワークを提供する。
論文 参考訳(メタデータ) (2022-04-22T16:41:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。