論文の概要: Determinants of LLM-assisted Decision-Making
- arxiv url: http://arxiv.org/abs/2402.17385v1
- Date: Tue, 27 Feb 2024 10:24:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 16:54:21.188707
- Title: Determinants of LLM-assisted Decision-Making
- Title(参考訳): LLM支援意思決定の要因
- Authors: Eva Eigner and Thorsten H\"andler
- Abstract要約: 大規模言語モデル(LLM)は、人間の意思決定プロセスを強化するための多面的サポートを提供する。
本研究は,LCM支援による意思決定に影響を及ぼす決定因子の構造的概要と詳細な分析を提供する。
我々の発見は、人間とAIのコラボレーションにおける意思決定の質向上に不可欠であると見なすことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision-making is a fundamental capability in everyday life. Large Language
Models (LLMs) provide multifaceted support in enhancing human decision-making
processes. However, understanding the influencing factors of LLM-assisted
decision-making is crucial for enabling individuals to utilize LLM-provided
advantages and minimize associated risks in order to make more informed and
better decisions. This study presents the results of a comprehensive literature
analysis, providing a structural overview and detailed analysis of determinants
impacting decision-making with LLM support. In particular, we explore the
effects of technological aspects of LLMs, including transparency and prompt
engineering, psychological factors such as emotions and decision-making styles,
as well as decision-specific determinants such as task difficulty and
accountability. In addition, the impact of the determinants on the
decision-making process is illustrated via multiple application scenarios.
Drawing from our analysis, we develop a dependency framework that systematizes
possible interactions in terms of reciprocal interdependencies between these
determinants. Our research reveals that, due to the multifaceted interactions
with various determinants, factors such as trust in or reliance on LLMs, the
user's mental model, and the characteristics of information processing are
identified as significant aspects influencing LLM-assisted decision-making
processes. Our findings can be seen as crucial for improving decision quality
in human-AI collaboration, empowering both users and organizations, and
designing more effective LLM interfaces. Additionally, our work provides a
foundation for future empirical investigations on the determinants of
decision-making assisted by LLMs.
- Abstract(参考訳): 意思決定は日常生活の基本的な能力である。
大規模言語モデル(LLM)は、人間の意思決定プロセスを強化するための多面的サポートを提供する。
しかし, LLMによる意思決定の要因を理解することは, 個人がLLMが提供する利点を活用し, 関連リスクを最小限に抑えるために重要である。
本研究は,包括的文献分析の結果を示し,llm支援による意思決定に影響する決定要因の構造的概要と詳細な分析を行った。
特に、透明性やエンジニアリングの促進、感情や意思決定スタイルなどの心理的要因、タスクの難易度や説明責任などの決定的決定要因など、LCMの技術的側面の影響について検討する。
加えて、決定要因が意思決定プロセスに与える影響は、複数のアプリケーションシナリオを通じて示されます。
分析から,これらの決定要因間の相互相互依存性の観点から,可能な相互作用を体系化する依存フレームワークを開発した。
本研究は, 各種決定因子との多面的相互作用により, LLMの信頼度や信頼度, ユーザのメンタルモデル, 情報処理特性などの要因が, LLMによる意思決定プロセスに影響を及ぼす重要な側面として認識されることを明らかにする。
我々の発見は、人間とAIのコラボレーションにおける意思決定の質の向上、ユーザと組織双方の強化、より効果的なLLMインターフェースの設計に不可欠であると考えられる。
さらに,本研究は,LCMによる意思決定決定要因に関する今後の実証研究の基盤を提供する。
関連論文リスト
- Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は、システムの異なる部分への介入の下で因果効果を推定することができる。
LLMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを実証分析して評価する。
我々は、様々な因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成し、介入に基づく推論の研究を可能にする。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Wait, It's All Token Noise? Always Has Been: Interpreting LLM Behavior Using Shapley Value [1.223779595809275]
大規模言語モデル(LLM)は、人間の行動や認知過程をシミュレートするエキサイティングな可能性を開いた。
しかし, LLMを人体用スタンドインとして活用する妥当性は, いまだに不明である。
本稿では,モデルの出力に対する各プロンプト成分の相対的寄与を定量化するために,シェープリー値に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T22:49:43Z) - On the Decision-Making Abilities in Role-Playing using Large Language
Models [6.550638804145713]
大型言語モデル(LLM)はロールプレイングタスクにますます活用されている。
本稿では,LLMのポストロールプレイングにおける意思決定能力の評価に焦点をあてる。
論文 参考訳(メタデータ) (2024-02-29T02:22:23Z) - DeLLMa: A Framework for Decision Making Under Uncertainty with Large
Language Models [34.71443803031482]
大規模言語モデル(LLM)は、ビジネス、エンジニアリング、医療といった分野を含む、社会全体でますます使われている。
本研究では,不確実な環境における意思決定精度を高めるためのフレームワークであるDeLLMaを提案する。
以上の結果から,DeLLMaはLLM判定性能を大幅に向上し,競合手法よりも40%の精度向上が達成できることがわかった。
論文 参考訳(メタデータ) (2024-02-04T08:11:45Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z) - Rational Decision-Making Agent with Internalized Utility Judgment [91.80700126895927]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。