論文の概要: A Measure Based Generalizable Approach to Understandability
- arxiv url: http://arxiv.org/abs/2503.21615v2
- Date: Wed, 23 Apr 2025 17:39:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-24 20:25:50.811228
- Title: A Measure Based Generalizable Approach to Understandability
- Title(参考訳): 可視性に対する測度に基づく一般化可能なアプローチ
- Authors: Vikas Kushwaha, Sruti Srinivasa Ragavan, Subhajit Roy,
- Abstract要約: 成功したエージェントと人間のパートナーシップは、エージェントが生成した情報を人間に理解することを要求する。
本稿では,最先端エージェントのディレクティブとして利用可能な,理解可能性のドメイン非依存尺度の開発について論じる。
- 参考スコア(独自算出の注目度): 4.288076913047139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Successful agent-human partnerships require that any agent generated information is understandable to the human, and that the human can easily steer the agent towards a goal. Such effective communication requires the agent to develop a finer-level notion of what is understandable to the human. State-of-the-art agents, including LLMs, lack this detailed notion of understandability because they only capture average human sensibilities from the training data, and therefore afford limited steerability (e.g., requiring non-trivial prompt engineering). In this paper, instead of only relying on data, we argue for developing generalizable, domain-agnostic measures of understandability that can be used as directives for these agents. Existing research on understandability measures is fragmented, we survey various such efforts across domains, and lay a cognitive-science-rooted groundwork for more coherent and domain-agnostic research investigations in future.
- Abstract(参考訳): 成功したエージェントと人間のパートナーシップは、エージェントが生成した情報が人間にとって理解可能であること、そして人間がエージェントを目標に向かって容易に操縦できることを要求する。
このような効果的なコミュニケーションには、エージェントが人間にとって理解可能なものに関するより詳細な概念を開発する必要がある。
LLMを含む最先端のエージェントは、トレーニングデータから平均的な人間の感性のみを捉えるため、理解可能性という詳細な概念を欠いている。
本稿では、データのみに頼るのではなく、これらのエージェントの指示として使用できる、一般化可能な、ドメインに依存しない理解可能性尺度の開発を論じる。
既存の理解可能性尺度の研究は断片的であり、ドメイン間の様々な取り組みを調査し、認知科学を根ざした基礎研究を今後より一貫性のある、ドメインに依存しない研究に展開する。
関連論文リスト
- A Survey of AI Agent Protocols [35.431057321412354]
大きな言語モデル(LLM)エージェントが外部ツールやデータソースと通信する標準的な方法はありません。
この標準化されたプロトコルの欠如は、エージェントが協力したり、効果的にスケールするのを難しくする。
LLMエージェントの統一通信プロトコルは、これを変更できる。
論文 参考訳(メタデータ) (2025-04-23T14:07:26Z) - Generating Causal Explanations of Vehicular Agent Behavioural Interactions with Learnt Reward Profiles [13.450023647228843]
我々はエージェント間相互作用の説明を因果的に推測できるようなエージェントに対する報酬指標の重み付けを学習する。
3つの実世界の運転データセットに対して定量的かつ定性的にアプローチを検証する。
論文 参考訳(メタデータ) (2025-03-18T01:53:59Z) - VeriLA: A Human-Centered Evaluation Framework for Interpretable Verification of LLM Agent Failures [3.075266204492352]
複合AIシステムにおける大規模言語モデル(LLM)エージェントは、しばしば人間の基準を満たさないため、システム全体のパフォーマンスを損なうエラーにつながる。
本稿では LLM Agent failures (VeriLA) を検証するための人間中心評価フレームワークを提案する。
VeriLAは、人的労力を減らすためにエージェント障害を体系的に評価し、これらのエージェント障害を人間に解釈できるようにする。
論文 参考訳(メタデータ) (2025-03-16T21:11:18Z) - AgentDAM: Privacy Leakage Evaluation for Autonomous Web Agents [75.85554113398626]
我々は、既存のAIエージェントと将来のAIエージェントが、潜在的にプライベートな情報の処理をどの程度制限できるかを評価するために、AgentDAMと呼ばれるベンチマークを開発する。
我々のベンチマークは、現実的なWebインタラクションシナリオをシミュレートし、既存のWebナビゲーションエージェントすべてに適用できる。
論文 参考訳(メタデータ) (2025-03-12T19:30:31Z) - Challenges in Human-Agent Communication [55.53932430345333]
これらのシステムがもたらす12の重要なコミュニケーション課題を特定し分析する。
これには、エージェントからユーザへの情報伝達の課題、ユーザからエージェントへの情報伝達の課題、すべての人間とエージェントのコミュニケーションで考慮すべき課題の概略が含まれる。
私たちの発見は、これらのシステムの透明性と制御を支援するために、新しいデザインパターン、原則、ガイドラインを緊急に呼び出すのに役立ちます。
論文 参考訳(メタデータ) (2024-11-28T01:21:26Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Tell Me More! Towards Implicit User Intention Understanding of Language
Model Driven Agents [110.25679611755962]
現在の言語モデル駆動エージェントは、しばしば効果的なユーザ参加のメカニズムを欠いている。
Intention-in-Interaction (IN3) は明示的なクエリを通してユーザの暗黙の意図を検査するための新しいベンチマークである。
私たちは、タスクの曖昧さを積極的に評価し、ユーザの意図を問う強力なモデルであるMistral-Interactを経験的に訓練し、それらを実行可能な目標へと洗練させます。
論文 参考訳(メタデータ) (2024-02-14T14:36:30Z) - Reinforcement Learning Interventions on Boundedly Rational Human Agents
in Frictionful Tasks [25.507656595628376]
本稿では,AIエージェントがマルコフ決定プロセス(MDP)のパラメータに介入する枠組みを紹介する。
私たちは、人間のモデルによるAI計画が、より複雑で地道な人間の幅広い政策に結びつくことを示しています。
論文 参考訳(メタデータ) (2024-01-26T14:59:48Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - A Cognitive Framework for Delegation Between Error-Prone AI and Human
Agents [0.0]
本研究では,認知にインスパイアされた行動モデルを用いて,人間エージェントとAIエージェントの両方の行動を予測する。
予測された振る舞いは、仲介者の使用を通じて人間とAIエージェントの制御を委譲するために使用される。
論文 参考訳(メタデータ) (2022-04-06T15:15:21Z) - Modeling Bounded Rationality in Multi-Agent Simulations Using Rationally
Inattentive Reinforcement Learning [85.86440477005523]
我々は、人間不合理性の確立されたモデルであるRational Inattention(RI)モデルを含む、より人間的なRLエージェントについて検討する。
RIRLは、相互情報を用いた認知情報処理のコストをモデル化する。
我々は、RIRLを用いることで、合理的な仮定の下で発見されたものと異なる、新しい平衡挙動の豊富なスペクトルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-18T20:54:00Z) - Building Affordance Relations for Robotic Agents - A Review [7.50722199393581]
Affordancesは、エージェントがオブジェクトでアクションを実行する可能性を記述する。
我々は,ロボット作業における余裕の概念を用いて,さまざまな戦略の共通基盤をレビューし,発見する。
AIエージェントの能力を向上させる可能性を秘めたアプライアンスを含むさまざまな興味深い研究方向を特定し、議論します。
論文 参考訳(メタデータ) (2021-05-14T08:35:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。