論文の概要: A Measure Based Generalizable Approach to Understandability
- arxiv url: http://arxiv.org/abs/2503.21615v1
- Date: Thu, 27 Mar 2025 15:36:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:54:48.641211
- Title: A Measure Based Generalizable Approach to Understandability
- Title(参考訳): 可視性に対する測度に基づく一般化可能なアプローチ
- Authors: Vikas Kushwaha, Sruti Srinivasa Ragavan, Subhajit Roy,
- Abstract要約: 成功したエージェントと人間のパートナーシップは、エージェントが生成した情報を人間に理解することを要求する。
本稿では,最先端エージェントのディレクティブとして利用可能な,理解可能性のドメイン非依存尺度の開発について論じる。
- 参考スコア(独自算出の注目度): 4.288076913047139
- License:
- Abstract: Successful agent-human partnerships require that any agent generated information is understandable to the human, and that the human can easily steer the agent towards a goal. Such effective communication requires the agent to develop a finer-level notion of what is understandable to the human. State-of-the-art agents, including LLMs, lack this detailed notion of understandability because they only capture average human sensibilities from the training data, and therefore afford limited steerability (e.g., requiring non-trivial prompt engineering). In this paper, instead of only relying on data, we argue for developing generalizable, domain-agnostic measures of understandability that can be used as directives for these agents. Existing research on understandability measures is fragmented, we survey various such efforts across domains, and lay a cognitive-science-rooted groundwork for more coherent and domain-agnostic research investigations in future.
- Abstract(参考訳): 成功したエージェントと人間のパートナーシップは、エージェントが生成した情報が人間にとって理解可能であること、そして人間がエージェントを目標に向かって容易に操縦できることを要求する。
このような効果的なコミュニケーションには、エージェントが人間にとって理解可能なものに関するより詳細な概念を開発する必要がある。
LLMを含む最先端のエージェントは、トレーニングデータから平均的な人間の感性のみを捉えるため、理解可能性という詳細な概念を欠いている。
本稿では、データのみに頼るのではなく、これらのエージェントの指示として使用できる、一般化可能な、ドメインに依存しない理解可能性尺度の開発を論じる。
既存の理解可能性尺度の研究は断片的であり、ドメイン間の様々な取り組みを調査し、認知科学を根ざした基礎研究を今後より一貫性のある、ドメインに依存しない研究に展開する。
関連論文リスト
- Challenges in Human-Agent Communication [55.53932430345333]
これらのシステムがもたらす12の重要なコミュニケーション課題を特定し分析する。
これには、エージェントからユーザへの情報伝達の課題、ユーザからエージェントへの情報伝達の課題、すべての人間とエージェントのコミュニケーションで考慮すべき課題の概略が含まれる。
私たちの発見は、これらのシステムの透明性と制御を支援するために、新しいデザインパターン、原則、ガイドラインを緊急に呼び出すのに役立ちます。
論文 参考訳(メタデータ) (2024-11-28T01:21:26Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Tell Me More! Towards Implicit User Intention Understanding of Language
Model Driven Agents [110.25679611755962]
現在の言語モデル駆動エージェントは、しばしば効果的なユーザ参加のメカニズムを欠いている。
Intention-in-Interaction (IN3) は明示的なクエリを通してユーザの暗黙の意図を検査するための新しいベンチマークである。
私たちは、タスクの曖昧さを積極的に評価し、ユーザの意図を問う強力なモデルであるMistral-Interactを経験的に訓練し、それらを実行可能な目標へと洗練させます。
論文 参考訳(メタデータ) (2024-02-14T14:36:30Z) - Reinforcement Learning Interventions on Boundedly Rational Human Agents
in Frictionful Tasks [25.507656595628376]
本稿では,AIエージェントがマルコフ決定プロセス(MDP)のパラメータに介入する枠組みを紹介する。
私たちは、人間のモデルによるAI計画が、より複雑で地道な人間の幅広い政策に結びつくことを示しています。
論文 参考訳(メタデータ) (2024-01-26T14:59:48Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - A Cognitive Framework for Delegation Between Error-Prone AI and Human
Agents [0.0]
本研究では,認知にインスパイアされた行動モデルを用いて,人間エージェントとAIエージェントの両方の行動を予測する。
予測された振る舞いは、仲介者の使用を通じて人間とAIエージェントの制御を委譲するために使用される。
論文 参考訳(メタデータ) (2022-04-06T15:15:21Z) - Modeling Bounded Rationality in Multi-Agent Simulations Using Rationally
Inattentive Reinforcement Learning [85.86440477005523]
我々は、人間不合理性の確立されたモデルであるRational Inattention(RI)モデルを含む、より人間的なRLエージェントについて検討する。
RIRLは、相互情報を用いた認知情報処理のコストをモデル化する。
我々は、RIRLを用いることで、合理的な仮定の下で発見されたものと異なる、新しい平衡挙動の豊富なスペクトルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-18T20:54:00Z) - Building Affordance Relations for Robotic Agents - A Review [7.50722199393581]
Affordancesは、エージェントがオブジェクトでアクションを実行する可能性を記述する。
我々は,ロボット作業における余裕の概念を用いて,さまざまな戦略の共通基盤をレビューし,発見する。
AIエージェントの能力を向上させる可能性を秘めたアプライアンスを含むさまざまな興味深い研究方向を特定し、議論します。
論文 参考訳(メタデータ) (2021-05-14T08:35:18Z) - Agent-Centric Representations for Multi-Agent Reinforcement Learning [12.577354830985012]
完全協調型マルチエージェント強化学習において,対象中心表現が有用であるかどうかを検討する。
具体的には、RLアルゴリズムにエージェント中心の誘導バイアスを組み込む2つの方法を検討する。
これらのアプローチをGoogle Research Football環境およびDeepMind Lab 2D上で評価します。
論文 参考訳(メタデータ) (2021-04-19T15:43:40Z) - Understanding the origin of information-seeking exploration in
probabilistic objectives for control [62.997667081978825]
探索と探索のトレードオフは適応行動の記述の中心である。
このトレードオフを解決する1つのアプローチは、エージェントが固有の「探索駆動」を持っていることを装備または提案することであった。
汎用的最大化と情報参照行動の組み合わせは, 目的の全く異なる分類の最小化から生じることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:42:39Z) - Towards human-agent knowledge fusion (HAKF) in support of distributed
coalition teams [3.939142878694769]
将来の連立運用は、人間とマシンエージェントのアジャイルチームを通じて強化できる。
このような環境では、人間のエージェントが機械エージェントへの信頼を迅速に構築できることが不可欠である。
HAKFは、分散連立チームの一員として働く人間と機械のエージェントの両方に価値をもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2020-10-23T12:10:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。