論文の概要: Towards human-agent knowledge fusion (HAKF) in support of distributed
coalition teams
- arxiv url: http://arxiv.org/abs/2010.12327v1
- Date: Fri, 23 Oct 2020 12:10:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 23:46:16.618342
- Title: Towards human-agent knowledge fusion (HAKF) in support of distributed
coalition teams
- Title(参考訳): 分散型連立チームを支援するヒューマンエージェント知識融合(HAKF)を目指して
- Authors: Dave Braines, Federico Cerutti, Marc Roig Vilamala, Mani Srivastava,
Lance Kaplan Alun Preece, Gavin Pearson
- Abstract要約: 将来の連立運用は、人間とマシンエージェントのアジャイルチームを通じて強化できる。
このような環境では、人間のエージェントが機械エージェントへの信頼を迅速に構築できることが不可欠である。
HAKFは、分散連立チームの一員として働く人間と機械のエージェントの両方に価値をもたらす可能性があることを示す。
- 参考スコア(独自算出の注目度): 3.939142878694769
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Future coalition operations can be substantially augmented through agile
teaming between human and machine agents, but in a coalition context these
agents may be unfamiliar to the human users and expected to operate in a broad
set of scenarios rather than being narrowly defined for particular purposes. In
such a setting it is essential that the human agents can rapidly build trust in
the machine agents through appropriate transparency of their behaviour, e.g.,
through explanations. The human agents are also able to bring their local
knowledge to the team, observing the situation unfolding and deciding which key
information should be communicated to the machine agents to enable them to
better account for the particular environment. In this paper we describe the
initial steps towards this human-agent knowledge fusion (HAKF) environment
through a recap of the key requirements, and an explanation of how these can be
fulfilled for an example situation. We show how HAKF has the potential to bring
value to both human and machine agents working as part of a distributed
coalition team in a complex event processing setting with uncertain sources.
- Abstract(参考訳): 将来の連立運用は、人間とマシンエージェントのアジャイルチームによって大幅に強化されるが、連立環境では、これらのエージェントは人間のユーザと馴染みがなく、特定の目的のために狭義に定義されるのではなく、幅広いシナリオで運用されることが期待される。
このような環境では、例えば説明を通じて、人間のエージェントが適切な行動の透明性を通じて、マシンエージェントに対する信頼を迅速に構築することが不可欠である。
ヒューマンエージェントは、ローカルな知識をチームにもたらすことができ、その状況を観察し、どのキー情報をマシンエージェントに伝えるべきかを決めて、特定の環境をよりよく説明することができる。
本稿では,このヒューマンエージェント・ナレッジ・フュージョン(HAKF)環境への最初のステップについて,重要な要件を再カプセル化して説明する。
HAKFが、不確実なソースを持つ複雑なイベント処理設定において、分散連立チームの一員として働く人間と機械エージェントの両方に価値をもたらす可能性を示す。
関連論文リスト
- Operational Collective Intelligence of Humans and Machines [7.8074313693407635]
「集約的クラウドソース予測(ACF)を集団知能の運用を支援するメカニズムとして活用することを探る。」
この研究は、ACFがオペレーションの集合的知性を実現する鍵となる方法として、運用シナリオに対処できるかどうかを問うものである。
論文 参考訳(メタデータ) (2024-02-16T22:45:09Z) - Tell Me More! Towards Implicit User Intention Understanding of Language
Model Driven Agents [110.25679611755962]
現在の言語モデル駆動エージェントは、しばしば効果的なユーザ参加のメカニズムを欠いている。
Intention-in-Interaction (IN3) は明示的なクエリを通してユーザの暗黙の意図を検査するための新しいベンチマークである。
私たちは、タスクの曖昧さを積極的に評価し、ユーザの意図を問う強力なモデルであるMistral-Interactを経験的に訓練し、それらを実行可能な目標へと洗練させます。
論文 参考訳(メタデータ) (2024-02-14T14:36:30Z) - AgentCF: Collaborative Learning with Autonomous Language Agents for
Recommender Systems [112.76941157194544]
本稿では,エージェントベースの協調フィルタリングにより,レコメンデータシステムにおけるユーザとイテムのインタラクションをシミュレートするエージェントCFを提案する。
我々は、ユーザだけでなく、アイテムをエージェントとして、創造的に考慮し、両方のエージェントを同時に最適化する協調学習アプローチを開発します。
全体として、最適化されたエージェントは、ユーザ・イテム、ユーザ・ユーザ・ユーザ、アイテム・イテム、集合的インタラクションなど、フレームワーク内での多様なインタラクションの振る舞いを示す。
論文 参考訳(メタデータ) (2023-10-13T16:37:14Z) - Optimizing delegation between human and AI collaborative agents [1.6114012813668932]
私たちは、潜在的なパフォーマンス上の欠陥に関してデリゲート決定を行うために、デリゲートマネージャエージェントを訓練します。
我々のフレームワークは、エージェントをマッチングのダイナミクスに制限することなく、チームパフォーマンスの観察を通して学習する。
この結果から,環境の異なる表現の下で運用するエージェントチームによる委譲決定の実施をマネージャが学べることが判明した。
論文 参考訳(メタデータ) (2023-09-26T07:23:26Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Adaptation and Communication in Human-Robot Teaming to Handle
Discrepancies in Agents' Beliefs about Plans [13.637799815698559]
我々はモンテカルロ木探索に基づくオンライン実行アルゴリズムを提案し,その動作を計画する。
私たちのエージェントは、共有されたメンタルモデルを保証することなく、チームで作業するための装備がより優れていることを示しています。
論文 参考訳(メタデータ) (2023-07-07T03:05:34Z) - Flexible and Inherently Comprehensible Knowledge Representation for
Data-Efficient Learning and Trustworthy Human-Machine Teaming in
Manufacturing Environments [0.0]
人工知能エージェントの信頼性は、産業生産環境における人間と機械の協調の受容に不可欠である。
我々はエージェントの知識を表現するために、G"ardenforsの認知的にインスピレーションを受けた概念空間フレームワークを利用している。
ファジィカテゴリのメンバシップを決定し、インスタンスを解釈可能に分類するために、シンプルな典型モデルがその上に構築されている。
論文 参考訳(メタデータ) (2023-05-19T11:18:23Z) - Information is Power: Intrinsic Control via Information Capture [110.3143711650806]
我々は,潜時状態空間モデルを用いて推定したエージェントの状態訪問のエントロピーを最小化する,コンパクトで汎用的な学習目的を論じる。
この目的は、不確実性の低減に対応する環境情報収集と、将来の世界状態の予測不可能性の低減に対応する環境制御の両方をエージェントに誘導する。
論文 参考訳(メタデータ) (2021-12-07T18:50:42Z) - CausalCity: Complex Simulations with Agency for Causal Discovery and
Reasoning [68.74447489372037]
本稿では,因果探索と反事実推論のためのアルゴリズムの開発を目的とした,高忠実度シミュレーション環境を提案する。
私たちの作業の中核となるコンポーネントは、複雑なシナリオを定義して作成することが簡単になるような、テキストの緊急性を導入することです。
我々は3つの最先端の手法による実験を行い、ベースラインを作成し、この環境の可利用性を強調する。
論文 参考訳(メタデータ) (2021-06-25T00:21:41Z) - Contextual and Possibilistic Reasoning for Coalition Formation [0.9790236766474201]
本稿では,マルチエージェントシステムにおけるエージェント間の連立関係の発見と評価について論じる。
まず、文脈的推論手法を用いて連立関係形成のための解空間を計算する。
第2に、エージェントをマルチコンテキストシステム(MCS)のコンテキストとしてモデル化し、エージェント間の依存関係をブリッジルールとしてモデル化する。
第3に、MCS均衡のためのアルゴリズムを用いて、すべての潜在的な連立性を体系的に計算し、機能的および非機能的要件のセットを与えられた上で、最適な解を選択する方法を提案する。
論文 参考訳(メタデータ) (2020-06-19T11:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。