論文の概要: Collaborative Human-Agent Planning for Resilience
- arxiv url: http://arxiv.org/abs/2104.14089v1
- Date: Thu, 29 Apr 2021 03:21:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 12:50:38.379310
- Title: Collaborative Human-Agent Planning for Resilience
- Title(参考訳): レジリエンスのための協調型ヒューマンエージェント計画
- Authors: Ronal Singh, Tim Miller, Darryn Reid
- Abstract要約: 実行時に線形時間論理(LTL)を用いてエージェントに知識を提供することで,エージェントと協調できるかどうかを検討する。
我々は,計画立案者が制限のある状況に対する基本計画案を24名提示し,これらの制限に対する回避策を参加者に求めた。
その結果, 参加者の制約により, 計画の期待リターンが10%向上した。
- 参考スコア(独自算出の注目度): 5.2123460114614435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent agents powered by AI planning assist people in complex scenarios,
such as managing teams of semi-autonomous vehicles. However, AI planning models
may be incomplete, leading to plans that do not adequately meet the stated
objectives, especially in unpredicted situations. Humans, who are apt at
identifying and adapting to unusual situations, may be able to assist planning
agents in these situations by encoding their knowledge into a planner at
run-time. We investigate whether people can collaborate with agents by
providing their knowledge to an agent using linear temporal logic (LTL) at
run-time without changing the agent's domain model. We presented 24
participants with baseline plans for situations in which a planner had
limitations, and asked the participants for workarounds for these limitations.
We encoded these workarounds as LTL constraints. Results show that
participants' constraints improved the expected return of the plans by 10% ($p
< 0.05$) relative to baseline plans, demonstrating that human insight can be
used in collaborative planning for resilience. However, participants used more
declarative than control constraints over time, but declarative constraints
produced plans less similar to the expectation of the participants, which could
lead to potential trust issues.
- Abstract(参考訳): AI計画によるインテリジェントエージェントは、半自律車両のチーム管理など、複雑なシナリオで人々を支援する。
しかし、AI計画モデルは不完全であり、特に予測不能な状況において、与えられた目的を適切に満たさない計画につながる可能性がある。
異常な状況の特定や適応に長けている人間は、その知識を実行時にプランナーにエンコードすることで、このような状況における計画エージェントを支援することができるかもしれない。
エージェントのドメインモデルを変更することなく、リアルタイムに線形時間論理(LTL)を用いてエージェントに知識を提供することで、エージェントと協調できるかどうかを検討する。
参加者24名に対して,プランナーに制限のある状況に対する基本計画を提示し,これらの制約に対する回避策を質問した。
我々はこれらの回避策をLTL制約としてエンコードした。
その結果、参加者の制約により、ベースライン計画と比較して、計画の成果が10%(p < 0.05$)向上し、人間の洞察がレジリエンスのための協調計画に利用できることが示された。
しかし、参加者はコントロールの制約よりも宣言的な制約を使ったが、宣言的な制約は参加者の期待とあまり似ていないプランを生み出した。
関連論文リスト
- Revealing the Barriers of Language Agents in Planning [44.913745512049246]
現在の言語エージェントにはまだ人間レベルの計画能力がないことが示されています。
最先端の推論モデルであるOpenAI o1でさえ、複雑な現実世界の計画ベンチマークの1つで15.6%しか達成していない。
エージェント・プランニングを妨げる2つの重要な要因として,制約の役割の制限と質問の影響の減少があげられる。
論文 参考訳(メタデータ) (2024-10-16T09:44:38Z) - Ask-before-Plan: Proactive Language Agents for Real-World Planning [68.08024918064503]
プロアクティブエージェントプランニングでは、ユーザエージェントの会話とエージェント環境のインタラクションに基づいて、言語エージェントが明確化のニーズを予測する必要がある。
本稿では,明確化,実行,計画の3つのエージェントからなる新しいマルチエージェントフレームワーク,Clarification-Execution-Planning(textttCEP)を提案する。
論文 参考訳(メタデータ) (2024-06-18T14:07:28Z) - TravelPlanner: A Benchmark for Real-World Planning with Language Agents [63.199454024966506]
我々は,旅行計画に焦点を当てた新しい計画ベンチマークであるTravelPlannerを提案する。
豊富なサンドボックス環境、400万近いデータレコードにアクセスするためのさまざまなツール、計画意図とリファレンスプランを慎重にキュレートした1,225のツールを提供する。
包括的評価では、現在の言語エージェントがそのような複雑な計画タスクを処理できないことが示されており、GPT-4でさえ0.6%の成功率しか達成できない。
論文 参考訳(メタデータ) (2024-02-02T18:39:51Z) - LLM-Assist: Enhancing Closed-Loop Planning with Language-Based Reasoning [65.86754998249224]
従来のルールベースプランナとLCMベースのプランナを併用した,新しいハイブリッドプランナを開発した。
当社のアプローチでは,既存のプランナが苦労する複雑なシナリオをナビゲートし,合理的なアウトプットを生成すると同時に,ルールベースのアプローチと連携して作業する。
論文 参考訳(メタデータ) (2023-12-30T02:53:45Z) - Anticipating Responsibility in Multiagent Planning [9.686474898346392]
責任予測(Responsibility Precipation)は、個々のエージェントのアクションが特定の結果に責任を負う可能性があるかどうかを決定するプロセスである。
これは、エージェントが検討する計画における責任を期待できるように、マルチエージェントの計画設定で使用できる。
論文 参考訳(メタデータ) (2023-07-31T13:58:49Z) - Adaptation and Communication in Human-Robot Teaming to Handle
Discrepancies in Agents' Beliefs about Plans [13.637799815698559]
我々はモンテカルロ木探索に基づくオンライン実行アルゴリズムを提案し,その動作を計画する。
私たちのエージェントは、共有されたメンタルモデルを保証することなく、チームで作業するための装備がより優れていることを示しています。
論文 参考訳(メタデータ) (2023-07-07T03:05:34Z) - AdaPlanner: Adaptive Planning from Feedback with Language Models [56.367020818139665]
大規模言語モデル(LLM)は、最近、シーケンシャルな意思決定タスクの自律的エージェントとして機能する可能性を実証している。
本研究では,LLMエージェントが環境フィードバックに応じて自己生成計画を適応的に改善することのできるクローズドループアプローチであるAdaPlannerを提案する。
幻覚を緩和するために,様々なタスク,環境,エージェント機能にまたがる計画生成を容易にするコードスタイルのLCMプロンプト構造を開発した。
論文 参考訳(メタデータ) (2023-05-26T05:52:27Z) - A Framework for Neurosymbolic Robot Action Planning using Large Language Models [3.0501524254444767]
本稿では,象徴的タスク計画と機械学習アプローチのギャップを埋めることを目的としたフレームワークを提案する。
大規模言語モデル(LLM)を計画ドメイン定義言語(PDDL)と互換性のあるニューロシンボリックタスクプランナーに訓練する根拠
選択されたドメインにおける予備的な結果から, (i) テストデータセットの95.5%の問題を1,000個のサンプルで解決し, (ii) 従来のシンボルプランナーよりも最大13.5%短いプランを作成し, (iii) 計画の可利用性の平均待ち時間を61.4%まで削減する。
論文 参考訳(メタデータ) (2023-03-01T11:54:22Z) - Achieving mouse-level strategic evasion performance using real-time
computational planning [59.60094442546867]
計画とは、脳が想像し、予測可能な未来を成立させる特別な能力である。
我々は,動物の生態が空間計画の価値をどのように支配するかという研究に基づいて,より効率的な生物学的に着想を得た計画アルゴリズムであるTLPPOを開発した。
TLPPOを用いたリアルタイムエージェントの性能とライブマウスの性能を比較し,ロボット捕食者を避けることを課題とする。
論文 参考訳(メタデータ) (2022-11-04T18:34:36Z) - Temporal Planning with Incomplete Knowledge and Perceptual Information [0.0]
本稿では,時間的計画枠組み内での緊急計画構築を組み合わせた新しい計画手法を提案する。
本研究では,不完全かつ(ii)知識認識行動をモデル化するために,計画ドメイン定義言語(PDDL)の小さな拡張を提案する。
また,様々な問題に対して優れた性能を示す新しい計画領域も導入した。
論文 参考訳(メタデータ) (2022-07-20T07:26:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。