論文の概要: Shared Model of Sense-making for Human-Machine Collaboration
- arxiv url: http://arxiv.org/abs/2111.03728v1
- Date: Fri, 5 Nov 2021 21:08:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 15:24:58.878359
- Title: Shared Model of Sense-making for Human-Machine Collaboration
- Title(参考訳): 人間-機械協調のための感覚形成の共有モデル
- Authors: Gheorghe Tecuci, Dorin Marcu, Louis Kaiser and Mihai Boicu
- Abstract要約: 本稿では,知的なアナリストと知識に基づくエージェントの協調を大いに促進する,感覚形成のモデルを提案する。
証拠科学と仮説生成と検証の科学的方法に基礎を置いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a model of sense-making that greatly facilitates the collaboration
between an intelligent analyst and a knowledge-based agent. It is a general
model grounded in the science of evidence and the scientific method of
hypothesis generation and testing, where sense-making hypotheses that explain
an observation are generated, relevant evidence is then discovered, and the
hypotheses are tested based on the discovered evidence. We illustrate how the
model enables an analyst to directly instruct the agent to understand
situations involving the possible production of weapons (e.g., chemical warfare
agents) and how the agent becomes increasingly more competent in understanding
other situations from that domain (e.g., possible production of
centrifuge-enriched uranium or of stealth fighter aircraft).
- Abstract(参考訳): 本稿では,知的アナリストと知識ベースエージェントの協調を大いに促進する感覚形成モデルを提案する。
これは、証拠科学と仮説生成と検証の科学的方法に基づく一般的なモデルであり、観察を説明する感覚形成仮説が生成され、関連する証拠が発見され、発見された証拠に基づいて仮説が検証される。
このモデルによって、分析者が、兵器の生産(化学兵器など)の可能な状況や、その領域からの他の状況(例えば、遠心分離濃縮ウランの生産やステルス戦闘機の生産)の理解において、どのようにエージェントがより有能になるかを直接的に理解できるようになるかを説明する。
関連論文リスト
- Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Understanding Your Agent: Leveraging Large Language Models for Behavior
Explanation [7.647395374489533]
本研究では,状態や行動の観察のみに基づいて,エージェントの行動に関する自然言語説明を生成する手法を提案する。
提案手法は,人間ドメインの専門家が作成したものと同じくらい役立つ説明を生成する。
論文 参考訳(メタデータ) (2023-11-29T20:16:23Z) - Explaining Agent Behavior with Large Language Models [7.128139268426959]
本研究では,状態や行動の観察のみに基づいて,エージェントの行動に関する自然言語説明を生成する手法を提案する。
エージェントの振る舞いのコンパクトな表現がいかに学習され、妥当な説明を生み出すかを示す。
論文 参考訳(メタデータ) (2023-09-19T06:13:24Z) - Epidemic Modeling with Generative Agents [1.1342625695057285]
本研究は、ヒトの行動を疫病モデルに組み込むという大きな課題に対処するために、個人レベルのモデリングの新しいパラダイムを提供する。
エージェントベースの疫病モデルで生成的人工知能を使用することで、各エージェントは独自の推論と決定を行う権限を持つ。
論文 参考訳(メタデータ) (2023-07-11T02:52:32Z) - A Theoretical Framework for AI Models Explainability with Application in
Biomedicine [3.5742391373143474]
本稿では,文献に見いだせる内容の合成である説明の新たな定義を提案する。
我々は、忠実性(すなわち、モデルの内部動作と意思決定プロセスの真の説明である説明)と可否性(つまり、その説明がどの程度ユーザにとって説得力のあるように見えるか)の性質に、説明を適合させる。
論文 参考訳(メタデータ) (2022-12-29T20:05:26Z) - A Unified Contrastive Energy-based Model for Understanding the
Generative Ability of Adversarial Training [64.71254710803368]
Adversarial Training (AT) は、ディープニューラルネットワークの堅牢性を高める効果的なアプローチである。
我々は、Contrastive Energy-based Models(CEM)と呼ばれる統合確率的枠組みを開発することにより、この現象をデミステレーションする。
本稿では,逆学習法とサンプリング法を開発するための原則的手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:33:34Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - Causal Analysis of Agent Behavior for AI Safety [16.764915383473326]
人工エージェントの行動を促す因果メカニズムを解明するための方法論を提案する。
6つのユースケースをカバーし、アナリストがエージェントについて尋ねる典型的な質問にそれぞれ対処します。
論文 参考訳(メタデータ) (2021-03-05T20:51:12Z) - Empirically Verifying Hypotheses Using Reinforcement Learning [58.09414653169534]
本稿では,仮説検証をRL問題として定式化する。
我々は、世界の力学に関する仮説を前提として、仮説が真か偽かを予測するのに役立つ観測結果を生成することができるエージェントを構築することを目指している。
論文 参考訳(メタデータ) (2020-06-29T01:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。