論文の概要: A Protocol for Intelligible Interaction Between Agents That Learn and
Explain
- arxiv url: http://arxiv.org/abs/2301.01819v1
- Date: Wed, 4 Jan 2023 20:48:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 13:42:21.218022
- Title: A Protocol for Intelligible Interaction Between Agents That Learn and
Explain
- Title(参考訳): 学習と説明を行うエージェント間の理解可能なインタラクションプロトコル
- Authors: Ashwin Srinivasan, Michael Bain, A. Baskar, Enrico Coiera
- Abstract要約: 我々は,人間と機械学習(ML)システム間のインタラクションを,学習と説明が可能なエージェント間のインタラクションのより広い文脈で見る。
通信プロトコルの特性として双方向のインテリジェンスを定式化する。
- 参考スコア(独自算出の注目度): 2.3300629798610455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent engineering developments have seen the emergence of Machine Learning
(ML) as a powerful form of data analysis with widespread applicability beyond
its historical roots in the design of autonomous agents. However, relatively
little attention has been paid to the interaction between people and ML
systems. Recent developments on Explainable ML address this by providing visual
and textual information on how the ML system arrived at a conclusion. In this
paper we view the interaction between humans and ML systems within the broader
context of interaction between agents capable of learning and explanation.
Within this setting, we argue that it is more helpful to view the interaction
as characterised by two-way intelligibility of information rather than once-off
explanation of a prediction. We formulate two-way intelligibility as a property
of a communication protocol. Development of the protocol is motivated by a set
of `Intelligibility Axioms' for decision-support systems that use ML with a
human-in-the-loop. The axioms are intended as sufficient criteria to claim
that: (a) information provided by a human is intelligible to an ML system; and
(b) information provided by an ML system is intelligible to a human. The axioms
inform the design of a general synchronous interaction model between agents
capable of learning and explanation. We identify conditions of compatibility
between agents that result in bounded communication, and define Weak and Strong
Two-Way Intelligibility between agents as properties of the communication
protocol.
- Abstract(参考訳): 近年の工学の発展により、機械学習(ml)は、自律エージェントの設計における歴史的ルーツを超えて広く適用可能な、強力なデータ分析形式として出現した。
しかし、人間とMLシステムの相互作用には、比較的注意が払われていない。
説明可能なMLに関する最近の進歩は、どのようにしてMLシステムが結論に達したかの視覚的およびテキスト的情報を提供することによって、この問題に対処している。
本稿では,人間とmlシステム間の相互作用を,学習と説明の可能なエージェント間の相互作用のより広い文脈で見る。
この設定の中では、予測の1回限りの説明よりも、情報に対する双方向の知性によって特徴づけられる相互作用を見る方がより有益である、と論じる。
通信プロトコルの特性として双方向のインテリジェンスを定式化する。
このプロトコルの開発は、mlを人間のループで使用する意思決定支援システムのための一連の「知性公理」によって動機づけられている。
公理は、次のように主張するのに十分な基準として意図されている。
a) 人間が提供した情報は,mlシステムに理解可能であること,及び
b)MLシステムが提供する情報は、人間には理解できない。
公理は、学習と説明が可能なエージェント間の一般的な同期相互作用モデルの設計を知らせる。
エージェント間の互換性の条件を特定し,通信プロトコルの特性としてWeak and Strong Two-Way Intelligibilityを定義する。
関連論文リスト
- AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Requirements for Explainability and Acceptance of Artificial
Intelligence in Collaborative Work [0.0]
本稿では,AIの説明可能性と受容の要件について考察する。
その結果,2つの主要なグループが,モデルの内部操作に関する情報を必要とする開発者であることが示唆された。
AIシステムの受容は、システムの機能や性能、プライバシ、倫理的考慮事項に関する情報に依存する。
論文 参考訳(メタデータ) (2023-06-27T11:36:07Z) - Neuro-Symbolic Causal Reasoning Meets Signaling Game for Emergent
Semantic Communications [71.63189900803623]
創発的SCシステムフレームワークを提案し,創発的言語設計のためのシグナリングゲームと因果推論のためのニューロシンボリック(NeSy)人工知能(AI)アプローチで構成されている。
ESCシステムは、意味情報、信頼性、歪み、類似性の新たな指標を強化するように設計されている。
論文 参考訳(メタデータ) (2022-10-21T15:33:37Z) - Semantic Interactive Learning for Text Classification: A Constructive
Approach for Contextual Interactions [0.0]
本稿では,テキスト領域に対するセマンティック対話学習という新しいインタラクションフレームワークを提案する。
構築的および文脈的フィードバックを学習者に取り入れることで、人間と機械間のよりセマンティックなアライメントを実現するアーキテクチャを見つけることができる。
本研究では,人間の概念的修正を非外挿訓練例に翻訳するのに有効なSemanticPushという手法を提案する。
論文 参考訳(メタデータ) (2022-09-07T08:13:45Z) - One-way Explainability Isn't The Message [2.618757282404254]
この文脈における人間と機械の両方の要件は、かなり異なると我々は主張する。
このようなヒューマン・マシン・システムの設計は、情報の2方向の繰り返しの可視性によって駆動されるべきである。
我々は、協調的な意思決定支援システムの設計を導くために、運用原則、すなわち、知性公理(Intelligibility Axioms)を提案します。
論文 参考訳(メタデータ) (2022-05-05T09:15:53Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Learning Multi-Agent Coordination through Connectivity-driven
Communication [7.462336024223669]
人工マルチエージェントシステムでは、エージェントのコミュニケーションスキルに基づいて協調的なポリシーを学習することができる。
我々は、深い強化学習アプローチであるコネクティビティ駆動通信(CDC)を提案する。
CDCは効果的な協調政策を学習でき、協調ナビゲーションタスクにおいて競合する学習アルゴリズムをオーバーパフォーマンスさせることができる。
論文 参考訳(メタデータ) (2020-02-12T20:58:33Z) - Emergence of Pragmatics from Referential Game between Theory of Mind
Agents [64.25696237463397]
エージェントが手書きのルールを指定せずに「行間を読む」能力を自発的に学習するアルゴリズムを提案する。
協調型マルチエージェント教育状況における心の理論(ToM)を統合し,適応型強化学習(RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-21T19:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。