論文の概要: A Model for Intelligible Interaction Between Agents That Predict and Explain
- arxiv url: http://arxiv.org/abs/2301.01819v2
- Date: Sun, 27 Oct 2024 07:08:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:15:43.712986
- Title: A Model for Intelligible Interaction Between Agents That Predict and Explain
- Title(参考訳): 予測・説明するエージェント間のインテリジェントインタラクションモデル
- Authors: A. Baskar, Ashwin Srinivasan, Michael Bain, Enrico Coiera,
- Abstract要約: エージェントを特殊特性を持つオートマチックにすることで相互作用モデルを定式化する。
プロトコルの実行によって実行時に現れるプロパティとして,ワンウェイとツーウェイのインテリジェンスを定義する。
a)インダクティブ論理プログラミング(ILP)で行われているように、論理に基づく説明を提供するMLシステムと対話する人間に関する文献報告における1-および2-Way知能の事例を特定し、(b)1-または2-Way知能に精巧な自然言語に基づく対話モデルで人間と機械間の相互作用をマッピングする。
- 参考スコア(独自算出の注目度): 1.335664823620186
- License:
- Abstract: Machine Learning (ML) has emerged as a powerful form of data modelling with widespread applicability beyond its roots in the design of autonomous agents. However, relatively little attention has been paid to the interaction between people and ML systems. In this paper we view interaction between humans and ML systems within the broader context of communication between agents capable of prediction and explanation. We formalise the interaction model by taking agents to be automata with some special characteristics and define a protocol for communication between such agents. We define One- and Two-Way Intelligibility as properties that emerge at run-time by execution of the protocol. The formalisation allows us to identify conditions under which run-time sequences are bounded, and identify conditions under which the protocol can correctly implement an axiomatic specification of intelligible interaction between a human and an ML system. We also demonstrate using the formal model to: (a) identify instances of One- and Two-Way Intelligibility in literature reports on humans interacting with ML systems providing logic-based explanations, as is done in Inductive Logic Programming (ILP); and (b) map interactions between humans and machines in an elaborate natural-language based dialogue-model to One- or Two-Way Intelligible interactions in the formal model.
- Abstract(参考訳): 機械学習(ML)は、自律エージェントの設計のルーツを越えて広く適用可能なデータモデリングの強力な形式として登場した。
しかし、人間とMLシステムの相互作用には、比較的注意が払われていない。
本稿では,人間とMLシステム間のインタラクションを,予測と説明が可能なエージェント間のコミュニケーションのより広い文脈で見る。
我々は,エージェントを特殊特性でオートマチックにすることでインタラクションモデルを定式化し,エージェント間の通信プロトコルを定義する。
プロトコルの実行によって実行時に現れるプロパティとして,ワンウェイとツーウェイのインテリジェンスを定義する。
この形式化により,ランタイムシーケンスがバウンドされた条件を特定し,そのプロトコルが人間とMLシステム間の非知的な相互作用の公理的仕様を正しく実装できる条件を特定することができる。
フォーマルモデルを使用することも示しています。
(a)インダクティブ論理プログラミング(ILP)で実施されているように、論理に基づく説明を提供するMLシステムと対話する人間に関する文献報告において、一・二通りの知能の事例を特定する。
b)人間と機械の対話を、精巧な自然言語に基づく対話モデルで、形式モデルにおけるワンウェイまたはツーウェイの知的な対話にマッピングする。
関連論文リスト
- Implementation and Application of an Intelligibility Protocol for Interaction with an LLM [0.9187505256430948]
我々の関心は、機械学習エンジンと対話する人間-専門家を含む対話型システムの構築である。
これは、科学、環境、医学などにおける複雑な問題に対処する場合に関係している。
本稿では,汎用実装のアルゴリズム記述と,その利用に関する予備実験を2つの異なる領域で実施する。
論文 参考訳(メタデータ) (2024-10-27T21:20:18Z) - Hello Again! LLM-powered Personalized Agent for Long-term Dialogue [63.65128176360345]
モデルに依存しない長期対話エージェント(LD-Agent)を導入する。
イベント認識、ペルソナ抽出、応答生成のための3つの独立した調整可能なモジュールが組み込まれている。
LD-Agentの有効性, 汎用性, クロスドメイン性について実験的に検証した。
論文 参考訳(メタデータ) (2024-06-09T21:58:32Z) - Cognitive Evolutionary Learning to Select Feature Interactions for Recommender Systems [59.117526206317116]
Cellはさまざまなタスクやデータに対して,さまざまなモデルに適応的に進化可能であることを示す。
4つの実世界のデータセットの実験では、細胞は最先端のベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2024-05-29T02:35:23Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Unpacking Human-AI interactions: From interaction primitives to a design
space [6.778055454461106]
これらのプリミティブを相互作用パターンの集合にどのように組み合わせるかを示す。
この背景にある動機は、既存のプラクティスのコンパクトな一般化を提供することである。
我々は,人間-AIインタラクションの設計空間に対して,このアプローチをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2024-01-10T12:27:18Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - 'What are you referring to?' Evaluating the Ability of Multi-Modal
Dialogue Models to Process Clarificational Exchanges [65.03196674816772]
参照表現が宛先に対して意図された参照を一意に識別しない場合、参照の曖昧さが対話で生じる。
出席者は、通常、そのような曖昧さをすぐに検知し、メタコミュニケーション、明確化取引所(CE: Meta-communicative, Clarification Exchanges)を使用して、話者と作業する。
ここでは、CRを生成・応答する能力は、マルチモーダルな視覚的基盤を持つ対話モデルのアーキテクチャと目的関数に特定の制約を課していると論じる。
論文 参考訳(メタデータ) (2023-07-28T13:44:33Z) - An Interleaving Semantics of the Timed Concurrent Language for
Argumentation to Model Debates and Dialogue Games [0.0]
エージェント間の同時相互作用をモデル化する言語を提案する。
このような言語は、エージェントが彼らの信念の受容可能性についてコミュニケーションし、推論するために使用する共有メモリを利用する。
知的エージェント間で行われる議論や対話ゲームのようなインタラクションをモデル化するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2023-06-13T10:41:28Z) - One-way Explainability Isn't The Message [2.618757282404254]
この文脈における人間と機械の両方の要件は、かなり異なると我々は主張する。
このようなヒューマン・マシン・システムの設計は、情報の2方向の繰り返しの可視性によって駆動されるべきである。
我々は、協調的な意思決定支援システムの設計を導くために、運用原則、すなわち、知性公理(Intelligibility Axioms)を提案します。
論文 参考訳(メタデータ) (2022-05-05T09:15:53Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - An active inference model of collective intelligence [0.0]
本稿では,局所的な個人レベルの相互作用と集団的知性の関係をシミュレートする最小エージェントモデルを提案する。
その結果, エージェントの局所的最適とグローバル的最適の整合性の相補的なメカニズムを提供することにより, 段階的認知遷移がシステム性能を向上させることが示された。
論文 参考訳(メタデータ) (2021-04-02T14:32:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。