論文の概要: Interrogating the Black Box: Transparency through Information-Seeking
Dialogues
- arxiv url: http://arxiv.org/abs/2102.04714v1
- Date: Tue, 9 Feb 2021 09:14:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 14:56:12.270840
- Title: Interrogating the Black Box: Transparency through Information-Seeking
Dialogues
- Title(参考訳): ブラックボックスのインターロゲート:情報検索対話による透明性
- Authors: Andrea Aler Tubella, Andreas Theodorou and Juan Carlos Nieves
- Abstract要約: 本稿では,倫理政策の遵守を調査するために,学習エージェントに質問する調査エージェントを構築することを提案する。
この形式的対話フレームワークが本論文の主な貢献である。
形式的な対話フレームワークは、コンプライアンスチェックの分野と不透明なシステムの特性の分析の両方において、多くの道を開きます。
- 参考スコア(独自算出の注目度): 9.281671380673306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper is preoccupied with the following question: given a (possibly
opaque) learning system, how can we understand whether its behaviour adheres to
governance constraints? The answer can be quite simple: we just need to "ask"
the system about it. We propose to construct an investigator agent to query a
learning agent -- the suspect agent -- to investigate its adherence to a given
ethical policy in the context of an information-seeking dialogue, modeled in
formal argumentation settings. This formal dialogue framework is the main
contribution of this paper. Through it, we break down compliance checking
mechanisms into three modular components, each of which can be tailored to
various needs in a vast amount of ways: an investigator agent, a suspect agent,
and an acceptance protocol determining whether the responses of the suspect
agent comply with the policy. This acceptance protocol presents a fundamentally
different approach to aggregation: rather than using quantitative methods to
deal with the non-determinism of a learning system, we leverage the use of
argumentation semantics to investigate the notion of properties holding
consistently. Overall, we argue that the introduced formal dialogue framework
opens many avenues both in the area of compliance checking and in the analysis
of properties of opaque systems.
- Abstract(参考訳): この論文は、(おそらく不透明な)学習システムを考えると、その振る舞いがガバナンスの制約に準拠するかどうかをどうやって理解できるのか?
答えは非常に簡単です:私たちはシステムについて単に「アスク」する必要があります。
本研究は,情報参照対話の文脈において,与えられた倫理的方針への順応性を検討するために,学習エージェント -- 被疑者エージェント -- を問合せする調査エージェントを構築することを提案する。
この形式的対話フレームワークが本論文の主な貢献である。
そこで我々は,コンプライアンス・チェック・メカニズムを3つのモジュール・コンポーネントに分割し,調査員,被疑者エージェント,受理プロトコルの3つを多種多様なニーズに合わせて調整し,被疑者エージェントの応答がポリシーに適合するかどうかを判断する。
この受け入れプロトコルは,学習システムの非決定性を扱うために定量的手法を使用するのではなく,議論のセマンティクスを活用して,保持するプロパティの概念を一貫して研究する,という,根本的に異なるアプローチを提示する。
全体として,形式的な対話フレームワークは,コンプライアンスチェックの領域と不透明なシステムの特性の分析の両方において,多くの道を開くと論じている。
関連論文リスト
- Few-shot Policy (de)composition in Conversational Question Answering [54.259440408606515]
本稿では,大規模言語モデル(LLM)を用いて数ショット設定でポリシーコンプライアンスを検出するニューラルシンボリックフレームワークを提案する。
提案手法は,回答すべきサブクエストを抽出し,文脈情報から真理値を割り当て,与えられたポリシーから論理文の集合を明示的に生成することで,政策コンプライアンスに関する会話に対して健全な理由を示す。
本手法は,PCDおよび会話機械読解ベンチマークであるShARCに適用し,タスク固有の微調整を伴わずに競合性能を示す。
論文 参考訳(メタデータ) (2025-01-20T08:40:15Z) - Who Speaks Next? Multi-party AI Discussion Leveraging the Systematics of Turn-taking in Murder Mystery Games [7.946510318969307]
本研究では,会話分析における隣接対やターンテイクといった会話規範に着目した。
本稿では,AIエージェントの対話制御にこれらの規範を適用した"Murder Mystery Agents"という新しいフレームワークを提案する。
提案フレームワークは、隣接ペアと自己選択機構に基づいて、次の話者選択を統合する。
論文 参考訳(メタデータ) (2024-12-06T10:45:54Z) - Understanding Understanding: A Pragmatic Framework Motivated by Large Language Models [13.279760256875127]
チューリングテストの手法では、このフレームワークはエージェントのパフォーマンスのみをベースとしており、特にその答えの正確さに基づいている。
ランダムサンプリングによる高い信頼度と確率的信頼境界の適用性を示す。
論文 参考訳(メタデータ) (2024-06-16T13:37:08Z) - Leveraging Counterfactual Paths for Contrastive Explanations of POMDP Policies [2.4332936182093197]
XAIは、エージェント行動の説明を提供することで、混乱を減らし、システムの信頼を高めることを目的としている。
POMDPは、遷移と状態の不確実性を推論できる柔軟なフレームワークを提供する。
本研究は,POMDPポリシーの対照的な説明を生成するために,ユーザが提供する反ファクトファクトの活用について検討する。
論文 参考訳(メタデータ) (2024-03-28T18:19:38Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - A Unifying Framework for Learning Argumentation Semantics [50.69905074548764]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale
Supervision [118.0818807474809]
本研究は、合理的な監督なしに説明可能なマルチホップQAシステムを訓練するための原則的確率論的アプローチを提案する。
提案手法は,集合としての有理を明示的にモデル化し,文書と文間の相互作用を文書内で捉えることによって,マルチホップ推論を行う。
論文 参考訳(メタデータ) (2023-05-23T16:53:49Z) - Policy Regularization for Legible Behavior [0.0]
強化学習では、一般的に、エージェントのメカニズムに関する洞察を提供することを意味する。
本論文は,エージェントの正当性に着目した説明可能な計画文献手法から借用する。
我々の定式化において、正当性によって導入された決定境界は、エージェントのポリシーが他のポリシーでも高い可能性を持つアクションを返す州に影響を与える。
論文 参考訳(メタデータ) (2022-03-08T10:55:46Z) - Multi-Stage Conversational Passage Retrieval: An Approach to Fusing Term
Importance Estimation and Neural Query Rewriting [56.268862325167575]
マルチステージアドホックIRシステムにクエリ再構成を組み込んだ会話経路検索(ConvPR)に取り組む。
本稿では,1項の重要度推定と2項のニューラルクエリ書き換えという2つの手法を提案する。
前者に対しては、周波数に基づく信号を用いて会話コンテキストから抽出した重要な用語を用いて会話クエリを拡張する。
後者では,会話クエリを,事前訓練されたシーケンス列列列モデルを用いて,自然な,スタンドアロンの,人間の理解可能なクエリに再構成する。
論文 参考訳(メタデータ) (2020-05-05T14:30:20Z) - Masking Orchestration: Multi-task Pretraining for Multi-role Dialogue
Representation Learning [50.5572111079898]
マルチロール対話理解は、質問応答、行動分類、対話要約など、幅広い多様なタスクを含む。
対話コーパスは豊富に利用可能であるが、特定の学習タスクのためのラベル付きデータは非常に不足しており、高価である。
本研究では,教師なし事前学習タスクを用いた対話文脈表現学習について検討する。
論文 参考訳(メタデータ) (2020-02-27T04:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。