論文の概要: Decision-Theoretic Question Generation for Situated Reference
Resolution: An Empirical Study and Computational Model
- arxiv url: http://arxiv.org/abs/2110.06288v1
- Date: Tue, 12 Oct 2021 19:23:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 14:34:51.802735
- Title: Decision-Theoretic Question Generation for Situated Reference
Resolution: An Empirical Study and Computational Model
- Title(参考訳): 推定基準分解のための決定論的質問生成:実証的研究と計算モデル
- Authors: Felix Gervits, Gordon Briggs, Antonio Roque, Genki A. Kadomatsu, Dean
Thurston, Matthias Scheutz, Matthew Marge
- Abstract要約: 遠隔実験者と対話しながらツールセットを整理する仮想ロボットを参加者が操作する対話型研究から対話データを分析した。
あいまいさを解消するために用いられる質問型の分布や、参照分解過程における対話レベル要因の影響など、多くの新しい結果が得られた。
- 参考スコア(独自算出の注目度): 11.543386846947554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dialogue agents that interact with humans in situated environments need to
manage referential ambiguity across multiple modalities and ask for help as
needed. However, it is not clear what kinds of questions such agents should ask
nor how the answers to such questions can be used to resolve ambiguity. To
address this, we analyzed dialogue data from an interactive study in which
participants controlled a virtual robot tasked with organizing a set of tools
while engaging in dialogue with a live, remote experimenter. We discovered a
number of novel results, including the distribution of question types used to
resolve ambiguity and the influence of dialogue-level factors on the reference
resolution process. Based on these empirical findings we: (1) developed a
computational model for clarification requests using a decision network with an
entropy-based utility assignment method that operates across modalities, (2)
evaluated the model, showing that it outperforms a slot-filling baseline in
environments of varying ambiguity, and (3) interpreted the results to offer
insight into the ways that agents can ask questions to facilitate situated
reference resolution.
- Abstract(参考訳): 位置する環境で人間と対話する対話エージェントは、複数のモードにわたる参照曖昧さを管理し、必要に応じて助けを求める必要がある。
しかし、そのようなエージェントが問うべき質問の種類や、そのような質問に対する答えが曖昧さの解消にどのように役立つかは明らかではない。
そこで我々は,遠隔実験者との対話をしながら,ツールセットの編成を行う仮想ロボットを参加者が制御する対話型研究から対話データを分析した。
その結果,あいまいさ解消のための質問型分布や,対話レベルの要因が参照解決プロセスに与える影響など,多くの新しい結果が得られた。
これらの経験的知見に基づいて,(1)エントロピーに基づくユーティリティ割り当て手法を用いた意思決定ネットワークを用いた要求の明確化のための計算モデルを開発し,(2)アンビグニティの異なる環境において,スロット満載ベースラインよりも優れていることを示すとともに,(3)エージェントが参照解決を容易にするための質問方法に関する洞察を提供するために,結果の解釈を行った。
関連論文リスト
- Interactive Agents to Overcome Ambiguity in Software Engineering [61.40183840499932]
AIエージェントは、あいまいで不明確なユーザー指示に基づいて、タスクを自動化するためにますますデプロイされている。
不安定な仮定をし、明確な質問をしないことは、最適以下の結果につながる可能性がある。
対話型コード生成設定において,LLMエージェントが不明瞭な命令を処理する能力について,プロプライエタリモデルとオープンウェイトモデルを評価して検討する。
論文 参考訳(メタデータ) (2025-02-18T17:12:26Z) - Divide-and-Conquer: Tree-structured Strategy with Answer Distribution Estimator for Goal-Oriented Visual Dialogue [30.126882554391837]
Answer Distribution Estimator(TSADE)を用いた樹木構造戦略
本稿では,現在の候補オブジェクトの半数を各ラウンドで除外することで,質問生成をガイドする木構造戦略(TSADE)を提案する。
提案手法は,従来のエルゴディックな質問生成手法と比較して,繰り返し質問やラウンドの少ないタスク指向の精度をエージェントが達成できることを実験的に実証する。
論文 参考訳(メタデータ) (2025-02-09T08:16:09Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Deciding Whether to Ask Clarifying Questions in Large-Scale Spoken
Language Understanding [28.195853603190447]
大規模会話エージェントは、様々なあいまいさでユーザの発話を理解するのに苦しむことがある。
本稿では,あいまいさと文脈的信号による仮説を生かした神経自覚モデルを提案する。
論文 参考訳(メタデータ) (2021-09-25T22:32:10Z) - Combining Inductive and Deductive Reasoning for Query Answering over
Incomplete Knowledge Graphs [12.852658691077643]
非完全知識グラフ(KG)に対する埋め込み型クエリ応答の現在の手法は、帰納的推論のみに焦点を当てている。
埋め込みモデルの顕著な代表者に対する様々な統合戦略を提案する。
インダクティブ推論とインダクティブ推論の両方を必要とする設定の改善は、HITS@3で20%から55%に向上した。
論文 参考訳(メタデータ) (2021-06-26T16:05:44Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - Guided Transformer: Leveraging Multiple External Sources for
Representation Learning in Conversational Search [36.64582291809485]
あいまいなクエリやフェースドクエリに対する質問を明確にすることは,様々な情報検索システムにおいて有用な手法として認識されている。
本稿では,トランスフォーマーネットワークが学習した表現を,外部情報ソースからの新たなアテンション機構を用いて強化する。
実験では,検索の明確化のための公開データセットを用いて,競合するベースラインと比較して大きな改善点を示した。
論文 参考訳(メタデータ) (2020-06-13T03:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。