論文の概要: Learning Visually Grounded Domain Ontologies via Embodied Conversation and Explanation
- arxiv url: http://arxiv.org/abs/2412.09770v1
- Date: Fri, 13 Dec 2024 00:28:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 15:03:10.338470
- Title: Learning Visually Grounded Domain Ontologies via Embodied Conversation and Explanation
- Title(参考訳): 身体的会話と説明による視覚的領域オントロジーの学習
- Authors: Jonghyuk Park, Alex Lascarides, Subramanian Ramamoorthy,
- Abstract要約: 我々は,エージェントが(誤った)予測を説明するたびに,教師からの是正フィードバックによってエージェントの知識ギャップを克服する学習フレームワークを提供する。
低リソースの視覚処理シナリオでテストし、エージェントは異なる種類のおもちゃのトラックを認識することを学ばなければならない。
- 参考スコア(独自算出の注目度): 21.427184880438073
- License:
- Abstract: In this paper, we offer a learning framework in which the agent's knowledge gaps are overcome through corrective feedback from a teacher whenever the agent explains its (incorrect) predictions. We test it in a low-resource visual processing scenario, in which the agent must learn to recognize distinct types of toy truck. The agent starts the learning process with no ontology about what types of trucks exist nor which parts they have, and a deficient model for recognizing those parts from visual input. The teacher's feedback to the agent's explanations addresses its lack of relevant knowledge in the ontology via a generic rule (e.g., "dump trucks have dumpers"), whereas an inaccurate part recognition is corrected by a deictic statement (e.g., "this is not a dumper"). The learner utilizes this feedback not only to improve its estimate of the hypothesis space of possible domain ontologies and probability distributions over them, but also to use those estimates to update its visual interpretation of the scene. Our experiments demonstrate that teacher-learner pairs utilizing explanations and corrections are more data-efficient than those without such a faculty.
- Abstract(参考訳): 本稿では,エージェントが(誤った)予測を説明するたびに,教師からの是正フィードバックによってエージェントの知識ギャップを克服する学習フレームワークを提案する。
低リソースの視覚処理シナリオでテストし、エージェントは異なる種類のおもちゃのトラックを認識することを学ばなければならない。
エージェントは、どのようなタイプのトラックが存在するのか、どの部品を持っているのかについてのオントロジーや、視覚的な入力からこれらの部品を認識するための不十分なモデルを用いて学習プロセスを開始する。
エージェントの説明に対する教師のフィードバックは、オントロジーにおける関連する知識の欠如(例:ダンプトラックはダンパーを持っている)に対処する一方、不正確な部分認識はディスティックステートメント(例:ダンパーではない)によって修正される。
学習者は、このフィードバックを利用して、可能なドメインオントロジーと確率分布の仮説空間の推定を改善するだけでなく、それらの推定を用いてシーンの視覚的解釈を更新する。
本実験は,教師と教師のペアによる説明と修正が,そのような教員がいない者よりもデータ効率が高いことを示した。
関連論文リスト
- Explainable Verbal Deception Detection using Transformers [1.5104201344012347]
本稿では,BERT(およびRoBERTa),マルチヘッドアテンション,コアテンション,トランスフォーマーの組み合わせを含む6つのディープラーニングモデルを提案し,評価する。
この結果から,我々のトランスを用いたモデルでは,自動偽造検出性能(精度+2.11%)が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-06T17:36:00Z) - Homomorphism Autoencoder -- Learning Group Structured Representations from Observed Transitions [51.71245032890532]
本研究では,世界に作用するエージェントが,それを修飾する動作と整合した感覚情報の内部表現を学習できるようにする手法を提案する。
既存の作業とは対照的に、我々のアプローチはグループの事前の知識を必要とせず、エージェントが実行可能なアクションのセットを制限しない。
論文 参考訳(メタデータ) (2022-07-25T11:22:48Z) - How many Observations are Enough? Knowledge Distillation for Trajectory
Forecasting [31.57539055861249]
現在の最先端モデルは、通常、過去の追跡された場所の「歴史」に頼り、将来の位置の妥当なシーケンスを予測する。
我々は,教師ネットワークから学生ネットワークへの知識伝達を可能にする新しい蒸留戦略を考案した。
適切に定義された教師の監督により、学生ネットワークが最先端のアプローチと相容れないように実行できることが示される。
論文 参考訳(メタデータ) (2022-03-09T15:05:39Z) - Fair Interpretable Learning via Correction Vectors [68.29997072804537]
我々は「補正ベクトル」の学習を中心とした公正表現学習のための新しい枠組みを提案する。
修正は単純に元の特徴にまとめられるので、各特徴に対して明確なペナルティやボーナスとして分析することができる。
このような方法で制約された公平な表現学習問題が性能に影響を与えないことを実験的に示す。
論文 参考訳(メタデータ) (2022-01-17T10:59:33Z) - Meaningfully Explaining a Model's Mistakes [16.521189362225996]
本稿では,概念的説明スコア (CES) の体系的アプローチを提案する。
CESでは、分類器が特定のテストサンプルに対して、人間の理解可能な概念で間違いを犯す理由を説明している。
また、意図的かつ既知の刺激的な相関関係を持つ新しいモデルをトレーニングしています。
論文 参考訳(メタデータ) (2021-06-24T01:49:55Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Visually Grounded Compound PCFGs [65.04669567781634]
言語理解のための視覚的基盤の爆発は、最近多くの注目を集めている。
本研究では,視覚的な文法誘導について検討し,未ラベルテキストとその視覚的キャプションから選挙区を学習する。
論文 参考訳(メタデータ) (2020-09-25T19:07:00Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。