論文の概要: FVQA 2.0: Introducing Adversarial Samples into Fact-based Visual
Question Answering
- arxiv url: http://arxiv.org/abs/2303.10699v1
- Date: Sun, 19 Mar 2023 16:07:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 17:45:54.811945
- Title: FVQA 2.0: Introducing Adversarial Samples into Fact-based Visual
Question Answering
- Title(参考訳): FVQA 2.0: Fact-based Visual Question Answering における対立サンプルの導入
- Authors: Weizhe Lin, Zhilin Wang, Bill Byrne
- Abstract要約: 本稿では,この不均衡に対処するため,FVQA 2.0を提案する。
従来のFVQAトレインセットで訓練されたシステムは、敵のサンプルに対して脆弱であることを示す。
- 参考スコア(独自算出の注目度): 18.89421715778728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widely used Fact-based Visual Question Answering (FVQA) dataset contains
visually-grounded questions that require information retrieval using common
sense knowledge graphs to answer. It has been observed that the original
dataset is highly imbalanced and concentrated on a small portion of its
associated knowledge graph. We introduce FVQA 2.0 which contains adversarial
variants of test questions to address this imbalance. We show that systems
trained with the original FVQA train sets can be vulnerable to adversarial
samples and we demonstrate an augmentation scheme to reduce this vulnerability
without human annotations.
- Abstract(参考訳): 広く使われているFact-based Visual Question Answering (FVQA)データセットには、共通感覚知識グラフを用いた情報検索を必要とする視覚的な質問が含まれている。
元のデータセットは高度に不均衡であり、関連する知識グラフのごく一部に集中している。
本稿では,この不均衡に対処するため,FVQA 2.0を提案する。
従来のFVQAトレインセットでトレーニングされたシステムは、敵のサンプルに対して脆弱であることを示し、人間のアノテーションを使わずにこの脆弱性を減らすための拡張スキームを示す。
関連論文リスト
- Disentangling Knowledge-based and Visual Reasoning by Question Decomposition in KB-VQA [19.6585442152102]
本稿では,知識に基づく視覚的問合せ問題について検討し,その解を求めるためには,モデルが視覚的モダリティに根ざす必要があることを示した。
我々の研究は、複雑な質問をいくつかの単純な質問に置き換えることで、画像からより関連性の高い情報を抽出できることを示した。
論文 参考訳(メタデータ) (2024-06-27T02:19:38Z) - QAGCF: Graph Collaborative Filtering for Q&A Recommendation [58.21387109664593]
質問と回答(Q&A)プラットフォームは通常、ユーザの知識獲得のニーズを満たすために質問と回答のペアを推奨する。
これにより、ユーザの振る舞いがより複雑になり、Q&Aレコメンデーションの2つの課題が提示される。
グラフニューラルネットワークモデルであるQ&Answer Graph Collaborative Filtering (QAGCF)を導入する。
論文 参考訳(メタデータ) (2024-06-07T10:52:37Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - Toward Unsupervised Realistic Visual Question Answering [70.67698100148414]
現実的なVQA(RVQA)の問題について検討し、モデルが答えられない質問(UQ)を拒絶し、答えられる質問(AQ)に答えなければならない。
1)データセットには不整合UQが多すぎること,(2)多数の注釈付きUQがトレーニングに必要とされること,の2つの欠点を最初に指摘した。
我々は、既存のVQAデータセットのAQと約29万の人間の注釈付きUQを組み合わせた新しいテストデータセットRGQAを提案する。
これは、画像と質問をランダムにペアリングして得られる擬似UQと、それを結合する。
論文 参考訳(メタデータ) (2023-03-09T06:58:29Z) - Learning Compositional Representation for Few-shot Visual Question
Answering [93.4061107793983]
現在の視覚的質問応答の方法は、トレーニングデータ量で回答を良好に実行するが、例が少ない新規回答では精度が限られている。
回答から属性を十分なデータで抽出することを提案するが、これは後に数ショットの学習を制限するために構成される。
VQA v2.0検証データセットの実験結果から,提案した属性ネットワークの有効性が示された。
論文 参考訳(メタデータ) (2021-02-21T10:16:24Z) - Knowledge-Routed Visual Question Reasoning: Challenges for Deep
Representation Embedding [140.5911760063681]
VQAモデル評価のためのナレッジルーティング視覚質問推論という新しいデータセットを提案する。
視覚ゲノムシーングラフと外部知識ベースの両方に基づいて,制御プログラムを用いて質問応答対を生成する。
論文 参考訳(メタデータ) (2020-12-14T00:33:44Z) - Loss re-scaling VQA: Revisiting the LanguagePrior Problem from a
Class-imbalance View [129.392671317356]
本稿では,クラス不均衡の観点から,VQAにおける言語先行問題を理解することを提案する。
これは、なぜVQAモデルが頻繁に、そして明らかに間違った答えをもたらすのかを明確に示している。
また,顔認識や画像分類などの他のコンピュータビジョンタスクに対して,クラス不均衡解釈方式の有効性を正当化する。
論文 参考訳(メタデータ) (2020-10-30T00:57:17Z) - An Entropy Clustering Approach for Assessing Visual Question Difficulty [0.0]
複数の異なるVQAモデルの振る舞いに基づいて視覚的質問の難しさを分析する。
我々は,各クラスタの回答分布の精度とエントロピーを決定するために,最先端の手法を用いている。
我々の手法は、最先端の手法で正しく答えられていない難解な視覚的質問のクラスタを特定することができる。
論文 参考訳(メタデータ) (2020-04-12T12:06:03Z) - Understanding Knowledge Gaps in Visual Question Answering: Implications
for Gap Identification and Testing [20.117014315684287]
我々は、知識ギャップ(KG)の分類を用いて、質問を1つまたは複数のタイプのKGでタグ付けする。
次に,各KGに対する質問の分布のスキューについて検討する。
これらの新しい質問は、既存のVQAデータセットに追加することで、質問の多様性を高め、スキューを減らすことができる。
論文 参考訳(メタデータ) (2020-04-08T00:27:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。