論文の概要: SimVQA: Exploring Simulated Environments for Visual Question Answering
- arxiv url: http://arxiv.org/abs/2203.17219v1
- Date: Thu, 31 Mar 2022 17:44:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 18:19:26.102325
- Title: SimVQA: Exploring Simulated Environments for Visual Question Answering
- Title(参考訳): SimVQA:ビジュアル質問応答のためのシミュレーション環境の探索
- Authors: Paola Cascante-Bonilla, Hui Wu, Letao Wang, Rogerio Feris, Vicente
Ordonez
- Abstract要約: 視覚空間と言語空間を完全に制御するために,合成コンピュータ生成データを用いて検討する。
我々は、実世界のVQAベンチマークにおける合成データの効果を定量化し、実際のデータに一般化する結果を生成する。
VQAモデルをよりドメイン不変にするために、トレーニング中にオブジェクトレベルの機能をランダムに切り替える機能スワッピング(F-SWAP)を提案する。
- 参考スコア(独自算出の注目度): 15.030013924109118
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing work on VQA explores data augmentation to achieve better
generalization by perturbing the images in the dataset or modifying the
existing questions and answers. While these methods exhibit good performance,
the diversity of the questions and answers are constrained by the available
image set. In this work we explore using synthetic computer-generated data to
fully control the visual and language space, allowing us to provide more
diverse scenarios. We quantify the effect of synthetic data in real-world VQA
benchmarks and to which extent it produces results that generalize to real
data. By exploiting 3D and physics simulation platforms, we provide a pipeline
to generate synthetic data to expand and replace type-specific questions and
answers without risking the exposure of sensitive or personal data that might
be present in real images. We offer a comprehensive analysis while expanding
existing hyper-realistic datasets to be used for VQA. We also propose Feature
Swapping (F-SWAP) -- where we randomly switch object-level features during
training to make a VQA model more domain invariant. We show that F-SWAP is
effective for enhancing a currently existing VQA dataset of real images without
compromising on the accuracy to answer existing questions in the dataset.
- Abstract(参考訳): vqaの既存の作業は、データセット内のイメージを摂動したり、既存の質問や回答を変更することで、より良い一般化を達成するためにデータ拡張を探求する。
これらの手法は優れた性能を示すが、質問や回答の多様性は利用可能な画像セットによって制限される。
本研究では、コンピュータ生成データを用いて視覚空間と言語空間を完全に制御し、より多様なシナリオを提供する。
我々は、実世界のVQAベンチマークにおける合成データの効果を定量化し、実際のデータに一般化する結果を生成する。
3dおよび物理シミュレーションプラットフォームを活用することで,実画像に存在する可能性のある機密データや個人データの露出を危険にさらすことなく,型固有の質問や回答を拡張・置換するための合成データを生成するパイプラインを提供する。
VQAに使用する既存の超現実的データセットを拡張しながら、包括的な分析を提供する。
また、トレーニング中にオブジェクトレベルの機能をランダムに切り替えてVQAモデルをよりドメイン不変にするF-SWAP(Feature Swapping)を提案する。
F-SWAPは,既存の疑問に答える精度を犠牲にすることなく,実画像のVQAデータセットの強化に有効であることを示す。
関連論文リスト
- Space3D-Bench: Spatial 3D Question Answering Benchmark [49.259397521459114]
Space3D-Benchは、Replicaデータセットのシーンに関連する1000の一般的な空間的質問と回答の集合である。
本研究では,事前定義された接地真実解に基づいて,自然言語応答を評価評価するシステムを提案する。
最後に,基礎モデルの世界理解をリッチな文脈検索と統合したRAG3D-Chatというベースラインを導入する。
論文 参考訳(メタデータ) (2024-08-29T16:05:22Z) - BEHAVIOR Vision Suite: Customizable Dataset Generation via Simulation [57.40024206484446]
我々は、コンピュータビジョンモデルの体系的評価のために、完全にカスタマイズされた合成データを生成するためのツールと資産のセットであるBEHAVIOR Vision Suite(BVS)を紹介する。
BVSはシーンレベルで多数の調整可能なパラメータをサポートする。
アプリケーションシナリオを3つ紹介する。
論文 参考訳(メタデータ) (2024-05-15T17:57:56Z) - ViCLEVR: A Visual Reasoning Dataset and Hybrid Multimodal Fusion Model
for Visual Question Answering in Vietnamese [1.6340299456362617]
ベトナムにおける様々な視覚的推論能力を評価するための先駆的な収集であるViCLEVRデータセットを紹介した。
我々は、現代の視覚的推論システムの包括的な分析を行い、その強みと限界についての貴重な洞察を提供する。
PhoVITは、質問に基づいて画像中のオブジェクトを識別する総合的なマルチモーダル融合である。
論文 参考訳(メタデータ) (2023-10-27T10:44:50Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - Generative Visual Question Answering [0.0]
本稿では、時間的一般化の成果を得られる高度な視覚質問回答(VQA)モデルを作成するための実行可能なアプローチについて論じる。
我々は,VQAv2およびMS-COCOデータセットの画像とキャプションを利用して,安定拡散による新しい画像を生成する新しいデータセットGenVQAを提案する。
パフォーマンス評価では、オリジナルのVQAv2データセットを反映した質問に焦点が当てられ、回答は新しいイメージに調整されている。
論文 参考訳(メタデータ) (2023-07-18T05:30:23Z) - Q: How to Specialize Large Vision-Language Models to Data-Scarce VQA
Tasks? A: Self-Train on Unlabeled Images! [103.09776737512077]
SelTDA(Self-Taught Data Augmentation)は、小規模なVQAデータセット上で大きな視覚言語モデルを微調整するための戦略である。
画像上に直接条件付の疑似ラベルを生成することで、未ラベル画像の疑似ラベル作成を可能にする。
我々は, 自己学習によるデータ拡張が, 対向的に検索された質問に対して堅牢性を高めることを示す一連の実験について述べる。
論文 参考訳(メタデータ) (2023-06-06T18:00:47Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Scene-Aware
Ambidextrous Bin Picking via Physics-based Metaverse Synthesis [72.85526892440251]
本稿では,物理に基づくメタバース合成により構築した大規模写真リアリスティックビンピックデータセットであるMetaGraspNetを紹介する。
提案データセットは,82種類の記事に対して217kのRGBD画像を含み,オブジェクト検出,アモーダル認識,キーポイント検出,操作順序,および並列ジャウと真空グリップパー用のアンビデクストグリップラベルの完全なアノテーションを備える。
また,2.3k以上の完全アノテートされた高品質なRGBD画像からなる実際のデータセットを5段階の難易度と,異なるオブジェクトおよびレイアウト特性を評価するための見えないオブジェクトセットに分割する。
論文 参考訳(メタデータ) (2022-08-08T08:15:34Z) - Beyond Accuracy: A Consolidated Tool for Visual Question Answering
Benchmarking [30.155625852894797]
研究者や主催者を対象としたブラウザベースのベンチマークツールを提案する。
私たちのツールは、複数のデータセットにわたるモデルの一般化機能をテストするのに役立ちます。
対話的フィルタリングは問題のある振る舞いの発見を促進する。
論文 参考訳(メタデータ) (2021-10-11T11:08:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。