論文の概要: MetaCOG: Learning a Metacognition to Recover What Objects Are Actually
There
- arxiv url: http://arxiv.org/abs/2110.03105v3
- Date: Tue, 29 Aug 2023 18:15:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 18:34:19.829380
- Title: MetaCOG: Learning a Metacognition to Recover What Objects Are Actually
There
- Title(参考訳): MetaCOG: メタ認知を学習して、実際に何があるのかを発見
- Authors: Marlene Berke, Zhangir Azerbayev, Mario Belledonne, Zenna Tavares,
Julian Jara-Ettinger
- Abstract要約: 本稿では,その信頼性の表現を学習することで,物体検出器の堅牢性を高めるメタCOGを提案する。
具体的には、MetaCOGは階層的な確率モデルであり、3Dシーンにおけるオブジェクトの関節分布を表現する。
その結果,MetaCOGは検出における誤差のレベルによって頑健であることが判明した。
- 参考スコア(独自算出の注目度): 2.4374097382908477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans not only form representations about the world based on what we see,
but also learn meta-cognitive representations about how our own vision works.
This enables us to recognize when our vision is unreliable (e.g., when we
realize that we are experiencing a visual illusion) and enables us to question
what we see. Inspired by this human capacity, we present MetaCOG: a model that
increases the robustness of object detectors by learning representations of
their reliability, and does so without feedback. Specifically, MetaCOG is a
hierarchical probabilistic model that expresses a joint distribution over the
objects in a 3D scene and the outputs produced by a detector. When paired with
an off-the-shelf object detector, MetaCOG takes detections as input and infers
the detector's tendencies to miss objects of certain categories and to
hallucinate objects that are not actually present, all without access to
ground-truth object labels. When paired with three modern neural object
detectors, MetaCOG learns useful and accurate meta-cognitive representations,
resulting in improved performance on the detection task. Additionally, we show
that MetaCOG is robust to varying levels of error in the detections. Our
results are a proof-of-concept for a novel approach to the problem of
correcting a faulty vision system's errors. The model code, datasets, results,
and demos are available:
https://osf.io/8b9qt/?view_only=8c1b1c412c6b4e1697e3c7859be2fce6
- Abstract(参考訳): 人間は、見るものに基づいて世界についての表現を形成するだけでなく、私たちのビジョンがどのように機能するかについてのメタ認知的な表現を学ぶ。
これにより、視覚がいつ信頼できないか(例えば、視覚錯覚を経験していると気付いたとき)を認識し、何が見えるかに疑問を呈することができる。
この人間の能力にインスパイアされたMetaCOGは、信頼性の表現を学習することでオブジェクト検出器の堅牢性を高めるモデルであり、フィードバックなしでそれを行う。
具体的には、MetaCOGは階層的な確率モデルであり、3Dシーンにおけるオブジェクトと検出器によって生成された出力の関節分布を表現する。
市販のオブジェクト検出器と組み合わせると、MetaCOGは入力として検出を行い、検出器の傾向を推測し、特定のカテゴリのオブジェクトを見逃し、実際に存在しないオブジェクトを幻覚させる。
現代の3つのニューラルオブジェクト検出器と組み合わせることで、MetaCOGは有用で正確なメタ認知表現を学び、検出タスクのパフォーマンスが向上する。
さらに,MetaCOGは検出における誤差のレベルによって堅牢であることを示す。
本結果は,故障した視覚系の誤りを訂正する問題に対する新しいアプローチの実証である。
モデルコード、データセット、結果、デモは、https://osf.io/8b9qt/?
view_only=8c1b1c412c6b4e1697e3c7859be2fce6
関連論文リスト
- Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - URLOST: Unsupervised Representation Learning without Stationarity or
Topology [26.17135629579595]
定常性やトポロジに欠ける高次元データから学習する新しいフレームワークを提案する。
我々のモデルは学習可能な自己組織化層、密度調整されたスペクトルクラスタリング、マスク付きオートエンコーダを組み合わせる。
本研究は,生体視覚データ,一次視覚野からの神経記録,遺伝子発現データセットにおいて有効性を評価する。
論文 参考訳(メタデータ) (2023-10-06T18:00:02Z) - Plausible May Not Be Faithful: Probing Object Hallucination in
Vision-Language Pre-training [66.0036211069513]
大規模視覚言語事前学習モデルは、テキストを生成する際に、存在しない視覚オブジェクトを幻覚させる傾向がある。
標準メトリクスでより良いスコアを得るモデルは、オブジェクトをより頻繁に幻覚させる可能性があることを示す。
驚いたことに、パッチベースの機能が最も良く、より小さなパッチ解決は、オブジェクト幻覚の非自明な減少をもたらす。
論文 参考訳(メタデータ) (2022-10-14T10:27:22Z) - SEAL: Self-supervised Embodied Active Learning using Exploration and 3D
Consistency [122.18108118190334]
本稿では,SEAL(Self-Embodied Embodied Active Learning)というフレームワークを提案する。
インターネットイメージ上で訓練された知覚モデルを使用して、積極的な探索ポリシーを学ぶ。
我々は3Dセマンティックマップを用いて、行動と知覚の両方を、完全に自己管理された方法で学習する。
論文 参考訳(メタデータ) (2021-12-02T06:26:38Z) - Self-Supervised Object Detection via Generative Image Synthesis [106.65384648377349]
本稿では,自己教師対象検出のための制御可能なGANを用いたエンドツーエンド分析合成フレームワークを提案する。
オブジェクトの合成と検出を学習するために、ボックスアノテーションを使用せずに、実世界のイメージのコレクションを使用します。
我々の研究は、制御可能なGAN画像合成という新しいパラダイムを導入することで、自己教師対象検出の分野を前進させる。
論文 参考訳(メタデータ) (2021-10-19T11:04:05Z) - Capturing the objects of vision with neural networks [0.0]
人間の視覚知覚はその物理的関節でシーンを彫り、世界をオブジェクトに分解する。
対照的に、視覚物体認識のディープニューラルネットワーク(DNN)モデルは、主に感覚入力と結びついている。
両分野の関連研究をレビューし、これらの分野が相互にどのように役立つかを検討する。
論文 参考訳(メタデータ) (2021-09-07T21:49:53Z) - Learning a metacognition for object perception [0.0]
本稿ではメタ認知の教師なし学習モデルであるMetaGenを提案する。
MetaGenでは、メタ認知は知覚システムがノイズの多い知覚をいかに生み出すかの生成モデルとして表現される。
MetaGenはメタ認知を素早く学習し、全体的な精度を向上し、メタ認知に欠けるモデルよりも優れています。
論文 参考訳(メタデータ) (2020-11-30T18:05:00Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - Diagnosing Rarity in Human-Object Interaction Detection [6.129776019898014]
ヒューマン・オブジェクト・インタラクション(HOI)検出はコンピュータビジョンにおける中核的なタスクである。
目標は、すべての人間と物体のペアをローカライズし、それらの相互作用を認識することである。
動詞「名詞」によって定義される相互作用は、長い尾の視覚的認識課題につながる。
論文 参考訳(メタデータ) (2020-06-10T08:35:29Z) - Neuroevolution of Self-Interpretable Agents [11.171154483167514]
不注意の盲目は、普通の視界で物事を見逃す心理的現象である。
選択的な注意を払って,自己注意ボトルネックのレンズを通して世界を知覚する人工エージェントの特性について検討した。
論文 参考訳(メタデータ) (2020-03-18T11:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。