論文の概要: AlignNet: Unsupervised Entity Alignment
- arxiv url: http://arxiv.org/abs/2007.08973v2
- Date: Tue, 21 Jul 2020 13:12:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 12:56:19.767240
- Title: AlignNet: Unsupervised Entity Alignment
- Title(参考訳): AlignNet: 教師なしエンティティアライメント
- Authors: Antonia Creswell, Kyriacos Nikiforou, Oriol Vinyals, Andre Saraiva,
Rishabh Kabra, Loic Matthey, Chris Burgess, Malcolm Reynolds, Richard
Tanburn, Marta Garnelo, Murray Shanahan
- Abstract要約: ディープラーニングモデルは、監督なしにシーンをコンポーネントオブジェクトに分割することを学ぶことができる。
これらのモデルは、単一のフレームの優れたセグメンテーションを提供するが、ある時点におけるオブジェクトのセグメンテーションが、後の段階におけるオブジェクトのセグメンテーション(あるいはアライメント)とどのように対応するかは追跡しない。
本稿では,アライメント問題の解決に向けて,教師なしアライメントモジュールであるAlignNetを提案する。
- 参考スコア(独自算出の注目度): 32.45352287981116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently developed deep learning models are able to learn to segment scenes
into component objects without supervision. This opens many new and exciting
avenues of research, allowing agents to take objects (or entities) as inputs,
rather that pixels. Unfortunately, while these models provide excellent
segmentation of a single frame, they do not keep track of how objects segmented
at one time-step correspond (or align) to those at a later time-step. The
alignment (or correspondence) problem has impeded progress towards using object
representations in downstream tasks. In this paper we take steps towards
solving the alignment problem, presenting the AlignNet, an unsupervised
alignment module.
- Abstract(参考訳): 最近開発されたディープラーニングモデルは、監視なしでシーンをコンポーネントオブジェクトに分割することを学ぶことができる。
これにより、多くの新しいエキサイティングな研究の道が開かれ、エージェントは物体(または実体)をピクセルではなく入力として捉えることができる。
残念なことに、これらのモデルは単一のフレームの優れたセグメンテーションを提供するが、ある時点でのオブジェクトのセグメンテーション(あるいはアライメント)が後続のステップでそれらとどのように対応するかは追跡しない。
アライメント(あるいは対応)問題は、下流のタスクでオブジェクト表現を使うことの進行を妨げる。
本稿では,アライメント問題の解決に向けて,教師なしアライメントモジュールであるAlignNetを提案する。
関連論文リスト
- Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Towards Open-World Segmentation of Parts [16.056921233445784]
本稿では,クラスに依存しない部分分割タスクを提案する。
パートクラスなしでトレーニングされたモデルは、トレーニング時に見えない部分のローカライズとオブジェクトへのセグメンテーションを改善することができる、と私たちは主張する。
当社のアプローチでは,オープンワールドのパートセグメンテーションに向けた重要なステップとして,注目すべきかつ一貫した成果をあげています。
論文 参考訳(メタデータ) (2023-05-26T10:34:58Z) - MOVE: Unsupervised Movable Object Segmentation and Detection [32.73565093619594]
MOVEは、いかなる形態の監視もせずにオブジェクトを分割する手法である。
これは、前景のオブジェクトが初期位置に対して局所的に移動できるという事実を利用する。
SotAよりも平均で7.2%改善している。
論文 参考訳(メタデータ) (2022-10-14T16:05:46Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - The Emergence of Objectness: Learning Zero-Shot Segmentation from Videos [59.12750806239545]
動画は移動成分によって同じシーンを異なる視点で見ることができ、適切な領域分割と領域フローは相互のビュー合成を可能にする。
モデルでは,1枚の画像に対して特徴に基づく領域分割を出力する出現経路と,1枚の画像に対して動作特徴を出力する動き経路の2つの経路から開始する。
セグメントフローに基づく視線合成誤差を最小限に抑えるためにモデルを訓練することにより、我々の外観経路と運動経路は、それぞれ低レベルのエッジや光フローから構築することなく、領域のセグメンテーションとフロー推定を自動的に学習する。
論文 参考訳(メタデータ) (2021-11-11T18:59:11Z) - Unsupervised Domain Adaption of Object Detectors: A Survey [87.08473838767235]
近年のディープラーニングの進歩は、様々なコンピュータビジョンアプリケーションのための正確で効率的なモデルの開発につながっている。
高度に正確なモデルを学ぶには、大量の注釈付きイメージを持つデータセットの可用性に依存する。
このため、ラベルスカースデータセットに視覚的に異なる画像がある場合、モデルの性能は大幅に低下する。
論文 参考訳(メタデータ) (2021-05-27T23:34:06Z) - Unsupervised Part Discovery by Unsupervised Disentanglement [10.664434993386525]
部分分割は、個々のピクセルのレベルにおける部分ローカライゼーションに関する情報を提供する。
大きなアノテーションのコストは、教師付きアルゴリズムのスケーラビリティを他のオブジェクトカテゴリに制限します。
我々の研究は、監督なしに意味的部分のセグメンテーションを発見できる可能性を示している。
論文 参考訳(メタデータ) (2020-09-09T12:34:37Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。