論文の概要: On the Transfer of Collinearity to Computer Vision
- arxiv url: http://arxiv.org/abs/2603.16592v1
- Date: Tue, 17 Mar 2026 14:40:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.346355
- Title: On the Transfer of Collinearity to Computer Vision
- Title(参考訳): コンピュータビジョンへのコリナリティの移転について
- Authors: Frederik Beuth, Danny Kowerko,
- Abstract要約: コリナリティ(Collinearity)は、直線に沿って配置された空間的に整列したエッジを増幅する視覚的知覚現象である。
原理を実証するプロトタイプモデルを開発し,それを体系的にテストし,4つのユースケースの文脈でベンチマークした。
第1のユースケースでは,コリニアリティはウェーハの故障検出を改善し,コリニアリティによる1.24因子による性能向上が得られることがわかった。
第2のユースケースでは,ナノテクノロジー材料の欠陥認識を検証し,コリニアリティにより3.2倍の性能向上を実現した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collinearity is a visual perception phenomenon in the human brain that amplifies spatially aligned edges arranged along a straight line. However, it is vague for which purpose humans might have this principle in the real-world, and its utilization in computer vision and engineering applications even is a largely unexplored field. In this work, our goal is to transfer the collinearity principle to computer vision, and we explore the potential usages of this novel principle for computer vision applications. We developed a prototype model to exemplify the principle, then tested it systematically, and benchmarked it in the context of four use cases. Our cases are selected to spawn a broad range of potential applications and scenarios: sketching the combination of collinearity with deep learning (case I and II), using collinearity with saliency models (case II), and as a feature detector (case I). In the first use case, we found that collinearity is able to improve the fault detection of wafers and obtain a performance increase by a factor 1.24 via collinearity (decrease of the error rate from 6.5% to 5.26%). In the second use case, we test the defect recognition in nanotechnology materials and achieve a performance increase by 3.2x via collinearity (deep learning, error from 21.65% to 6.64%), and also explore saliency models. As third experiment, we cover occlusions; while as fourth experiment, we test ImageNet and observe that it might not be very beneficial for ImageNet. Therefore, we can assemble a list of scenarios for which collinearity is beneficial (wafers, nanotechnology, occlusions), and for what is not beneficial (ImageNet). Hence, we infer collinearity might be suitable for industry applications as it helps if the image structures of interest are man-made because they often consist of lines. Our work provides another tool for CV, hope to capture the power of human processing.
- Abstract(参考訳): コリナリティ(Collinearity)は、人間の脳において、直線に沿って配置された空間的に整列したエッジを増幅する視覚的知覚現象である。
しかし、人間が現実世界でこの原理をどのような目的に持つかは曖昧であり、コンピュータビジョンや工学の応用においてもその利用は、ほとんど探索されていない分野である。
本研究の目的は,コリニアリティの原理をコンピュータビジョンに伝達することであり,この新たな原理のコンピュータビジョンへの応用の可能性を探ることである。
原理を実証するプロトタイプモデルを開発し,それを体系的にテストし,4つのユースケースの文脈でベンチマークした。
本症例は, 深層学習とコリニアリティの組み合わせをスケッチすること(I, II), 塩分濃度モデルとコリニアリティを併用すること(IIケース), 特徴検出器として(Iケース), 幅広い応用とシナリオを提示するために選択された。
第1のユースケースでは,コリニアリティはウェーハの故障検出を改善し,コリニアリティによる1.24倍の性能向上(エラー率の6.5%から5.26%)を達成できることがわかった。
第2のユースケースでは、ナノテクノロジー材料の欠陥認識を検証し、コリニアリティ(深度学習、21.65%から6.64%の誤差)による性能向上を3.2倍に達成し、塩分濃度モデルについても検討する。
第3の実験として、オクルージョンをカバーしています。第4の実験として、ImageNetをテストし、ImageNetにとってあまり有益ではないかもしれないことを観察します。
したがって、コリニアリティが有益であるシナリオ(ウェハ、ナノテクノロジー、オクルージョン)と、有益でないシナリオ(ImageNet)のリストを組み立てることができる。
したがって、関心のイメージ構造がしばしば線で構成されているため人造である場合に役立つため、コリニアリティは産業用途に適していると推測する。
私たちの研究は、人間の処理のパワーをつかむために、CVのためのもう1つのツールを提供しています。
関連論文リスト
- A Stable Whitening Optimizer for Efficient Neural Network Training [99.7641280234926]
アルゴリズムのシャンプー系をベースとして,3つの重要な問題を同定・緩和し,SPlus法を提案する。
まず,行列逆が長期にわたってキャッシュされる場合,素早いシャンプーは分岐しがちであることがわかった。
第二に、ネットワーク幅をまたいで学習率の伝達を可能にするために、形状認識スケーリングを適用する。
第3に,高い学習率によってパラメータノイズが大きくなり,より高速な学習をブロックする簡単な反復学習方式を提案する。
論文 参考訳(メタデータ) (2025-06-08T18:43:31Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - OOD-CV-v2: An extended Benchmark for Robustness to Out-of-Distribution
Shifts of Individual Nuisances in Natural Images [59.51657161097337]
OOD-CV-v2は、ポーズ、形状、テクスチャ、コンテキスト、気象条件の10のオブジェクトカテゴリのアウト・オブ・ディストリビューションの例を含むベンチマークデータセットである。
この新たなデータセットに加えて、一般的なベースライン手法を用いた広範な実験にも貢献する。
論文 参考訳(メタデータ) (2023-04-17T20:39:25Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - CroCo v2: Improved Cross-view Completion Pre-training for Stereo
Matching and Optical Flow [22.161967080759993]
自己教師付き事前学習法は、ステレオマッチングや光学フローのような密集した幾何学的視覚タスクでは、まだ提供されていない。
我々は、同じシーンから2番目のビューを利用するマスク付き画像モデリングのバリエーションである、最近のクロスビュー補完フレームワークの上に構築する。
本稿では,ステレオマッチングと光学的流れに関する最先端の成果を,従来のタスク固有の手法を使わずに到達できることを初めて示す。
論文 参考訳(メタデータ) (2022-11-18T18:18:53Z) - Probabilistic Tracking with Deep Factors [8.030212474745879]
因子グラフに基づく確率的追跡フレームワークにおける特徴量に対する生成密度と組み合わせたディープ・フィーチャー・エンコーディングの使い方を示す。
本稿では,学習した特徴エンコーダと生成密度を組み合わせる可能性モデルを提案する。
論文 参考訳(メタデータ) (2021-12-02T21:31:51Z) - Efficient Self-supervised Vision Transformers for Representation
Learning [86.57557009109411]
疎密な自己意識を持つマルチステージアーキテクチャは、モデリングの複雑さを著しく低減できることを示す。
そこで本研究では,モデルがよりきめ細かな領域依存を捕捉できるような,領域マッチングの事前学習タスクを提案する。
この2つの手法を組み合わせることで,ImageNet線形プローブ評価において,EsViTは81.3%のトップ1を達成した。
論文 参考訳(メタデータ) (2021-06-17T19:57:33Z) - Sketchy Empirical Natural Gradient Methods for Deep Learning [20.517823521066234]
本研究では,大規模ディープラーニング問題に対する効率的なスケッチ型経験勾配法 (SENG) を提案する。
SENGの分散バージョンは、非常に大規模なアプリケーション向けにも開発されている。
ImageNet-1kのタスクResNet50では、SENGは41時間以内に75.9%のTop-1テストの精度を達成した。
論文 参考訳(メタデータ) (2020-06-10T16:17:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。