論文の概要: PointMask: Towards Interpretable and Bias-Resilient Point Cloud
Processing
- arxiv url: http://arxiv.org/abs/2007.04525v1
- Date: Thu, 9 Jul 2020 03:06:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 03:50:29.317500
- Title: PointMask: Towards Interpretable and Bias-Resilient Point Cloud
Processing
- Title(参考訳): PointMask: 解釈可能でバイアス耐性のあるポイントクラウド処理を目指す
- Authors: Saeid Asgari Taghanaki, Kaveh Hassani, Pradeep Kumar Jayaraman, Amir
Hosein Khasahmadi, Tonya Custis
- Abstract要約: PointMaskは、ポイントクラウドモデルにおける属性に対する、モデルに依存しない解釈可能なインフォメーション・ブートネックアプローチである。
任意のモデルとPointMask層を結合することで、入力空間の点を識別し、予測スコアに最も寄与することを示す。
- 参考スコア(独自算出の注目度): 16.470806722781333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep classifiers tend to associate a few discriminative input variables with
their objective function, which in turn, may hurt their generalization
capabilities. To address this, one can design systematic experiments and/or
inspect the models via interpretability methods. In this paper, we investigate
both of these strategies on deep models operating on point clouds. We propose
PointMask, a model-agnostic interpretable information-bottleneck approach for
attribution in point cloud models. PointMask encourages exploring the majority
of variation factors in the input space while gradually converging to a general
solution. More specifically, PointMask introduces a regularization term that
minimizes the mutual information between the input and the latent features used
to masks out irrelevant variables. We show that coupling a PointMask layer with
an arbitrary model can discern the points in the input space which contribute
the most to the prediction score, thereby leading to interpretability. Through
designed bias experiments, we also show that thanks to its gradual masking
feature, our proposed method is effective in handling data bias.
- Abstract(参考訳): 深層分類器は、いくつかの識別的な入力変数と目的関数を関連付ける傾向があり、それによって一般化能力が損なわれる。
これに対処するために、システマティックな実験をデザインしたり、解釈可能性メソッドを通じてモデルを検査したりすることができる。
本稿では,これら2つの戦略について,ポイントクラウド上で動作する深層モデルについて検討する。
ポイントクラウドモデルにおける帰属に対するモデル非依存な解釈可能な情報ボトルネックアプローチであるpointmaskを提案する。
ポイントマスクは、徐々に一般的な解に収束しながら、入力空間の変動係数の大部分を探索することを奨励する。
より具体的に言うと、PointMaskは、無関係な変数をマスクするのに使われる入力と潜在機能の間の相互情報を最小化する正規化用語を導入している。
任意のモデルとポイントマスク層を結合することで、予測スコアに最も寄与する入力空間内の点を識別し、解釈可能となることを示す。
また, 設計バイアス実験により, 漸進的マスキング機能により, 提案手法がデータバイアスの処理に有効であることを示す。
関連論文リスト
- Bridge the Points: Graph-based Few-shot Segment Anything Semantically [79.1519244940518]
プレトレーニング技術の最近の進歩により、視覚基礎モデルの能力が向上した。
最近の研究はSAMをFew-shot Semantic segmentation (FSS)に拡張している。
本稿では,グラフ解析に基づく簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T15:02:28Z) - Regressor-Segmenter Mutual Prompt Learning for Crowd Counting [70.49246560246736]
本稿では,アノテーションの差によるバイアスや不正確性を解決するために,相互学習(mPrompt)を提案する。
実験により、mPromptは平均誤差(MAE)を著しく減少させることが示された。
論文 参考訳(メタデータ) (2023-12-04T07:53:59Z) - MaskDiff: Modeling Mask Distribution with Diffusion Probabilistic Model
for Few-Shot Instance Segmentation [31.648523213206595]
少数ショットのインスタンスセグメンテーションは、数ショットの学習パラダイムをインスタンスセグメンテーションタスクに拡張する。
従来のアプローチでは、ポイント推定と呼ばれるプロトタイプ学習を通じてその課題に対処しようと試みてきた。
本稿では,二項マスクの条件分布をモデル化したMaskDiffという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-09T08:24:02Z) - Masked Autoencoding for Scalable and Generalizable Decision Making [93.84855114717062]
MaskDPは、強化学習と行動クローンのためのシンプルでスケーラブルな自己教師付き事前学習手法である。
我々は,MaskDPモデルにより,単一ゴールや複数ゴール到達といった新しいBCタスクへのゼロショット転送能力が得られることを発見した。
論文 参考訳(メタデータ) (2022-11-23T07:04:41Z) - Self-Supervised Arbitrary-Scale Point Clouds Upsampling via Implicit
Neural Representation [79.60988242843437]
そこで本研究では,自己監督型および倍率フレキシブルな点雲を同時にアップサンプリングする手法を提案する。
実験結果から, 自己教師あり学習に基づく手法は, 教師あり学習に基づく手法よりも, 競争力や性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-18T07:18:25Z) - Masked Discrimination for Self-Supervised Learning on Point Clouds [27.652157544218234]
マスク付きオートエンコーディングは、画像と言語領域における自己教師型学習において大きな成功を収めた。
PointNetのような標準的なバックボーンは、トレーニング中にマスクによって導入された分散ミスマッチのトレーニングとテストのミスマッチを適切に処理できない。
我々はこのギャップを、ポイントクラウドのための差別マスク事前学習フレームワークMaskPointを提案し、橋渡しする。
論文 参考訳(メタデータ) (2022-03-21T17:57:34Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。