論文の概要: One is Plenty: A Polymorphic Feature Interpreter for Immutable Heterogeneous Collaborative Perception
- arxiv url: http://arxiv.org/abs/2411.16799v1
- Date: Mon, 25 Nov 2024 11:47:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:35:33.881117
- Title: One is Plenty: A Polymorphic Feature Interpreter for Immutable Heterogeneous Collaborative Perception
- Title(参考訳): Plenty:不均一な協調知覚のための多形的特徴解釈
- Authors: Yuchen Xia, Quan Yuan, Guiyang Luo, Xiaoyuan Fu, Yang Li, Xuanhan Zhu, Tianyou Luo, Siheng Chen, Jinglin Li,
- Abstract要約: 自律運転における協調的知覚は、個々のエージェントの知覚能力を著しく向上させる。
既存のほとんどのメソッドはインタプリタを通してセマンティックギャップをブリッジする。
ポリモーフィック機能インタプリタであるPolyInterを提案する。
- 参考スコア(独自算出の注目度): 32.1605714318435
- License:
- Abstract: Collaborative perception in autonomous driving significantly enhances the perception capabilities of individual agents. Immutable heterogeneity in collaborative perception, where agents have different and fixed perception networks, presents a major challenge due to the semantic gap in their exchanged intermediate features without modifying the perception networks. Most existing methods bridge the semantic gap through interpreters. However, they either require training a new interpreter for each new agent type, limiting extensibility, or rely on a two-stage interpretation via an intermediate standardized semantic space, causing cumulative semantic loss. To achieve both extensibility in immutable heterogeneous scenarios and low-loss feature interpretation, we propose PolyInter, a polymorphic feature interpreter. It contains an extension point through which emerging new agents can seamlessly integrate by overriding only their specific prompts, which are learnable parameters intended to guide the interpretation, while reusing PolyInter's remaining parameters. By leveraging polymorphism, our design ensures that a single interpreter is sufficient to accommodate diverse agents and interpret their features into the ego agent's semantic space. Experiments conducted on the OPV2V dataset demonstrate that PolyInter improves collaborative perception precision by up to 11.1% compared to SOTA interpreters, while comparable results can be achieved by training only 1.4% of PolyInter's parameters when adapting to new agents.
- Abstract(参考訳): 自律運転における協調的知覚は、個々のエージェントの知覚能力を大幅に向上させる。
エージェントが異なる知覚ネットワークを持ち、固定された知覚ネットワークを持つ協調知覚における不変な異質性は、知覚ネットワークを変更することなく、交換された中間的特徴のセマンティックギャップによって大きな課題を呈する。
既存のほとんどのメソッドはインタプリタを通してセマンティックギャップをブリッジする。
しかし、それらは新しいエージェントタイプごとに新しいインタプリタをトレーニングし、拡張性を制限するか、中間的な標準化されたセマンティック空間を介して2段階の解釈に依存し、累積的なセマンティックロスを引き起こす。
不変なヘテロジニアスシナリオにおける拡張性と低損失特徴解釈の両方を実現するため,多型機能インタープリタであるPolyInterを提案する。
これは、PolyInterの残りのパラメータを再利用しながら、解釈を導くことを意図した学習可能なパラメータである、特定のプロンプトのみをオーバーライドすることで、新しいエージェントがシームレスに統合できる拡張ポイントを含んでいる。
ポリモルフィズムを活用することで,多種多様なエージェントに対応し,その特徴をエゴエージェントの意味空間に解釈するのに十分な単一インタプリタを設計する。
OPV2Vデータセットで行った実験では、PolyInterはSOTAインタプリタと比較して最大11.1%のコラボレーティブ知覚精度を向上し、新しいエージェントに適応する際のPolyInterのパラメータの1.4%しかトレーニングできないことが示されている。
関連論文リスト
- Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Proxy Methods for Domain Adaptation [78.03254010884783]
プロキシ変数は、遅延変数を明示的にリカバリしたりモデル化したりすることなく、分散シフトへの適応を可能にする。
両設定の複雑な分散シフトに適応する2段階のカーネル推定手法を開発した。
論文 参考訳(メタデータ) (2024-03-12T09:32:41Z) - InterpretCC: Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
ニューラルネットワークの解釈性は、3つの重要な要件間のトレードオフである。
本稿では,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークのファミリであるInterpretCCを提案する。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - An Extensible Framework for Open Heterogeneous Collaborative Perception [58.70875361688463]
協調的な知覚は、単一エージェントの知覚の限界を緩和することを目的としている。
本稿では,新しい異種エージェントを協調認識に適応させる方法を提案する。
本稿では,新しい協調認識フレームワークであるHeterogeneous ALliance(HEAL)を提案する。
論文 参考訳(メタデータ) (2024-01-25T05:55:03Z) - FER-former: Multi-modal Transformer for Facial Expression Recognition [14.219492977523682]
本稿では,表情認識のための多孔性監視ステアリングトランスを提案する。
提案手法は,多粒性埋め込み統合,ハイブリッド自己アテンション方式,及びヘテロジニアス・ドメイン・ステアリング・インスペクションを特徴とする。
人気のあるベンチマークの実験では、既存の最先端技術よりも提案されたFER-formerの方が優れていることが示されている。
論文 参考訳(メタデータ) (2023-03-23T02:29:53Z) - Demystify Self-Attention in Vision Transformers from a Semantic
Perspective: Analysis and Application [21.161850569358776]
自己認識機構はコンピュータビジョンや自然言語処理など多くの分野で大きな成功を収めている。
多くの既存の視覚変換器(ViT)は、単に視覚タスクに適応するためにNLPから固有のトランスフォーマー設計を施している。
本稿では,低レベル表現を中間レベル空間にマッピングする典型的な画像処理手法を提案する。
論文 参考訳(メタデータ) (2022-11-13T15:18:31Z) - Towards Unsupervised Content Disentanglement in Sentence Representations
via Syntactic Roles [0.9582466286528458]
我々は注意駆動変分オートエンコーダ(ADVAE)を開発した。
本研究では,異なる構文的役割が明確に同定された潜在変数に対応する文の表現を得ることが可能であることを示す。
本研究は,教師なしコンテンツ生成に向けた第一歩となる。
論文 参考訳(メタデータ) (2022-06-22T15:50:01Z) - Analysis of Joint Speech-Text Embeddings for Semantic Matching [3.6423306784901235]
ペア音声と書き起こし入力の距離を最小化することにより,セマンティックマッチングのために訓練された共同音声テキスト埋め込み空間について検討する。
我々は,事前学習とマルチタスクの両方のシナリオを通じて,音声認識を組み込む方法を拡張した。
論文 参考訳(メタデータ) (2022-04-04T04:50:32Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - HSVA: Hierarchical Semantic-Visual Adaptation for Zero-Shot Learning [74.76431541169342]
ゼロショット学習(ZSL)は、目に見えないクラス認識の問題に取り組み、目に見えないクラスから目に見えないクラスに意味的な知識を移す。
本稿では,意味領域と視覚領域を協調させる新しい階層型意味視覚適応(HSVA)フレームワークを提案する。
4つのベンチマークデータセットの実験では、HSVAは従来のZSLと一般的なZSLの両方で優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-30T14:27:50Z) - SML: a new Semantic Embedding Alignment Transformer for efficient
cross-lingual Natural Language Inference [71.57324258813674]
トランスフォーマーが質問応答、自然言語推論(NLI)、要約といった様々なタスクを精度良く実行できることは、現在この種のタスクに対処するための最良のパラダイムの1つとしてランク付けすることができる。
nliは、複雑な文を理解するための知識が必要であり、仮説と前提の関係を確立するため、これらのアーキテクチャをテストする最良のシナリオの1つである。
本稿では,自然言語推論のための多言語組込みを効率的にアライメントするための新しいアーキテクチャ siamese multilingual transformer を提案する。
論文 参考訳(メタデータ) (2021-03-17T13:23:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。