論文の概要: Relational Proxies: Emergent Relationships as Fine-Grained
Discriminators
- arxiv url: http://arxiv.org/abs/2210.02149v1
- Date: Wed, 5 Oct 2022 11:08:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 13:24:35.730909
- Title: Relational Proxies: Emergent Relationships as Fine-Grained
Discriminators
- Title(参考訳): リレーショナルプロキシ:ファイングレードディスクリミネーターとしての創発的関係
- Authors: Abhra Chaudhuri, Massimiliano Mancini, Zeynep Akata, Anjan Dutta
- Abstract要約: 本稿では,オブジェクトのグローバル部分とローカル部分の間の情報を利用してラベルを符号化する手法を提案する。
我々は、理論的な結果に基づいてプロキシを設計し、7つの挑戦的なきめ細かいベンチマークデータセットに基づいて評価する。
また、この理論を実験的に検証し、複数のベンチマークで一貫した結果を得る。
- 参考スコア(独自算出の注目度): 52.17542855760418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fine-grained categories that largely share the same set of parts cannot be
discriminated based on part information alone, as they mostly differ in the way
the local parts relate to the overall global structure of the object. We
propose Relational Proxies, a novel approach that leverages the relational
information between the global and local views of an object for encoding its
semantic label. Starting with a rigorous formalization of the notion of
distinguishability between fine-grained categories, we prove the necessary and
sufficient conditions that a model must satisfy in order to learn the
underlying decision boundaries in the fine-grained setting. We design
Relational Proxies based on our theoretical findings and evaluate it on seven
challenging fine-grained benchmark datasets and achieve state-of-the-art
results on all of them, surpassing the performance of all existing works with a
margin exceeding 4% in some cases. We also experimentally validate our theory
on fine-grained distinguishability and obtain consistent results across
multiple benchmarks. Implementation is available at
https://github.com/abhrac/relational-proxies.
- Abstract(参考訳): 同じ部分のセットを共有する細かなカテゴリは、部分情報のみに基づいて判別することはできない。
本稿では,オブジェクトのグローバルビューとローカルビュー間の関係情報を利用して意味ラベルを符号化する手法であるRelational Proxiesを提案する。
細粒度カテゴリ間の識別可能性の概念の厳密な形式化から始め、細粒度設定の基盤となる決定境界を学ぶために、モデルが満たさなければならない必要十分条件を証明します。
我々は,我々の理論的知見に基づいて関係プロキシを設計し,7つの難解な細粒度ベンチマークデータセット上で評価し,それらすべてについて最先端の結果を得る。
また,詳細な識別可能性に関する理論を実験的に検証し,複数のベンチマークで一貫した結果を得る。
実装はhttps://github.com/abhrac/relational-proxiesで利用可能である。
関連論文リスト
- Deriving Causal Order from Single-Variable Interventions: Guarantees & Algorithm [14.980926991441345]
介入データを含むデータセットは,データ分布に関する現実的な仮定の下で効果的に抽出可能であることを示す。
観察的および介入的設定における各変数の限界分布の比較に依拠する介入忠実性を導入する。
また、多数の単一変数の介入を含むデータセットから因果順序を推測するアルゴリズムであるIntersortを導入する。
論文 参考訳(メタデータ) (2024-05-28T16:07:17Z) - Causally Inspired Regularization Enables Domain General Representations [14.036422506623383]
異なるドメイン/ディストリビューション間で共有されるデータ生成プロセスを表す因果グラフが与えられた場合、十分なグラフで実装された条件付き独立性は、ドメイン一般(非スパージャ)の特徴表現を識別することができる。
本稿では,素早い特徴の事前知識(あるいはプロキシ)を伴わないドメイン汎用特徴表現の同定に十分であることを示す,正規化を伴う新しいフレームワークを提案する。
提案手法は、合成データと実世界のデータの両方に有効であり、平均および最悪のドメイン転送精度で、他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-04-25T01:33:55Z) - Generalizable Heterogeneous Federated Cross-Correlation and Instance
Similarity Learning [60.058083574671834]
本稿では,新しいFCCL+,フェデレーション相関と非ターゲット蒸留との類似性学習を提案する。
不均一な問題に対しては、無関係な公開データを通信に活用する。
局所的な更新段階における破滅的な忘れ物として、FCCL+はFederated Non Target Distillationを導入している。
論文 参考訳(メタデータ) (2023-09-28T09:32:27Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Repairing Regressors for Fair Binary Classification at Any Decision
Threshold [8.322348511450366]
同時にすべてのしきい値で公正なパフォーマンスを向上できることを示します。
本研究では,異なる保護群に対する分類の分布の類似度を捉える分布パリティの形式的尺度を導入する。
我々の主な成果は、最適輸送に基づく新しい後処理アルゴリズムを提案し、分散パリティを確実に最大化することである。
論文 参考訳(メタデータ) (2022-03-14T20:53:35Z) - Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set [50.67431815647126]
ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
論文 参考訳(メタデータ) (2021-10-26T02:53:14Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Reinforcement Learning based Collective Entity Alignment with Adaptive
Features [35.04861875266298]
本稿では,エンティティを集合的にアライメントする強化学習(RL)モデルを提案する。
RLフレームワークでは、相互依存と集団アライメントを特徴付けるコヒーレンスと排他的性制約を考案しています。
提案手法は,言語横断型と単言語型の両方のEAベンチマークで評価し,最先端のソリューションと比較した。
論文 参考訳(メタデータ) (2021-01-05T05:04:09Z) - Domain Adaptative Causality Encoder [52.779274858332656]
我々は,適応因果同定と局所化の課題に対処するために,依存木の特徴と敵対学習を活用する。
我々は、テキストにあらゆる種類の因果関係を統合する新しい因果関係データセット、MedCausを提案する。
論文 参考訳(メタデータ) (2020-11-27T04:14:55Z) - Towards Context-Agnostic Learning Using Synthetic Data [5.892876463573452]
入力領域は2つの集合の積上に定義された写像のイメージであり、そのうちの1つはラベルを完全に決定する。
バイアスとエラー項に分解し、真のラベルに対する驚くほど弱い依存を示すこの設定のために、我々は新しいリスクを導出する。
これらの結果から着想を得て,各集合から個別にサンプリングする能力を活用することにより,バイアス項の最小化を目的としたアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-29T17:53:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。