論文の概要: RC2020 Report: Learning De-biased Representations with Biased
Representations
- arxiv url: http://arxiv.org/abs/2105.06724v1
- Date: Fri, 14 May 2021 09:14:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 19:03:27.700365
- Title: RC2020 Report: Learning De-biased Representations with Biased
Representations
- Title(参考訳): RC2020報告:バイアス表現による非バイアス表現の学習
- Authors: Rwiddhi Chakraborty and Shubhayu Das
- Abstract要約: 本報告では,画像認識の応用領域における研究成果を再現する試みについて述べる。
バイアスドmnistデータセットで報告された結果を,本論文で報告した原値の1%以内に再現する。
偏りのあるMNISTデータセットに関して、論文の中心的主張を弱めるように見えるいくつかの追加結果を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As part of the ML Reproducibility Challenge 2020, we investigated the ICML
2020 paper "Learning De-biased Representations with Biased Representations" by
Bahng et al., where the authors formalize and attempt to tackle the so called
"cross bias generalization" problem with a new approach they introduce called
ReBias. This report contains results of our attempts at reproducing the work in
the application area of Image Recognition, specifically on the datasets biased
MNIST and ImageNet. We compare ReBias with other methods - Vanilla, Biased,
RUBi (as implemented by the authors), and conclude with a discussion concerning
the validity of the claims made by the paper. We were able to reproduce results
reported for the biased MNIST dataset to within 1% of the original values
reported in the paper. Like the authors, we report results averaged over 3
runs. However, in a later section, we provide some additional results that
appear to weaken the central claim of the paper with regards to the biased
MNIST dataset. We were not able to reproduce results for ImageNet as in the
original paper, but based on communication with the authors, provide a
discussion as to the reasons for the same. This work attempts to be useful to
other researchers aiming to use ReBias for their own research purposes,
advising on certain possible pitfalls that may be encountered in the process.
- Abstract(参考訳): ML Reproducibility Challenge 2020の一環として,BahngらによるICML 2020の論文 "Learning De-biased Representations with Biased Representations" を調査した。
本報告では,画像認識の応用領域,特にデータセットのバイアスed mnistとimagenetにおける作業の再現を試みた結果について報告する。
我々は、ReBiasをVanilla、Biased、RUBi(著者が実施した)といった他の手法と比較し、論文の主張の有効性に関する議論で結論づける。
偏りのあるMNISTデータセットの結果を、論文で報告された元の値の1%以内に再現することができた。
著者同様、平均3回以上の結果を報告します。
しかし、後段では、偏りのあるMNISTデータセットに関して、論文の中心的な主張を弱めるように見えるいくつかの追加結果を提供する。
元の論文のように、ImageNetの結果を再現することはできなかったが、著者とのコミュニケーションに基づいて、同じ理由について議論した。
この研究は、ReBiasを自身の研究目的に利用しようとする他の研究者にとって有用であり、プロセスで遭遇する可能性のある落とし穴について助言する。
関連論文リスト
- RAZOR: Sharpening Knowledge by Cutting Bias with Unsupervised Text Rewriting [16.633948320306832]
手動で構築されたデータセットで一般的なバイアスは、トークンとラベルの間に急激な相関をもたらす可能性がある。
既存のデバイアス法は、しばしば特定のデータセットバイアスに関する事前の知識に依存している。
本稿では,ショートカット緩和のためのテキスト書き直しに基づく,新規で教師なし,データ重視のデバイアス処理手法であるRAZORを提案する。
論文 参考訳(メタデータ) (2024-12-10T17:02:58Z) - Quantifying Bias in Text-to-Image Generative Models [49.60774626839712]
テキスト・トゥ・イメージ(T2I)モデルにおけるバイアスは不公平な社会的表現を伝播させ、アイデアを積極的にマーケティングしたり、議論の的となっている議題を推進したりするのに用いられる。
既存のT2Iモデルバイアス評価手法は、社会的バイアスのみに焦点を当てる。
本稿では,T2I生成モデルにおける一般バイアスの定量化手法を提案する。
論文 参考訳(メタデータ) (2023-12-20T14:26:54Z) - Noisy-Correspondence Learning for Text-to-Image Person Re-identification [50.07634676709067]
本稿では,雑音対応においても頑健な視覚関係を学習するための新しいロバスト二重埋め込み法(RDE)を提案する。
提案手法は,3つのデータセット上での合成ノイズ対応と非合成ノイズ対応を両立させる。
論文 参考訳(メタデータ) (2023-08-19T05:34:13Z) - Single-Sentence Reader: A Novel Approach for Addressing Answer Position
Bias [0.40792653193642503]
MRCにおける解答位置バイアスに対処するための新しいアプローチとして,Single-Sentence Readerを提案する。
注目すべきは、私たちが6つの異なるモデルで行った実験において、偏りのあるデータセットでトレーニングされた単一文リーダーは、通常のデータセットでトレーニングされたモデルとほぼ一致した結果を得ることができたことです。
論文 参考訳(メタデータ) (2023-08-08T20:29:13Z) - Mitigating Test-Time Bias for Fair Image Retrieval [18.349154934096784]
我々は、中立なテキストクエリにより、公平で偏りのない画像検索結果を生成するという課題に対処する。
本稿では,事前学習した視覚言語モデルから出力を後処理する簡単な手法であるポストホックバイアス緩和手法を提案する。
提案手法は,テキストによる画像検索結果において,既存の様々なバイアス軽減手法と比較して,最も低いバイアスを実現する。
論文 参考訳(メタデータ) (2023-05-23T21:31:16Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Does Recommend-Revise Produce Reliable Annotations? An Analysis on
Missing Instances in DocRED [60.39125850987604]
テキスト修正方式は, 偽陰性サンプルと, 人気エンティティや関係性に対する明らかな偏見をもたらすことを示す。
より信頼性の高いドキュメントREモデルのテストセットとして機能するように、relabeledデータセットがリリースされている。
論文 参考訳(メタデータ) (2022-04-17T11:29:01Z) - Representation Bias in Data: A Survey on Identification and Resolution
Techniques [26.142021257838564]
データ駆動型アルゴリズムは、それらが扱うデータと同程度にしか機能しないが、データセット、特にソーシャルデータはしばしば、マイノリティを適切に表現できない。
データにおける表現バイアスは、歴史的差別から、データ取得と作成方法におけるバイアスのサンプリングまで、さまざまな理由により起こりうる。
本稿では,後日どのように消費されるかに関わらず,表現バイアスをデータセットの特徴として同定し,解決する方法についての文献をレビューする。
論文 参考訳(メタデータ) (2022-03-22T16:30:22Z) - A Replication Study of Dense Passage Retriever [32.192420072129636]
Karpukhinらによって提案された高密度通過レトリバー(DPR)技術について研究する。
(2020) エンドツーエンドのオープンドメイン質問応答。
本稿では,著者らによるモデルチェックポイントから本研究の再現性について検討する。
私たちは、オリジナルの作業とまったく同じモデルを使って、エンドツーエンドの質問応答の有効性を改善することができます。
論文 参考訳(メタデータ) (2021-04-12T18:10:39Z) - Enhancing Scientific Papers Summarization with Citation Graph [78.65955304229863]
引用グラフを用いて科学論文の要約作業を再定義します。
我々は,141kの研究論文を異なる領域に格納した,新しい科学論文要約データセットセマンティックスタディネットワーク(ssn)を構築した。
我々のモデルは、事前訓練されたモデルと比較して競争性能を達成することができる。
論文 参考訳(メタデータ) (2021-04-07T11:13:35Z) - Showing Your Work Doesn't Always Work [73.63200097493576]
『Show Your Work: Improved Reporting of Experimental Results』では、最高の学習モデルの有効性を報告している。
解析的にそれらの推定器は偏りがあり、エラーを起こしやすい仮定を用いていることを示す。
我々は、偏見のない代替案を導き、統計的シミュレーションから経験的な証拠で主張を裏付ける。
論文 参考訳(メタデータ) (2020-04-28T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。