論文の概要: RC2020 Report: Learning De-biased Representations with Biased
Representations
- arxiv url: http://arxiv.org/abs/2105.06724v1
- Date: Fri, 14 May 2021 09:14:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-05-17 19:03:27.700365
- Title: RC2020 Report: Learning De-biased Representations with Biased
Representations
- Title(参考訳): RC2020報告:バイアス表現による非バイアス表現の学習
- Authors: Rwiddhi Chakraborty and Shubhayu Das
- Abstract要約: 本報告では,画像認識の応用領域における研究成果を再現する試みについて述べる。
バイアスドmnistデータセットで報告された結果を,本論文で報告した原値の1%以内に再現する。
偏りのあるMNISTデータセットに関して、論文の中心的主張を弱めるように見えるいくつかの追加結果を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As part of the ML Reproducibility Challenge 2020, we investigated the ICML
2020 paper "Learning De-biased Representations with Biased Representations" by
Bahng et al., where the authors formalize and attempt to tackle the so called
"cross bias generalization" problem with a new approach they introduce called
ReBias. This report contains results of our attempts at reproducing the work in
the application area of Image Recognition, specifically on the datasets biased
MNIST and ImageNet. We compare ReBias with other methods - Vanilla, Biased,
RUBi (as implemented by the authors), and conclude with a discussion concerning
the validity of the claims made by the paper. We were able to reproduce results
reported for the biased MNIST dataset to within 1% of the original values
reported in the paper. Like the authors, we report results averaged over 3
runs. However, in a later section, we provide some additional results that
appear to weaken the central claim of the paper with regards to the biased
MNIST dataset. We were not able to reproduce results for ImageNet as in the
original paper, but based on communication with the authors, provide a
discussion as to the reasons for the same. This work attempts to be useful to
other researchers aiming to use ReBias for their own research purposes,
advising on certain possible pitfalls that may be encountered in the process.
- Abstract(参考訳): ML Reproducibility Challenge 2020の一環として,BahngらによるICML 2020の論文 "Learning De-biased Representations with Biased Representations" を調査した。
本報告では,画像認識の応用領域,特にデータセットのバイアスed mnistとimagenetにおける作業の再現を試みた結果について報告する。
我々は、ReBiasをVanilla、Biased、RUBi(著者が実施した)といった他の手法と比較し、論文の主張の有効性に関する議論で結論づける。
偏りのあるMNISTデータセットの結果を、論文で報告された元の値の1%以内に再現することができた。
著者同様、平均3回以上の結果を報告します。
しかし、後段では、偏りのあるMNISTデータセットに関して、論文の中心的な主張を弱めるように見えるいくつかの追加結果を提供する。
元の論文のように、ImageNetの結果を再現することはできなかったが、著者とのコミュニケーションに基づいて、同じ理由について議論した。
この研究は、ReBiasを自身の研究目的に利用しようとする他の研究者にとって有用であり、プロセスで遭遇する可能性のある落とし穴について助言する。
関連論文リスト
- Collapse of Dense Retrievers: Short, Early, and Literal Biases Outranking Factual Evidence [56.09494651178128]
検索モデルは、Retrieval-Augmented Generation (RAG)のような情報検索(IR)アプリケーションで一般的に使用される。
検索者は文書の優先順位の過度な開始、短い文書、繰り返しのエンティティ、リテラルマッチングといった表面的なパターンにしばしば依存していることを示す。
これらのバイアスは、検索優先の文書がLLMを誤解させるおそれのあるRAGのような下流アプリケーションに直接的な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2025-03-06T23:23:13Z) - RAZOR: Sharpening Knowledge by Cutting Bias with Unsupervised Text Rewriting [16.633948320306832]
手動で構築されたデータセットで一般的なバイアスは、トークンとラベルの間に急激な相関をもたらす可能性がある。
既存のデバイアス法は、しばしば特定のデータセットバイアスに関する事前の知識に依存している。
本稿では,ショートカット緩和のためのテキスト書き直しに基づく,新規で教師なし,データ重視のデバイアス処理手法であるRAZORを提案する。
論文 参考訳(メタデータ) (2024-12-10T17:02:58Z) - VLBiasBench: A Comprehensive Benchmark for Evaluating Bias in Large Vision-Language Model [72.13121434085116]
VLBiasBenchは、LVLM(Large Vision-Language Models)におけるバイアスの評価を目的としたベンチマークである。
我々は、年齢、障害状態、性別、国籍、身体的外観、人種、宗教、職業、社会的経済状態、および2つの交叉バイアスカテゴリー(人種x性、人種x社会経済状態)を含む9つの異なる社会バイアスカテゴリーを含むデータセットを構築した。
15のオープンソースモデルと1つの高度なクローズドソースモデルに対して広範な評価を行い、これらのモデルから明らかになったバイアスに関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2024-06-20T10:56:59Z) - Bias in Language Models: Beyond Trick Tests and Toward RUTEd Evaluation [55.66090768926881]
本研究では,非テクスチャ化された「トリックテスト」と,現実的利用と有形効果に根ざした評価の対応について検討する。
本稿では,現在文献に適合している3つの非文脈評価と,長文コンテンツ生成に適用された3つの類似のRUTED評価を比較した。
トリックテストとRUTEd評価の対応は見つからなかった。
論文 参考訳(メタデータ) (2024-02-20T01:49:15Z) - Quantifying Bias in Text-to-Image Generative Models [49.60774626839712]
テキスト・トゥ・イメージ(T2I)モデルにおけるバイアスは不公平な社会的表現を伝播させ、アイデアを積極的にマーケティングしたり、議論の的となっている議題を推進したりするのに用いられる。
既存のT2Iモデルバイアス評価手法は、社会的バイアスのみに焦点を当てる。
本稿では,T2I生成モデルにおける一般バイアスの定量化手法を提案する。
論文 参考訳(メタデータ) (2023-12-20T14:26:54Z) - Noisy-Correspondence Learning for Text-to-Image Person Re-identification [50.07634676709067]
本稿では,雑音対応においても頑健な視覚関係を学習するための新しいロバスト二重埋め込み法(RDE)を提案する。
提案手法は,3つのデータセット上での合成ノイズ対応と非合成ノイズ対応を両立させる。
論文 参考訳(メタデータ) (2023-08-19T05:34:13Z) - Single-Sentence Reader: A Novel Approach for Addressing Answer Position
Bias [0.40792653193642503]
MRCにおける解答位置バイアスに対処するための新しいアプローチとして,Single-Sentence Readerを提案する。
注目すべきは、私たちが6つの異なるモデルで行った実験において、偏りのあるデータセットでトレーニングされた単一文リーダーは、通常のデータセットでトレーニングされたモデルとほぼ一致した結果を得ることができたことです。
論文 参考訳(メタデータ) (2023-08-08T20:29:13Z) - Mitigating Test-Time Bias for Fair Image Retrieval [18.349154934096784]
我々は、中立なテキストクエリにより、公平で偏りのない画像検索結果を生成するという課題に対処する。
本稿では,事前学習した視覚言語モデルから出力を後処理する簡単な手法であるポストホックバイアス緩和手法を提案する。
提案手法は,テキストによる画像検索結果において,既存の様々なバイアス軽減手法と比較して,最も低いバイアスを実現する。
論文 参考訳(メタデータ) (2023-05-23T21:31:16Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Does Recommend-Revise Produce Reliable Annotations? An Analysis on
Missing Instances in DocRED [60.39125850987604]
テキスト修正方式は, 偽陰性サンプルと, 人気エンティティや関係性に対する明らかな偏見をもたらすことを示す。
より信頼性の高いドキュメントREモデルのテストセットとして機能するように、relabeledデータセットがリリースされている。
論文 参考訳(メタデータ) (2022-04-17T11:29:01Z) - Representation Bias in Data: A Survey on Identification and Resolution
Techniques [26.142021257838564]
データ駆動型アルゴリズムは、それらが扱うデータと同程度にしか機能しないが、データセット、特にソーシャルデータはしばしば、マイノリティを適切に表現できない。
データにおける表現バイアスは、歴史的差別から、データ取得と作成方法におけるバイアスのサンプリングまで、さまざまな理由により起こりうる。
本稿では,後日どのように消費されるかに関わらず,表現バイアスをデータセットの特徴として同定し,解決する方法についての文献をレビューする。
論文 参考訳(メタデータ) (2022-03-22T16:30:22Z) - [Re] Don't Judge an Object by Its Context: Learning to Overcome
Contextual Bias [15.701707809084715]
PyTorch 1.7.0でスクラッチからパイプライン全体を実装する。
その結果,提案手法はいずれも文脈バイアスの軽減に役立つことがわかった。
論文 参考訳(メタデータ) (2021-04-28T06:21:28Z) - A Replication Study of Dense Passage Retriever [32.192420072129636]
Karpukhinらによって提案された高密度通過レトリバー(DPR)技術について研究する。
(2020) エンドツーエンドのオープンドメイン質問応答。
本稿では,著者らによるモデルチェックポイントから本研究の再現性について検討する。
私たちは、オリジナルの作業とまったく同じモデルを使って、エンドツーエンドの質問応答の有効性を改善することができます。
論文 参考訳(メタデータ) (2021-04-12T18:10:39Z) - Showing Your Work Doesn't Always Work [73.63200097493576]
『Show Your Work: Improved Reporting of Experimental Results』では、最高の学習モデルの有効性を報告している。
解析的にそれらの推定器は偏りがあり、エラーを起こしやすい仮定を用いていることを示す。
我々は、偏見のない代替案を導き、統計的シミュレーションから経験的な証拠で主張を裏付ける。
論文 参考訳(メタデータ) (2020-04-28T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。