論文の概要: The Current State of AI Bias Bounties: An Overview of Existing Programmes and Research
- arxiv url: http://arxiv.org/abs/2510.02036v1
- Date: Thu, 02 Oct 2025 14:09:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.155957
- Title: The Current State of AI Bias Bounties: An Overview of Existing Programmes and Research
- Title(参考訳): AIバイアスバウンティの現状:既存のプログラムと研究の概要
- Authors: Sergej Kucenko, Nathaniel Dennler, Fengxiang He,
- Abstract要約: 現在のバイアス評価手法は、AIシステムによって影響を受けるコミュニティにはほとんど関与しない。
バグ報奨金に触発されて、報酬に基づく方法としてバイアス報奨が提案されている。
- 参考スコア(独自算出の注目度): 18.854429764918734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current bias evaluation methods rarely engage with communities impacted by AI systems. Inspired by bug bounties, bias bounties have been proposed as a reward-based method that involves communities in AI bias detection by asking users of AI systems to report biases they encounter when interacting with such systems. In the absence of a state-of-the-art review, this survey aimed to identify and analyse existing AI bias bounty programmes and to present academic literature on bias bounties. Google, Google Scholar, PhilPapers, and IEEE Xplore were searched, and five bias bounty programmes, as well as five research publications, were identified. All bias bounties were organised by U.S.-based organisations as time-limited contests, with public participation in four programmes and prize pools ranging from 7,000 to 24,000 USD. The five research publications included a report on the application of bug bounties to algorithmic harms, an article addressing Twitter's bias bounty, a proposal for bias bounties as an institutional mechanism to increase AI scrutiny, a workshop discussing bias bounties from queer perspectives, and an algorithmic framework for bias bounties. We argue that reducing the technical requirements to enter bounty programmes is important to include those without coding experience. Given the limited adoption of bias bounties, future efforts should explore the transferability of the best practices from bug bounties and examine how such programmes can be designed to be sensitive to underrepresented groups while lowering adoption barriers for organisations.
- Abstract(参考訳): 現在のバイアス評価手法は、AIシステムによって影響を受けるコミュニティにはほとんど関与しない。
バグ報奨金にインスパイアされたバイアス報奨金は、AIシステムのユーザに対して、そのようなシステムと対話する際に発生するバイアスを報告することによって、AIバイアス検出のコミュニティを含む報酬ベースの方法として提案されている。
この調査は、最先端のレビューがない状態で、既存のAIバイアス報奨プログラムを特定し分析し、バイアス報奨に関する学術文献を提示することを目的としている。
Google、Google Scholar、PhilPapers、IEEE Xploreが検索され、5つのバイアス報奨プログラムと5つの研究論文が特定された。
すべてのバイアス報奨金は、時間限定のコンテストとして米国拠点の組織によって組織され、4つのプログラムと賞品プールに7000ドルから24,000ドルを公募した。
この5つの研究出版物には、アルゴリズム的な損害に対するバグ報奨金の適用に関するレポート、Twitterのバイアス報奨金に対処する記事、AIの精査を促進するための制度的なメカニズムとしてのバイアス報奨金の提案、クイアの観点からバイアス報奨を議論するワークショップ、バイアス報奨金のためのアルゴリズムフレームワークが含まれている。
我々は、コーディング経験のない人を含めることが、報奨金プログラムに参加するための技術的要件を減らすことの重要性を論じる。
バイアス報奨金の採用が限られていることを踏まえると、今後の取り組みはバグ報奨金からのベストプラクティスの転送可能性を探り、そのようなプログラムが過小評価されたグループに敏感に設計され、組織への採用障壁を低くする方法について検討する必要がある。
関連論文リスト
- Making Bias Non-Predictive: Training Robust LLM Judges via Reinforcement Learning [91.8584139564909]
大規模言語モデル(LLM)は、ますます自動化された審査員として機能するが、認知バイアスの影響を受けやすいままである。
本稿では,重要原則に基づく強化学習フレームワークである疫学独立訓練(EIT)を提案する。
EITはバランスの取れた競合戦略を通じてこれを運用します。
論文 参考訳(メタデータ) (2026-02-02T01:43:48Z) - Misalignment Bounty: Crowdsourcing AI Agent Misbehavior [0.16100415819628258]
ミスサライメント・バウンティは意図しないあるいは安全でない目標を追求するエージェントの事例を収集した。
賞金は295件であり、そのうち9件が授与された。
本報告では,プログラムのモチベーションと評価基準について説明する。
論文 参考訳(メタデータ) (2025-10-22T16:28:48Z) - Bias is a Math Problem, AI Bias is a Technical Problem: 10-year Literature Review of AI/LLM Bias Research Reveals Narrow [Gender-Centric] Conceptions of 'Bias', and Academia-Industry Gap [0.1534667887016089]
ACL、FAccT、NeurIPS、AAAIの4つの主要な会場/組織において、AI/LLMバイアスをカバーする研究のレビューを行う。
189件の論文を通じて、偏見研究のパターンと、それらが一般的に注目する人間のアイデンティティの軸について明らかにした。
今後AI/LLMフェアネス研究への推奨で締めくくります。
論文 参考訳(メタデータ) (2025-08-14T20:53:33Z) - Bound by the Bounty: Collaboratively Shaping Evaluation Processes for
Queer AI Harms [14.872177285434999]
我々は、クイアコミュニティに対して、彼らの立場と、監査プロセスへの欲求について尋ねる。
我々は,批判的,偏見的な報奨金に関する参加ワークショップを開催した。
我々は、報奨金のコミュニティ所有を提唱し、報奨金を参加プロセスで補完することで締めくくる。
論文 参考訳(メタデータ) (2023-07-15T00:49:45Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Whole Page Unbiased Learning to Rank [59.52040055543542]
アンバイアスド・ラーニング・トゥ・ランク(ULTR)アルゴリズムは、バイアスド・クリックデータを用いたアンバイアスド・ランキングモデルを学ぶために提案される。
本稿では,BALというアルゴリズムをランク付けするバイアス非依存学習を提案する。
実世界のデータセットによる実験結果から,BALの有効性が検証された。
論文 参考訳(メタデータ) (2022-10-19T16:53:08Z) - Pseudo AI Bias [0.0]
Pseudo Artificial Intelligence bias (PAIB) は文学において広く普及している。
誤解、疑似機械的偏見、アルゴリズム予測の過剰な発見によるPAIBは社会的に有害である。
論文 参考訳(メタデータ) (2022-10-14T22:53:18Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - An Algorithmic Framework for Bias Bounties [11.246046276053898]
我々は「バイアス報奨金」のためのアルゴリズムフレームワークの提案と分析を行う。
バイアス報奨金(bias bounties)とは、トレーニングされたモデルの改善を提案するために外部参加者が招待されるイベントである。
我々のフレームワークは、参加者が任意のサブグループの改善を提出し、アルゴリズムによって更新されたモデルに組み込むことを可能にする。
論文 参考訳(メタデータ) (2022-01-25T15:57:48Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。