論文の概要: Bias Mitigation Agent: Optimizing Source Selection for Fair and Balanced Knowledge Retrieval
- arxiv url: http://arxiv.org/abs/2508.18724v1
- Date: Tue, 26 Aug 2025 06:44:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.707936
- Title: Bias Mitigation Agent: Optimizing Source Selection for Fair and Balanced Knowledge Retrieval
- Title(参考訳): Bias Mitigation Agent: 公平かつバランスの取れた知識検索のためのソース選択の最適化
- Authors: Karanbir Singh, Deepak Muppiri, William Ngu,
- Abstract要約: 大規模言語モデル(LLM)は、生成的応用の時代を解き放ち、人工知能の分野を変えてきた。
生成AI機能の上に構築されたAgentic AIは、推論、検索、行動が可能な自律的目標駆動システムへの大きなシフトを表している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) have transformed the field of artificial intelligence by unlocking the era of generative applications. Built on top of generative AI capabilities, Agentic AI represents a major shift toward autonomous, goal-driven systems that can reason, retrieve, and act. However, they also inherit the bias present in both internal and external information sources. This significantly affects the fairness and balance of retrieved information, and hence reduces user trust. To address this critical challenge, we introduce a novel Bias Mitigation Agent, a multi-agent system designed to orchestrate the workflow of bias mitigation through specialized agents that optimize the selection of sources to ensure that the retrieved content is both highly relevant and minimally biased to promote fair and balanced knowledge dissemination. The experimental results demonstrate an 81.82\% reduction in bias compared to a baseline naive retrieval strategy.
- Abstract(参考訳): 大規模言語モデル(LLM)は、生成的応用の時代を解き放ち、人工知能の分野を変革した。
生成AI機能の上に構築されたAgentic AIは、推論、検索、行動が可能な自律的目標駆動システムへの大きなシフトを表している。
しかし、それらは内部情報ソースと外部情報ソースの両方に存在するバイアスを継承する。
これは検索した情報の公平性とバランスに大きく影響し、ユーザ信頼を低下させる。
この重要な課題に対処するために、我々は、検索したコンテンツが、公正でバランスの取れた知識の普及を促進するために、非常に関連性が高く、最小限のバイアスがかかっていることを確実にするために、ソースの選択を最適化する特別なエージェントを介してバイアス緩和のワークフローを編成する、新しいバイアス緩和エージェント(Bias Mitigation Agent)を導入する。
実験の結果, ベースラインナイーブ検索法と比較して81.82\%のバイアス低減効果を示した。
関連論文リスト
- Addressing Bias in LLMs: Strategies and Application to Fair AI-based Recruitment [49.81946749379338]
この研究は、トランスフォーマーベースのシステムの能力を分析して、データに存在する人口統計バイアスを学習する。
最終ツールにおける偏りを緩和する手段として,学習パイプラインからの性別情報を削減するためのプライバシー向上フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T15:29:43Z) - Safety Devolution in AI Agents [56.482973617087254]
本研究では,検索アクセスの拡大がモデル信頼性,バイアス伝搬,有害コンテンツ生成に与える影響について検討した。
整列 LLM 上に構築された検索補助エージェントは、検索なしでの無検閲モデルよりも安全でない振る舞いをすることが多い。
これらの発見は、検索が強化され、ますます自律的なAIシステムにおいて、公正性と信頼性を確保するための堅牢な緩和戦略の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-05-20T11:21:40Z) - Behind the Screens: Uncovering Bias in AI-Driven Video Interview Assessments Using Counterfactuals [0.0]
本稿では,AIによる人格評価において,偏見を評価・定量化するための反ファクトベースのフレームワークを提案する。
本手法では,求職者の対実表現を生成するためにGAN(Generative Adversarial Network)を用いる。
この作業は、商用AI採用プラットフォームの公正監査のためのスケーラブルなツールを提供する。
論文 参考訳(メタデータ) (2025-05-17T18:46:14Z) - Assessing the Potential of Generative Agents in Crowdsourced Fact-Checking [7.946359845249688]
大規模言語モデル(LLM)は、ファクトチェックタスク全体で強いパフォーマンスを示している。
本稿では,伝統的にヒトの群集に予約されていた事実確認作業に,生成エージェントが有意義に寄与するかどうかを考察する。
エージェント・群衆は、誠実さの分類において人間の群衆より優れ、内部の一貫性が高く、社会的および認知的バイアスに対する感受性が低下している。
論文 参考訳(メタデータ) (2025-04-24T18:49:55Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - DeNetDM: Debiasing by Network Depth Modulation [6.550893772143]
本稿では,ネットワーク深度変調を用いた新しいデバイアス法DeNetDMを提案する。
本手法では,バイアスアノテーションや明示的なデータ拡張は必要とせず,いずれかあるいは両方を必要とするアプローチと同等に実行する。
DeNetDMは、合成データセットと実世界のデータセットの両方において、既存のデバイアス手法を5%上回っていることを実証する。
論文 参考訳(メタデータ) (2024-03-28T22:17:19Z) - InfoRM: Mitigating Reward Hacking in RLHF via Information-Theoretic Reward Modeling [66.3072381478251]
Reward Hacking(報酬の過度な最適化)は依然として重要な課題だ。
本稿では,報奨モデル,すなわちInfoRMのためのフレームワークを提案する。
InfoRMの過度な最適化検出機構は、有効であるだけでなく、幅広いデータセットにわたって堅牢であることを示す。
論文 参考訳(メタデータ) (2024-02-14T17:49:07Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。