論文の概要: Embracing Contradiction: Theoretical Inconsistency Will Not Impede the Road of Building Responsible AI Systems
- arxiv url: http://arxiv.org/abs/2505.18139v2
- Date: Tue, 27 May 2025 20:19:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 12:33:41.722469
- Title: Embracing Contradiction: Theoretical Inconsistency Will Not Impede the Road of Building Responsible AI Systems
- Title(参考訳): 矛盾を受け入れる:理論上の矛盾は、責任あるAIシステム構築の道に影響を与えない
- Authors: Gordon Dai, Yunze Xiao,
- Abstract要約: このポジションペーパーでは、Responsible AI(RAI)メトリクスでよく見られる理論上の矛盾は、排除すべき欠陥ではなく、価値のある機能として受け入れるべきである、と論じている。
メトリクスを異なる目的として扱うことで、これらの矛盾をナビゲートすることは、3つの重要な利点をもたらすと我々は主張する。
- 参考スコア(独自算出の注目度): 0.6906005491572401
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This position paper argues that the theoretical inconsistency often observed among Responsible AI (RAI) metrics, such as differing fairness definitions or tradeoffs between accuracy and privacy, should be embraced as a valuable feature rather than a flaw to be eliminated. We contend that navigating these inconsistencies, by treating metrics as divergent objectives, yields three key benefits: (1) Normative Pluralism: Maintaining a full suite of potentially contradictory metrics ensures that the diverse moral stances and stakeholder values inherent in RAI are adequately represented. (2) Epistemological Completeness: The use of multiple, sometimes conflicting, metrics allows for a more comprehensive capture of multifaceted ethical concepts, thereby preserving greater informational fidelity about these concepts than any single, simplified definition. (3) Implicit Regularization: Jointly optimizing for theoretically conflicting objectives discourages overfitting to one specific metric, steering models towards solutions with enhanced generalization and robustness under real-world complexities. In contrast, efforts to enforce theoretical consistency by simplifying or pruning metrics risk narrowing this value diversity, losing conceptual depth, and degrading model performance. We therefore advocate for a shift in RAI theory and practice: from getting trapped in inconsistency to characterizing acceptable inconsistency thresholds and elucidating the mechanisms that permit robust, approximated consistency in practice.
- Abstract(参考訳): このポジションペーパーは、責任あるAI(RAI)メトリクスの中でしばしば見られる理論上の矛盾、例えば、公正の定義の相違や、精度とプライバシのトレードオフは、排除すべき欠陥ではなく、価値のある機能として受け入れるべきである、と論じている。
1) 規範的多元主義: 潜在的に矛盾する指標の完全なスイートを維持することは、RAIに固有の多様な道徳的スタンスと利害関係者の価値観が適切に表現されていることを保証します。
2) 認識論的完全性: 複数、時には矛盾するメトリクスを用いることで、多面的な倫理的概念をより包括的に捉え、単一の単純な定義よりも、これらの概念に関する情報的忠実性を維持することができる。
(3) 暗黙の正規化: 理論的に矛盾する目的を共同で最適化することで、ある特定の計量に過度に適合し、実世界の複素量の下で一般化と堅牢性を高めた解に対するステアリングモデルが妨げられる。
対照的に、メトリクスを単純化または刈り取ることによって理論的整合性を強化する努力は、この価値の多様性を狭め、概念的な深さを減らし、モデル性能を低下させるリスクがある。
したがって、我々は、RAI理論と実践の転換を提唱する:不整合に陥り、許容される不整合しきい値を特徴づけ、現実において堅牢で近似された一貫性を許容するメカニズムを解明する。
関連論文リスト
- The Policy Cliff: A Theoretical Analysis of Reward-Policy Maps in Large Language Models [0.0]
強化学習(RL)は,大規模言語と推論モデル(LLMs/LRMs)の行動形成において重要な役割を担っている
しかし、しばしば不安定で不安定なポリシーを生み出し、急激な推論、偽りのアライメント、命令の不服従といった重大な失敗に繋がる。
本稿では,報酬関数から最適ポリシーへの写像の安定性を解析するための厳密な数学的枠組みを提案する。
論文 参考訳(メタデータ) (2025-07-27T06:56:10Z) - Revisiting Bisimulation Metric for Robust Representations in Reinforcement Learning [7.2951508303962385]
従来の模擬検定法では,2つの問題点が指摘されている。
本稿では,報酬ギャップのより正確な定義と適応係数を持つ新しい更新演算子を特徴とするバイシミュレーション・メトリックを提案する。
論文 参考訳(メタデータ) (2025-07-24T15:42:22Z) - Principled Multimodal Representation Learning [70.60542106731813]
マルチモーダル表現学習は、多様なデータモダリティを統合することにより、統一された表現空間を作ろうとする。
最近の進歩は、複数のモードの同時アライメントを調査しているが、いくつかの課題が残っている。
複数モーダルの同時アライメントを実現する新しいフレームワークであるPMRL(Principled Multimodal Representation Learning)を提案する。
論文 参考訳(メタデータ) (2025-07-23T09:12:25Z) - Adaptive Termination for Multi-round Parallel Reasoning: An Universal Semantic Entropy-Guided Framework [12.361554676966552]
大規模言語モデル(LLM)の最近の進歩は、人工知能への進歩を加速させている。
逐次的および並列的推論パラダイムの相補的な長所を生かしたフレキシブルなテスト時協調推論フレームワークを設計することを目指している。
論文 参考訳(メタデータ) (2025-07-09T13:28:35Z) - Fair Deepfake Detectors Can Generalize [51.21167546843708]
共同設立者(データ分散とモデルキャパシティ)の制御により,公正な介入による一般化が向上することを示す。
この知見を応用して, 逆正当性重み付けとサブグループワイド特徴正規化を併用し, 新たなアライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・インセンティブ・インターベンション・インベンション・インテクション(DAID)を提案する。
DAIDは、いくつかの最先端技術と比較して、公平性と一般化の両方において一貫して優れた性能を達成する
論文 参考訳(メタデータ) (2025-07-03T14:10:02Z) - Stochastically Dominant Peer Prediction [11.183872292320824]
我々は、真理報告の強い保証として、支配的支配的(SD-truthfulness)を提案する。
単純な解 -- バイナリロータリーに丸めること -- は、SDトラスフルネスを強制するが、しばしば感度を低下させる。
ラウンドリングのより慎重な適用が、感度をよりよく維持できることを示す。
論文 参考訳(メタデータ) (2025-06-02T21:07:24Z) - Bounded Rationality for LLMs: Satisficing Alignment at Inference-Time [52.230936493691985]
本稿では,2次基準のしきい値に基づく制約を満たしつつ,主目的を最大化し,アライメントの多面性に対処する推論フレームワークSITAlignを提案する。
我々は、満足度に基づく推論アライメントアプローチの準最適境界を導出することで理論的洞察を提供する。
論文 参考訳(メタデータ) (2025-05-29T17:56:05Z) - SConU: Selective Conformal Uncertainty in Large Language Models [59.25881667640868]
SconU(Selective Conformal Uncertainity)と呼ばれる新しいアプローチを提案する。
我々は,特定の管理可能なリスクレベルで設定されたキャリブレーションの不確実性分布から,与えられたサンプルが逸脱するかどうかを決定するのに役立つ2つの共形p値を開発する。
我々のアプローチは、単一ドメインと学際的コンテキストの両方にわたる誤発見率の厳密な管理を促進するだけでなく、予測の効率を高める。
論文 参考訳(メタデータ) (2025-04-19T03:01:45Z) - Position: We Need An Adaptive Interpretation of Helpful, Honest, and Harmless Principles [24.448749292993234]
Helpful, Honest, and Harmless(HHH)原則は、AIシステムを人間の価値と整合させるためのフレームワークである。
我々は,HHH原理の適応的解釈を論じ,多様なシナリオへの適応のための参照フレームワークを提案する。
この作業は、AIアライメントを改善するための実践的な洞察を提供し、HHH原則が現実のAIデプロイメントにおいて基礎的かつ運用的に有効であることを保証する。
論文 参考訳(メタデータ) (2025-02-09T22:41:24Z) - Independence Constrained Disentangled Representation Learning from Epistemological Perspective [13.51102815877287]
Disentangled Representation Learningは、データ生成プロセスにおいて意味論的に意味のある潜伏変数を識別するデータエンコーダをトレーニングすることで、ディープラーニングメソッドの説明可能性を向上させることを目的としている。
不整合表現学習の目的については合意が得られない。
本稿では,相互情報制約と独立性制約を統合した非絡み合い表現学習手法を提案する。
論文 参考訳(メタデータ) (2024-09-04T13:00:59Z) - VALID: a Validated Algorithm for Learning in Decentralized Networks with Possible Adversarial Presence [13.612214163974459]
不均一なデータを持つ非方向性ネットワークに対して、検証された分散学習のパラダイムを導入する。
VALIDプロトコルは、検証された学習保証を達成した最初のプロトコルである。
興味深いことに、VALIDは敵のない環境での最適なパフォーマンス指標を維持している。
論文 参考訳(メタデータ) (2024-05-12T15:55:43Z) - Answering Causal Queries at Layer 3 with DiscoSCMs-Embracing
Heterogeneity [0.0]
本稿では, 分散一貫性構造因果モデル (DiscoSCM) フレームワークを, 反事実推論の先駆的アプローチとして提唱する。
論文 参考訳(メタデータ) (2023-09-17T17:01:05Z) - Leveraging Contextual Counterfactuals Toward Belief Calibration [1.418033127602866]
メタアライメント問題は、人間の信念が多様であり、集団間で一致していないことです。
後悔の多い状況では、意思決定者の信念やそのような信念が保持される強みを更新する上で、文脈的反事実やレコメンデーションコストが重要であることが観察される。
我々は,この信念の多様性を文脈駆動の反実的推論でより均一に校正するために,信念の校正サイクルの枠組みを導入する。
論文 参考訳(メタデータ) (2023-07-13T01:22:18Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Enriching Disentanglement: From Logical Definitions to Quantitative Metrics [59.12308034729482]
複雑なデータにおける説明的要素を遠ざけることは、データ効率の表現学習にとって有望なアプローチである。
論理的定義と量的指標の関連性を確立し, 理論的に根ざした絡み合いの指標を導出する。
本研究では,非交叉表現の異なる側面を分離することにより,提案手法の有効性を実証的に実証する。
論文 参考訳(メタデータ) (2023-05-19T08:22:23Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。