論文の概要: Kantian-Utilitarian XAI: Meta-Explained
- arxiv url: http://arxiv.org/abs/2510.03892v1
- Date: Sat, 04 Oct 2025 18:16:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.32295
- Title: Kantian-Utilitarian XAI: Meta-Explained
- Title(参考訳): カンティアン・ユーティタリアンXAI:メタ説明
- Authors: Zahra Atf, Peter R. Lewis,
- Abstract要約: 我々は,コーヒー領域における消費者の意思決定を倫理的に認識するためのゲーム化された説明可能なAI(XAI)システムを提案する。
構造化された構成(属性スキーマ、認証マップ、ウェイト、ルールセット)、監査性のためのポリシートレース、インタラクティブUIをリリースします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a gamified explainable AI (XAI) system for ethically aware consumer decision-making in the coffee domain. Each session comprises six rounds with three options per round. Two symbolic engines provide real-time reasons: a Kantian module flags rule violations (e.g., child labor, deforestation risk without shade certification, opaque supply chains, unsafe decaf), and a utilitarian module scores options via multi-criteria aggregation over normalized attributes (price, carbon, water, transparency, farmer income share, taste/freshness, packaging, convenience). A meta-explainer with a regret bound (0.2) highlights Kantian--utilitarian (mis)alignment and switches to a deontically clean, near-parity option when welfare loss is small. We release a structured configuration (attribute schema, certification map, weights, rule set), a policy trace for auditability, and an interactive UI.
- Abstract(参考訳): 我々は,コーヒー領域における消費者の意思決定を倫理的に認識するためのゲーム化された説明可能なAI(XAI)システムを提案する。
各セッションは6ラウンドで構成され、1ラウンドごとに3つのオプションがある。
2つのシンボリックエンジンは、リアルタイムな理由を提供する: カンチアンモジュールフラグはルール違反(例えば、児童労働、森林破壊リスクのシェード認証なし、不透明なサプライチェーン、安全でないデフ)と、実用モジュールは、通常の属性(価格、炭素、水、透明性、ファーマー所得のシェア、味と鮮度、パッケージング、利便性)よりも多基準のアグリゲーションを介してオプションをスコアする。
後悔に満ちたメタ説明者(0.2)は、カンティアン・実用主義的(ミス)アライメントを強調し、福祉の損失が小さい場合には、非合法的にクリーンでほぼパリティに近い選択肢に切り替える。
構造化された構成(属性スキーマ、認証マップ、ウェイト、ルールセット)、監査性のためのポリシートレース、インタラクティブUIをリリースします。
関連論文リスト
- AbsTopK: Rethinking Sparse Autoencoders For Bidirectional Features [19.58274892471746]
スパースオートエンコーダ(SAE)は,大規模言語モデルの解釈可能性向上のための強力な技術として登場した。
スパース符号の近位勾配法をアンロールすることで,そのような枠組みを導入する。
シングルステップ更新は、ReLU、JumpReLU、TopKを含む一般的なSAEの変種を自然に回復することを示す。
論文 参考訳(メタデータ) (2025-10-01T01:29:31Z) - Core Safety Values for Provably Corrigible Agents [2.6451153531057985]
我々は,複数段階の部分的に観察された環境において,検証可能な保証を付与し,適応性のための最初の実装可能なフレームワークを紹介した。
私たちのフレームワークは、単一の報酬を5つの*構造的に分離された*ユーティリティヘッドに置き換えます。
敵がエージェントを修正できるオープンエンド設定では、任意のポストハックエージェントが調整性に反するかどうかを判断することは不可能である。
論文 参考訳(メタデータ) (2025-07-28T16:19:25Z) - Reinforcing Video Reasoning with Focused Thinking [65.85683941058916]
本稿では,集中的思考と深い報酬の粒度で視覚的推論を強化する新しいフレームワークであるTW-GRPOを提案する。
具体的には,高情報密度のトークンを優先するトークン重み付け機構を用いる。
また,シングルチョイスからマルチチョイスQAタスクにシフトすることで,RLトレーニングを再構築する。
論文 参考訳(メタデータ) (2025-05-30T15:42:19Z) - Beyond 'Aha!': Toward Systematic Meta-Abilities Alignment in Large Reasoning Models [86.88657425848547]
大型推論モデル(LRMs)はすでに長い連鎖推論のための潜在能力を持っている。
我々は、自動生成の自己検証タスクを使用して、モデルに推論、帰納、誘拐の3つのメタ能力を持たせることを明確にした。
我々の3つのステージ・パイプラインの個別アライメント、パラメータ空間のマージ、ドメイン固有の強化学習は、命令調整ベースラインと比較して10%以上のパフォーマンス向上を実現します。
論文 参考訳(メタデータ) (2025-05-15T17:58:33Z) - Towards Generative Abstract Reasoning: Completing Raven's Progressive Matrix via Rule Abstraction and Selection [52.107043437362556]
Raven's Progressive Matrix (RPM) は、マシンインテリジェンスにおける抽象的な視覚的推論を探索するために広く使われている。
RPMテストの参加者は、属性変更ルールを推論し、組み合わせることで、強力な推論能力を示すことができる。
本稿では,ルール AbstractIon と Selection を用いて,回答生成問題に対する潜時変数モデルを提案する。
論文 参考訳(メタデータ) (2024-01-18T13:28:44Z) - LiON: Learning Point-wise Abstaining Penalty for LiDAR Outlier DetectioN Using Diverse Synthetic Data [40.14867940784032]
LiDARに基づくセマンティックシーン理解は、現代の自律運転認識スタックにおいて重要なモジュールである。
LiDARポイントクラウドのアウトリーチポイントを特定することは、意味的に豊富な情報が不足しているため、難しい。
我々の解決策は、不適切なカテゴリの選択を控えるという基本的な考え方に基づいているが、マージンベースの損失を伴うポイントワイドなペナルティを学習する。
我々は,異なる種類の(合成された)アウトレイアに対して,ポイントワイドなペナルティ以外の異なる禁罰を学習することが,パフォーマンスをさらに向上させることを示した。
論文 参考訳(メタデータ) (2023-09-19T00:52:36Z) - Noisy-Correspondence Learning for Text-to-Image Person Re-identification [50.07634676709067]
本稿では,雑音対応においても頑健な視覚関係を学習するための新しいロバスト二重埋め込み法(RDE)を提案する。
提案手法は,3つのデータセット上での合成ノイズ対応と非合成ノイズ対応を両立させる。
論文 参考訳(メタデータ) (2023-08-19T05:34:13Z) - Generalized Disparate Impact for Configurable Fairness Solutions in ML [8.615011650553518]
Herschfeld-Gebelein-Renyi(HGR)指標は有用であるが,いくつかの限界がある。
1)意味論の観点でHGRを補完する、2)完全に解釈可能で透明である、3)有限サンプルに対して堅牢である、(4)特定の応用に適合する堅牢である。
論文 参考訳(メタデータ) (2023-05-29T14:57:38Z) - Exploring Explainable Selection to Control Abstractive Summarization [51.74889133688111]
説明可能性を重視した新しいフレームワークを開発する。
新しいペアワイズ行列は、文の相互作用、中心性、属性スコアをキャプチャする。
コンストラクタ内の文分割アテンション機構は、最終要約が所望のコンテンツを強調することを保証する。
論文 参考訳(メタデータ) (2020-04-24T14:39:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。