論文の概要: A Tale of Two Imperatives: Privacy and Explainability
- arxiv url: http://arxiv.org/abs/2412.20798v2
- Date: Tue, 31 Dec 2024 16:13:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-03 11:36:47.827872
- Title: A Tale of Two Imperatives: Privacy and Explainability
- Title(参考訳): 2つのインペラティブの物語:プライバシと説明可能性
- Authors: Supriya Manna, Niladri Sett,
- Abstract要約: 科学分野におけるディープラーニングの優位性は、高い意思決定を形作っている。
本稿では,RTP(Right-to-Privacy)とRTE(Right-to-Explanation)を組み合わせる複雑さについて検討する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Deep learning's preponderance across scientific domains has reshaped high-stakes decision-making, making it essential to follow rigorous operational frameworks that include both Right-to-Privacy (RTP) and Right-to-Explanation (RTE). This paper examines the complexities of combining these two requirements. For RTP, we focus on `Differential privacy' (DP), which is considered the current \textit{gold standard} for privacy-preserving machine learning due to its strong quantitative guarantee of privacy. For RTE, we focus on post-hoc explainers: they are the \textit{go-to} option for model auditing as they operate independently of model training. We formally investigate DP models and various commonly-used post-hoc explainers: how to evaluate these explainers subject to RTP, and analyze the intrinsic interactions between DP models and these explainers. Furthermore, our work throws light on how RTP and RTE can be effectively combined in high-stakes applications. Our study concludes by outlining an industrial software pipeline, with the example of a wildly used use-case, that respects both RTP and RTE requirements.
- Abstract(参考訳): 科学的領域におけるディープラーニングの優位性は、高い意思決定を形作っており、RTP(Right-to-Privacy)とRTE(Right-to-Explanation)の両方を含む厳格な運用フレームワークに従うことが不可欠である。
本稿では,これら2つの要件を組み合わせる複雑さについて検討する。
RTPでは、プライバシーの量的保証が強いため、プライバシを保存する機械学習の現在の \textit{gold standard} であると考えられる 'Differential Privacy' (DP) に焦点を当てる。
RTEでは、モデルトレーニングとは無関係に動作するので、モデル監査のための \textit{go-to} オプションである。
本稿では, DPモデルと多種多種多種多種多種多種多種多種多種多種多種多種多型について検討し, DPモデルと多種多種多種多種多種多種多種多型・多種多種多種多型・多種多種多型・多種多種多種多型・多種多種多種多型・多種多種多種多型・多種多種多型・多種多種多種多種多種多型・多種多種多種多種多型・多種多種多種多種多種多型・多種多種多種多種多種多種多種多種多種多型・多種多種多種多種多種多種多種多種多種
さらに、我々の研究は、RTPとRTEを高精細なアプリケーションで効果的に組み合わせられる方法に光を当てています。
我々の研究は、産業用ソフトウェアパイプラインの概要を、RTPとRTEの要件の両方を尊重する、非常に使われているユースケースの例にまとめて締めくくります。
関連論文リスト
- ReasoningRank: Teaching Student Models to Rank through Reasoning-Based Knowledge Distillation [11.756344944226495]
本稿では、透明性を高める新しいオープンソースリグレードアプローチであるReason-to-Rank(R2R)を提案する。
R2Rは2つのタイプの推論を生成する: 直接関連推論(direct relevance reasoning) - ドキュメントがクエリにどのように対処するかを説明する。
学生モデルは、有意義な推論と文書の書き直しを訓練し、複数のデータセットにまたがる競争性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T16:25:39Z) - Tractable Offline Learning of Regular Decision Processes [50.11277112628193]
この研究は、正則決定過程(RDP)と呼ばれる非マルコフ環境のクラスにおけるオフライン強化学習(RL)を研究する。
インスは、未来の観測と過去の相互作用からの報酬の未知の依存を実験的に捉えることができる。
多くのアルゴリズムは、まずこの未知の依存関係を自動学習技術を用いて再構築する。
論文 参考訳(メタデータ) (2024-09-04T14:26:58Z) - Not All Prompts Are Made Equal: Prompt-based Pruning of Text-to-Image Diffusion Models [59.16287352266203]
本稿では,テキスト・ツー・イメージ(T2I)モデルのための新しいプロンプトベースのプルーニング手法であるAdaptive Prompt-Tailored Pruning (APTP)を紹介する。
APTPは入力テキストプロンプトに必要な容量を決定することを学び、それをアーキテクチャコードにルーティングする。
APTPはFID、CLIP、CMMDスコアの点でシングルモデルプルーニングベースラインを上回っている。
論文 参考訳(メタデータ) (2024-06-17T19:22:04Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Benchmarking Deep Facial Expression Recognition: An Extensive Protocol
with Balanced Dataset in the Wild [5.044138778500218]
顔表情認識(FER)は、人間とコンピュータの相互作用において重要な部分である。
我々は,クロスドメイン検証のための新しい顔表情データセットを収集した。
ネットワークアーキテクチャを分類し、実際のシナリオにディープFERメソッドをデプロイする際の推奨事項をまとめた。
論文 参考訳(メタデータ) (2023-11-06T06:48:49Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - Towards End-to-End Open Conversational Machine Reading [57.18251784418258]
オープン検索型会話機械読解(OR-CMR)タスクでは,機械は対話履歴とテキスト知識ベースに応答するマルチターン質問を行う必要がある。
OR-CMRを完全エンドツーエンドで統一されたテキスト・ツー・テキスト・タスクとしてモデル化し、ShARCおよびOR-ShARCデータセットを用いた実験により、提案したエンドツーエンド・フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-10-13T15:50:44Z) - Benchmarking Constraint Inference in Inverse Reinforcement Learning [19.314352936252444]
多くの実世界の問題において、専門家が従う制約は、RLエージェントに数学的に、未知に指定することがしばしば困難である。
本稿では,ロボット制御と自律運転という2つの主要なアプリケーション領域の文脈において,CIRLベンチマークを構築する。
CIRLアルゴリズムのパフォーマンスを再現するための情報を含むこのベンチマークは、https://github.com/Guiliang/CIRL-benchmarks-publicで公開されている。
論文 参考訳(メタデータ) (2022-06-20T09:22:20Z) - Relational-Grid-World: A Novel Relational Reasoning Environment and An
Agent Model for Relational Information Extraction [0.0]
強化学習(RL)エージェントは特定の問題のために特別に設計され、一般的には解釈不能な作業プロセスを持つ。
統計的手法に基づくRLアルゴリズムは、論理プログラミングのようなシンボリック人工知能(AI)ツールを用いて、一般化可能性と解釈可能性の観点から改善することができる。
環境オブジェクトの明示的なリレーショナル表現をサポートするモデルフリーなRLアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-07-12T11:30:48Z) - DEPARA: Deep Attribution Graph for Deep Knowledge Transferability [91.06106524522237]
本稿では,PR-DNNから学んだ知識の伝達可能性を検討するために,DreP Attribution gRAph (DEPARA)を提案する。
DEPARAでは、ノードは入力に対応し、PR-DNNの出力に関してベクトル化された属性マップで表現される。
2つのPR-DNNの知識伝達性は、対応するDEPARAの類似性によって測定される。
論文 参考訳(メタデータ) (2020-03-17T02:07:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。