論文の概要: Enhancing Interpretability in Generative AI Through Search-Based Data Influence Analysis
- arxiv url: http://arxiv.org/abs/2504.01771v1
- Date: Wed, 02 Apr 2025 14:29:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:24:02.532463
- Title: Enhancing Interpretability in Generative AI Through Search-Based Data Influence Analysis
- Title(参考訳): 検索に基づくデータ影響分析による生成AIの解釈可能性向上
- Authors: Theodoros Aivalis, Iraklis A. Klampanos, Antonis Troumpoukis, Joemon M. Jose,
- Abstract要約: 生成AIモデルは強力な能力を提供するが、透明性が欠如していることが多いため、アウトプットの解釈が困難である。
本研究は,学習データが出力に与える影響を分析することにより,これらのモデルの解釈可能性を向上させるための探索的アプローチを導入する。
- 参考スコア(独自算出の注目度): 2.7096399168532015
- License:
- Abstract: Generative AI models offer powerful capabilities but often lack transparency, making it difficult to interpret their output. This is critical in cases involving artistic or copyrighted content. This work introduces a search-inspired approach to improve the interpretability of these models by analysing the influence of training data on their outputs. Our method provides observational interpretability by focusing on a model's output rather than on its internal state. We consider both raw data and latent-space embeddings when searching for the influence of data items in generated content. We evaluate our method by retraining models locally and by demonstrating the method's ability to uncover influential subsets in the training data. This work lays the groundwork for future extensions, including user-based evaluations with domain experts, which is expected to improve observational interpretability further.
- Abstract(参考訳): 生成AIモデルは強力な能力を提供するが、透明性が欠如していることが多いため、アウトプットの解釈が困難である。
これは、芸術的または著作権のあるコンテンツを含む場合において重要である。
本研究は,学習データが出力に与える影響を分析することにより,これらのモデルの解釈可能性を向上させるための探索的アプローチを導入する。
本手法は, 内部状態ではなく, モデル出力に焦点をあてることにより, 観察的解釈性を提供する。
生成コンテンツにおけるデータ項目の影響を探索する際,生データと潜時空間の埋め込みの両方を考慮する。
本研究では,モデルを局所的に再訓練し,学習データに影響を及ぼすサブセットを明らかにすることによって,本手法の評価を行う。
本研究は,ユーザによるドメインエキスパートによる評価など,今後の拡張の基盤となるもので,さらなる観察的解釈可能性の向上が期待されている。
関連論文リスト
- Explaining the Unexplained: Revealing Hidden Correlations for Better Interpretability [1.8274323268621635]
Real Explainer(RealExp)は、Shapley値を個々の特徴と特徴相関の重要度に分解する、解釈可能性の手法である。
RealExpは、個々の特徴とそれらの相互作用を正確に定量化することで、解釈可能性を高める。
論文 参考訳(メタデータ) (2024-12-02T10:50:50Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - Towards Explainable Artificial Intelligence (XAI): A Data Mining
Perspective [35.620874971064765]
この研究は、データ収集、処理、分析が説明可能なAI(XAI)にどのように貢献するかを「データ中心」の視点で検証する。
我々は,既存の研究を,深層モデルの解釈,トレーニングデータの影響,ドメイン知識の洞察の3つのカテゴリに分類する。
具体的には、XAIの方法論を、モダリティをまたいだデータのトレーニングおよびテストに関するデータマイニング操作に蒸留する。
論文 参考訳(メタデータ) (2024-01-09T06:27:09Z) - Unveiling the Potential of Probabilistic Embeddings in Self-Supervised
Learning [4.124934010794795]
自己教師付き学習は、ラベルのないデータから意味のある表現をモデルが取得できるようにすることで、機械学習を前進させる上で重要な役割を担っている。
本稿では,情報ボトルネックに対する確率的モデリングの影響について検討し,情報圧縮と情報保存のトレードオフについて述べる。
以上の結果から,損失空間に新たなボトルネックを導入することにより,アウト・オブ・ディストリビューションの事例を検出する能力が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2023-10-27T12:01:16Z) - Striving for data-model efficiency: Identifying data externalities on
group performance [75.17591306911015]
信頼できる、効果的で責任ある機械学習システムの構築は、トレーニングデータとモデリング決定の違いが、予測パフォーマンスにどのように影響するかを理解することに集中する。
我々は、特定のタイプのデータモデル非効率性に注目し、一部のソースからトレーニングデータを追加することで、集団の重要なサブグループで評価されるパフォーマンスを実際に低下させることができる。
以上の結果から,データ効率が正確かつ信頼性の高い機械学習の鍵となることが示唆された。
論文 参考訳(メタデータ) (2022-11-11T16:48:27Z) - Addressing Bias in Visualization Recommenders by Identifying Trends in
Training Data: Improving VizML Through a Statistical Analysis of the Plotly
Community Feed [55.41644538483948]
機械学習は、高いスケーラビリティと表現力のために、視覚化レコメンデーションに対する有望なアプローチである。
本研究は,統計的解析によりトレーニングデータの傾向を特定することで,機械学習可視化推薦システムにおけるトレーニングバイアスに対処することを目的とする。
論文 参考訳(メタデータ) (2022-03-09T18:36:46Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Interpreting Deep Models through the Lens of Data [5.174367472975529]
本稿では、これらのデータポイントが結果の分類器に与える影響を識別する手法について、詳細な分析を行う。
提案手法は, ランダムなアプローチよりもミスラベルを検出できるが, トレーニング損失に基づくサンプル選択は, 優れた性能を示した。
論文 参考訳(メタデータ) (2020-05-05T07:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。