論文の概要: Reasoning Inconsistencies and How to Mitigate Them in Deep Learning
- arxiv url: http://arxiv.org/abs/2504.02577v1
- Date: Thu, 03 Apr 2025 13:40:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:58:28.894396
- Title: Reasoning Inconsistencies and How to Mitigate Them in Deep Learning
- Title(参考訳): 深層学習における不整合の理由と課題
- Authors: Erik Arakelyan,
- Abstract要約: この論文は予測的不整合を検出し定量化する2つの技術に貢献している。
トレーニングデータのバイアスから不整合を緩和するため,本論文では,データ効率のよいサンプリング手法を提案する。
最後に、この論文は、複雑な推論タスクのためにモデルを最適化する2つのテクニックを提供する。
- 参考スコア(独自算出の注目度): 4.124590489579409
- License:
- Abstract: The recent advancements in Deep Learning models and techniques have led to significant strides in performance across diverse tasks and modalities. However, while the overall capabilities of models show promising growth, our understanding of their internal reasoning processes remains limited, particularly concerning systematic inconsistencies or errors patterns of logical or inferential flaws. These inconsistencies may manifest as contradictory outputs, failure to generalize across similar tasks, or erroneous conclusions in specific contexts. Even detecting and measuring such reasoning discrepancies is challenging, as they may arise from opaque internal procedures, biases and imbalances in training data, or the inherent complexity of the task. Without effective methods to detect, measure, and mitigate these errors, there is a risk of deploying models that are biased, exploitable, or logically unreliable. This thesis aims to address these issues by producing novel methods for deep learning models that reason over knowledge graphs, natural language, and images. The thesis contributes two techniques for detecting and quantifying predictive inconsistencies originating from opaque internal procedures in natural language and image processing models. To mitigate inconsistencies from biases in training data, this thesis presents a data efficient sampling method to improve fairness and performance and a synthetic dataset generation approach in low resource scenarios. Finally, the thesis offers two techniques to optimize the models for complex reasoning tasks. These methods enhance model performance while allowing for more faithful and interpretable exploration and exploitation during inference. Critically, this thesis provides a comprehensive framework to improve the robustness, fairness, and interpretability of deep learning models across diverse tasks and modalities.
- Abstract(参考訳): 近年のディープラーニングモデルとテクニックの進歩により、さまざまなタスクやモダリティのパフォーマンスが大幅に向上した。
しかしながら、モデル全体の能力は有望な成長を示すが、内部の推論プロセスの理解は限定的であり、特に論理的または推論的欠陥の系統的不整合やエラーパターンについてである。
これらの矛盾は、矛盾した出力、類似したタスクをまたいだ一般化の失敗、あるいは特定の文脈における誤った結論として表される。
このような推論の相違の検出や測定は、不透明な内部手順、トレーニングデータにおけるバイアスや不均衡、あるいはタスク固有の複雑さから生じる可能性があるため、難しい。
これらのエラーを検出し、測定し、緩和するための効果的な方法がなければ、バイアスがあり、悪用され、論理的に信頼できないモデルをデプロイするリスクがある。
この論文は、知識グラフ、自然言語、イメージを推論するディープラーニングモデルのための新しい方法を作成することで、これらの問題に対処することを目的としている。
この論文は、自然言語および画像処理モデルにおける不透明な内部プロシージャに由来する予測的不整合を検出し定量化する2つの手法に寄与する。
トレーニングデータのバイアスから不整合を緩和するため、この論文では、公平性と性能を向上させるためのデータ効率的なサンプリング方法と、低リソースシナリオにおける合成データセット生成アプローチを提案する。
最後に、この論文は、複雑な推論タスクのためにモデルを最適化する2つのテクニックを提供する。
これらの手法は、推論中により忠実で解釈可能な探索とエクスプロイトを可能にしながら、モデル性能を向上させる。
批判的に、この論文は様々なタスクやモダリティにわたるディープラーニングモデルの堅牢性、公正性、解釈性を改善するための包括的なフレームワークを提供する。
関連論文リスト
- Causality can systematically address the monsters under the bench(marks) [64.36592889550431]
ベンチマークはさまざまなバイアス、アーティファクト、リークに悩まされている。
モデルは、調査の不十分な障害モードのため、信頼できない振る舞いをする可能性がある。
因果関係はこれらの課題を体系的に解決するための 理想的な枠組みを提供します
論文 参考訳(メタデータ) (2025-02-07T17:01:37Z) - Pattern based learning and optimisation through pricing for bin packing problem [50.83768979636913]
確率変数の分布のような問題条件が変化すると、以前の状況でうまく機能するパターンはより効果的になるかもしれないと論じる。
本研究では,パターンを効率的に同定し,各条件に対する値の動的定量化を行う新しい手法を提案する。
本手法は,制約を満たす能力と目的値に対する影響に基づいて,パターンの値の定量化を行う。
論文 参考訳(メタデータ) (2024-08-27T17:03:48Z) - Model-Agnostic Interpretation Framework in Machine Learning: A
Comparative Study in NBA Sports [0.2937071029942259]
本稿では,モデル性能と解釈可能性のトレードオフを整理する,革新的な枠組みを提案する。
我々のアプローチは高次元データに対するモジュラー操作を中心とし、解釈可能性を維持しながらエンドツーエンドの処理を可能にする。
我々は、我々のフレームワークを広範囲にテストし、計算効率と解釈可能性のバランスをとる上で、その優れた効果を検証した。
論文 参考訳(メタデータ) (2024-01-05T04:25:21Z) - Consistent Explanations in the Face of Model Indeterminacy via
Ensembling [12.661530681518899]
この研究は、モデル不確定性の存在下で予測モデルに対して一貫した説明を提供することの課題に対処する。
これらのシナリオで提供される説明の一貫性を高めるためのアンサンブル手法を導入する。
本研究は,説明文の解釈において,モデル不確定性を考慮することの重要性を強調した。
論文 参考訳(メタデータ) (2023-06-09T18:45:43Z) - GLUECons: A Generic Benchmark for Learning Under Constraints [102.78051169725455]
本研究では,自然言語処理とコンピュータビジョンの分野における9つのタスクの集合であるベンチマークを作成する。
外部知識を制約としてモデル化し、各タスクの制約のソースを特定し、これらの制約を使用するさまざまなモデルを実装します。
論文 参考訳(メタデータ) (2023-02-16T16:45:36Z) - Deep Active Learning with Noise Stability [24.54974925491753]
ラベルのないデータの不確実性推定は、アクティブな学習に不可欠である。
本稿では,雑音の安定性を利用して不確実性を推定する新しいアルゴリズムを提案する。
本手法はコンピュータビジョン,自然言語処理,構造データ解析など,様々なタスクに適用可能である。
論文 参考訳(メタデータ) (2022-05-26T13:21:01Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Multicriteria interpretability driven Deep Learning [0.0]
ディープラーニングの手法はパフォーマンスで有名だが、その解釈可能性の欠如は、高い文脈での学習を妨げている。
近年のモデル手法では、モデルの内部動作をリバースエンジニアリングすることで、ポストホック解釈可能性法を提供することでこの問題に対処している。
本稿では,目的関数に知識を注入することで,モデルの結果に特徴的影響を制御できるマルチクレータ非依存手法を提案する。
論文 参考訳(メタデータ) (2021-11-28T09:41:13Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。