論文の概要: o-MEGA: Optimized Methods for Explanation Generation and Analysis
- arxiv url: http://arxiv.org/abs/2510.00288v1
- Date: Tue, 30 Sep 2025 21:08:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.261626
- Title: o-MEGA: Optimized Methods for Explanation Generation and Analysis
- Title(参考訳): o-MEGA:説明生成と分析のための最適化手法
- Authors: Ľuboš Kriš, Jaroslav Kopčan, Qiwei Peng, Andrej Ridzik, Marcel Veselý, Martin Tamajka,
- Abstract要約: textbftexttto-megaは、最も効果的な説明可能なAIメソッドを自動的に識別するように設計されたツールである。
自動ファクトチェックシステムにおける透明性の向上を実証する。
- 参考スコア(独自算出の注目度): 1.4113638641649384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of transformer-based language models has revolutionized NLP domain while simultaneously introduced significant challenges regarding model transparency and trustworthiness. The complexity of achieving explainable systems in this domain is evidenced by the extensive array of explanation methods and evaluation metrics developed by researchers. To address the challenge of selecting optimal explainability approaches, we present \textbf{\texttt{o-mega}}, a hyperparameter optimization tool designed to automatically identify the most effective explainable AI methods and their configurations within the semantic matching domain. We evaluate o-mega on a post-claim matching pipeline using a curated dataset of social media posts paired with refuting claims. Our tool systematically explores different explainable methods and their hyperparameters, demonstrating improved transparency in automated fact-checking systems. As a result, such automated optimization of explanation methods can significantly enhance the interpretability of claim-matching models in critical applications such as misinformation detection, contributing to more trustworthy and transparent AI systems.
- Abstract(参考訳): トランスフォーマーベースの言語モデルの普及は、NLPドメインに革命をもたらした一方で、モデルの透明性と信頼性に関する重要な課題も同時に導入した。
この領域で説明可能なシステムを実現する複雑さは、研究者によって開発された様々な説明方法と評価指標によって証明されている。
最適説明可能性アプローチを選択する際の課題に対処するために,最も効果的な説明可能なAIメソッドとその構成をセマンティックマッチング領域内で自動的に識別するように設計されたハイパーパラメータ最適化ツールである \textbf{\textt{o-mega}} を提案する。
論文では,反証要求と組み合わせたソーシャルメディア投稿のキュレートデータセットを用いて,評価後マッチングパイプライン上でo-megaを評価する。
本ツールでは,さまざまな説明可能な手法とそのハイパーパラメータを体系的に検討し,自動事実チェックシステムにおける透明性の向上を実証する。
その結果、説明手法の自動最適化は、誤情報検出などの重要なアプリケーションにおけるクレームマッチングモデルの解釈可能性を大幅に向上させ、より信頼性が高く透明なAIシステムに寄与する。
関連論文リスト
- EVA-MILP: Towards Standardized Evaluation of MILP Instance Generation [13.49043811341421]
混合整数線形プログラミング(MILP)は、複雑な意思決定問題を解決するための基礎となる。
多様なデータセットに対する機械学習の需要により,MILPインスタンス生成手法の普及が加速し,標準化された評価手法が大幅に向上した。
本稿では,MILPインスタンス生成手法の体系的および客観的評価を目的とした総合ベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T16:42:15Z) - On the Role of Feedback in Test-Time Scaling of Agentic AI Workflows [71.92083784393418]
エージェントAI(自律的な計画と行動を行うシステム)は広く普及しているが、複雑なタスクにおけるタスクの成功率は低いままである。
推論時のアライメントは、サンプリング、評価、フィードバックの3つのコンポーネントに依存します。
本稿では,様々な形態の批判から抽出されたフィードバックを繰り返し挿入するIterative Agent Decoding(IAD)を紹介する。
論文 参考訳(メタデータ) (2025-04-02T17:40:47Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。