論文の概要: Unpacking Interpretability: Human-Centered Criteria for Optimal Combinatorial Solutions
- arxiv url: http://arxiv.org/abs/2603.08856v1
- Date: Mon, 09 Mar 2026 19:18:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.792853
- Title: Unpacking Interpretability: Human-Centered Criteria for Optimal Combinatorial Solutions
- Title(参考訳): Unpacking Interpretability: 最適なコンビネーションソリューションのための人間中心の基準
- Authors: Dominik Pegler, Frank Jäkel, David Steyrl, Frank Scharnowski, Filip Melinscak,
- Abstract要約: 本稿では,各項目を箱に詰め込むのに最適な2つのソリューションを参加者が選択する実験パラダイムを提案する。
好みが解構造の3つの特性を確実に追跡できることが示される。
これらの結果は、最適パッキングソリューションにおける解釈可能性の具体的、特徴ベースの説明を提供する。
- 参考スコア(独自算出の注目度): 0.4077787659104315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic support systems often return optimal solutions that are hard to understand. Effective human-algorithm collaboration, however, requires interpretability. When machine solutions are equally optimal, humans must select one, but a precise account of what makes one solution more interpretable than another remains missing. To identify structural properties of interpretable machine solutions, we present an experimental paradigm in which participants chose which of two equally optimal solutions for packing items into bins was easier to understand. We show that preferences reliably track three quantifiable properties of solution structure: alignment with a greedy heuristic, simple within-bin composition, and ordered visual representation. The strongest associations were observed for ordered representations and heuristic alignment, with compositional simplicity also showing a consistent association. Reaction-time evidence was mixed, with faster responses observed primarily when heuristic differences were larger, and aggregate webcam-based gaze did not show reliable effects of complexity. These results provide a concrete, feature-based account of interpretability in optimal packing solutions, linking solution structure to human preference. By identifying actionable properties (simple compositions, ordered representation, and heuristic alignment), our findings enable interpretability-aware optimization and presentation of machine solutions, and outline a path to quantify trade-offs between optimality and interpretability in real-world allocation and design tasks.
- Abstract(参考訳): アルゴリズム支援システムは理解が難しい最適解を返すことが多い。
しかし、効果的な人間とアルゴリズムの協調には解釈可能性が必要である。
機械解が等しく最適である場合、人間は1つを選択する必要があるが、ある解を他の解よりも解釈しやすいものにするための正確な説明はいまだ残っていない。
解釈可能な機械解の構造的性質を明らかにするため,参加者が2つの最適解の中からどれが理解しやすいかを選択する実験パラダイムを提案する。
提案手法は, 強欲なヒューリスティック, 単純なインバービン構成, 順序付き視覚表現の3つの量的性質を確実に追跡するものである。
順序づけられた表現とヒューリスティックなアライメントに対して最も強い関連性が観察され、構成的単純性も一貫した関連性を示した。
反応時間の証拠は混在しており、ヒューリスティックな差異が大きくなると反応が早くなり、ウェブカムをベースとした視線は複雑さの信頼性を示さなかった。
これらの結果は、最適パッキングソリューションにおける解釈可能性の具体的、特徴ベースの説明を提供し、ソリューション構造と人間の嗜好をリンクする。
動作可能な特性(単純な構成,順序表現,ヒューリスティックアライメント)を同定することにより,機械ソリューションの解釈可能性を考慮した最適化と提示を可能にし,実世界のアロケーションや設計タスクにおける最適性と解釈可能性の間のトレードオフを定量化するための経路を概説する。
関連論文リスト
- Locally Pareto-Optimal Interpretations for Black-Box Machine Learning Models [0.8906214436849201]
我々は,局所最適性保証に基づくフレームワークを開発し,解釈のスケーラブルな合成を実現する。
提案手法は,グローバルな保証を提供する手法によって合成された手法と密接に一致する解釈を導出することを示す。
論文 参考訳(メタデータ) (2025-08-21T04:11:20Z) - Feature-Based vs. GAN-Based Learning from Demonstrations: When and Why [50.191655141020505]
この調査は、デモから学ぶ機能ベースのアプローチとGANベースのアプローチの比較分析を提供する。
特徴に基づく手法とGANに基づく手法の2分法はますます曖昧になっていると我々は主張する。
論文 参考訳(メタデータ) (2025-07-08T11:45:51Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - Efficient Fairness-Performance Pareto Front Computation [45.088727439928704]
最適公正表現はいくつかの有用な構造特性を持つことを示す。
そこで,これらの近似問題は,凹凸プログラミング法により効率的に解けることを示す。
論文 参考訳(メタデータ) (2024-09-26T08:46:48Z) - Feature-Based Interpretable Surrogates for Optimization [0.8437187555622164]
本研究では、より一般的な最適化ルールを用いて解釈可能性を高める方法について検討する。
提案したルールは、具体的な解ではなく、共通の特徴を特徴とする解の集合にマップされる。
特に,提案手法が提案するソリューションの品質向上を,既存の解釈可能な最適化サロゲートと比較して実証する。
論文 参考訳(メタデータ) (2024-09-03T13:12:49Z) - Mining Potentially Explanatory Patterns via Partial Solutions [39.58317527488534]
本稿では,高適合性,単純性,原子性のバランスをとるために選択された部分解の集合を組み立てるアルゴリズムを提案する。
標準ベンチマークによる実験の結果,提案アルゴリズムは探索性能に影響を与えることなく,合理的な計算コストで説明可能性を向上させる部分解を見つけることができることがわかった。
論文 参考訳(メタデータ) (2024-04-05T20:12:02Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Contextual Model Aggregation for Fast and Robust Federated Learning in
Edge Computing [88.76112371510999]
フェデレーション学習は、ネットワークエッジにおける分散機械学習の第一候補である。
既存のアルゴリズムは、性能の緩やかな収束や堅牢性の問題に直面している。
そこで本稿では,損失低減に対する最適コンテキスト依存境界を実現するためのコンテキストアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T21:42:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。