論文の概要: Make Your Decision Convincing! A Unified Two-Stage Framework:
Self-Attribution and Decision-Making
- arxiv url: http://arxiv.org/abs/2310.13610v1
- Date: Fri, 20 Oct 2023 15:59:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 22:05:52.285178
- Title: Make Your Decision Convincing! A Unified Two-Stage Framework:
Self-Attribution and Decision-Making
- Title(参考訳): 決断を納得させろ!
統一二段階フレームワーク:自己帰属と意思決定
- Authors: Yanrui Du, Sendong Zhao, Haochun Wang, Yuhan Chen, Rui Bai, Zewen
Qiang, Muzhen Cai, Bing Qin
- Abstract要約: 自己貢献・意思決定(SADM)として知られる統合された2段階の枠組みを提案する。
我々のフレームワークは、生成した合理性とモデル決定とのより信頼性の高いリンクを確立するだけでなく、タスク性能と合理性の品質の競争結果も達成している。
- 参考スコア(独自算出の注目度): 24.906886146275127
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explaining black-box model behavior with natural language has achieved
impressive results in various NLP tasks. Recent research has explored the
utilization of subsequences from the input text as a rationale, providing users
with evidence to support the model decision. Although existing frameworks excel
in generating high-quality rationales while achieving high task performance,
they neglect to account for the unreliable link between the generated rationale
and model decision. In simpler terms, a model may make correct decisions while
attributing wrong rationales, or make poor decisions while attributing correct
rationales. To mitigate this issue, we propose a unified two-stage framework
known as Self-Attribution and Decision-Making (SADM). Through extensive
experiments on five reasoning datasets from the ERASER benchmark, we
demonstrate that our framework not only establishes a more reliable link
between the generated rationale and model decision but also achieves
competitive results in task performance and the quality of rationale.
Furthermore, we explore the potential of our framework in semi-supervised
scenarios.
- Abstract(参考訳): 自然言語によるブラックボックスモデル動作の説明は、様々なNLPタスクにおいて印象的な結果を得た。
最近の研究は、入力テキストからのサブシーケンスの利用を根拠として研究しており、ユーザーにモデル決定を支持する証拠を提供する。
既存のフレームワークは、高いタスクパフォーマンスを実現しながら、高品質な合理性を生み出すのに優れていますが、生成された合理性とモデル決定との信頼できないつながりを考慮に入れません。
単純な言い方をすれば、モデルは間違った合理性を帰着しながら正しい判断をしたり、正しい合理性を帰着しながら下手な判断をしたりすることができる。
この問題を軽減するため,我々は,自己帰属と意思決定(sadm)として知られる統一二段階フレームワークを提案する。
eraserベンチマークから5つの推論データセットを広範囲に実験した結果,本フレームワークは生成した論理とモデル決定とのより信頼性の高いリンクを確立するだけでなく,タスク性能と論理の質において競争的な結果をもたらすことを実証した。
さらに, 半教師付きシナリオにおけるフレームワークの可能性についても検討する。
関連論文リスト
- Making Large Language Models Better Planners with Reasoning-Decision Alignment [70.5381163219608]
マルチモーダリティ強化LLMに基づくエンドツーエンド意思決定モデルを提案する。
ペア化されたCoTと計画結果との推論・決定アライメントの制約を提案する。
提案する大規模言語プランナをRDA-Driverとして推論・決定アライメントする。
論文 参考訳(メタデータ) (2024-08-25T16:43:47Z) - Distribution-consistency Structural Causal Models [6.276417011421679]
我々は,新しいテクスト分布-一貫性仮定を導入し,それに合わせて分布-一貫性構造因果モデル(DiscoSCM)を提案する。
モデルキャパシティの強化を具体化するために,DiscoSCM単独で実用的重要性を有する新たな因果パラメータ,一貫性のテキスト化(textitthe probability of consistency)を導入する。
論文 参考訳(メタデータ) (2024-01-29T06:46:15Z) - Modeling Boundedly Rational Agents with Latent Inference Budgets [56.24971011281947]
エージェントの計算制約を明示的にモデル化する潜在推論予算モデル(L-IBM)を導入する。
L-IBMは、最適なアクターの多様な集団のデータを使ってエージェントモデルを学ぶことができる。
我々は,L-IBMが不確実性の下での意思決定のボルツマンモデルに適合しているか,あるいは上回っていることを示す。
論文 参考訳(メタデータ) (2023-12-07T03:55:51Z) - Boosting the Power of Small Multimodal Reasoning Models to Match Larger Models with Self-Consistency Training [49.3242278912771]
マルチモーダル推論(multimodal reasoning)は、複数のモーダルをまたいだモデルによる質問に答える難しいタスクである。
既存のアプローチでは、言語と視覚のモダリティを2段階の推論フレームワークに組み込むことで進歩している。
MC-CoTは,複数の合理性と回答を生成し,投票プロセスを通じて最も正確な選択を行う自己整合性学習戦略である。
論文 参考訳(メタデータ) (2023-11-23T17:09:48Z) - Rational Decision-Making Agent with Internalized Utility Judgment [91.80700126895927]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - CREST: A Joint Framework for Rationalization and Counterfactual Text
Generation [5.606679908174783]
我々は選択的合理化と対実テキスト生成のためのフレームワークであるCREST(ContRastive Edits with Sparse raTionalization)を紹介する。
CRESTは、従来の方法よりも自然な有効な偽物を生成する。
CRESTのカウンターファクトを利用して選択的論理を規則化する新たな損失関数は、モデルの堅牢性と合理性の両方を改善します。
論文 参考訳(メタデータ) (2023-05-26T16:34:58Z) - Can Language Representation Models Think in Bets? [8.185725740857594]
変換器に基づく言語表現モデル(LRM)は、難解な自然言語理解問題に対して最先端の結果を得た。
本稿では、慎重に設計された意思決定ベンチマークと実験を通して、LEMの合理的意思決定能力について考察する。
論文 参考訳(メタデータ) (2022-10-14T05:01:04Z) - Attributing Fair Decisions with Attention Interventions [28.968122909973975]
我々は、属性フレームワークとして活用できる注意ベースのモデルを設計する。
注意介入と注意重み操作によって、モデルの性能と公平性の両方に責任を負う特徴を特定することができる。
次に、後処理のバイアス軽減戦略を設計し、ベースラインのスイートと比較します。
論文 参考訳(メタデータ) (2021-09-08T22:28:44Z) - Why do you think that? Exploring Faithful Sentence-Level Rationales
Without Supervision [60.62434362997016]
文レベルで忠実な論理を出力するモデルを作成するために,異なる訓練枠組みを提案する。
本モデルでは,各理性に基づいて各課題を個別に解決し,その課題を最もよく解決した者に高いスコアを割り当てることを学ぶ。
論文 参考訳(メタデータ) (2020-10-07T12:54:28Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。