論文の概要: Bonsai: Interpretable Tree-Adaptive Grounded Reasoning
- arxiv url: http://arxiv.org/abs/2504.03640v1
- Date: Fri, 04 Apr 2025 17:59:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-07 14:50:07.229958
- Title: Bonsai: Interpretable Tree-Adaptive Grounded Reasoning
- Title(参考訳): 盆斎(ぼんさい):解釈可能な木順接地推論
- Authors: Kate Sanders, Benjamin Van Durme,
- Abstract要約: 協調エージェントを開発するためには、人間は新しいドメインに適応し、不確実性を持って透過的に推論できる信頼できるAIシステムが必要である。
ブラックボックスモデルは、強力なデータ処理能力を示すが、不透明さ、ドメイン特異性、不確実性認識の欠如により、これらの基準を満たすことができない。
本稿では,関係する根拠を抽出し,推論木を生成する構成的・確率的推論システムであるBonsaiを紹介する。
- 参考スコア(独自算出の注目度): 34.11140286628736
- License:
- Abstract: To develop general-purpose collaborative agents, humans need reliable AI systems that can (1) adapt to new domains and (2) transparently reason with uncertainty to allow for verification and correction. Black-box models demonstrate powerful data processing abilities but do not satisfy these criteria due to their opaqueness, domain specificity, and lack of uncertainty awareness. We introduce Bonsai, a compositional and probabilistic reasoning system that generates adaptable inference trees by retrieving relevant grounding evidence and using it to compute likelihoods of sub-claims derived from broader natural language inferences. Bonsai's reasoning power is tunable at test-time via evidence scaling and it demonstrates reliable handling of varied domains including transcripts, photographs, videos, audio, and databases. Question-answering and human alignment experiments demonstrate that Bonsai matches the performance of domain-specific black-box methods while generating interpretable, grounded, and uncertainty-aware reasoning traces.
- Abstract(参考訳): 汎用的な協調エージェントを開発するためには、(1)新しいドメインに適応できる信頼性の高いAIシステムが必要であり、(2)検証と修正を可能にするために不確実性を透明に理由づける必要がある。
ブラックボックスモデルは強力なデータ処理能力を示すが、不透明さ、ドメイン特異性、不確実性認識の欠如により、これらの基準を満たさない。
本稿では,関係する根拠を抽出し,それを用いて,より広い自然言語推論から派生したサブフレームの確率を計算することによって,適応可能な推論木を生成する,構成的・確率的推論システムであるボンサイを紹介する。
ボンサイの推論能力はエビデンススケーリングによってテスト時に調整可能であり、テキスト、写真、ビデオ、オーディオ、データベースなど、さまざまなドメインの信頼性の高い扱いを示す。
質問応答実験と人間のアライメント実験により,Bonsaiはドメイン固有のブラックボックス法の性能と一致し,解釈可能な,接地された,不確実性を考慮した推論トレースを生成することを示した。
関連論文リスト
- On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [49.60774626839712]
マルチモーダル生成モデルは 彼らの公正さ、信頼性、そして誤用の可能性について 批判的な議論を呼んだ
組込み空間における摂動に対する応答を通じてモデルの信頼性を評価するための評価フレームワークを提案する。
本手法は, 信頼できない, バイアス注入されたモデルを検出し, バイアス前駆体の検索を行うための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Decision Trees for Interpretable Clusters in Mixture Models and Deep Representations [5.65604054654671]
混合モデルに対する説明可能性-雑音比の概念を導入する。
本研究では,混合モデルを入力として,データに依存しない時間に適切な木を構築するアルゴリズムを提案する。
結果の決定ツリーの誤り率について,上と下の境界を証明した。
論文 参考訳(メタデータ) (2024-11-03T14:00:20Z) - Why do Random Forests Work? Understanding Tree Ensembles as
Self-Regularizing Adaptive Smoothers [68.76846801719095]
統計学で広く普及している偏りと分散還元に対する現在の高次二分法は、木のアンサンブルを理解するには不十分である、と我々は主張する。
森林は、通常暗黙的に絡み合っている3つの異なるメカニズムによって、樹木を改良できることを示す。
論文 参考訳(メタデータ) (2024-02-02T15:36:43Z) - DARE: Towards Robust Text Explanations in Biomedical and Healthcare
Applications [54.93807822347193]
帰属ロバスト性評価手法を与えられたドメインに適応させ、ドメイン固有の妥当性を考慮する方法を示す。
次に,DAREが特徴とする脆さを軽減するために,対人訓練とFAR訓練の2つの方法を提案する。
最後に,確立した3つのバイオメディカル・ベンチマークを用いて実験を行い,本手法を実証的に検証した。
論文 参考訳(メタデータ) (2023-07-05T08:11:40Z) - Comparing and extending the use of defeasible argumentation with
quantitative data in real-world contexts [5.482532589225552]
非単調な形式主義(英: non-monotonic formalism)は、新しい証拠に照らして、前提から以前の結論や主張を撤回できる形式である。
本研究は, 難解な議論の活用を通じて知識の体系に寄与し, 類似したアプローチとの比較を行った。
論文 参考訳(メタデータ) (2022-06-28T12:28:47Z) - Indecision Trees: Learning Argument-Based Reasoning under Quantified
Uncertainty [0.0]
本稿では,不確実性の下で学習する決定木の改良である不確定木を紹介する。
可能なラベルに対して堅牢な分布を提供し、他の推論システムで使用する論理的引数の集合に分解することができる。
論文 参考訳(メタデータ) (2022-06-23T12:33:20Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Fair Training of Decision Tree Classifiers [6.381149074212897]
決定木アンサンブルの個々の公平性を公式に検証する問題を研究する。
本手法では,公平性検証と公正性認識トレーニングはどちらも,分類モデルの安定性の概念に依存している。
論文 参考訳(メタデータ) (2021-01-04T12:04:22Z) - A Controllable Model of Grounded Response Generation [122.7121624884747]
現在のエンドツーエンドのニューラルネットワークモデルは、応答生成プロセスにセマンティックコントロールを課す柔軟性を本質的に欠いている。
我々は制御可能な接地応答生成(CGRG)と呼ばれるフレームワークを提案する。
このフレームワークを用いることで、会話のようなRedditデータセットでトレーニングされた、新しいインダクティブアテンション機構を備えたトランスフォーマーベースのモデルが、強力な生成ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-05-01T21:22:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。