論文の概要: Two out of Three (ToT): using self-consistency to make robust predictions
- arxiv url: http://arxiv.org/abs/2505.12642v1
- Date: Mon, 19 May 2025 02:50:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.370242
- Title: Two out of Three (ToT): using self-consistency to make robust predictions
- Title(参考訳): 3つ中2つ(ToT):自己整合性を用いて堅牢な予測を行う
- Authors: Jung Hoon Lee, Sujith Vijayan,
- Abstract要約: 深層学習モデルでは,不確実な場合の解答を回避できるアルゴリズムを開発した。
我々のアルゴリズムは「Two out Three (ToT)」と呼ばれ、人間の脳が情報に干渉する際の感度にインスパイアされている。
- 参考スコア(独自算出の注目度): 1.7314342339585087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning (DL) can automatically construct intelligent agents, deep neural networks (alternatively, DL models), that can outperform humans in certain tasks. However, the operating principles of DL remain poorly understood, making its decisions incomprehensible. As a result, it poses a great risk to deploy DL in high-stakes domains in which mistakes or errors may lead to critical consequences. Here, we aim to develop an algorithm that can help DL models make more robust decisions by allowing them to abstain from answering when they are uncertain. Our algorithm, named `Two out of Three (ToT)', is inspired by the sensitivity of the human brain to conflicting information. ToT creates two alternative predictions in addition to the original model prediction and uses the alternative predictions to decide whether it should provide an answer or not.
- Abstract(参考訳): ディープラーニング(DL)は、インテリジェントエージェント、ディープニューラルネットワーク(オルタナティブにDLモデル)を自動構築し、特定のタスクにおいて人間より優れている。
しかし、DLの運用原則はよく理解されておらず、その決定は理解できない。
結果として、ミスやエラーが重大な結果をもたらす可能性のある、高レベルのドメインにDLをデプロイする大きなリスクが発生します。
そこで本研究では,不確実な場合に解答を控えることによって,DLモデルがより堅牢な決定を下すのに役立つアルゴリズムを開発することを目的とする。
我々のアルゴリズムは「Two out of Three (ToT))」と呼ばれ、人間の脳が情報に干渉する際の感度にインスパイアされている。
ToTは、元のモデル予測に加えて、2つの代替予測を作成し、その代替予測を使用して、回答を提供するかどうかを決定する。
関連論文リスト
- Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Autoregressive Uncertainty Modeling for 3D Bounding Box Prediction [63.3021778885906]
3Dバウンディングボックスは、多くのコンピュータビジョンアプリケーションで広く使われている中間表現である。
本稿では,自己回帰モデルを利用して高い信頼度予測と意味のある不確実性対策を行う手法を提案する。
我々はシミュレーションデータセットであるCOB-3Dをリリースし、現実世界のロボティクスアプリケーションで発生する新しいタイプのあいまいさを強調します。
論文 参考訳(メタデータ) (2022-10-13T23:57:40Z) - Generalization ability and Vulnerabilities to adversarial perturbations: Two sides of the same coin [1.7314342339585087]
自己組織化マップ(SOM)を用いて、ディープラーニングモデルの意思決定に関連する内部コードを分析する。
解析により,入力層に近い浅層が同質コードにマップされ,出力層に近い深層が浅層内のこれらの浅層を多様コードに変換することが示唆された。
論文 参考訳(メタデータ) (2022-05-22T23:14:27Z) - Deep Learning Reproducibility and Explainable AI (XAI) [9.13755431537592]
ディープラーニング(DL)学習アルゴリズムの非決定性とそのニューラルネットワーク(NN)モデルの説明可能性への影響について検討した。
この問題について議論するため、2つの畳み込みニューラルネットワーク(CNN)をトレーニングし、その結果を比較した。
論文 参考訳(メタデータ) (2022-02-23T12:06:20Z) - Towards Training Reproducible Deep Learning Models [26.547756923322126]
ディープラーニング(DL)モデルは、ソフトウェアにおけるランダム性やハードウェアにおける非決定性といった問題により、再現が困難である。
本稿では,再現可能なDLモデルを学習するための体系的なアプローチを提案する。
ケーススタディでは,6つのオープンソースと1つの商用DLモデルを再現することができた。
論文 参考訳(メタデータ) (2022-02-04T18:14:39Z) - Prediction Surface Uncertainty Quantification in Object Detection Models
for Autonomous Driving [5.784950275336468]
自律走行車における物体検出は、一般的にカメラ画像とライダー入力に基づいており、予測モデルを訓練するためにしばしば使用される。
このような回帰モデルの予測不確実性を測定するために,PURE (Prediction sURface uncErtainty) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-07-11T08:31:15Z) - NBDT: Neural-Backed Decision Trees [26.2115887956431]
ニューラルバック決定木(NBDT)を用いた精度と解釈可能性の向上
NBDTはニューラルネットワークの最終線形層を、決定の異なる順序と代理損失で置き換える。
我々のサロゲート損失は、元のモデルの精度を最大2%向上させる。
論文 参考訳(メタデータ) (2020-04-01T04:04:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。