論文の概要: Less Likely Brainstorming: Using Language Models to Generate Alternative
Hypotheses
- arxiv url: http://arxiv.org/abs/2305.19339v1
- Date: Tue, 30 May 2023 18:05:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 20:07:04.710045
- Title: Less Likely Brainstorming: Using Language Models to Generate Alternative
Hypotheses
- Title(参考訳): ブレインストーミングの少ない:言語モデルを使って代替仮説を生成する
- Authors: Liyan Tang, Yifan Peng, Yanshan Wang, Ying Ding, Greg Durrett, Justin
F. Rousseau
- Abstract要約: 我々は、人間が関連性があると思われるが、起こりそうにないアウトプットを生成するためにモデルに要求する新しいタスク「非インブレインストーミング」を導入する。
目標として仮説の可能性が低いトレーニングのベースラインアプローチは、人間がほぼ半分の確率または無関係であると評価するアウトプットを生成する。
そこで本研究では,新たなコントラスト学習手法を用いたテキスト生成手法を提案する。
- 参考スコア(独自算出の注目度): 45.720065723998225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A human decision-maker benefits the most from an AI assistant that corrects
for their biases. For problems such as generating interpretation of a radiology
report given findings, a system predicting only highly likely outcomes may be
less useful, where such outcomes are already obvious to the user. To alleviate
biases in human decision-making, it is worth considering a broad differential
diagnosis, going beyond the most likely options. We introduce a new task, "less
likely brainstorming," that asks a model to generate outputs that humans think
are relevant but less likely to happen. We explore the task in two settings: a
brain MRI interpretation generation setting and an everyday commonsense
reasoning setting. We found that a baseline approach of training with less
likely hypotheses as targets generates outputs that humans evaluate as either
likely or irrelevant nearly half of the time; standard MLE training is not
effective. To tackle this problem, we propose a controlled text generation
method that uses a novel contrastive learning strategy to encourage models to
differentiate between generating likely and less likely outputs according to
humans. We compare our method with several state-of-the-art controlled text
generation models via automatic and human evaluations and show that our models'
capability of generating less likely outputs is improved.
- Abstract(参考訳): 人間の意思決定者は、バイアスを補正するAIアシスタントから最も恩恵を受ける。
得られた知見が得られた放射線学的レポートの解釈を発生させるような問題に対して、非常に可能性の高い結果のみを予測するシステムは役に立たないかもしれない。
人間の意思決定における偏見を緩和するには、最も可能性の高い選択肢を越えて、幅広い鑑別診断を考慮すべきである。
我々は、人間が関連性があると思われるが起こりそうにないアウトプットを生成するためにモデルに要求する新しいタスク「脳ストーミングなし」を導入する。
脳MRIの解釈生成設定と日常の常識推論設定の2つの設定でタスクを探索する。
目標として仮説の可能性が低いトレーニングのベースラインアプローチでは、人間がほぼ半分の確率で評価するアウトプットが生成されるが、標準的なMLEトレーニングは有効ではない。
この問題に対処するために,新しいコントラスト学習戦略を用いた制御テキスト生成手法を提案する。
本手法は, 自動評価と人間評価により, 最先端制御型テキスト生成モデルと比較し, 少ない出力で生成できるモデルの能力が向上していることを示す。
関連論文リスト
- How Aligned are Generative Models to Humans in High-Stakes Decision-Making? [10.225573060836478]
大規模生成モデル(LM)は、高い意思決定のためにますます検討されている。
この研究は、リシビズム予測の特定のケースにおいて、そのようなモデルが人間や予測AIモデルとどのように比較されるかを検討する。
論文 参考訳(メタデータ) (2024-10-20T19:00:59Z) - Self-Debiasing Large Language Models: Zero-Shot Recognition and
Reduction of Stereotypes [73.12947922129261]
ステレオタイピングを減らすために,大規模言語モデルのゼロショット機能を活用している。
自己嫌悪は、9つの異なる社会集団におけるステレオタイピングの度合いを著しく低下させることが示される。
この研究が、バイアス軽減のための他のゼロショット技術に関する調査をオープンにすることを願っている。
論文 参考訳(メタデータ) (2024-02-03T01:40:11Z) - Mitigating Biases for Instruction-following Language Models via Bias Neurons Elimination [54.865941973768905]
本稿では,命令追従設定における言語モデルのバイアスニューロンを除去するための,新しい実用的なバイアス緩和手法であるCRISPRを提案する。
CRISPRは自動的にバイアス出力を決定し、バイアス出力に影響を与えるニューロンを説明可能性法を用いてバイアスニューロンに分類する。
実験により,モデルのタスク性能と既存知識を損なうことなく,ゼロショット命令追従条件下でのバイアス軽減効果が示された。
論文 参考訳(メタデータ) (2023-11-16T07:16:55Z) - Fine-tuning Language Models for Factuality [96.5203774943198]
大規模な事前訓練型言語モデル(LLM)は、しばしば伝統的な検索エンジンの代替として、広く使われるようになった。
しかし、言語モデルは説得力のあるが事実的に不正確な主張をしがちである(しばしば「幻覚」と呼ばれる)。
本研究では,人間のラベル付けなしに,より現実的な言語モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-14T18:59:15Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - The Boltzmann Policy Distribution: Accounting for Systematic
Suboptimality in Human Models [5.736353542430439]
本稿では,Boltzmann Policy Distribution(BPD)を紹介する。
BPDはベイズ推論を介して適応し、1回のエピソードで人間の行動を観察することで系統的な偏差を捉える。
我々は,BPDが人間行動の予測と人間-AI協調を可能にすると同時に,模倣学習に基づく人間モデルも可能であることを示す。
論文 参考訳(メタデータ) (2022-04-22T15:26:25Z) - Typical Decoding for Natural Language Generation [76.69397802617064]
本稿は,高確率テキストが退屈あるいは反復的である理由について考察する。
典型的なサンプリングでは,品質面での競争性能が期待できる。
論文 参考訳(メタデータ) (2022-02-01T18:58:45Z) - Humans learn too: Better Human-AI Interaction using Optimized Human
Inputs [2.5991265608180396]
人間はますますAIコンポーネントを持つシステムに依存している。
AIコミュニティは通常、人間の入力を与えられたものとして扱い、AIモデルのみを最適化する。
この作業では、モデルの修正を維持しながら、AIモデルとのより優れたインタラクションのために、人間の入力が最適化される。
論文 参考訳(メタデータ) (2020-09-19T16:30:37Z) - Classification Under Human Assistance [29.220005688025378]
教師付き学習モデルでは、異なる自動化レベル下での運用が、完全な自動化のためにトレーニングされた者や、単独で運用する人間よりも優れていることを示す。
医学診断におけるいくつかの応用から得られた合成および実世界のデータに関する実験は、我々の理論的知見を示している。
論文 参考訳(メタデータ) (2020-06-21T16:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。