論文の概要: Learning to Guide Human Experts via Personalized Large Language Models
- arxiv url: http://arxiv.org/abs/2308.06039v1
- Date: Fri, 11 Aug 2023 09:36:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 14:23:17.696186
- Title: Learning to Guide Human Experts via Personalized Large Language Models
- Title(参考訳): 個人化大規模言語モデルによる人間専門家の指導
- Authors: Debodeep Banerjee, Stefano Teso, Andrea Passerini
- Abstract要約: 遅延の学習において、予測者はリスクのある決定を識別し、それを人間の専門家に宣言する。
ガイドを学ぶ際には、機械は意思決定をガイドするのに有用なガイダンスを提供し、人間は完全に決定を下す責任がある。
- 参考スコア(独自算出の注目度): 23.7625973884849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In learning to defer, a predictor identifies risky decisions and defers them
to a human expert. One key issue with this setup is that the expert may end up
over-relying on the machine's decisions, due to anchoring bias. At the same
time, whenever the machine chooses the deferral option the expert has to take
decisions entirely unassisted. As a remedy, we propose learning to guide (LTG),
an alternative framework in which -- rather than suggesting ready-made
decisions -- the machine provides guidance useful to guide decision-making, and
the human is entirely responsible for coming up with a decision. We also
introduce SLOG, an LTG implementation that leverages (a small amount of) human
supervision to convert a generic large language model into a module capable of
generating textual guidance, and present preliminary but promising results on a
medical diagnosis task.
- Abstract(参考訳): 推論を学ぶ際、予測者はリスクの高い決定を識別し、それを人間の専門家に否定する。
このセットアップの大きな問題のひとつは、偏見を抑えるため、専門家がマシンの判断を過度に検討する可能性があることだ。
同時に、マシンが遅延オプションを選択するたびに、専門家は決定を完全に無力化しなければならない。
対策として、既成の意思決定を提案するのではなく、機械が意思決定を導くのに有用なガイダンスを提供し、人間は完全に意思決定の責任を負うという代替フレームワークである学習指導(LTG)を提案する。
また、(少量の)人間の監督を活用して、汎用的な大規模言語モデルをテキストガイダンスを生成するモジュールに変換するLTG実装であるSLOGを導入し、医療診断タスクにおける予備的かつ有望な結果を示す。
関連論文リスト
- Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Predicting and Understanding Human Action Decisions during Skillful
Joint-Action via Machine Learning and Explainable-AI [1.3381749415517021]
本研究では、教師付き機械学習と説明可能な人工知能を用いて、人間の意思決定をモデル化し、予測し、理解する。
長期記憶ネットワークは、専門家と初心者アクターのターゲット選択決定を予測するために訓練された。
論文 参考訳(メタデータ) (2022-06-06T16:54:43Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Boosting human decision-making with AI-generated decision aids [8.373151777137792]
我々は,従来の手法の出力を手続き的命令に変換するアルゴリズムを開発した。
実験の結果、これらの自動意思決定は、道路旅行計画や住宅ローン選択における人々のパフォーマンスを著しく向上させることがわかった。
これらの結果は、AIによる強化が、現実世界における人間の意思決定を改善する可能性があることを示唆している。
論文 参考訳(メタデータ) (2022-03-05T15:57:20Z) - On the Fairness of Machine-Assisted Human Decisions [3.4069627091757178]
偏りのある人間の意思決定者を含めることで、アルゴリズムの構造と結果の判断の質との間の共通関係を逆転させることができることを示す。
実験室実験では,性別別情報による予測が,意思決定における平均的な性別格差を減少させることを示す。
論文 参考訳(メタデータ) (2021-10-28T17:24:45Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [89.01584399789951]
歴史的専門家の意思決定を豊富な情報源として利用することを検討します。
観察されたラベルだけで学習する制限を緩和するために活用できることを示しています。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - A Bandit Model for Human-Machine Decision Making with Private
Information and Opacity [16.665883787432858]
一方のプレイヤーが機械であり,他方のプレイヤーが人間である2人のプレイヤーの学習問題を示す。
下限は、不透明な意思決定者に対して最適に助言する最悪の難易度を定量化する。
上界は、単純な調整戦略が極端に最適であることを示している。
論文 参考訳(メタデータ) (2020-07-09T13:43:08Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。