論文の概要: Learning to Guide Human Experts via Personalized Large Language Models
- arxiv url: http://arxiv.org/abs/2308.06039v1
- Date: Fri, 11 Aug 2023 09:36:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 14:23:17.696186
- Title: Learning to Guide Human Experts via Personalized Large Language Models
- Title(参考訳): 個人化大規模言語モデルによる人間専門家の指導
- Authors: Debodeep Banerjee, Stefano Teso, Andrea Passerini
- Abstract要約: 遅延の学習において、予測者はリスクのある決定を識別し、それを人間の専門家に宣言する。
ガイドを学ぶ際には、機械は意思決定をガイドするのに有用なガイダンスを提供し、人間は完全に決定を下す責任がある。
- 参考スコア(独自算出の注目度): 23.7625973884849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In learning to defer, a predictor identifies risky decisions and defers them
to a human expert. One key issue with this setup is that the expert may end up
over-relying on the machine's decisions, due to anchoring bias. At the same
time, whenever the machine chooses the deferral option the expert has to take
decisions entirely unassisted. As a remedy, we propose learning to guide (LTG),
an alternative framework in which -- rather than suggesting ready-made
decisions -- the machine provides guidance useful to guide decision-making, and
the human is entirely responsible for coming up with a decision. We also
introduce SLOG, an LTG implementation that leverages (a small amount of) human
supervision to convert a generic large language model into a module capable of
generating textual guidance, and present preliminary but promising results on a
medical diagnosis task.
- Abstract(参考訳): 推論を学ぶ際、予測者はリスクの高い決定を識別し、それを人間の専門家に否定する。
このセットアップの大きな問題のひとつは、偏見を抑えるため、専門家がマシンの判断を過度に検討する可能性があることだ。
同時に、マシンが遅延オプションを選択するたびに、専門家は決定を完全に無力化しなければならない。
対策として、既成の意思決定を提案するのではなく、機械が意思決定を導くのに有用なガイダンスを提供し、人間は完全に意思決定の責任を負うという代替フレームワークである学習指導(LTG)を提案する。
また、(少量の)人間の監督を活用して、汎用的な大規模言語モデルをテキストガイダンスを生成するモジュールに変換するLTG実装であるSLOGを導入し、医療診断タスクにおける予備的かつ有望な結果を示す。
関連論文リスト
- Learning To Guide Human Decision Makers With Vision-Language Models [17.957952996809716]
医療診断などの高度なタスクにおいて、人間の意思決定を支援するAIの開発への関心が高まっている。
学習指導(Learning to Guide,LTG)は、人間の専門家から制御されるのではなく、機械が指導を提供するフレームワークである。
指導が解釈可能であることを保証するため,任意の視覚言語モデルをテキスト誘導の能力のある生成器に変換するアプローチであるSLOGを開発した。
論文 参考訳(メタデータ) (2024-03-25T07:34:42Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Learning Personalized Decision Support Policies [56.949897454209186]
$texttModiste$は、パーソナライズされた意思決定支援ポリシーを学ぶためのインタラクティブツールである。
パーソナライズされたポリシは、オフラインポリシよりも優れており、コストを意識した環境では、パフォーマンスの低下を最小限に抑えて、発生したコストを削減することができる。
論文 参考訳(メタデータ) (2023-04-13T17:53:34Z) - Predicting and Understanding Human Action Decisions during Skillful
Joint-Action via Machine Learning and Explainable-AI [1.3381749415517021]
本研究では、教師付き機械学習と説明可能な人工知能を用いて、人間の意思決定をモデル化し、予測し、理解する。
長期記憶ネットワークは、専門家と初心者アクターのターゲット選択決定を予測するために訓練された。
論文 参考訳(メタデータ) (2022-06-06T16:54:43Z) - Boosting human decision-making with AI-generated decision aids [8.373151777137792]
我々は,従来の手法の出力を手続き的命令に変換するアルゴリズムを開発した。
実験の結果、これらの自動意思決定は、道路旅行計画や住宅ローン選択における人々のパフォーマンスを著しく向上させることがわかった。
これらの結果は、AIによる強化が、現実世界における人間の意思決定を改善する可能性があることを示唆している。
論文 参考訳(メタデータ) (2022-03-05T15:57:20Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - A Bandit Model for Human-Machine Decision Making with Private
Information and Opacity [16.665883787432858]
一方のプレイヤーが機械であり,他方のプレイヤーが人間である2人のプレイヤーの学習問題を示す。
下限は、不透明な意思決定者に対して最適に助言する最悪の難易度を定量化する。
上界は、単純な調整戦略が極端に最適であることを示している。
論文 参考訳(メタデータ) (2020-07-09T13:43:08Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。