論文の概要: LLMediator: GPT-4 Assisted Online Dispute Resolution
- arxiv url: http://arxiv.org/abs/2307.16732v1
- Date: Thu, 27 Jul 2023 10:25:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 13:50:43.671942
- Title: LLMediator: GPT-4 Assisted Online Dispute Resolution
- Title(参考訳): LLMediator: GPT-4支援オンライン紛争解決
- Authors: Hannes Westermann, Jaromir Savelka, Karim Benyekhlef
- Abstract要約: オンライン紛争解決(ODR)を強化するための実験プラットフォームであるLLMediatorを紹介する。
LLMediatorは、GPT-4のような最先端の大規模言語モデル(LLM)を使用して、ユーザーメッセージのリフォーム、仲介者の応答のドラフト、そして潜在的に自律的に議論を行う。
最初の概念実証は有望であり、AIによる交渉と仲介に関するさらなる研究の道を開く。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this article, we introduce LLMediator, an experimental platform designed
to enhance online dispute resolution (ODR) by utilizing capabilities of
state-of-the-art large language models (LLMs) such as GPT-4. In the context of
high-volume, low-intensity legal disputes, alternative dispute resolution
methods such as negotiation and mediation offer accessible and cooperative
solutions for laypeople. These approaches can be carried out online on ODR
platforms. LLMediator aims to improve the efficacy of such processes by
leveraging GPT-4 to reformulate user messages, draft mediator responses, and
potentially autonomously engage in the discussions. We present and discuss
several features of LLMediator and conduct initial qualitative evaluations,
demonstrating the potential for LLMs to support ODR and facilitate amicable
settlements. The initial proof of concept is promising and opens up avenues for
further research in AI-assisted negotiation and mediation.
- Abstract(参考訳): 本稿では,GPT-4のような最先端の大規模言語モデル(LLM)の機能を活用して,オンライン紛争解決(ODR)を強化する実験プラットフォームであるLLMediatorを紹介する。
高量、低強度の法的紛争の文脈では、交渉や仲介のような代替の紛争解決法は、平民に対してアクセス可能で協力的な解決策を提供する。
これらのアプローチはODRプラットフォーム上でオンラインで実施することができる。
LLMediatorは、GPT-4を利用してユーザーメッセージの改定、仲介者の応答の起草、そして潜在的に自律的に議論を行うことによって、そのようなプロセスの有効性を向上させることを目的としている。
我々はLLMediatorのいくつかの特徴を提示し、初期定性評価を行い、LCMがODRをサポートし、円滑な解決を促進する可能性を実証する。
最初の概念実証は有望であり、AIによる交渉と仲介に関するさらなる研究の道を開く。
関連論文リスト
- Ensembling Prioritized Hybrid Policies for Multi-agent Pathfinding [20.29854058559947]
MARL(Multi-Agent Reinforcement Learning)をベースとしたMAPF(Multi-Agent Path Finding)が最近注目されている。
いくつかのMARL-MAPFメソッドは、あるエージェントが知覚できる情報を豊かにするためにコミュニケーションを使用する。
本稿では,通信ベースMAPFソルバの性能向上を図るために,EPH(Ensembling Prioritized Hybrid Policies)を提案する。
論文 参考訳(メタデータ) (2024-03-12T11:47:12Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - Generating Chain-of-Thoughts with a Direct Pairwise-Comparison Approach
to Searching for the Most Promising Intermediate Thought [75.42560889109559]
思考の連鎖(CoT)法は、大きな言語モデルにステップバイステップの推論を導くために提案された。
大規模言語モデル(LLM)による評価は一般的にノイズが多く、信頼性が低いため、生成プロセスの誤解を招く可能性がある。
本稿では,最も有望な思考を直接識別する比較に基づくCoT生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-10T09:51:03Z) - PresAIse, A Prescriptive AI Solution for Enterprises [6.523929486550928]
本稿は、IBM Researchのイニシアチブの概要であり、一連の規範的AIソリューションを提供することによって、これらの課題のいくつかに対処することを目的としている。
ソリューションスイートには、スケーラブルな因果推論方法、解釈可能な意思決定アプローチ、大規模言語モデルの統合が含まれている。
概念実証であるPresAIseは、非MLの専門家が自然言語インターフェースを介して規範的なAIモデルと対話できるようにすることで、ソリューションの可能性を示している。
論文 参考訳(メタデータ) (2024-02-03T03:23:08Z) - On Leveraging Large Language Models for Enhancing Entity Resolution [11.668263762236343]
本稿では,大規模言語モデル(LLM)を実体分解プロセスで効率的に活用するための戦略を紹介する。
当社のアプローチは、予算に制限された消費を維持しながら、最も効果的なマッチング質問を最適に選択します。
エントロピーを指標として提案手法の有効性を評価し,提案手法の有効性と有効性について実験的に検証した。
論文 参考訳(メタデータ) (2024-01-07T09:06:58Z) - Is ChatGPT a Good Multi-Party Conversation Solver? [42.939861319863795]
大規模言語モデル (LLM) は自然言語処理の領域において影響力のある道具として出現している。
本稿では,多人数会話におけるLLM生成の可能性について検討する。
実験により,ChatGPTとGPT-4のゼロショット学習能力を評価する。
論文 参考訳(メタデータ) (2023-10-25T02:18:40Z) - Modeling Uncertainty and Using Post-fusion as Fallback Improves Retrieval Augmented Generation with LLMs [80.74263278847063]
検索されたパスと大きな言語モデル(LLM)の統合は、オープンドメインの質問応答の改善に大きく貢献している。
本稿では,検索したパスをLLMと組み合わせて回答生成を向上させる方法について検討する。
論文 参考訳(メタデータ) (2023-08-24T05:26:54Z) - Encouraging Divergent Thinking in Large Language Models through
Multi-Agent Debate [56.23037393834715]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z) - Learning Selective Communication for Multi-Agent Path Finding [18.703918339797283]
決定因果通信(Decision Causal Communication、DCC)は、エージェントが隣人を選択して通信を行うためのシンプルで効率的なモデルである。
DCCは大規模問題を扱うために分散実行に適している。
論文 参考訳(メタデータ) (2021-09-12T03:07:20Z) - DUMA: Reading Comprehension with Transposition Thinking [107.89721765056281]
MRC (Multi-choice Machine Reading) は、解答オプションのセットから正しい解答を決定するためのモデルを必要とする。
新しい Dual Multi-head Co-Attention (DUMA) モデルは、多選択MRC問題を解決する人間の転置思考プロセスにインスパイアされている。
論文 参考訳(メタデータ) (2020-01-26T07:35:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。