論文の概要: OmniThink: Expanding Knowledge Boundaries in Machine Writing through Thinking
- arxiv url: http://arxiv.org/abs/2501.09751v1
- Date: Thu, 16 Jan 2025 18:58:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:10:37.744146
- Title: OmniThink: Expanding Knowledge Boundaries in Machine Writing through Thinking
- Title(参考訳): OmniThink: 思考による機械記述における知識境界の拡張
- Authors: Zekun Xi, Wenbiao Yin, Jizhan Fang, Jialong Wu, Runnan Fang, Ningyu Zhang, Jiang Yong, Pengjun Xie, Fei Huang, Huajun Chen,
- Abstract要約: 我々は,人間のような反復的展開と反射の過程をエミュレートする機械記述フレームワークであるOmniThinkを提案する。
実験結果から,OmniThinkはコヒーレンスや深度といった指標を伴わずに,生成した記事の知識密度を向上することが示された。
人間の評価と専門家のフィードバックは、OmniThinkが長文記事の生成における現実的な課題に対処する可能性をさらに強調している。
- 参考スコア(独自算出の注目度): 57.06347681695629
- License:
- Abstract: Machine writing with large language models often relies on retrieval-augmented generation. However, these approaches remain confined within the boundaries of the model's predefined scope, limiting the generation of content with rich information. Specifically, vanilla-retrieved information tends to lack depth, utility, and suffers from redundancy, which negatively impacts the quality of generated articles, leading to shallow, repetitive, and unoriginal outputs. To address these issues, we propose OmniThink, a machine writing framework that emulates the human-like process of iterative expansion and reflection. The core idea behind OmniThink is to simulate the cognitive behavior of learners as they progressively deepen their knowledge of the topics. Experimental results demonstrate that OmniThink improves the knowledge density of generated articles without compromising metrics such as coherence and depth. Human evaluations and expert feedback further highlight the potential of OmniThink to address real-world challenges in the generation of long-form articles.
- Abstract(参考訳): 大規模な言語モデルによる機械記述は、しばしば検索強化世代に依存している。
しかしながら、これらのアプローチはモデルが定義した範囲の境界内に留まり、リッチな情報によるコンテンツの生成を制限する。
特に、バニラが取得した情報は、深さ、実用性、冗長性に欠ける傾向があり、生成した記事の品質に悪影響を及ぼし、浅い、反復的、未生成のアウトプットをもたらす。
これらの問題に対処するために,人間のような反復的展開とリフレクションのプロセスをエミュレートする機械記述フレームワークであるOmniThinkを提案する。
OmniThinkの背景にある基本的な考え方は、学習者の認知行動をシミュレートし、トピックに関する知識を徐々に深めていくことである。
実験結果から,OmniThinkはコヒーレンスや深度といった指標を伴わずに,生成した記事の知識密度を向上することが示された。
人間の評価と専門家のフィードバックは、OmniThinkが長文記事の生成における現実的な課題に対処する可能性をさらに強調している。
関連論文リスト
- Multi-Novelty: Improve the Diversity and Novelty of Contents Generated by Large Language Models via inference-time Multi-Views Brainstorming [3.591342811819669]
LLM(Large Language Models)は、正確で流動的なテキストを生成するのに顕著な習熟度を示す。
彼らはしばしば多様性と斬新さと闘い、反復的あるいは過度に決定論的反応をもたらす。
多様な視点でインプットプロンプトを強化する新しい手法である推論時マルチビューブレインストーミング手法を導入する。
論文 参考訳(メタデータ) (2025-02-18T10:04:20Z) - Think More, Hallucinate Less: Mitigating Hallucinations via Dual Process of Fast and Slow Thinking [124.69672273754144]
HaluSearchは、ツリー検索ベースのアルゴリズムを組み込んだ新しいフレームワークである。
テキスト生成をステップバイステップの推論プロセスとしてフレーム化する。
認知科学における二重プロセス理論に着想を得た階層的思考システムスイッチ機構を導入する。
論文 参考訳(メタデータ) (2025-01-02T15:36:50Z) - The Superalignment of Superhuman Intelligence with Large Language Models [63.96120398355404]
我々は,この疑問に答えるために,学習の観点からスーパーアライメントの概念について議論する。
スーパーアライメントにおけるいくつかの重要な研究課題、すなわち、弱いから強い一般化、スケーラブルな監視、評価に焦点を当てる。
本稿では,学習者モデルの弱点を露呈しようとする敵対的クエリを生成する攻撃者,最小限の人間専門家とともに,批判モデルによって生成されたスケーラブルなフィードバックから学習することで自己を洗練させる学習者,与えられた質問応答対に対する批判や説明を生成する批判者,そして批判によって学習者を改善することを目的とした,3つのモジュールからなるスーパーアライメントの概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-15T10:34:06Z) - Good Idea or Not, Representation of LLM Could Tell [86.36317971482755]
我々は、大規模言語モデルの知識を活用し、科学的アイデアのメリットを評価することを目的としたアイデアアセスメントに焦点をあてる。
我々は、このタスクに対する様々なアプローチのパフォーマンスを訓練し評価するために、細心の注意を払って設計された、フルテキストを持つ約4万の原稿からベンチマークデータセットをリリースする。
その結果, 大規模言語モデルの表現は, 生成出力よりもアイデアの価値を定量化する可能性が高いことが示唆された。
論文 参考訳(メタデータ) (2024-09-07T02:07:22Z) - Analysis of Plan-based Retrieval for Grounded Text Generation [78.89478272104739]
幻覚は、言語モデルがそのパラメトリック知識の外で生成タスクが与えられるときに起こる。
この制限に対処するための一般的な戦略は、言語モデルに検索メカニズムを注入することである。
我々は,幻覚の頻度をさらに減少させるために,探索のガイドとして計画をどのように利用できるかを分析する。
論文 参考訳(メタデータ) (2024-08-20T02:19:35Z) - Bridging the Intent Gap: Knowledge-Enhanced Visual Generation [27.568260631117365]
視覚的コンテンツ生成では、ユーザの意図と生成されたコンテンツとの相違が長年にわたって問題となっている。
視覚コンテンツ生成のための知識強化型反復改善フレームワークを提案する。
提案手法の有効性を予備実験により実証した。
論文 参考訳(メタデータ) (2024-05-21T07:07:44Z) - Collapse of Self-trained Language Models [0.0]
私たちは、人間が以前の思考や行動に基づいて学習し、構築する方法に似た、自己学習モデルの自分たちのアウトプットでの可能性を探る。
GPT-2モデルの拡張自己学習により,性能が著しく低下し,繰り返しおよび崩壊したトークンが出力されることがわかった。
論文 参考訳(メタデータ) (2024-04-02T21:03:37Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - The Creative Frontier of Generative AI: Managing the Novelty-Usefulness
Tradeoff [0.4873362301533825]
生成人工知能(AI)システムにおける新規性と有用性の最適バランスについて検討する。
どちらの側面も過度に強調すると、幻覚や暗記のような限界に繋がる。
論文 参考訳(メタデータ) (2023-06-06T11:44:57Z) - Factual and Informative Review Generation for Explainable Recommendation [41.403493319602816]
先行モデルの生成されたコンテンツは、しばしば事実の幻覚を含む。
提案手法は,検索したコンテンツと生成のためのパラメトリック知識の併用による最近の成功にインスパイアされ,パーソナライズされた検索機能を備えたジェネレータを提案する。
Yelp、TripAdvisor、Amazon Movie Reviewsのデータセットでの実験は、我々のモデルが既存のレビューをより確実に複雑にし、より多様性があり、人間の評価者によってより有益であると評価された説明を生成できることを示している。
論文 参考訳(メタデータ) (2022-09-12T16:46:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。