論文の概要: On the Military Applications of Large Language Models
- arxiv url: http://arxiv.org/abs/2511.10093v1
- Date: Fri, 14 Nov 2025 01:31:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.694216
- Title: On the Military Applications of Large Language Models
- Title(参考訳): 大規模言語モデルの軍事的応用について
- Authors: Satu Johansson, Taneli Riihonen,
- Abstract要約: 我々は、軍事利用の事例や応用、その実施について検討する。
我々はGPTベースの言語モデルを作成し、軍事的応用の可能性について独自の知識を明らかにし、その情報を批判的に評価する。
言語モデルの要約と生成特性は、多くのアプリケーションを直接的に促進し、他の特徴が特定の用途を見出す可能性があると結論付けている。
- 参考スコア(独自算出の注目度): 8.938315018751572
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, military use cases or applications and implementation thereof are considered for natural language processing and large language models, which have broken into fame with the invention of the generative pre-trained transformer (GPT) and the extensive foundation model pretraining done by OpenAI for ChatGPT and others. First, we interrogate a GPT-based language model (viz. Microsoft Copilot) to make it reveal its own knowledge about their potential military applications and then critically assess the information. Second, we study how commercial cloud services (viz. Microsoft Azure) could be used readily to build such applications and assess which of them are feasible. We conclude that the summarization and generative properties of language models directly facilitate many applications at large and other features may find particular uses.
- Abstract(参考訳): 本稿では,GPT(generative pre-trained transformer)の発明と,ChatGPT(ChatGPT)用にOpenAIが行った広範な基礎モデルにより,自然言語処理や大規模言語モデルに軍用事例や応用,実装が注目されている。
まず、GPTベースの言語モデル(viz、Microsoft Copilot)に疑問を投げかけ、軍事的応用の可能性について自身の知識を明らかにし、その情報を批判的に評価する。
第2に、商用クラウドサービス(あるいはMicrosoft Azure)が、このようなアプリケーションの構築と、そのどれが実現可能かを評価するために、どのように簡単に使用できるかを検討する。
言語モデルの要約と生成特性は、多くのアプリケーションを直接的に促進し、他の特徴が特定の用途を見出す可能性があると結論付けている。
関連論文リスト
- GigaChat Family: Efficient Russian Language Modeling Through Mixture of Experts Architecture [24.006981776597147]
本稿では,ロシア大言語モデル(LLM)のGigaChatファミリーを紹介する。
モデルアーキテクチャ、事前学習プロセス、および設計選択をガイドするための実験に関する詳細なレポートを提供する。
本稿では,API,Telegramボット,Webインターフェースを通じてアクセス可能なトップパフォーマンスモデルのシステムデモを示す。
論文 参考訳(メタデータ) (2025-06-11T06:46:49Z) - CMULAB: An Open-Source Framework for Training and Deployment of Natural Language Processing Models [59.91221728187576]
本稿では,NLPモデルのモデル展開と連続的なヒューマン・イン・ザ・ループの微調整を簡単にするオープンソースフレームワークであるCMU言語バックエンドを紹介する。
CMULABは、マルチ言語モデルのパワーを活用して、音声認識、OCR、翻訳、構文解析などの既存のツールを新しい言語に迅速に適応し、拡張することができる。
論文 参考訳(メタデータ) (2024-04-03T02:21:46Z) - Language Models are Universal Embedders [45.8316643119292]
大きな言語モデル(LLM)革命において、埋め込みは様々なシステムの重要な構成要素である。
組込み機を構築するための戦略を提案し,ユニバーサル評価ベンチマークを導入する。
実験結果から,学習モデルは言語やタスクにまたがる優れた埋め込みを生成するのに長けていることがわかった。
論文 参考訳(メタデータ) (2023-10-12T11:25:46Z) - Diffusion Language Models Can Perform Many Tasks with Scaling and Instruction-Finetuning [52.22611035186903]
拡散言語モデルを拡張することで、強力な言語学習者が効果的に学習できることが示される。
大規模データから知識を最初に取得することで,大規模に有能な拡散言語モデルを構築する。
実験により、拡散言語モデルのスケーリングは、下流言語タスクにおけるパフォーマンスを一貫して改善することが示された。
論文 参考訳(メタデータ) (2023-08-23T16:01:12Z) - Language Model Behavior: A Comprehensive Survey [5.663056267168211]
本稿では,タスク固有の微調整前における英語モデル行動に関する最近の250以上の研究について論じる。
モデルが数十億のパラメータにスケールするにつれて、生成テキストの品質は劇的に向上するが、モデルはまだ、非現実的な応答、常識的エラー、暗記されたテキスト、社会的偏見の傾向にある。
論文 参考訳(メタデータ) (2023-03-20T23:54:26Z) - Language Models are General-Purpose Interfaces [109.45478241369655]
本稿では,様々な基礎モデルに対する汎用インタフェースとして言語モデルを提案する。
事前訓練されたエンコーダのコレクションは、様々なモダリティ(ビジョンや言語など)を知覚する
インタフェースとモジュールエンコーダを協調的に事前学習するための半因果言語モデリング手法を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:34:22Z) - Pre-Trained Language Models for Interactive Decision-Making [72.77825666035203]
目的と観測を埋め込みのシーケンスとして表現する模倣学習の枠組みを述べる。
このフレームワークは様々な環境にまたがって効果的な一般化を可能にすることを実証する。
新たなゴールや新しいシーンを含むテストタスクでは、言語モデルによる初期化ポリシーはタスク完了率を43.6%改善する。
論文 参考訳(メタデータ) (2022-02-03T18:55:52Z) - On the Universality of Deep COntextual Language Models [15.218264849664715]
ELMOやBERTのような深い文脈言語モデル(LM)は、自然言語処理のランドスケープを支配している。
XLM-RやmBERTのような多言語モデルでは、ゼロショットのクロスリンガル転送が期待できる結果となった。
この最初の成功により、訓練済みのモデルはユニバーサル言語モデルとして使用されている。
論文 参考訳(メタデータ) (2021-09-15T08:00:33Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。