事後学習でPLaMoのコンテキスト長を4倍の16kにしました

大規模言語モデル(以下、LLM)で扱えるトークン数(以下、コンテキスト長)が長ければ長いほど、LLMを利用できる場面は増えます。例えば、以下のような場面です: 本やマニュアルのようなページ数の多い文書 RAG [Lewi … 続きを読む 事後学習でPLaMoのコンテキスト長を4倍の16kにしました