您的当前位置:首页 > 探索 > ChatGPT能写长篇小说了,ETH提出RecurrentGPT实现交互式超长文本天生 正文
时间:2025-03-14 08:02:20 来源:网络整理 编辑:探索
如今大型语言模子如 ChatGPT)盛行全天下,其最紧张的运用之一便是辅助用户实现种种同样艰深写作,如撰写电子邮件,创作博客文章,都能患上到它的有力反对于。可是当初搜罗 ChatGPT 在内的种种狂语
如今大型语言模子(如 ChatGPT)盛行全天下,写长其最紧张的说E实现式超生运用之一便是辅助用户实现种种同样艰深写作,如撰写电子邮件 ,提出创作博客文章 ,交互都能患上到它的长文有力反对于 。可是本天当初搜罗 ChatGPT 在内的种种狂语言模子在长内容创作规模,如小说 ,写长剧本 ,说E实现式超生长篇文案等规模却显患上力不从心。提出
近期,交互来自苏黎世联邦理工以及波形智能的长文团队宣告了 RecurrentGPT,一种让狂语言模子 (如 ChatGPT 等) 可能模拟 RNN/LSTM,本天经由 Recurrent Prompting 来实现交互式超长文本天生,写长让运用 ChatGPT 妨碍长篇小说创作成为了可能。说E实现式超生
论文地址 :https://arxiv.org/abs/2305.13304
名目地址 :https://github.com/aiwaves-cn/RecurrentGPT
在线 Demo :https://www.aiwaves.org/recurrentgpt (长篇小说写作) https://www.aiwaves.org/interactivefiction (交互式小说)
基于 Transformer 的狂语言模子最清晰的限度之一便是输入以及输入的长度限度。尽管输入真个长度限度可能经由 VectorDB 等方式缓解,输入内容的长度限度不断是限度 ChatGPT 等狂语言模子普遍运用于长内容天生的关键拦阻。为处置这一下场 ,以前良多钻研试图运用基于向量化的 State 或者 Memory 来让 Transformer 可能妨碍循环合计。这样的措施尽管在长文本建模上揭示了确定的优势,可是却要求运用者具备并可能更正模子的妄想以及参数,这在当初闭源模子遥遥争先的狂语言模子时期中是不适宜实际的。
RecurrentGPT 则另辟蹊径,是运用狂语言模子妨碍交互式长文本天生的首个乐成实际 。它运用 ChatGPT 等狂语言模子清晰做作语言指令的能耐,经由做作语言模拟了循环神经收集(RNNs)的循环合计机制。
如图 2 所示 ,在每一个光阴步中,RecurrentGPT 会接管上一个光阴步天生的内容、最近天生内容的摘要(短期影像),历史天生内容中以及之后光阴步最相关的内容 (临时影像),以及一个对于下一步天生内容的大概 。RecurrentGPT 凭证这些内容天生一段内容 ,更新其长短时影像 ,并最先天生多少个对于下一个光阴步中天生内容的妄想 ,并将之后光阴步的输入作为下一个光阴步的输入 。这样的循环合计机制突破了老例Transformer 模子在生妨碍篇文本方面的限度,从而实现恣意长度文本的天生,而不淡忘以前的信息。
详细来说 。作者们妄想了如图 2 所示的 prompt 去教育以及尺度循环的天生 :