据悉,用户与大型模型之间的对话通常被认为是短期记忆,一旦对话长度超出其上下文承载能力,超出的部分就可能被模型遗忘。

区别于传统文本处理模型,长文本模型拥有更精准的文本理解与生成能力和更强的跨领域迁移能力,能够一次性理解并生成更多信息,适合复杂对话、长内容创作、详细数据分析等任务,能够提升模型问题求解的边界。

6月27日,讯飞Spark V4.0发布,长文本能力全新升级,并推出业界首个内容追溯功能,解决长文档知识问答错觉问题。当用户问Spark一个问题,回答完之后会告诉你为什么这样回答、参考了哪些内容。这样,当用户没时间看全文,又担心答案的可信度时,只需要验证其可追溯性即可。

现在,支持最长上下文的Spark Pro -128k向开发者开放API调用,价格为0.21~0.30元/万,个人用户可免费享受200万服务。IT之家附上的价格表如下:


