Parcae架构 Parcae架构 加州大学圣地亚哥分校(UCSD)联合Together AI发表的一种循环语言模型(Looped Language Models)架构。该架构极其稳定,能够在不增加参数量的前提下,实现两倍于同等规模Transformer模型的生成质量。 技术特点 循环结构:不同于Transformer的前馈结构,采用循环机制 参数效率:不增加参数量即可提升生成质量 稳定性:被描述为“极其稳定”的循环语言模型 相关实体 [[together-ai]] — 联合研究方