标签:大模型

斯坦福:别太迷信大模型涌现能力,那是度量选择结果

大模型的涌现与任务的评价指标强相关,它们不能通过简单地推断小规模模型的性能改进来预测。因为涌现的能力预示着更大的模型可能有一天会在没有警告的情况下...

大型语言模型能否成为人类评估的替代品?

本文探讨使用大型语言模型(LLMs)是否可以作为评估自然语言处理模型的替代方法,作者探索了使用LLMs评估文本质量的潜力,本文的新意在于提出了使用LLMs进行...

Unlimiformer:具有无限长度输入的长距离Transformer模型

这篇论文的目标是解决Transformer模型输入长度受限的问题。因为Transformer需要关注输入中的每个标记,Unlimiformer的关键思路是使用k最近邻索引来代替传统的...

北大|全面评估ChatGPT的信息抽取能力:性能、可解释性、校准和忠实度的评估

本文聚焦于ChatGPT在各种信息抽取任务上的系统性评测,针对于7个细粒度信息抽取任务和14个数据集,从模型性能、可解释性、校准度和忠实度这四个角度,ChatGPT...

高效训练多模态大模型(BLIP-2)|OpenBMB论文速读第 6 期

【论文速读】是OpenBMB发起的大模型论文学习栏目,我们邀请来自清华大学自然语言处理实验室以及各大高校、科研机构的学术达人 作为主讲人分享大模型领域的论...

使用自然语言学习编程

提出了一种使用自然语言作为编程语言的方法。让人类和大型语言模型都能轻松理解任务过程,提出了编程学习的方法来教导语言模型生成自然语言程序,论文的关键...

使用自控记忆系统为大规模语言模型释放无限长度输入容量

论文旨在解决大型语言模型无法处理长文本输入的问题,提出了一种名为自控记忆系统(SCM)的解决方案。论文的关键思路是通过SCM系统解决大型语言模型无法处理...

评估ChatGPT的信息提取能力:性能、可解释性、校准和忠实度的评估

本文聚焦于ChatGPT在各种信息抽取任务上的系统性评测,针对于7个细粒度信息抽取任务和14个数据集,从模型性能、可解释性、校准度和忠实度这四个角度,给出非...

谷歌,手机上在12秒内呈现稳定的扩散图像

Stable Diffusion 在图像生成领域的知名度不亚于对话大模型中的 ChatGPT。并且由于设备上的计算和内存资源有限,在设备上运行这些模型可能会导致延迟增加,这...

基于大型语言模型的语义压缩

本论文旨在探索利用大型语言模型(LLMs)进行近似压缩的可行性。并提出了两个新的度量标准来量化文本压缩和解压缩的语义准确性:论文还试图解决LLMs在处理大...
1 18 19 20 21