标签:论文

KDD 2022 | 通过知识增强的提示学习实现统一的对话式推荐

本文基于知识增强的提示学习提出一种统一的对话推荐系统。已有的对话推荐系统通常包含对话和推荐两个模块,并采用不同的模型或技术实现,导致模块之间存在语...

微软|MLCopilot:释放大型语言模型在解决机器学习任务中的能力

利用最先进的语言模型(即LLMs为新型机器学习任务开发机器学习解决方案,该研究展示了LLM扩展到理解结构化输入和执行彻底推理的可能性,本篇论文旨在解决机器...

PMC-LLaMA: 用医学论文微调LLaMA

本文提出一种基于生物医学文献的预训练语言模型PMC-LLaMA,大型语言模型(LLMs)由于缺乏领域特定知识而表现不佳的问题,作者通过在4.8百万篇生物医学论文上...

CMU & Meta|逼真生成式3D人脸模型研究

提出一种3D可控生成人脸模型的方法。结合了2D人脸生成模型和语义人脸处理,能编辑具有细节的3D渲染人脸,Meta],2D人脸模型难以准确分离面部属性:限制了其编辑...

NAACL-22 | 在基于Prompt的文本生成任务上引入迁移学习的设置

预训练语言模型通过微调的方式在文本生成任务中取得了显著的进展,通常无法直接进行微调。本文提出基于prompt的迁移学习的设定。作者先为源领域上的不同任务...

GPT-3当一作自己研究自己,已投稿,在线蹲一个同行评议

GPT-3写了一篇关于自己的论文,GPT-3已经撰写过新闻报道,她决定搞出一篇完整的论文:先让GPT-3对上一次生成的500字小论文来一个200字的总结,接下来是分别对...

ImpressionGPT: 利用ChatGPT对放射科报告进行总结的迭代优化框架

尽管最近的研究在自动生成印象方面取得了可喜的成果,使用大规模的医疗文本数据对预训练的语言模型进行预训练和微调。但这种模型往往需要大量的医疗文本数据...

ICLR 2022 | 基于对抗自注意力机制的预训练语言模型

使模型在被污染的模型结构中得到训练,分布的平滑)加入原始的注意力结构中。这些先验知识能够让模型从较小的语料中学习有用的知识。但是这些先验知识一般是...

NetGPT:用于网络流量的生成预训练Transformer模型

本文旨在解决网络流量预训练模型的问题。以提高下游任务(如流量分类、攻击检测、资源调度、协议分析和流量生成)的训练效率和有效性,进一步优化了预训练模...

在大型语言模型中基于迭代bootstrapping增强思维链提示

本篇论文旨在解决大型语言模型在推理任务中可能出现的错误推理问题,通过迭代自我纠正来选择合适的示例和生成推理链。Iter-CoT在11个数据集上的三个不同推理...
1 7 8 9 10 11