快速导航×

贫穷让我预训练2023-06-26 08:32:45

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

贫穷让我预训练

一、要不要预训练

贫穷让我预训练

预训练的效果是直接的,需要的资源常常令人望而却步。如果存在这种预训练方法,它的启动所需算力、数据和人工资源很少,甚至只需要单人单卡的原始语料。经过无监督的数据处理,完成一次迁移到自己领域的预训练之后,就能获得零样本的nlg、nlg和向量表示推理能力,其他向量表示的召回能力超过bm25,那么你有兴趣尝试吗?

ChatGPT Writer ChatGPT Writer

免费 Chrome 扩展程序,使用 ChatGPT AI 生成电子邮件和消息。

ChatGPT Writer 106 查看详情 ChatGPT Writer

贫穷让我预训练


要不要做一件事,需要衡量投入产出来决定。预训练是大事,需要一些前置条件和资源,也要又充足的预期收益才会实行。通常所需要的条件有:充足的语料库建设,通常来说质量比数量更难得,所以语料库的质量可以放松些,数量一定要管够;其次是具备相应的人才储备和人力预算,相较而言,小模型训练更容易,障碍更少,大模型遇到的问题会多些;最后才是算力资源,根据场景和人才搭配,丰俭由人,最好有一块大内存显卡。预训练带来的收益也很直观,迁移模型能直接带来效果提升,提升幅度跟预训练投入和领域差异直接相关,最终收益由模型提升和业务规模共同增益。

在我们的场景中,数据领域跟通用领域差异极大,甚至需要大幅度更替词表,业务规模也已经足够。如果不预训练的话,也会为每个下游任务专门微调模型。预训练的预期收益是确定的。我们的语料库质量上很烂,但是数量足够。算力资源很有限,配合相应的人才储备可弥补。此时预训练的条件都已经具备。

直接决定我们启动预训练的因素是需要维护的下游模型太多了,特别占用机器和人力资源,需要给每个任务都要准备一大堆数据训练出一个专属模型,模型治理的复杂度急剧增加。所以我们探索预训练,希望能构建统一的预训练任务,让各个下游模型都受益。我们做这件事的时候也不是一蹴而就的,需要维护的模型多也意味着模型经验多,结合之前多个项目经验,包括一些自监督学习、对比学习、多任务学习等模型,经过反复实验迭代融合成形的。

贫穷让我预训练

上图是传统的nlp流水线范式,基于已有的通用预训练模型,在可选的迁移预训练完成后,为每个下游任务收集数据集,微调训练,并且需要诸多人工和显卡维护多个下游模型和服务。

下图是我们提出的新范式,在迁移到我们领域继续预训练时候,使用联合语言建模任务和对比学习任务,使得产出模型具备零样本的NLU、NLG、向量表示能力,这些能力是模型化的,可以按需取用。如此需要维护的模型就少了,尤其是在项目启动时候可以直接用于调研,如果有需要再进一步微调,需要的数据量也大大降低。

二、如何预训练


贫穷让我预训练

这是我们的预训练模型架构,包括Transformer的编码器、解码器和向量表示头。

预训练的目标包括语言建模和对比表示,损失函数为Total Loss = LM Loss + α CL Loss,采用语言建模任务与对比表示任务联合训练,其中α表示权重系数。语言建模采用掩码模型,类似于T5,只解码掩码部分。对比表示任务类似于CLIP,在一个批次内,有一对相关训练正样本,其他未负样本,对于每一条样本对(i,I)中的i,有一个正样本I,其他样本为负样本,使用对称交叉熵损失,迫使正样本的表示相近,负样本的表示相远。采用T5方式解码可以缩短解码长度。一个非线性向量表示头加载编码器上方,一是向量表示场景中要求更快,二是两个所示函数作用远离,防止训练目标冲突。那么问题来了,完形填空的任务很常见,不需要样本,那相似性样本对是怎么来的呢?

贫穷让我预训练

当然,作为预训方法,样本对一定是无监督算法挖掘的。通常信息检索领域采用挖掘正样本基本方法是逆完形填空,在一篇文档中挖掘几个片段,假定他们相关。我们这里将文档拆分为句子,然后枚举句子对。我们采用最长公共子串来判定两个句子是否相关。如图取两个正负句对,最长公共子串长到一定程度判定为相似,否则不相似。阈值自取,比如长句子为三个汉字,英文字母要求多一些,短句子可以放松些。

我们采用相关性作为样本对,而不是语义等价性,是因为二者目标是冲突的。如上图所示,猫抓老鼠跟老鼠抓猫,语义相反却相关。我们的场景搜索为主,更加侧重相关性。而且相关性比语义等价性更广泛,语义等价更适合在相关性基础上继续微调。

有些句子筛选多次,有些句子没有被筛选。我们限制句子入选频次上限。对于落选句子,可以复制作为正样本,可以拼接到入选句子中,还可以用逆向完型填空作为正样本。

贫穷让我预训练

传统的掩码方式如SpanBert,采用几何分布采样掩码长度,短掩码概率高,长掩码概率低,适用于长句子。但我们的语料是支离破碎的,当面对一二十个字的短句子时,传统倾向掩码两个单字胜过遮蔽一个双字,这不符合我们期望。所以我们改进了这个分布,让他采样最优长度的概率最大,其他长度概率逐次降低,就像一个骆驼的驼峰,成为驼峰几何分布,在我们短句富集的场景中更加健壮。

三、实验效果

贫穷让我预训练

我们做了对照实验。包括GUR-FULL,用到了语言建模和向量对比表示;UR-LCS的样本对没有经过LCS筛选过滤;UR-CL没有对比表示学习,相当于传统的语言模型;GUR-LM只有向量对比表示学习,没有语言建模学习,相当于为下游任务专门微调;NLPC是百度场内的一个word2vec算子。

实验从一个T5-small开始继续预训练。训练语料包括维基百科、维基文库、CSL和我们的自有语料。我们的自有语料从物料库抓来的,质量很差,质量最佳的部分是物料库的标题。所以在其他文档中挖正样本时是近乎任意文本对筛选,而在我们语料库中是用标题匹配正文的每一个句子。GUR-LCS没有经过LCS选,如果不这样干的话,样本对太烂了,这么做的话,跟GUR-FULL差别就小多了。

贫穷让我预训练

我们在几个检索任务中评测模型的向量表示效果。左图是几个模型在召回中的表现,我们发现经过向量表示学习的模型表现都是最好的,胜过BM25。我们还比较了排序目标,这回BM25扳回一局。这表明密集模型的泛化能力强,稀疏模型的确定性强,二者可以互补。实际上在信息检索领域的下游任务中,密集模型和稀疏模型经常搭配使用。

贫穷让我预训练

上图是在不同训练样本量的NLU评测任务,每个任务有几十到几百个类别,以ACC得分评估效果。GUR模型还将分类的标签转化为向量,来为每个句子找到最近的标签。上图从左到右依据训练样本量递增分别是零样本、小样本和充足微调评测。右图是经过充足微调之后的模型表现,表明了各个子任务的本身难度,也是零样本和小样本表现的天花板。可见GUR模型可以依靠向量表示就可以在一些分类任务中实现零样本推理。并且GUR模型的小样本能力表现最突出。

贫穷让我预训练

这是在NLG的零样本表现。我们在做标题生成和query扩展中,挖掘优质流量的标题,将关键词保留,非关键词随机掩码,经过语言建模训练的模型表现都不错。这种自动prompt效果跟人工构造的目标效果差不多,多样性更广泛,能够满足大批量生产。经过语言建模任务的几个模型表现差不多,上图采用GUR模型样例。

四、结语

本文提出了一种新的预训练范式,上述对照实验表明了,联合训练不会造成目标冲突。GUR模型在继续预训练时,可以在保持语言建模能力的基础上,增加向量表示的能力。一次预训练,到处零原样本推理。适合业务部门低成本预训练。

贫穷让我预训练

上述链接记载了我们的训练细节,参考文献详见论文引用,代码版本比论文新一点。希望能给AI民主化做一点微小贡献。大小模型有各自应用场景,GUR模型除了直接用于下游任务之外,还可以结合大模型使用。我们在流水线中先用小模型识别再用大模型指令任务,大模型也可以给小模型生产样本,GUR小模型可以给大模型提供向量检索。

论文中的模型为了探索多个实验选用的小模型,实践中若选用更大模型增益明显。我们的探索还很不够,需要有进一步工作,如果有意愿的话可以联系laohur@gmail.com,期待能与大家共同进步。

以上就是贫穷让我预训练的详细内容,更多请关注其它相关文章!


# 是在  # 广西百度seo推广  # 揭阳seo优化培训  # 徐州seo网络推广推荐  # 常熟市网站建设  # 永康网站建设优化建站  # seo引擎搜索入口  # 网站建设源码怎么写的  # seo的适用范围  # 鞍山免费的网站推广  # 吉首seo优化价位  # 自然语言  # 这是  # 上图  # 文档  # 多个  # 开源  # 几个  # 掩码  # 让我  # 关键词 


相关栏目: 【 企业资讯168 】 【 行业动态20933 】 【 网络营销52431 】 【 网络学院91036 】 【 运营推广7012 】 【 科技资讯60970


相关推荐: 多家欧洲企业签署公开信,批评欧盟 AI 法案草案限制产业发展  科技数码圈的新物种 乐天派桌面机器人 AI +安卓+机器人 首发价1799元  提升工作效率的智能工具:Zapier 让工作变得更简单!  2025智源大会AI安全话题备受关注,《人机对齐》新书首发  GPT-4最全攻略来袭!OpenAI官方发布,六个月攒下来的使用经验都在里面了  曝光HarmonyOS 4的重要新能力:全面升级AI大模型,小艺实现全面进化  AI工具助力公司实施每周4.5天工作制,带来巨大效益  “上海市民营企业人工智能赋能创新中心”揭牌成立  能走、能飞、能游泳,科学家打造全能 M4 机器人  下一个前沿:量子机器学习和人工智能的未来  微软 Copilot 团队主管呼吁用户与 AI 交流时应使用恰当的礼貌用语  ​日媒:AI高效解析纳斯卡地画  人工智能在交通领域的革新:智能解决方案彻底改变交通方式  AMD在AI方面奋起直追,与英伟达的差距缩小了吗?  《上古卷轴5》AI高清材质包优化游戏中所有怪物  复旦发布「新闻推荐生态系统模拟器」SimuLine:单机支持万名读者、千名创作者、100+轮次推荐  IBM将模拟计算用于人工智能,重塑AI计算  旷视入选北京市通用人工智能产业创新伙伴计划  美的推出 AI 双视精准避障的自动集尘扫拖机器人 V12,售价仅为2999元  自然语言生成在智能家居设备中的应用  "探索Meta发布的Quest MR/VR视频录制与拍摄指南"  昇腾AI & 讯飞星火:深度联手,共话国产大模型“大未来”  脑机接口产业联盟发布十大脑机接口关键技术  AI时代,企业需要什么样的员工?  Bing Chat 和 Bing Search 正式引入深色模式  深度学习模型综述:用于3D MRI和CT扫描的应用  AI遇上大运丨热身拉伸、娱乐K歌……AI智能健身镜将亮相成都大运会  微软 Azure AI 文本转语音服务升级:新增男性声音和扩展语言支持  2025 年开发者必须知道的六个 AI 工具  OpenAI提出使用GPT-4进行内容审核的新方法  机构:边缘AI或是当前预期差最大的AI方向  陈根:ChatGPT和人类合作开发机器人  英伟达首席执行官黄仁勋:生成式 AI 时代「人类」会是新的编程语言  苹果推出全新沉浸式 AR 体验应用“Deep Field”  家电行业观察:AI加持下,全屋智能将成为智能家电未来?  构建AI绘画网站的方法:使用API接口和调用步骤  无人机巡检方案是什么,该如何选择适合的巡检方案  PHP和OpenCV库:如何实现人脸识别  财联社首档运用虚拟人技术播报栏目《AI半小时》今晚上线!敬请期待  万魔推出AI主攻的运动耳机,开启十年研发新纪元  美图公司影像节或发布AI设计新品  AI 模型 Stable Diffusion 升级:正常生成五指、图像更逼真  全新“AI助手”!讯飞星火助手中心人机协作共创新生态  物联网和人工智能的协同作用:释放预测性维护的潜力  配 3D 机器人头像,谷歌展示全新安卓 LOGO  世界人工智能大会|“AI领航,共筑未来”高端保险论坛成功举办  研究发现AI聊天机器人ChatGPT不会讲笑话,只会重复25个老梗  谷歌将使用公开信息训练 AI 模型,构建更强大的自家产品  扎克·施奈德新片《月球叛军》曝剧照 机器人首度现身  OpenOOD更新v1.5:全面、精确的分布外检测代码库及测试平台,支持在线排行榜、一键测试