AI教程 2025年01月8日
0 收藏 0 点赞 335 浏览 2175 个字
摘要 :

AI大模型新手速成入门LLMs基础教程: 1.目前主流的开源模型体系有哪些? 目前主流的开源模型体系分三种: •第一种:prefix Decoder系 •介绍:输入双向注意力,输出单向……

哈喽!伙伴们,我是小智,你们的AI向导。欢迎来到每日的AI学习时间。今天,我们将一起深入AI的奇妙世界,探索“AI大模型新手速成入门LLMs基础教程”,并学会本篇文章中所讲的全部知识点。还是那句话“不必远征未知,只需唤醒你的潜能!”跟着小智的步伐,我们终将学有所成,学以致用,并发现自身的更多可能性。话不多说,现在就让我们开始这场激发潜能的AI学习之旅吧。

AI大模型新手速成入门LLMs基础教程

AI大模型新手速成入门LLMs基础教程:

1.目前主流的开源模型体系有哪些?

目前主流的开源模型体系分三种:

•第一种:prefix Decoder系

•介绍:输入双向注意力,输出单向注意力

•代表模型:ChatGLM、ChatGLM2、U-PaLM

•第二种:causal Decoder系

•介绍:从左到右的单向注意力

•代表模型:LLaMA-7B、LLaMa衍生物

•第三种:Encoder-Decoder

•介绍:输入双向注意力,输出单向注意力

•代表模型:T5、Flan-T5、BART

AI大模型新手速成入门LLMs基础教程

2.prefix Decoder和causal Decoder和Encoder-Decoder区别是什么?

prefix Decoder和causal Decoder和Encoder-Decoder区别在于attention mask不同:

•Encoder-Decoder:

•在输入上采用双向注意力,对问题的编码理解更充分

•适用任务:在偏理解的NLP任务上效果好

•缺点:在长文本生成任务上效果差,训练效率低;

•causal Decoder:

•自回归语言模型,预训练和下游应用是完全一致的,严格遵守只有后面的token才能看到前面的token的规则;

•适用任务:文本生成任务效果好

•优点:训练效率高,zero-shot能力更强,具有涌现能力

•prefix Decoder:

•特点:prefix部分的token互相能看到,causal Decoder和Encoder-Decoder折中;

•缺点: 训练效率低

AI大模型新手速成入门LLMs基础教程

3.大模型LLM的训练目标是什么?

1.语言模型

根据已有词预测下一个词,训练目标为最大似然函数:

AI大模型新手速成入门LLMs基础教程

训练效率: Prefix Decoder < Causal Decoder Causal Decoder结构会在所有token上计算损失,而Prefix Decoder只会在输出上计算损失。 1.去噪自编码器 随机替换掉一些文本段,训练语言模型去恢复被打乱的文本段。目标函数为: AI大模型新手速成入门LLMs基础教程

去噪自编码器的实现难度更高。采用去噪自编码器作为训练目标的任务有 GLM-130B 、T5.

4.涌现能力是啥原因?

根据前人分析和论文总结,大致是2个猜想:

•任务的评价指标不够平滑;

•复杂任务vs子任务,这个其实好理解,比如我们假设某个任务 ⊺ 有5个子任务Sub-T构成,每个sub-T随着模型增长,指标从 40% 提升到 60% ,但是最终任务的指标只从 1.1% 提升到了 7% ,也就是说宏观上看到了涌现现象,但是子任务效果其实是平滑增长的。

5.为何现在的大模型大部分是Decoder only结构?

因为decoder-only结构模型在没有任何微调数据的情况下,zero-shot的表现能力最好。而encoder-decoder则需要在一定量的标注数据上做multitask-finetuning才能够激发最佳性能。

目前的Large LM的训练范式还是在大规模语料shang做自监督学习,很显然zero-shot性能更好的decoder-only架构才能更好的利用这些无标注的数据。

大模型使用decoder-only架构除了训练效率和工程实现上的优势外,在理论上因为Encoder的双向注意力会存在低秩的问题,这可能会削弱模型的表达能力。就生成任务而言,引入双向注意力并无实质的好处。而Encoder-decoder模型架构之所以能够在某些场景下表现更好,大概是因为它多了一倍参数。所以在同等参数量、同等推理成本下,Decoder-only架构就是最优的选择了。

6.简单介绍一下大模型【LLMs】?

大模型:一般指1亿以上参数的模型,但是这个标准一直在升级,目前万亿参数以上的模型也有了。大语言模型(Large Language Model,LLM)是针对语言的大模型。

7.大模型【LLMs】后面跟的175B、60B、540B等指什么?

175B、60B、540B等:这些一般指参数的个数,B是Billion/十亿的意思,175B是1750亿参数,这是ChatGPT大约的参数规模。

8.大模型【LLMs】具有什么优点?

1.可以利用大量的无标注数据来训练一个通用的模型,然后再用少量的有标注数据来微调模型,以适应特定的任务。这种预训练和微调的方法可以减少数据标注的成本和时间,提高模型的泛化能力;

2.可以利用生成式人工智能技术来产生新颖和有价值的内容,例如图像、文本、音乐等。这种生成能力可以帮助用户在创意、娱乐、教育等领域获得更好的体验和效果;

3.可以利用涌现能力(Emergent Capabilities)来完成一些之前无法完成或者很难完成的任务,例如数学应用题、常识推理、符号操作等。这种涌现能力可以反映模型的智能水平和推理能力。

9.大模型【LLMs】具有什么缺点?

1.需要消耗大量的计算资源和存储资源来训练和运行,这会增加经济和环境的负担。据估计,训练一个GPT-3模型需要消耗约30万美元,并产生约284吨二氧化碳排放;

2.需要面对数据质量和安全性的问题,例如数据偏见、数据泄露、数据滥用等。这些问题可能会导致模型产生不准确或不道德的输出,并影响用户或社会的利益;

3.需要考虑可解释性、可靠性、可持续性等方面的挑战,例如如何理解和控制模型的行为、如何保证模型的正确性和稳定性、如何平衡模型的效益和风险等。这些挑战需要多方面的研究和合作,以确保大模型能够健康地发展。

嘿,伙伴们,今天我们的AI探索之旅已经圆满结束。关于“AI大模型新手速成入门LLMs基础教程”的内容已经分享给大家了。感谢你们的陪伴,希望这次旅程让你对AI能够更了解、更喜欢。谨记,精准提问是解锁AI潜能的钥匙哦!如果有小伙伴想要了解学习更多的AI知识,请关注我们的官网“AI智研社”,保证让你收获满满呦!

微信扫一扫

支付宝扫一扫

版权: 转载请注明出处:https://www.ai-blog.cn/2156.html

相关推荐
01-15

面向开发者的LLM入门课程-路由链: 路由链 到目前为止,我们已经学习了大语言模型链和顺序链。但是…

216
01-15

面向开发者的LLM入门课程-顺序链: 顺序链 当只有一个输入和一个输出时,简单顺序链(SimpleSequen…

335
01-15

面向开发者的LLM入门课程-简单顺序链: 简单顺序链 顺序链(SequentialChains)是按预定义顺序执行…

335
01-15

面向开发者的LLM入门课程-大语言模型链: 模型链 链(Chains)通常将大语言模型(LLM)与提示(Pro…

335
01-15

面向开发者的LLM入门课程-对话储存英文版提示: 英文版提示 1.对话缓存储存 from langchain.chains…

335
01-15

面向开发者的LLM入门课程-对话摘要缓存储存: 对话摘要缓存储存 对话摘要缓存储存,使用 LLM 对到…

335
01-15

面向开发者的LLM入门课程-对话字符缓存储存: 对话字符缓存储存 使用对话字符缓存记忆,内存将限制…

335
01-15

面向开发者的LLM入门课程-对话缓存窗口储存: 对话缓存窗口储存 随着对话变得越来越长,所需的内存…

335
发表评论
暂无评论

还没有评论呢,快来抢沙发~

助力原创内容

快速提升站内名气成为大牛

扫描二维码

手机访问本站