AI教程 2025年01月8日
0 收藏 0 点赞 307 浏览 3961 个字
摘要 :

最新版AI大模型面试八股文141-145题: AI大模型风头正劲,相关岗位炙手可热,竞争也异常激烈。想要在面试中脱颖而出,除了扎实的技术功底,还需要对面试套路了如指掌。……

哈喽!伙伴们,我是小智,你们的AI向导。欢迎来到每日的AI学习时间。今天,我们将一起深入AI的奇妙世界,探索“最新版AI大模型面试八股文141-145题”,并学会本篇文章中所讲的全部知识点。还是那句话“不必远征未知,只需唤醒你的潜能!”跟着小智的步伐,我们终将学有所成,学以致用,并发现自身的更多可能性。话不多说,现在就让我们开始这场激发潜能的AI学习之旅吧。

最新版AI大模型面试八股文141-145题

最新版AI大模型面试八股文141-145题:

AI大模型风头正劲,相关岗位炙手可热,竞争也异常激烈。想要在面试中脱颖而出,除了扎实的技术功底,还需要对面试套路了如指掌。这份最新版AI大模型面试八股文,正是为你量身打造的“通关秘籍”!

141、gat有什么缺点
答案:
尽管GAT模型在处理图结构数据时具有很高的表现能力,但它也存在一些缺陷。首先,GAT模型的计算复杂度较高。由于每个节点都需要与其邻居节点进行注意力计算,这导致了计算量的显著增加。其次,GAT模型对于大规模图结构的处理效果不佳。由于注意力机制需要考虑每个节点与其所有邻居节点之间的关系,当图的规模较大时,GAT模型的计算和存储开销将会非常大。此外,GAT模型的注意力机制可能会受到噪声节点的影响,从而导致模型性能下降。

142、mape有什么缺点
答案:
平均绝对百分比误差。优点在于以百分比形式表示预测值与真实值之间的相对误差,更关注相对误差,对于不同量级的预测问题更具可比性。此外,MAPE在金融领域中常用于评估投资组合风险模型的表现。然而,MAPE的缺点在于当真实值接近零时,计算会出现分母为零的情况,导致评价结果不可用。同时,MAPE对小的误差较为敏感,可能会放大真实值较小的样本的误差。

143、怎么处理冷启动问题
答案:
1、数据
首先思考数据,能够帮助我们了解现状,知道手上有哪些底牌。数据一般包括用户数据和物品数据。
按数据来源的不同,考虑:内部数据、外部数据。

1.1、内部数据
内部数据包括:本产品线的数据、其他产品线的数据。
注意,在冷启动问题中,对于数据是“缺乏”而非“没有”。这意味着我们手上可能还是有一些数据的。

• 对于用户冷启动问题,用户在注册时填写的信息(手机号、地址、性别、年龄等)和注册时的环境信息(IP地址、GPS),可以帮助我们做出粗粒度的推荐。例如可以根据专家意见或决策树模型建立一些针对于不同年龄段、不同性别的用户的个性化榜单,然后在用户完成注册后,根据注册时填写的信息进行推荐。
• 对于物品冷启动问题,物品的一些属性信息也同样可以起到作用。在酒店推荐的场景下,可以根据新上线酒店的位置、价格、面积等信息,为酒店指定聚类,找到相似酒店,利用相似酒店的推荐逻辑完成冷启动过程。另外,如果公司还有其他业务线,那么其他业务线的数据也可以拿过来使用。例如用户在美团已经积累了外卖数据,可以根据消费金额、家庭地址等分析得出用户的消费水平,那么在用户第一次使用美团的酒店服务时,也可以推荐出符合消费习惯的酒店。

1.2、外部数据
常见获取数据的手段包括:爬虫、平台对接。
• 爬虫是近乎于零成本的方案,但是可能会有一些法律风险。平台之间互相告对方非法爬取数据的新闻屡见不鲜。
• 有些第三方DMP(Data Management Platform,数据管理平台)也会提供用户信息。像国外的BlueKai、Nielsen,国内的Talking Data 等公司都提供匹配率非常高的数据服务,可以极大地丰富用户的属性特征。像腾讯、百度、网易、Google等企业都与这些DMP 平台有合作。

那DMP 的数据是哪里来的呢?数据交换。通过合作的方式,企业给DMP 提供用户的一些基本数据,DMP 对数据进行分析、挖掘,给企业提供更加全方位的用户信息。这样一来,企业就能获取到本来完全得不到的用户兴趣、收入水平、广告倾向等一系列高阶特征。

2、算法
在梳理完数据现状之后,接下来考虑算法的问题。
推荐系统的目标就是推荐给用户正确的商品,评价方式可以是点击率、在线观看时长等。在解决冷启动问题的过程中,无论用什么算法,算法的优化目标都要与总体目标一致。
算法可以从实现方式的不同,分为3 类:基于规则、基于ML/DL、探索与利用。

2.1、基于规则的算法
基于规则的算法,一般给出的都是榜单类型的推荐结果。
在用户冷启动场景下,可以使用“热门排行榜”、“最新流行趋势榜”、“最高评分榜”等作为默认的推荐列表,实现非个性化推荐。可以根据专家意见建立一些针对于不同年龄段、不同性别的用户的个性化榜单,然后在用户完成注册后,根据注册时填写的信息进行粗粒度的个性化推荐。另外,在LBS(Location Based Services,基于位置的服务)场景下,可以根据用户在注册时填写的地址信息、GPS 信息,按一定规则推荐周围的店家/商品。在物品冷启动场景下,可以按一定规则寻找相似商品进行绑定,完成推荐。

需要注意的是,基于规则的算法更多依赖的是专家对业务的洞察。因此在制定规则时,需要充分了解业务,充分利用已有数据,才能让冷启动规则合理且高效。

2.2、基于ML/DL
基于ML/DL 的算法要解决的是用户冷启动或物品冷启动问题,而非系统冷启动问题。因此前提是,系统已经上线,同时也已经有了一定的数据积累。
机器学习(ML)的思路是,将基于规则的算法改造为机器学习模型,按学习方式的不同,又可以分为有监督学习和无监督学习(当然还有半监督学习,此处不展开)。
• 有监督学习:在前面的例子中,可以利用点击率目标构造一个用户属性的决策树,在每个决策树的叶节点建立冷启动榜单,然后新用户在注册后,根据其有限的属性信息,寻找到决策树上对应的叶节点榜单,完成冷启动过程。
• 无监督学习:例如使用聚类算法,来寻找相似物品,但要注意维度灾难问题。
需要注意的是,由于数据的缺乏,不能选用复杂的机器学习模型,否则容易造成过拟合问题。
而对于新用户,由于其特征非常的稀疏,使用基于深度学习(DL)的推荐系统效果会比较差,那有什么方法呢?可以考虑迁移学习和强化学习。
• 迁移学习如果有其他业务线的数据,也可以拿过来使用。冷启动问题本质上是某领域的数据或知识不足导致的,如果能够将其他领域的知识用于当前领域,那么冷启动问题自然迎刃而解。我们称这种做法为“迁移学习”,常见的做法是共享特征(在深度学习模型中就是共享Embedding)或共享模型参数。例如将CTR 模型中的用户Embedding 和物品Embedding 应用到CVR 模型中,直接用于训练。Embedding 是一种高维特征到低维特征的映射,训练好的Embedding 可以反映用于与隐变量、商品与隐变量之间的内在联系。
• 强化学习:所谓强化学习,就是指智能体(即模型)根据环境(即用户、物品等)的反馈(即点击或不点击)来采取行动(即推荐商品列表)并改变自身状态(更新模型参数),然后再获得反馈再采取行动再改变状态的循环过程。在一次次的迭代过程中,让推荐系统尽快度过冷启动状态。

2.3、运筹优化
运筹优化在推荐系统中的应用场景是多样的,而在冷启动问题里,主要是用于解决物品冷启动问题。当然,同样也可以用来解决系统冷启动的问题。
具体而言,就是是在“探索新数据”和“利用旧数据”之间进行平衡,使系统既能够利用旧数据进行推荐,达到推荐系统的商业目标,又能高效地探索冷启动的物品是否是“优质物品”,使冷启动物品获得曝光的倾向,快速收集冷启动数据。我们又称这个过程为“探索与利用”。
显然,这是一个多目标优化问题。

一个经典的解决办法是UCB(Upper Confidence Bound,置信区间上界)。公式如下。其中为观测到的第个物品的平均回报(这里的平均回报可以是点击率、转化率等),是目前为止向该用户曝光第个物品的次数,是到目前为止曝光所有物品的次数之和。

在新物品刚上架的时候,比较低,但是因为曝光次数也比较小,所以会比较大,最后值会比较大,新物品的曝光机会较大。随着曝光次数的增加,在公式中的相对值逐渐减小,最后就主要取决于了。也就是说,使用UCB方法进行推荐,推荐系统会倾向于推荐“效果好”或“冷启动”的物品。随着冷启动物品被有倾向性的推荐,能够快速收集反馈数据,最后快速通过冷启动阶段。

3、产品
最后讨论一下从产品的角度,要怎么帮助解决冷启动问题。
冷启动问题之所以出现,就是因为缺乏有价值的数据,那么在产品功能方面,就要尽量帮助收集数据。
• 用户冷启动:有些应用会在用户第一次登录时,引导用户输入一些冷启动特征。例如,一些音乐类产品会引导用于选择“音乐风格”;一些视频类产品会引导用户选择几部自己喜欢的电影。
• 物品冷启动:有些应用会以积分奖励的方式引导用户输入一些物品特征。像大众点评上的评论体系,淘宝上的评价系统,都是帮助商家、商品快速度过冷启动解决的利器。

144、怎么处理数据分布不均问题
答案:
重采样(Resampling):

对数据进行过采样(增加少数类样本)或欠采样(减少多数类样本)以平衡类别。

• 合成数据生成(Synthetic Data Generation):

使用技术如SMOTE(Synthetic Minority Over-sampling Technique)来生成少数类的合成样本。

• 改变损失函数(Modifying Loss Function):

使用如加权交叉熵等损失函数,对不同类别的样本赋予不同的权重。

• 使用集成学习(Ensemble Learning):

结合多个模型的预测结果,如随机森林或提升方法,可以帮助处理类别不平衡。

• 专注于评价指标(Focusing on Evaluation Metrics):

使用像精确率-召回率曲线(Precision-Recall Curve)或F1分数等更适合处理不平衡数据的评价指标。

145、进行领域大模型预训练应用哪些数据集比较好?
答案:
通过分析发现现有的开源大模型进行预训练的过程中会加入书籍、论文等数据。主要是因为这些数据的数据质量较高,领域相关性比较强,知识覆盖率(密度)较大,可以让模型更适应考试。给我们自己进行大模型预训练的时候提供了一个参考。同时领域相关的网站内容、新闻内容也是比较重要的数据。

最新版AI大模型面试八股文146-150题
最新版AI大模型面试八股文146-150题:AI大模型风头正劲,相关岗位炙手可热,竞争也异常激烈。想要在面试中脱颖而出,除了扎实的技术功底...

嘿,伙伴们,今天我们的AI探索之旅已经圆满结束。关于“最新版AI大模型面试八股文141-145题”的内容已经分享给大家了。感谢你们的陪伴,希望这次旅程让你对AI能够更了解、更喜欢。谨记,精准提问是解锁AI潜能的钥匙哦!如果有小伙伴想要了解学习更多的AI知识,请关注我们的官网“AI智研社”,保证让你收获满满呦!

微信扫一扫

支付宝扫一扫

版权: 转载请注明出处:https://www.ai-blog.cn/2250.html

相关推荐
01-15

面向开发者的LLM入门课程-路由链: 路由链 到目前为止,我们已经学习了大语言模型链和顺序链。但是…

216
01-15

面向开发者的LLM入门课程-顺序链: 顺序链 当只有一个输入和一个输出时,简单顺序链(SimpleSequen…

307
01-15

面向开发者的LLM入门课程-简单顺序链: 简单顺序链 顺序链(SequentialChains)是按预定义顺序执行…

307
01-15

面向开发者的LLM入门课程-大语言模型链: 模型链 链(Chains)通常将大语言模型(LLM)与提示(Pro…

307
01-15

面向开发者的LLM入门课程-对话储存英文版提示: 英文版提示 1.对话缓存储存 from langchain.chains…

307
01-15

面向开发者的LLM入门课程-对话摘要缓存储存: 对话摘要缓存储存 对话摘要缓存储存,使用 LLM 对到…

307
01-15

面向开发者的LLM入门课程-对话字符缓存储存: 对话字符缓存储存 使用对话字符缓存记忆,内存将限制…

307
01-15

面向开发者的LLM入门课程-对话缓存窗口储存: 对话缓存窗口储存 随着对话变得越来越长,所需的内存…

307
发表评论
暂无评论

还没有评论呢,快来抢沙发~

助力原创内容

快速提升站内名气成为大牛

扫描二维码

手机访问本站