1 有哪些方法可以用来构建可解释性推荐系统-德赢Vwin官网 网
0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

有哪些方法可以用来构建可解释性推荐系统

WpOh_rgznai100 来源:lq 2019-06-07 16:19 次阅读

推荐系统的目标是为用户推荐可能会感兴趣的标的物。通过算法推荐达到节省用户时间、提升用户满意度、为公司创造更多的商业价值的目的。

要想达到这个目的就需要让用户信任你的推荐系统,只有信任了,用户才会经常使用推荐系统。

那么我们怎样做到让用户信任呢?

一种比较好的方法是为用户推荐标的物的同时给用户提供推荐的理由,向用户解释清楚是基于什么原因给他推荐的。

那怎样在推荐的同时提供推荐的理由呢?

这就是本文的主题,下面作者会给大家提供一套构建可解释推荐系统的策略和方法。

本文会从可解释性推荐系统简介、构建可解释性推荐系统的方法、常用工业级推荐产品的推荐解释、更好的理解和落地推荐解释需要思考的问题、构建可解释性推荐系统面临的挑战与机遇等5个部分来讲解。

希望读者读完本文后对可解释性推荐系统有一个大致了解,并且知道有哪些方法可以用来构建可解释性推荐系统。

1

可解释性推荐系统简介

▌01.什么是推荐解释

所谓推荐解释,就是在为用户提供推荐的同时,给出推荐的理由。

人类是一个非常好奇的物种,不满足于只知道结论,一定会对引起结论的原因感兴趣,往往特别想知道个中的理由。小孩从会说话时起就会问各种为什么。对社会和环境的好奇,才会引起人类的探索欲,从而更好的理解和认知这个世界,这可能是生物进化的自然选择吧。

在现实生活中,我们经常会为朋友做推荐或者让别人帮我们推荐,比如推荐旅游地、推荐电影、推荐书籍、推荐餐厅等。现实生活中的推荐,大家都会给出推荐原因的,比如推荐餐厅,我们会说这家环境好、好吃、卫生等等。

对于互联网上的推荐产品,相信大家不陌生。你在亚马逊上买书时,系统会给你推荐书,你在头条上看新闻时,系统会为你推荐其他的新闻。随着移动互联网的发展和成熟,个性化推荐无处不在,变成了任何一个toC互联网公司的标配技术。

下面图1是我们公司一个推荐产品,“看过该电影的人还喜欢”就是一类推荐解释。

图1:互联网视频行业的推荐解释

其实解释可以拓展到更广泛的互联网业务场景中,比如搜索中的高亮显示,让用户一眼就可以看到展示的搜索内容跟用户输入的关键词的联系,也算是一种解释。

▌02.推荐解释的价值

我们在为别人提供推荐时如果给出推荐的理由,会增加别人的认可度和接受度,没有解释和理由的推荐是缺乏足够说服力的。

互联网上的虚拟物品的推荐,如果能够做到像线下推荐那样,不光给出推荐并且能够提供推荐的解释,说明推荐的原因时,就可以提升推荐系统的透明度,还能够提升用户对推荐系统的信任度和接受度,进而提升用户对推荐产品的满意度。

很多特殊行业,是必须要对算法模型具备解释能力的,比如金融、医学、风控等,不然用户是无法接受你的推荐的。这里举个例子说明解释的重要性和必要性:一个用户得了很严重的病,你推荐一个药物给他,你说这个药物疗效很好,但是说不出它为什么有效,用户是不会接受你的推荐的。

▌03.互联网推荐产品的推荐解释模型

对于互联网的推荐模块,我们可以在推荐业务流(不熟悉的读者可以参考《推荐系统的工程实现》)的哪些阶段为用户生成推荐解释呢?

我们从推荐业务流的次序上可以将推荐解释分为在模型训练过程中生成解释(事先解释)和推荐结果生成后做解释(事后解释),具体参考下面图2:

图2:在推荐算法的不同阶段做推荐解释

其中,在模型训练过程中生成推荐解释又分为两种情况:

一种是将推荐和解释看成是两个优化目标,通过协同训练来同时优化两个目标。

另一种情况是解释过程嵌入到推荐过程中,解释和推荐过程耦合在一起,融为一体,集成为一个模型训练。往往这类解释方法会让整个系统更加复杂,让整个建模过程难度加大,训练消耗的资源更多,训练时间更长,但是可以提升整个模型的可解释性。

在计算推荐结果后生成推荐解释,基于给用户的推荐结果,从中找出用户跟推荐标的物之间的某种内在联系,基于该关系做推荐解释。该方案基本将推荐过程和解释过程解耦,工程实现上更加简单,也更加容易让用户理解和接受。

▌04.推荐解释的形式

推荐解释可以是具备强烈的因果关系的,也可能是逻辑性没那么强的“牵强附会”。比如,“因为你喜欢A,而A和B很相似,所以给你推荐B”就是逻辑很严密的一种推荐解释。而“因为今天下雨,所以给你推荐A”这就是一类比较随意的推荐解释。

推荐解释的展现形式可以是文字、图片、视频、音频等,文字是最常用的方式。不同的产品形态可以采用不同的形式,比如如果是电台,可以采用音频的方式给用户做推荐解释。

推荐系统一般会为用户生成一个标的物列表。在具体做推荐解释时,可以为每个推荐的标的物做不同的解释,当用户聚焦在推荐的标的物时,可以展现出推荐解释的理由,或者对这一系列标的物做统一一致的解释,上面图1就是对整个推荐模块做统一的推荐解释。

▌05.推荐解释的现状

不论是推荐系统的工程实践还是学术研究,在推荐解释上的研究和投入较少,在真实的推荐产品落地上也不太关注推荐解释。

之所以出现这种情况,主要是大家都将精力放到提升推荐系统的精准性上,比较少的站在用户的角度来思考问题。对用户来说,他不光希望给出推荐,还要说明为什么这么给他推荐,只有这样用户才更加认可和信赖推荐系统。

有很多机器学习算法可以用于推荐系统,有些算法模型解释性好,有些模型是很难做解释的。

如logistic回归,线性模型,是很好做解释的,而深度学习目前基本是一个黑盒,很难做解释。

不是所有人都是算法专家,能够理解得了推荐原理的,这就要求在必须要求做解释的业务场景,采用易于解释的方法。比如金融反欺诈领域,一般就是用的logistic回归模型,虽然它的效果不一定比深度学习方法好,但是很容易解释最终结果和特征之间的依赖及变化关系。

推荐系统是一个非常复杂的工程体系,包含非常多的功能模块,因此设计一个可解释的推荐系统不是一件简单的事情,需要我们投入足够多的精力和聪明才智。下面我们就来说明怎么对推荐系统做解释。

2

构建可解释性推荐系统的方法

推荐系统涉及到用户、标的物、用户对标的物的操作行为(点击、购买、观看、浏览等)三要素,而标的物是具备一些显式的特征的,用户对标的物的行为代表了用户某种程度对具备该特征的标的物的兴趣。

基于上面的分析,推荐系统的解释可以有如下三种具体实现方案。

参考下面图3,可以更好地帮你理解下面的三种解释方案。

图3:基于推荐系统中标的物与用户的关系的三种可行的推荐解释方案

▌01.基于用户关系来做推荐解释

我们可以通过各种方式建立两个用户之间的相互关系,如果我们能够挖掘出这种联系,就可以用这种关系做推荐解释。下面是常见的三种基于用户关系做推荐解释的方法。

a.基于真实社交关系做推荐解释

对于社交类产品,如微信、脉脉等,好友关系是可以很自然地用于推荐解释的。

微信“看一看”中的“朋友在看”就是一种基于社交关系的推荐解释(见下面图4)。因为你的好友看过,所以你至少对该推荐不会反感,也一眼就知道微信为什么给你推荐这个,这种推荐解释非常直接、一目了然,无需多解释,并且朋友的亲密程度越高推荐被用户接受的可能性越大。

图4:微信“看一看”中基于社交关系的推荐解释,打码的地方就是朋友点过“在看”的

b.基于用户的行为建立两个用户之间的关系,进而做推荐解释

对于非社交类产品,我们可以通过用户在产品上的行为来构建用户关系,比如两个用户喜欢同样的标的物,有同样的行为特征,我们可以认为这两个用户是相似的用户,虽然可能他们根本不认识。

我们可以利用“跟你兴趣相似的用户也喜欢B”或者“喜欢A的用户也喜欢B”等文字描述来做推荐解释。

上面的图1就是这类推荐解释。

c.基于用户画像做推荐解释

如果我们对用户有比较好的了解,构建了一套完善的用户画像系统,基于用户画像我们就可以找到与该用户相似的用户,这样就可以利用b中的方式来做推荐解释。

比如,美团在给你推荐餐厅时,会基于你当前所在的位置来做推荐,你当前所在的位置就是一类画像信息

▌02.基于标的物相似关系来做推荐解释

如果用户喜欢某个标的物A,标的物A跟B又相似,那么我们就可以利用A与B的相似性来做推荐解释,这时解释的逻辑就是“因为你喜欢A,A和B是相似的,所以我们猜你也喜欢B”。

我们可以有如下两类方法来构建标的物之间的相似关系:

a.基于内容特征构建标的物之间的关系

例如视频的标题,演职员,标签等metadata信息。我们可以利用TF-IDF、主题模型等算法构建标的物之间的相似关系。

b.基于用户的行为构建标的物之间的关系

基于用户对标的物的操作(观看、购买、点击等)行为,利用嵌入模型可以构建标的物之间的相似关系。另外,可以从用户的评论信息中提取出标签、关键词等信息,利用a中的方法构建标的物之间的相似关系。

▌03.基于标签来解释

从上面图3可以看到,标的物是包含一些特征标签的,可以基于用户对标的物的行为为用户打上偏好标签。

因此我们可以通过显示的标签来建立用户和标的物之间的联系,进而通过这些标签来做推荐解释,具体的实现方案有如下4类。

a.通过标签建立用户与标的物之间的关系,从而做推荐解释

用户喜欢什么标签,他自己肯定是知道的,他在产品上的行为就是他真实兴趣的反馈。

比如用户喜欢看科幻、恐怖电影,那么“科幻”、“恐怖”就是用户的兴趣标签。那么我们就可以将这类电影推荐给用户。我们只要以文字的形式,在推荐中展示这些标签,就起到了推荐解释的作用。

下面图5是电视猫电影频道首页的主题推荐,基于用户的标签偏好来为用户生成推荐结果,这里只是将标签直接展示出来(见下图的红色椭圆圈)作为推荐解释,其实可以有更好的方式.

比如“因为你经常看爱情电影”就是一句较完整的推荐解释话术,比单纯展示标签更有说服力。

图5:利用标签做推荐解释的主题推荐

b.通过用户自身的标签做推荐解释

用户自身是具备一些标签的,比如年龄,学习,受教育程度等,我们可以利用这类标签来生成推荐解释。

比如你是金牛座,“金牛座的人都爱看电影A”就是这类推荐解释,这类解释可能比较牵强。

c.基于标的物自身的标签做推荐解释

与b类似,标的物自身的一些标签也可以作为生成推荐解释的理由。

比如,这箱水果很便宜,便宜就是水果的标签,系统在推荐给你时,可以用“这箱水果很便宜,所以推荐给你”做为推荐解释。这类推荐不涉及用户行为,直接基于标的物特性做推荐解释。

d.基于用户浏览标的物后的评论做推荐解释

很多互联网产品都具备评论的功能,如果将每个标的物的评论信息收集起来,通过NLP技术处理,从中提取出关键词标签,并根据用户评论的正负反馈及评论次数,可以给提取的关键词赋予权重。

那么我们就可以利用这些权重大的关键词来作为标的物的推荐解释,因为这些关键词标签是用户的真实反馈,往往具备非常好的解释效果。

除了这三类在推荐系统中涉及到的“当事方”作为推荐解释外,我们还可以采用各种其他的推荐解释方式。

下面列举几类可行的推荐解释策略。

▌04.基于环境来解释

这类基于环境的推荐解释,可以结合时间、天气、地域、用户心情、场所、上下文等各类环境来做推荐解释。

比如“你在人民广场附近,给你推荐附近的美食店”、“适合深夜看的电影”等这类推荐解释就是基于环境的解释。

▌05.基于科学知识、科学实验结果的解释

有科学证据表明晚上“睡前喝点红酒有助于睡眠”,我们可以用这类被验证或者被大多数人认可的科学知识来作为推荐解释。比如你晚上在浏览淘宝,淘宝给你推荐了一瓶红酒,其实可以用“晚上喝一点红酒、有利于睡眠”来作为推荐解释。

▌06.基于权威人士、明星效应的解释

权威人士的观点大家更愿意信任,这就是为什么很多牙膏广告不是请明星,而是一个穿白大褂的医生打扮的人做广告,是为了提升大家对该牙膏效果的认可。同样,明星有很大的光环效应,大众更容易追随。因此,我们可以利用权威人士及明星的这种效应来做推荐解释。比如你女朋友在浏览淘宝看到一条裙子,系统可以用“这款裙子赵丽颖穿起来很好看,所以推荐给你”作为推荐解释。

▌07.基于大众行为的推荐解释

人都是有从众心理的,大家都喜欢的,你也喜欢的可能性会很大。基于这个原则也可以做推荐解释,我们可以用标的物被用户喜欢(观看视频、购买商品等)的次数来作为推荐解释的理由。

比如“这部电影有2000万人看过,所以推荐给你”,“该商品有589人购买,所以推荐给你”等。作者最近在淘宝上买了一个防蓝光眼睛,下图中的“总销量:298”其实就是一种推荐解释。

图6:基于用户行为统计的推荐解释

上面我们介绍完了可行的推荐解释方法,那么下面我们结合工业上的推荐产品形态讲解怎么利用上面的推荐解释方法来做推荐解释。

3

常用工业级推荐产品的推荐解释

作者在《推荐系统的工程实现》第五节中讲到推荐系统在工业上的应用一般有五种范式:完全个性化范式、群组个性化范式、非个性化范式、标的物关联标的物范式、笛卡尔积范式。

这五种范式基本囊括了绝大多数推荐产品形态。我们下面分别根据不同的推荐范式来说明怎么做推荐解释。

▌01.完全个性化范式

完全个性化推荐范式就是为每个用户生成不同的推荐结果。个性化推荐主要有“基于内容的推荐”、“协同过滤”、“基于模型的推荐”三大类推荐算法。这里我们分别说说怎么对他们做推荐解释。

a.基于内容的推荐

该类推荐算法不依赖于其他用户的行为,只根据用户自己的历史行为,为用户推荐与自己曾经“喜欢过”(播放过的视频、购买过的物品等等)的标的物相似的标的物。这时推荐解释可以基于用户对内容的喜好来做解释。

这类推荐解释是在构建推荐模型时就可以生成推荐解释的,因为我们是基于用户喜欢的标的物相似的标的物来为用户做推荐的。形式上可以描述为“用户喜欢过标的物A,而A跟B很相似,所以推荐B给用户”。

还有一种形式是从文本信息中抽提出标签,基于标签做内容推荐,而不是直接基于标的物之间的相似关系。形式上可以描述为“用户喜欢具备特征X的标的物,而B刚好具备特征X,所以推荐B给用户”。

常用的形式是主题推荐(参考上面的图5),将用户最喜欢的标签计算出来,为每个标签关联一个标的物列表,最终形成用户的推荐。Netflix首页上即是采用这种推荐形式,Netflix首页的PVR算法,在每个用户的首页生成约40行推荐,每行是一个主题,这个主题即是用户的兴趣“基因”,可以完美地作为该行推荐的推荐解释语(参考后面的文献11)。

基于内容的推荐解释采用的策略就是第二部分的2.a和3.a策略。可以采用事先解释的方法,在构建推荐模型时生成解释。

b.协同过滤

协同过滤是最有名的推荐算法了,算法相对简单,效果还不错,目前在工业界也大量使用。主要分为基于用户的协同过滤和基于物品(标的物)的协同过滤。我们用下图来说明这两类协同过滤算法。

图7:基于用户的协同过滤与基于标的物的协同过滤

基于用户的协同过滤,先找到与该用户最相似的用户,将相似用户喜欢但是该用户未产生行为的标的物推荐给该用户。可以采用“跟你兴趣相似的人都喜欢A,所以给你推荐A”这种方式做推荐解释。

即是利用第二部分的1.a策略来做推荐解释。可以采用事后解释的方法,在生成推荐结果后给出推荐解释。

基于物品的协同过滤,先计算标的物之间的相似度,将与用户喜欢的标的物相似的标的物推荐给用户。

我们在构建协同过滤模型时,可以知道待推荐的标的物A是跟用户曾经喜欢过的B是相似的,所以在做推荐解释时,解释语可以描述为“你曾经喜欢过B,所以给你推荐相似的A”。

即是利用第二部分的2.b策略来做推荐解释,可以采用事先解释的方法,在构建推荐模型时生成解释。

c.基于模型的推荐

基于模型的推荐算法有很多,比如logistic回归、矩阵分解、深度学习等。像深度学习这类偏黑盒的模型解释性会比较困难,我们这里不做介绍,有兴趣的读者可以参考后面的参考文献。矩阵分解算法原理虽然简单,但是分解后的矩阵包含的隐式特征是很难跟现实中的实体概念对应的,也较难做出推荐解释,这里也不介绍。在这里我只对logistic回归推荐算法做推荐解释,他们也是常用的推荐算法模型。

logistic回归的推荐解释

利用logistic回归构建推荐算法模型,具体模型如下面公式,其中p是用户喜欢某个标的物的概率,是权重,是需要学习的模型参数,是特征i的值。

其中包括3大类特征(拿视频推荐来举例),用户相关特征(用户年龄、性别、地域、是否是会员等),标的物相关特征(如导演、演职员、标签、年代、是否获奖、豆瓣评分、是否是会员节目等),其他特征(如用户是否看过该视频、用户是否收藏、是否点赞、用户手机型号等)。

我们可以通过下述公式计算待推荐标的物的p值来决定是否推荐A,比如如果p>0.5(当然可以选择0.6等其他值),就认为用户喜欢A。

当我们训练好logistic回归推荐模型后,我们可以用如下方式做推荐解释:

如果给用户推荐了标的物A,而标的物A取值非空的特征为

而对应的权重为

我们可以选择权重最大的那个特征作为给用户推荐A的解释。比如权重最大的特征是导演姜文,你可以用“因为你喜欢姜文,该片是姜文拍的,所以给你推荐”作为推荐解释的话术。

logistic算法的推荐解释采用的策略本质上是3.a策略。可以采用事先解释的方法,在构建推荐模型时生成解释。

▌02.群组个性化范式

群组个性化推荐,首先会将用户按照某种方法或规则聚类(同一类的用户在某些特性上相同或者相似),得到用户组。我们可以将用户组看成一个个体,可以采用跟上面1类似的算法及解释方法,这里不再细说。

▌03.非个性化范式

非个性化范式就是为所有用户生成一样的推荐,常见的有排行榜等推荐形态。一般推荐的是热门的标的物或者最新上线的标的物。

这类推荐的解释非常简单,可以直接用“热门推荐”或者“最新款推荐”等话术。用户也非常容易理解和认可。

▌04.标的物关联标的物范式

该范式就是当用户访问某个标的物的详情页时,推荐一组可能存在相关关系的标的物。这组标的物可能是跟原标的物相似的标的物。

最常见的产品形态就是相似推荐。如下图就是电视猫上“双重约会”的相似推荐。这里给出的标题是“相似影片”,其实这4个字也可以看成是推荐解释。这里如果要对列表中的每个节目做推荐解释,需要生成“双重约会”跟下面推荐的所有节目之间的相似关系。

该范式就是利用第二部分2的策略来做推荐解释。

图8:视频节目的相似推荐

作者最近在亚马逊上买了一本《从一到无穷大:科学中的事实和臆测(中译本)》,下面就是浏览该书购买后的页面亚马逊给出的推荐。这里可以看到亚马逊给出了两类推荐,“经常一起购买的商品”和“浏览此上面的顾客也同时浏览”。

这两类推荐都属于标的物关联标的物范式,“经常一起购买的商品”和“浏览此商品的顾客也同时浏览”这两句话可以认为是推荐解释语,它是基于用户行为的解释。

图9:两类标的物关联标的物推荐范式的推荐解释

▌05.笛卡尔积范式

笛卡尔积范式的推荐产品形态,为每个用户在每个标的物详情页上给出不一样的推荐列表。所以可以结合完全个性化范式和标的物关联标的物范式的推荐解释策略做推荐。这里不再详细介绍。

4

更好地理解及落地推荐解释需要思考的问题

在构建推荐系统解释时,特别是将推荐解释落地到现实业务中时,会遇到很多问题。要想很好的解决这些问题,真正让推荐解释产生业务价值,需要考虑很多工程落地的事情。下面对可能遇到的问题提供一些参考建议。

▌01.需要通过AB测试来验证推荐解释的有效性

推荐解释是对推荐产品功能的一种增补或者优化,只要是推荐产品功能的优化都需要验证优化效果,这时就需要做AB测试了。

可以在具备推荐解释和没有推荐解释之间做AB测试,在不同推荐解释方案对比上也需要做AB测试。

总之,通过设定评估指标,利用AB测试来验证指标是否有提升,最终验证推荐解释方案的有效性。

▌02.推荐解释强依赖于推荐产品形态,不是任何推荐形态都必须要做解释

推荐解释是强依赖于推荐产品形态的,像相似推荐,是很容易做推荐解释的,而对于个性化推荐就会更难一些。

个人觉得推荐解释是个性化推荐产品的高级功能和特性,拙劣的推荐解释是无法真正促进推荐系统价值提升的。对于个性化推荐直接可以用“猜你喜欢”、“兴趣推荐”这样的词汇(这些词汇也算是一种抽象的推荐解释)来描述你是为用户做个性化推荐,让用户对你的推荐产品形成一种品牌效应。如果推荐效果足够好,用户就能够从推荐列表中找到自己喜欢的东西。

效果好的话用户也是愿意经常“光顾”的,没有推荐解释,也不会影响用户对你的个性化推荐产品的认可。特别是当你的产品交互不是那么友好时(比如智能电视上的视频推荐就是通过遥控器交互,交互体验较差),很难在个性化产品中嵌入自然交互的方式,让用户感受到推荐解释的存在。

▌03.从对模型解释切换到对用户角度来思考推荐解释

推荐解释可以从两个角度来描述。

一个角度是解释你的推荐模型是怎么做推荐的,让用户理解你推荐生成的机制,这类推荐解释对于科研人员及推荐算法开发人员来说是有价值的,可以更好的知道算法的运作原理,它可以帮助我们回答诸如为什么给我推荐这些、怎么改进推荐效果、有哪些数据或者特征可以影响推荐的结果之类的问题。

但是,如果解释的过程很复杂,不是“不用动脑经”就能想清楚的,你是无法在用户访问推荐服务时给用户解释清楚的,因为用户都是“懒的”,不愿意去思考复杂的问题。

这就引出了另外一个思考的维度,我们在真正做工业级推荐系统的推荐解释时,是需要站在用户角度思考的,毕竟我们做的东西是给用户看的,对用户有帮助,用户觉得好才是真的好。对用户来说,对推荐解释直观易懂是最重要的,用户要能够不加思考就能感受到解释与推荐的标的物之间的外在联系。

▌04.推荐解释的“价值观“

我们做推荐解释的意图是什么?

即推荐解释的“价值观”是什么?

算法是人开发的,因此反映的是背后设计推荐解释算法的人的“价值观”。

如果你设计算法是KPI导向的,为了提升用户对推荐的点击,你可以用一些哗众取宠的方式来做解释,解释与推荐的标的物也可以没有啥逻辑关系,这种设计哲学有可能短期提升你的KPI,但是长期一定是不利于你的产品的。

我个人推崇的推荐解释的价值观是“辅助用户决策”,什么意思呢?就是真的站在用户的立场思考问题,帮助用户决策,将推荐标的物最真实的一面告诉用户,包括好的一面和不好的一面,不要让用户点击后感受到被骗的感觉。

现在很多做公众号运营的人,采用标题党,或者暴露的海报图的方式,确实是“骗”用户进去了,用户可能一时有一点点不爽,这个不爽很微小,不至于让用户马上对你的公众号反感,但是如果每次都是这样,我相信日积月累,“微小的不爽”通过时间的沉淀,一定会爆发出来,最终用户会放弃你的产品。

▌05.推荐解释的说服力

其实推荐解释的过程就是一次论证的过程,你将标的物推荐给用户,并且给出推荐的理由,如果用户相信你的理由,用户就会接受你的推荐。

所以,我们在做推荐解释时,理由一定是可以支撑结论的,可以让用户很容易感受到这种逻辑推理的关系。同时,理由本身也需要科学客观。只有这样,推荐解释才有说服力。

▌06.其他维度的辅助用户决策

除了给出推荐解释理由外,还有很多其他的信息可以辅助用户决策。我们可以从标的物的详情页着手,在详情页增加足够多的关键描述信息帮助用户来判断。

对于视频推荐来说,海报图、标题、是否是会员、评分、有多少人看过、年代等信息是可辅助用户做决策的。

我们不光是要展示正面的信息、对于不好的消息也要有所体现,如果这些信息可以在海报图上全面的展示出来,就可以快速帮助用户做决策,是否有必要点击进去看看。

下图中用红色圈标出的信息及海报图都是辅助用户决策的要素。

图10:辅助用户决策的信息

5

构建可解释性推荐系统面临的挑战与机遇

为推荐系统生成推荐解释是一个非常复杂的过程,也很有挑战,目前也没有非常有效统一的解决方案。下面是构建推荐解释可能会遇到的问题,以及推荐解释未来的机遇。

▌01.混合推荐算法

目前很多推荐算法不是采用单一的推荐算法模型,是用很多模型通过级联或者集成的方式为用户提供个性化推荐,同时在特殊情况下(比如无行为的新用户采用默认推荐、接口请求失败时采用备选策略等)会有一些特殊的处理。

这些复杂的现实情况,大大复杂化了推荐解释的设计和实现。

▌02.实时个性化推荐

随着头条、抖音、快手等信息流/视频流产品大行其道,目前很多产品都会采用近实时推荐策略,更加实时的反馈用户兴趣的变化。

这类推荐产品对时效性要求很高,要想在实时情况下给用户做推荐的同时生成推荐理由,对整个系统的设计、处理提出了非常高的要求。

▌03.老板/数据产品经理会更关注精准度而不太重视解释性

绝大多数公司老板或者数据产品经理更在乎的是短期指标的提升,很少意识到好的推荐体验会对用户的留存有累积的价值,通过长期的好的推荐解释体验,是可以提升用户对推荐系统的信赖的。

由于这种提升需要做大量的AB测试及额外的算法开发,往往会被拒之门外。

▌04.黑盒推荐算法很难做解释

随着深度学习的流行,有越来越多的公司将深度学习算法应用到推荐系统上,并且产生了非常不错的效果。深度学习最大的缺点是一个黑盒模型,对深度学习模型做出的决策,很难从模型内部的数据交互及处理逻辑给出比较直观易懂的解释。

因此,这类推荐模型也非常难给出好的推荐解释,当前可解释的机器学习是学术上一个比较热门的研究课题。

▌05.普适的推荐解释框架

从上面的介绍可以看到,推荐解释目前还没有一套完善的框架,基本是不同的算法,采用不同的推荐解释策略,推荐解释是强依赖于具体的推荐算法模型和业务场景的。

那么我们是否可以构建一类通用的推荐解释框架,可以适用于一大类或者所有的推荐算法模型呢?这确实是一个非常难并且相当有挑战的问题,也是一个很好的研究课题。

▌06.知识图谱做解释

前面讲到推荐系统可以基于标的物、用户、特征为媒介来做推荐解释(见上面的图3),对这三类媒介之间的关联挖掘得还不够。

其实利用知识图谱,打通这三类媒介之间的关联,根据具体情况灵活选择其中最合适的媒介对用户进行推荐解释。这样,我们还可以产生形式更丰富的推荐解释。

▌07.生成对话式解释

目前的推荐解释往往形式是预先设定、千篇一律的。

这样尽管可以根据用户心理给出解释,但是在沟通方式上还过于呆板,跟日常生活中对话交互式的推荐解释还有很大差距。

如果能用生成式模型让推荐系统“生成”一句通顺甚至高情商的话,就可以在与用户互动的过程中进行灵活、多变的推荐解释了。特别是随着NLP技术的发展及语音交互场景的开拓,未来语音交互一定是最重要的一类交互方式。

到那时,利用推荐系统与人类进行交互式推荐和解释,可以大大提升用户的满意度。

6

写在最后

本文基于作者多年推荐系统实践经验的理解并参考了相关文章,对推荐系统解释做了较全面的梳理。

希望可以帮助读者更好的理解推荐系统解释的原理与背后的价值,读完后能够利用本文提供的方法去实践推荐系统的解释体系。

推荐系统解释目前是一个偏学术的研究课题(附件是一些关于机器学习及推荐系统解释的材料及论文,有兴趣的读者可以自行学习参考),在工业实践上也没有这么重视。

虽然作者以前在真实产品中落地过推荐解释系统,但自认为对这一块还只知道一点皮毛,不当之处在所难免,欢迎大家一起交流探讨。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 移动互联网
    +关注

    关注

    5

    文章

    598

    浏览量

    34057
  • 推荐系统
    +关注

    关注

    1

    文章

    43

    浏览量

    10075
  • 深度学习
    +关注

    关注

    73

    文章

    5500

    浏览量

    121109

原文标题:如何构建可解释的推荐系统?| 深度

文章出处:【微信号:rgznai100,微信公众号:rgznai100】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    机器学习模型可解释性的结果分析

    AI 一文中我们已经了解到模型可解释性发展的相关背景以及目前较为成熟的技术方法,本文通过一个具体实例来了解下在 MATLAB 中是如何使用这些方法的,以及在得到解释的数据之后我们该如
    发表于 09-28 10:17 991次阅读
    机器学习模型<b class='flag-5'>可解释性</b>的结果分析

    什么是“可解释的”? 可解释性AI不能解释什么

    通过建立既可解释又准确的模型来改良这种错误的二分法。关键是将神经网络与决策树相结合,在使用神经网络进行低级决策时保留高级的可解释性
    发表于 05-31 10:51 8520次阅读

    用浅显的语言带领大家了解可解释性的概念与方法

    广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息。
    的头像 发表于 06-25 10:21 6115次阅读
    用浅显的语言带领大家了解<b class='flag-5'>可解释性</b>的概念与<b class='flag-5'>方法</b>

    机器学习模型的“可解释性”的概念及其重要意义

    如果考察某些类型的“事后可解释性”(post-hoc interpretable),深度神经网络具有明显的优势。深度神经网络能够学习丰富的表示,这些表示能够可视化、用语言表达或用于聚类。如果考虑对可解释性的需求,似乎线性模型在研究自然世界上的表现更好,但这似乎没有理论上的
    的头像 发表于 07-24 09:58 2w次阅读

    神经网络可解释性研究的重要日益凸显

    神经网络的可解释性,从经验主义到数学建模
    的头像 发表于 06-27 10:54 5240次阅读

    深度理解神经网络黑盒子:可验证可解释性

    虽然神经网络在近年来 AI 领域取得的成就中发挥了关键作用,但它们依旧只是有限可解释性的黑盒函数近似器。
    的头像 发表于 08-15 09:17 1.4w次阅读

    机器学习模型可解释性的介绍

    模型可解释性方面的研究,在近两年的科研会议上成为关注热点,因为大家不仅仅满足于模型的效果,更对模型效果的原因产生更多的思考,这...
    的头像 发表于 12-10 20:19 768次阅读

    图神经网络的解释性综述

    图神经网络的可解释性是目前比较值得探索的方向,今天解读的2021最新综述,其针对近期提出的 GNN 解释技术进行了系统的总结和分析,归纳对比了该问题的解决思路。作者还为GNN解释性问题
    的头像 发表于 04-09 11:42 2684次阅读
    图神经网络的<b class='flag-5'>解释性</b>综述

    《计算机研究与发展》—机器学习的可解释性

    机器学习的可解释性 来源:《计算机研究与发展》,作者陈珂锐等 摘 要 近年来,机器学习发展迅速,尤其是深度学习在图像、声音、自然语言处理等领域取得卓越成效.机器学习算法的表示能力大幅度提高,但是
    发表于 01-25 08:35 1110次阅读
    《计算机研究与发展》—机器学习的<b class='flag-5'>可解释性</b>

    关于机器学习模型的六大可解释性技术

    本文介绍目前常见的几种可以提高机器学习模型的可解释性的技术。
    的头像 发表于 02-26 17:20 2189次阅读
    关于机器学习模型的六大<b class='flag-5'>可解释性</b>技术

    机器学习模型的可解释性算法详解

    本文介绍目前常见的几种可以提高机器学习模型的可解释性的技术,包括它们的相对优点和缺点。
    的头像 发表于 02-16 16:21 4685次阅读
    机器学习模型的<b class='flag-5'>可解释性</b>算法详解

    使用RAPIDS加速实现SHAP的模型可解释性

      模型解释性 帮助开发人员和其他利益相关者理解模型特征和决策的根本原因,从而使流程更加透明。能够解释模型可以帮助数据科学家解释他们的模型做出决策的原因,为模型增加价值和信任。在本文中
    的头像 发表于 04-21 09:25 2467次阅读

    人工智能可解释性规制面临的问题分析

    在实践中,人工智能的规模化应用推广,在很大程度上依赖于用户能否充分理解、合理信任并且有效管理人工智能这一新型伙伴。为此,确保人工智能产品、服务和系统具有透明(Transparency)与可解释性(Explainability)
    的头像 发表于 08-09 10:04 1674次阅读

    可以提高机器学习模型的可解释性技术

    本文介绍目前常见的几种可以提高机器学习模型的可解释性的技术,包括它们的相对优点和缺点。
    的头像 发表于 02-08 14:08 1239次阅读

    文献综述:确保人工智能可解释性和可信度的来源记录

    本文对数据起源、可解释AI(XAI)和可信赖AI(TAI)进行系统的文献综述,以解释基本概念,说明数据起源文件可以用来提升基于人工智能系统
    的头像 发表于 04-28 15:55 1383次阅读
    文献综述:确保人工智能<b class='flag-5'>可解释性</b>和可信度的来源记录