The Wayback Machine - https://web.archive.org/web/20221025114422/https://baike.sogou.com/kexue/d10752.htm

推荐系统

编辑

个性化推荐系统推荐系统(有时用诸如平台或引擎之类的同义词替换“系统”)是信息过滤系统的子类,其寻求预测用户将给予项目的“评级”或“偏好”。[1][2]它们主要用于商业应用。

推荐系统用于各种领域,最常被认为用于视频和音乐服务的播放列表生成器,如Netflix,YouTube和Spotify,还有用于诸如亚马逊等服务的产品推荐器,或用于社交媒体平台(如Facebook和Twitter)的内容推荐器。[3]这些系统可以使用单一输入(如音乐)或多个平台(如新闻、书籍和搜索查询)内和跨平台的输入来操作。还有针对特定主题的流行推荐系统,如餐馆和在线约会。用来探索研究文章和专业领域,[4]合作者,[5]金融服务,[6]和人寿保险的推荐系统已经被开发出来。

1 综述编辑

推荐系统通常使用协作过滤和基于内容的过滤中的一种或两种(也称为基于个性的方法)[7]以及其他系统,如知识库系统。协作过滤方法根据用户过去的行为(先前购买或选择的项目和/或给予这些项目的数字评级)以及其他用户做出的类似决定来构建模型。然后,该模型用于预测用户可能感兴趣的项目(或项目评级)。[8]基于内容的过滤方法利用项目的一系列离散的、预先标记的特征,以便推荐具有相似属性的附加项目。[9]当前的推荐系统通常将一种或多种方法组合成混合系统。

通过比较两个早期音乐推荐系统 - Last.fm和Pandora Radio,可以证明协作和基于内容的过滤之间的差异。

  • Last.fm通过观察用户定期收听的频段和个别曲目并将其与其他用户的收听行为进行比较,创建推荐歌曲的“电台”。 Last.fm将播放未出现在用户库中的曲目,但通常是具有类似兴趣的其他用户的播放曲目。由于这种方法利用了用户的行为,因此它是协作过滤技术的一个例子。
  • 潘多拉使用歌曲或艺术家的属性(音乐基因组计划提供的400个属性的子集)来播放具有类似属性的音乐的“电台”。用户反馈用于改进电台的结果,当用户“不喜欢”特定歌曲时强调某些属性,并在用户“喜欢”歌曲时强调其他属性。这是基于内容的方法的示例。

每种类型的系统都有其优点和缺点。在上面的示例中,Last.fm需要大量有关用户的信息才能提出准确的建议。这是冷启动问题的一个例子,在协同过滤系统中很常见。[10][11][12]虽然Pandora需要很少的信息才能开始,但它的范围更加有限(例如,它只能提供与原始种子相似的推荐)。

推荐系统是搜索算法的一个有用的替代方案,因为它们帮助用户发现他们可能没有找到的项目。值得注意的是,推荐系统通常使用索引非传统数据的搜索引擎来实现。

1990年,哥伦比亚大学的Jussi Karlgren在技术报告中首次提到了名为“数字书架”的推荐系统,[13]并于1994年起通过技术报告和出版物大规模实施[14][15],由当时在SICS工作的Jussi Karlgren和由麻省理工学院的Pattie Maes领导的研究小组,[16]Bellcore的Will Hill[17]和麻省理工学院的Paul Resnick完成,[18][19]且他们与GroupLens的合作获得了2010年ACM软件系统奖。

Montaner从智能代理的角度提供了推荐系统的第一个概述。[20]Adomavicius提供了推荐系统的新的备用概述。[21] Herlocker提供了推荐系统评估技术的附加概述,[22]和Beel等人讨论了离线评估的问题。[23]Beel等人还提供了关于现有研究论文推荐系统和现有挑战的文献调查。[24][25][26]

推荐系统已经成为几项授权专利的焦点。[27][28][29][30][31]

2 方法编辑

2.1 协同过滤

基于评级系统的协同过滤的示例

一种设计推荐系统的方法 广泛使用的是协同过滤。[32]协作过滤基于这样一个假设,即过去同意的人将来会同意,并且他们会像过去喜欢的一样喜欢类似的项目。系统仅使用关于不同用户或项目的评级概况的信息来生成建议。通过定位具有类似于当前用户或项目的评级历史的对等用户/项目,他们使用该邻域生成推荐。可以结合基于用户和项目的最近邻算法来处理冷启动问题,并利用该数据改善推荐结果。[33]协同过滤方法分为基于记忆的和基于模型的。基于内存的方法的一个众所周知的例子是基于用户的算法[34]而基于模型的方法是Kernel-Mapping 推荐。[35]

协作过滤方法的一个关键优势是它不依赖于机器可分析的内容,因此它能够准确地推荐诸如电影之类的复杂项目,而无需“理解”项目本身。许多算法已用于测量推荐系统中的用户相似性或项目相似性。例如,k-最近邻(k-NN)方法[36]和Pearson Correlation首先由Allen实施。[37]

当根据用户的行为构建模型时,通常会区分数据收集的显式和隐式形式。

显式数据收集的示例包括:

  • 要求用户对项目进行滑动评分。
  • 要求用户搜索。
  • 要求用户从最喜欢到最不喜欢排列项目集合。
  • 向用户展示两个项目,并要求他/她选择其中较好的一个。
  • 要求用户创建他/她喜欢的项目列表。

隐式数据收集的示例包括以下内容:

  • 观察用户在网上商店中查看的项目。
  • 分析项目/用户查看时间。[38]
  • 记录用户在线购买的物品。
  • 获取用户在他/她的计算机上收听或观看的项目列表。
  • 分析用户的社交网络,发现相似的好恶。

协作过滤方法经常遇到三个问题:冷启动、可伸缩性和稀疏性。[39]

  • 冷启动:这些系统通常需要用户的大量现有数据,以便做出准确的建议。[10][11]
  • 可扩展性:在这些系统提出建议的许多环境中,有数百万用户和产品。因此,计算推荐通常需要大量的计算能力。
  • 稀疏性:主要电子商务网站上出售的商品数量非常大。最活跃的用户只会对整个数据库的一小部分进行评级。因此,即使是最受欢迎的项目也没有多少评级。

协作过滤最著名的例子之一是逐项协作过滤(购买x的人也购买y),这是亚马逊推荐系统推广的一种算法。[40]

许多社交网络最初使用协作过滤,通过检查用户和他们的朋友之间的联系网络来推荐新朋友、团体和其他社交联系。[1]协同过滤仍然是混合系统的一部分。

2.2 基于内容的过滤

设计推荐系统时另一种常见的方法是基于内容的过滤。基于内容的过滤方法基于项目的描述和用户偏好的概况。[41][42]这些方法最适合项目上有已知数据(名称、位置、描述等)的情况,但不适用于用户。基于内容的推荐者将推荐视为用户特定的分类问题,并基于产品特征学习用户喜欢和不喜欢的分类器。

在该系统中,关键字用于描述项目,并且构建用户简档以指示该用户喜欢的项目的类型。换句话说,这些算法试图推荐与用户过去喜欢或正在检查的项目类似的项目。它不依赖于用户登录机制来生成这种通常临时的配置文件。具体地,将各种候选项与先前由用户评定的项进行比较,并推荐最佳匹配项。这种方法的根源在于信息检索和信息过滤研究。

为了创建用户简档,系统主要关注两种类型的信息:

1.用户偏好的模型。

2.用户与推荐系统交互的历史。

基本上,这些方法使用表征系统内的项目的项目简档(即,一组离散的属性和特征)。为了抽象系统中项目的特征,应用项目呈现算法。广泛使用的算法是tf-idf表示(也称为向量空间表示)。系统基于项目特征的加权矢量创建基于内容的用户简档。 权重表示每个特征对用户的重要性,并且可以使用各种技术从单独评定的内容向量计算。简单方法使用额定项目向量的平均值,而其他复杂方法使用机器学习技术,例如贝叶斯分类器,聚类分析,决策树和人工神经网络,以便估计用户喜欢该项目的概率。[43]

基于内容的过滤的一个关键问题是系统是否能够从用户关于一个内容源的操作中学习用户偏好,并在其他内容类型中使用它们。当系统限于推荐与用户已经使用的相同类型的内容时,来自推荐系统的值显着小于可以推荐来自其他服务的其他内容类型的值。例如,基于浏览新闻来推荐新闻文章是有用的,但是当可以基于新闻浏览推荐来自不同服务的音乐,视频,产品,讨论等时将更有用。为了克服这个问题,大多数基于内容的推荐系统现在使用某种形式的混合系统。

基于内容的推荐系统还可以包括基于意见的推荐系统。在某些情况下,允许用户对项目进行文本审阅或反馈。这些用户生成的文本是推荐系统的隐含数据,因为它们可能是项目的特征/方面的丰富资源,以及用户对项目的评估/情绪。从用户生成的评论中提取的特征是改进的项目的元数据,因为它们也反映了诸如元数据的项目的方面,所提取的特征被用户广泛关注。从评论中提取的情绪可以被视为用户对相应特征的评分。基于意见的推荐系统的流行方法利用各种技术,包括文本挖掘,信息检索和情感分析。

2.3 多标准推荐系统

多标准推荐系统(MCRS)可以被定义为在多个标准上包含偏好信息的推荐系统。不是基于单个标准值开发推荐技术,用户u对项目i的总体偏好,这些系统试图通过利用影响该总体偏好值的多个标准的偏好信息来预测u的未开发项目的评级。一些研究人员将MCRS视为多标准决策(MCDM)问题,并应用MCDM方法和技术来实施MCRS系统。[44][45]

2.4 风险感知推荐系统

大多数现有的推荐系统方法都侧重于使用上下文信息向用户推荐最相关的内容,但没有考虑用户不想要的通知会打扰用户的风险。重要的是要考虑在某些情况下推荐消息给推荐用户的风险,例如,在专业会议,清晨或深夜。因此,推荐系统的性能部分取决于它将风险纳入推荐过程的程度。解决此问题的一个选项是DRARS,这是一种将上下文感知建议建模为强盗问题的系统。该系统结合了基于内容的技术和上下文强盗算法。[46]

2.5 移动推荐系统

移动推荐系统利用接入互联网的智能手机提供个性化的、上下文敏感的推荐。这是一个特别困难的研究领域,因为移动数据比推荐系统通常必须处理的数据更复杂。它是异构的、有噪声的,需要空间和时间的自相关,并且存在验证和通用性问题[47]

影响移动推荐系统和预测结果准确性的因素有三个:上下文、推荐方法和隐私。[48]此外,移动推荐系统存在移植问题——推荐可能不适用于所有地区(例如,在所有成分可能无法获得的区域推荐配方是不明智的)。

移动推荐系统的一个例子是诸如Uber和Lyft等公司为城市出租车司机生成驾驶路线所采取的方法。[47]该系统使用出租车司机在工作时所乘坐的路线的GPS数据,包括位置(纬度和经度),时间戳和操作状态(有或没有乘客)。它使用这些数据来推荐沿路线的接送点列表,目的是优化占用时间和利润。

移动推荐系统也使用“数据网”作为结构化信息的来源成功构建。这种系统的一个很好的例子是SMARTMUSEUM[49]。该系统使用语义建模,信息检索和机器学习技术,以推荐匹配用户兴趣的内容,即使在呈现稀疏或最小用户数据时也是如此。

2.6 混合推荐系统

大多数推荐系统现在使用混合方法,结合协同过滤,基于内容的过滤和其他方法。同一类型的几种不同技术没有理由不能杂交。混合方法可以通过多种方式实现:分别进行基于内容和基于协作的预测,然后将它们组合起来;通过将基于内容的功能添加到基于协作的方法(反之亦然);或者将方法统一到一个模型中[21]。一些研究对混合方法与纯协作和基于内容的方法的性能进行了实证比较,并证明混合方法可以提供比纯方法更准确的建议。这些方法还可用于克服推荐系统中的一些常见问题,如冷启动和稀疏性问题,以及基于知识的方法中的知识工程瓶颈。[50]

Netflix是使用混合推荐系统的一个很好的例子。[51]该网站通过比较类似用户的观看和搜索习惯(即协同过滤)以及通过提供与用户评价很高的电影具有共同特征的电影(基于内容的过滤)来做出推荐。

一些杂交技术包括:

  • 加权:以数字方式组合不同推荐成分的分数。
  • 切换:在推荐组件中选择并应用选定的组件。
  • 混合:来自不同推荐者的建议被一起呈现以给出建议。
  • 特征组合:来自不同知识来源的特征被组合在一起,并被赋予单个推荐算法。
  • 特征增强:计算一个特征或一组特征,然后将其作为下一项技术输入的一部分。
  • 级联:推荐者被给予严格的优先权,较低优先权的人打破了较高优先权的得分。
  • 元级:应用一种推荐技术并产生某种模型,然后该模型被下一种技术使用。[52]

3 Netflix奖编辑

推动系统研究的一项活动是Netflix奖。从2006年到2009年,Netflix赞助了一项竞赛,为该团队提供了100万美元的大奖,该团队可以利用提供的超过1亿部电影评级的数据集,并返回比该公司现有推荐系统提供的准确率高10%的建议。这场竞争激发了对新的和更准确的算法的追求。2009年9月21日,BellKor的Pragmatic Chaos团队采用平局决胜规则,获得了100万美元的大奖。[53]

2007年最精确的算法使用了107种不同算法方法的集成方法,并融合为一个预测。正如获胜者贝尔等人所述:[54]

在混合多个预测变量时,预测精度得到显着提高。我们的经验是,大多数努力应该集中在推导出截然不同的方法,而不是改进单一技术。因此,我们的解决方案是许多方法的集合。

Netflix项目为网络带来了许多好处。一些团队采用了他们的技术并将其应用到其他市场。排名第二的团队成员创建了Gravity R&D,这是一个活跃于RecSys社区的推荐引擎。[53][55]4-Tell公司为电子商务网站创建了一个Netflix项目衍生解决方案。

Netflix为Netflix奖竞赛提供的数据集引发了一些隐私问题。尽管为了保护客户的隐私而对数据集进行了匿名处理,但在2007年,德克萨斯大学的两名研究人员通过将数据集与互联网电影数据库中的电影评级进行匹配,识别出了个别用户。[56]因此,2009年12月,匿名的Netflix用户在Doe v. Netflix案中起诉Netflix,指控Netflix发布数据集违反了美国公平贸易法和视频隐私保护法。[57]这一点,以及联邦贸易委员会的担忧导致2010年取消了第二次Netflix奖竞赛。[58]

4 业绩计量编辑

评估对于评估推荐算法的有效性非常重要。为了衡量推荐系统的有效性,并比较不同的方法,有三种类型的评估:用户研究,在线评估(A / B测试)和离线评估。[23]

常用的指标是均方误差和均方根误差,后者已在Netflix奖中使用。诸如精确度和召回率或DCG之类的信息检索指标可用于评估推荐方法的质量。多样性,新颖性和覆盖面也被视为评估的重要方面。[59]但是,许多经典的评估方法受到高度批评。[60]

用户研究规模相当小。向几十或几百个用户提供由不同推荐方法创建的推荐,然后用户判断哪些推荐是最佳的。在A / B测试中,通常向数千名真实产品的用户显示推荐,并且推荐系统随机选择至少两种不同的推荐方法来产生推荐。有效性是通过隐含的有效性衡量标准来衡量的,例如转换率或点击率。离线评估基于历史数据,例如一个数据集,其中包含有关用户之前如何评价电影的信息。[61]

然后根据推荐方法在数据集中预测用户评级的程度来衡量推荐方法的有效性。虽然评级是用户是否喜欢电影的明确表达,但这些信息并非在所有域中都可用。例如,在引用推荐系统的领域中,用户通常不对引用或推荐的文章进行评级。在这种情况下,离线评估可能会使用隐含的有效性衡量标准。例如,可以假设推荐系统是有效的,其能够推荐包含在研究文章的参考列表中的尽可能多的文章。然而,许多研究人员认为这种线下评估是至关重要的。[62][63][23]例如,已经证明离线评估的结果与用户研究或A / B测试的结果具有低相关性。[63][64]流行用于离线评估的数据集已被证明包含重复数据,因此在算法评估中导致错误的结论。[65]通常,所谓的离线评估结果与实际评估的用户满意度无关。[66]研究人员得出结论,应该批判性地看待离线评估的结果。

4.1 准确性外

典型地,推荐系统的研究关注于找到最准确的推荐算法。然而,有一些因素也很重要。

  • 多样性——当列表内的多样性更高时,用户往往对推荐更满意,例如来自不同艺术家的项目。[67]
  • 推荐者持久性——在某些情况下,重新显示推荐更有效,[68]或者让用户对项目重新评分,[69]而不是展示新物品。这有几个原因。例如,用户可能会忽略第一次显示的项目,因为他们没有时间仔细检查建议。
  • 隐私——推荐系统通常必须处理隐私问题[70],因为用户必须泄露敏感信息。从隐私的角度来看,使用协同过滤构建用户配置文件可能会有问题。许多欧洲国家都拥有强大的数据隐私文化,每次尝试引入任何级别的用户分析都会导致客户的负面反应。对该领域正在进行的隐私问题进行了大量研究。Netflix奖对其数据集中发布的详细个人信息尤为突出。 Ramakrishnan等人对个性化和隐私之间的权衡进行了广泛的概述,发现弱关系(提供偶然推荐的意外连接)和其他数据源的组合可用于揭示匿名数据集中用户的身份。[71]
  • 用户人口统计——Beel等人发现,用户人口统计可能会影响用户对推荐的满意度。[72]他们在论文中指出,老年用户比年轻用户对推荐更感兴趣。
  • 健壮性——当用户可以参与推荐系统时,欺诈问题必须得到解决。[73]
  • 意外发现——意外发现是衡量“推荐有多令人惊讶”的标准。[74]例如,在杂货店向顾客推荐牛奶的推荐系统可能非常准确,但这不是一个好的推荐,因为这是顾客可以购买的明显商品。
  • 信任——如果用户不信任推荐系统,推荐系统对用户来说就没有什么价值。[75]推荐系统可以通过解释它如何产生推荐以及为什么推荐一个项目来建立信任。
  • 标签——用户对推荐的满意度可能会受到推荐标签的影响。[76]例如,在引用的研究中,标记为“赞助”的推荐的点击率(点击率=5.93%)低于标记为“有机”的相同推荐的点击率(点击率=8.86%)。没有标签的推荐在该研究中表现最好(CTR=9.87%)。

4.2 推荐系统研究中的再现性

以前的研究对推荐系统的实际应用影响不大。到2011年,Ekstrand,Konstan等人批评“目前很难复制和扩展推荐系统研究结果”,并且评估“没有得到一致处理”。[77]Konstan和Adomavicius得出结论:“推荐系统研究界面临的危机是,大量论文提出的结果对集体知识的贡献很小...,因为研究缺乏评估,因此无需进行适当的评判,因此,需要提供有意义的贡献。“[78]所以,关于推荐系统的大量研究可被视为不可再现。[79]因此,推荐系统的操作者在当前研究中找不到用于回答问题的指导,该推荐方法用于推荐系统。Said&Bellogín对该领域发表的论文进行了研究,并对一些最流行的推荐框架进行了基准测试,发现即使使用了相同的算法和数据集,结果也存在很大的不一致性。[80]一些研究人员证明,推荐算法或场景中的微小变化导致推荐系统的有效性发生了很大变化。他们得出结论,有必要采取七项行动来改善现状:[79]“(1)调查其他研究领域并从中学习,(2)找到对再现性的共同理解,(3)确定和理解影响再现性的决定因素,(4)进行更全面的实验,(5)使出版实践现代化,(6)促进推荐框架的开发和使用,(7)为推荐系统研究制定最佳实践指南。

参考文献

  • [1]

    ^Francesco Ricci and Lior Rokach and Bracha Shapira, Introduction to Recommender Systems Handbook, Recommender Systems Handbook, Springer, 2011, pp. 1-35.

  • [2]

    ^"Facebook, Pandora Lead Rise of Recommendation Engines - TIME". TIME.com. 27 May 2010. Retrieved 1 June 2015..

  • [3]

    ^Pankaj Gupta, Ashish Goel, Jimmy Lin, Aneesh Sharma, Dong Wang, and Reza Bosagh Zadeh WTF:The who-to-follow system at Twitter, Proceedings of the 22nd international conference on World Wide Web.

  • [4]

    ^H. Chen, A. G. Ororbia II, C. L. Giles ExpertSeer: a Keyphrase Based Expert Recommender for Digital Libraries, in arXiv preprint 2015.

  • [5]

    ^H. Chen, L. Gou, X. Zhang, C. Giles Collabseer: a search engine for collaboration discovery, in ACM/IEEE Joint Conference on Digital Libraries (JCDL) 2011.

  • [6]

    ^Alexander Felfernig, Klaus Isak, Kalman Szabo, Peter Zachar, The VITA Financial Services Sales Support Environment, in AAAI/IAAI 2007, pp. 1692-1699, Vancouver, Canada, 2007..

  • [7]

    ^Hosein Jafarkarimi; A.T.H. Sim and R. Saadatdoost A Naïve Recommendation Model for Large Databases, International Journal of Information and Education Technology, June 2012.

  • [8]

    ^Prem Melville and Vikas Sindhwani, Recommender Systems, Encyclopedia of Machine Learning, 2010..

  • [9]

    ^R. J. Mooney & L. Roy (1999). Content-based book recommendation using learning for text categorization. In Workshop Recom. Sys.: Algo. and Evaluation..

  • [10]

    ^Rubens, Neil; Elahi, Mehdi; Sugiyama, Masashi; Kaplan, Dain (2016). "Active Learning in Recommender Systems". In Ricci, Francesco; Rokach, Lior; Shapira, Bracha. Recommender Systems Handbook (2 ed.). Springer US. doi:10.1007/978-1-4899-7637-6_24. ISBN 978-1-4899-7637-6..

  • [11]

    ^Elahi, Mehdi; Ricci, Francesco; Rubens, Neil (2016). "A survey of active learning in collaborative filtering recommender systems". Computer Science Review. 20: 29–50. doi:10.1016/j.cosrev.2016.05.002..

  • [12]

    ^Andrew I. Schein, Alexandrin Popescul, Lyle H. Ungar, David M. Pennock (2002). Methods and Metrics for Cold-Start Recommendations. Proceedings of the 25th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR 2002). New York City, New York: ACM. pp. 253–260. ISBN 1-58113-561-0. Retrieved 2008-02-02.CS1 maint: Multiple names: authors list (link).

  • [13]

    ^Karlgren, Jussi. 1990. "An Algebra for Recommendations." Syslab Working Paper 179 (1990)..

  • [14]

    ^Karlgren, Jussi. "Newsgroup Clustering Based On User Behavior-A Recommendation Algebra." SICS Research Report (1994)..

  • [15]

    ^Karlgren, Jussi (October 2017). "A digital bookshelf: original work on recommender systems". Retrieved 27 October 2017..

  • [16]

    ^Shardanand, Upendra, and Pattie Maes. "Social information filtering: algorithms for automating “word of mouth”." In Proceedings of the SIGCHI conference on Human factors in computing systems, pp. 210-217. ACM Press/Addison-Wesley Publishing Co., 1995..

  • [17]

    ^Hill, Will, Larry Stead, Mark Rosenstein, and George Furnas. "Recommending and evaluating choices in a virtual community of use." In Proceedings of the SIGCHI conference on Human factors in computing systems, pp. 194-201. ACM Press/Addison-Wesley Publishing Co., 1995..

  • [18]

    ^Resnick, Paul, Neophytos Iacovou, Mitesh Suchak, Peter Bergström, and John Riedl. "GroupLens: an open architecture for collaborative filtering of netnews." In Proceedings of the 1994 ACM conference on Computer supported cooperative work, pp. 175-186. ACM, 1994..

  • [19]

    ^Resnick, Paul, and Hal R. Varian. "Recommender systems." Communications of the ACM 40, no. 3 (1997): 56-58..

  • [20]

    ^Montaner, M.; Lopez, B.; de la Rosa, J. L. (June 2003). "A Taxonomy of Recommender Agents on the Internet". Artificial Intelligence Review. 19 (4): 285–330. doi:10.1023/A:1022850703159..

  • [21]

    ^Adomavicius, G.; Tuzhilin, A. (June 2005). "Toward the Next Generation of Recommender Systems: A Survey of the State-of-the-Art and Possible Extensions". IEEE Transactions on Knowledge and Data Engineering. 17 (6): 734–749. CiteSeerX 10.1.1.107.2790. doi:10.1109/TKDE.2005.99..

  • [22]

    ^Herlocker, J. L.; Konstan, J. A.; Terveen, L. G.; Riedl, J. T. (January 2004). "Evaluating collaborative filtering recommender systems". ACM Trans. Inf. Syst. 22 (1): 5–53. CiteSeerX 10.1.1.78.8384. doi:10.1145/963770.963772..

  • [23]

    ^Beel, J.; Genzmehr, M.; Gipp, B. (October 2013). "A Comparative Analysis of Offline and Online Evaluations and Discussion of Research Paper Recommender System Evaluation" (PDF). Proceedings of the Workshop on Reproducibility and Replication in Recommender Systems Evaluation (RepSys) at the ACM Recommender System Conference (RecSys)..

  • [24]

    ^Beel, J.; Langer, S.; Genzmehr, M.; Gipp, B.; Breitinger, C. (October 2013). "Research Paper Recommender System Evaluation: A Quantitative Literature Survey" (PDF). Proceedings of the Workshop on Reproducibility and Replication in Recommender Systems Evaluation (RepSys) at the ACM Recommender System Conference (RecSys)..

  • [25]

    ^Beel, J.; Gipp, B.; Langer, S.; Breitinger, C. (26 July 2015). "Research Paper Recommender Systems: A Literature Survey". International Journal on Digital Libraries. 17 (4): 305–338. doi:10.1007/s00799-015-0156-0..

  • [26]

    ^Waila, P.; Singh, V.; Singh, M. (26 April 2016). "A Scientometric Analysis of Research in Recommender Systems" (PDF). Journal of Scientometric Research. 5: 71–84. doi:10.5530/jscires.5.1.10..

  • [27]

    ^Stack, Charles. "System and method for providing recommendation of goods and services based on recorded purchasing history." U.S. Patent 7,222,085, issued May 22, 2007..

  • [28]

    ^Herz, Frederick SM. "Customized electronic newspapers and advertisements." U.S. Patent 7,483,871, issued January 27, 2009..

  • [29]

    ^Herz, Frederick, Lyle Ungar, Jian Zhang, and David Wachob. "System and method for providing access to data using customer profiles." U.S. Patent 8,056,100, issued November 8, 2011..

  • [30]

    ^Harbick, Andrew V., Ryan J. Snodgrass, and Joel R. Spiegel. "Playlist-based detection of similar digital works and work creators." U.S. Patent 8,468,046, issued June 18, 2013..

  • [31]

    ^Linden, Gregory D., Brent Russell Smith, and Nida K. Zada. "Automated detection and exposure of behavior-based relationships between browsable items." U.S. Patent 9,070,156, issued June 30, 2015..

  • [32]

    ^John S. Breese; David Heckerman & Carl Kadie (1998). Empirical analysis of predictive algorithms for collaborative filtering. In Proceedings of the Fourteenth conference on Uncertainty in artificial intelligence (UAI'98)..

  • [33]

    ^Dietmar Jannach; Markus Zanker; Alexander Felfernig; Gerhard Friedrich (2010). Recommender Systems:An Introduction. CUP. ISBN 978-0-521-49336-9. Archived from the original on 2015-08-31..

  • [34]

    ^Breese, John S.; Heckerman, David; Kadie, Carl (1998). Empirical Analysis of Predictive Algorithms for Collaborative Filtering (PDF). Microsoft Research..

  • [35]

    ^Ghazanfar, Mustansar Ali; Prügel-Bennett, Adam; Szedmak, Sandor (2012-11-15). "Kernel-Mapping Recommender system algorithms". Information Sciences. 208: 81–104. CiteSeerX 10.1.1.701.7729. doi:10.1016/j.ins.2012.04.012..

  • [36]

    ^Sarwar, B.; Karypis, G.; Konstan, J.; Riedl, J. (2000). "Application of Dimensionality Reduction in Recommender System A Case Study",.

  • [37]

    ^Allen, R.B. (1990). "User Models: Theory, Method, Practice". International J. Man-Machine Studies..

  • [38]

    ^Parsons, J.; Ralph, P.; Gallagher, K. (July 2004). "Using viewing time to infer user preference in recommender systems". AAAI Workshop in Semantic Web Personalization, San Jose, California..

  • [39]

    ^Sanghack Lee and Jihoon Yang and Sung-Yong Park, Discovery of Hidden Similarity on Collaborative Filtering to Overcome Sparsity Problem, Discovery Science, 2007..

  • [40]

    ^Collaborative Recommendations Using Item-to-Item Similarity Mappings Archived 2015-03-16 at the Wayback Machine.

  • [41]

    ^Aggarwal, Charu C. (2016). Recommender Systems: The Textbook. Springer. ISBN 9783319296579..

  • [42]

    ^Peter Brusilovsky (2007). The Adaptive Web. p. 325. ISBN 978-3-540-72078-2..

  • [43]

    ^Blanda, Stephanie (May 25, 2015). "Online Recommender Systems – How Does a Website Know What I Want?". American Mathematical Society. Retrieved October 31, 2016..

  • [44]

    ^Lakiotaki, K.; Matsatsinis; Tsoukias, A (March 2011). "Multicriteria User Modeling in Recommender Systems". IEEE Intelligent Systems. 26 (2): 64–76. CiteSeerX 10.1.1.476.6726. doi:10.1109/mis.2011.33..

  • [45]

    ^Gediminas Adomavicius, Nikos Manouselis, YoungOk Kwon. "Multi-Criteria Recommender Systems" (PDF). Archived from the original (PDF) on 2014-06-30.CS1 maint: Uses authors parameter (link).

  • [46]

    ^Bouneffouf, Djallel (2013), DRARS, A Dynamic Risk-Aware Recommender System (Ph.D.), Institut National des Télécommunications.

  • [47]

    ^Yong Ge; Hui Xiong; Alexander Tuzhilin; Keli Xiao; Marco Gruteser; Michael J. Pazzani (2010). An Energy-Efficient Mobile Recommender System (PDF). Proceedings of the 16th ACM SIGKDD Int'l Conf. on Knowledge Discovery and Data Mining. New York City, New York: ACM. pp. 899–908. Retrieved 2011-11-17..

  • [48]

    ^Pimenidis, Elias; Polatidis, Nikolaos; Mouratidis, Haralambos (3 August 2018). "Mobile recommender systems: Identifying the major concepts". Journal of Information Science: 016555151879221. arXiv:1805.02276. doi:10.1177/0165551518792213..

  • [49]

    ^Tuukka Ruotsalo; Krister Haav; Antony Stoyanov; Sylvain Roche; Elena Fani; Romina Deliai; Eetu Mäkelä; Tomi Kauppinen; Eero Hyvönen (2013). "SMARTMUSEUM: A Mobile Recommender System for the Web of Data". Web Semantics: Science, Services and Agents on the World Wide Web. 20: 657–662. CiteSeerX 10.1.1.676.7109. doi:10.1016/j.websem.2013.03.001..

  • [50]

    ^Rinke Hoekstra, The Knowledge Reengineering Bottleneck, Semantic Web – Interoperability, Usability, Applicability 1 (2010) 1, IOS Press.

  • [51]

    ^Gomez-Uribe, Carlos A.; Hunt, Neil (28 December 2015). "The Netflix Recommender System". ACM Transactions on Management Information Systems. 6 (4): 1–19. doi:10.1145/2843948..

  • [52]

    ^Robin Burke, Hybrid Web Recommender Systems Archived 2014-09-12 at the Wayback Machine, pp. 377-408, The Adaptive Web, Peter Brusilovsky, Alfred Kobsa, Wolfgang Nejdl (Ed.), Lecture Notes in Computer Science, Springer-Verlag, Berlin, Germany, Lecture Notes in Computer Science, Vol. 4321, May 2007, 978-3-540-72078-2..

  • [53]

    ^Lohr, Steve. "A $1 Million Research Bargain for Netflix, and Maybe a Model for Others". The New York Times..

  • [54]

    ^R. Bell; Y. Koren; C. Volinsky (2007). "The BellKor solution to the Netflix Prize" (PDF)..

  • [55]

    ^Bodoky, Thomas (2009-08-06). "Mátrixfaktorizáció one million dollars". Index..

  • [56]

    ^Rise of the Netflix Hackers Archived 1月 24, 2012 at the Wayback Machine.

  • [57]

    ^"Netflix Spilled Your Brokeback Mountain Secret, Lawsuit Claims". WIRED. 17 December 2009. Retrieved 1 June 2015..

  • [58]

    ^"Netflix Prize Update". Netflix Prize Forum. 2010-03-12..

  • [59]

    ^Lathia, N., Hailes, S., Capra, L., Amatriain, X.: Temporal diversity in recommender systems. In: Proceedings of the 33rd International ACMSIGIR Conference on Research and Development in Information Retrieval, SIGIR 2010, pp. 210–217. ACM, New York.

  • [60]

    ^Turpin, Andrew H, Hersh, William (2001). "Why batch and user evaluations do not give the same results". Proceedings of the 24th annual international ACM SIGIR conference on Research and development in information retrieval. pp. 225–231.CS1 maint: Multiple names: authors list (link).

  • [61]

    ^"MovieLens dataset". 2013-09-06..

  • [62]

    ^Jannach, Dietmar; Lerche, Lukas; Gedikli, Fatih; Bonnin, Geoffray (2013-06-10). Carberry, Sandra; Weibelzahl, Stephan; Micarelli, Alessandro; Semeraro, Giovanni, eds. User Modeling, Adaptation, and Personalization. Lecture Notes in Computer Science (in 英语). Springer Berlin Heidelberg. pp. 25–37. CiteSeerX 10.1.1.465.96. doi:10.1007/978-3-642-38844-6_3. ISBN 9783642388439..

  • [63]

    ^Turpin, Andrew H.; Hersh, William (2001-01-01). Why Batch and User Evaluations Do Not Give the Same Results. Proceedings of the 24th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. SIGIR '01. New York, NY, USA: ACM. pp. 225–231. CiteSeerX 10.1.1.165.5800. doi:10.1145/383952.383992. ISBN 978-1581133318..

  • [64]

    ^Langer, Stefan (2015-09-14). "A Comparison of Offline Evaluations, Online Evaluations, and User Studies in the Context of Research-Paper Recommender Systems". In Kapidakis, Sarantos; Mazurek, Cezary; Werla, Marcin. Research and Advanced Technology for Digital Libraries. Lecture Notes in Computer Science (in 英语). 9316. Springer International Publishing. pp. 153–168. doi:10.1007/978-3-319-24592-8_12. ISBN 9783319245911..

  • [65]

    ^Basaran, Daniel; Ntoutsi, Eirini; Zimek, Arthur (2017). Proceedings of the 2017 SIAM International Conference on Data Mining. pp. 390–398. doi:10.1137/1.9781611974973.44. ISBN 978-1-61197-497-3..

  • [66]

    ^Beel, Joeran; Genzmehr, Marcel; Langer, Stefan; Nürnberger, Andreas; Gipp, Bela (2013-01-01). A Comparative Analysis of Offline and Online Evaluations and Discussion of Research Paper Recommender System Evaluation. Proceedings of the International Workshop on Reproducibility and Replication in Recommender Systems Evaluation. RepSys '13. New York, NY, USA: ACM. pp. 7–14. CiteSeerX 10.1.1.1031.973. doi:10.1145/2532508.2532511. ISBN 9781450324656..

  • [67]

    ^Ziegler, C.N., McNee, S.M., Konstan, J.A. and Lausen, G. (2005). "Improving recommendation lists through topic diversification". Proceedings of the 14th international conference on World Wide Web. pp. 22–32.CS1 maint: Multiple names: authors list (link).

  • [68]

    ^Joeran Beel; Stefan Langer; Marcel Genzmehr; Andreas Nürnberger (September 2013). "Persistence in Recommender Systems: Giving the Same Recommendations to the Same Users Multiple Times" (PDF). In Trond Aalberg; Milena Dobreva; Christos Papatheodorou; Giannis Tsakonas; Charles Farrugia. Proceedings of the 17th International Conference on Theory and Practice of Digital Libraries (TPDL 2013). Lecture Notes of Computer Science (LNCS). 8092. Springer. pp. 390–394. Retrieved 1 November 2013..

  • [69]

    ^Cosley, D., Lam, S.K., Albert, I., Konstan, J.A., Riedl, {J}. (2003). "Is seeing believing?: how recommender system interfaces affect users' opinions". Proceedings of the SIGCHI conference on Human factors in computing systems. pp. 585–592.CS1 maint: Multiple names: authors list (link).

  • [70]

    ^{P}u, {P}., {C}hen, {L}., {H}u, {R}. (2012). "Evaluating recommender systems from the user's perspective: survey of the state of the art". User Modeling and User-Adapted Interaction: 1–39.CS1 maint: Multiple names: authors list (link).

  • [71]

    ^Naren Ramakrishnan; Benjamin J. Keller; Batul J. Mirza; Ananth Y. Grama; George Karypis (2001). Privacy Risks in Recommender Systems. IEEE Internet Computing. 5. Piscataway, NJ: IEEE Educational Activities Department. pp. 54–62. CiteSeerX 10.1.1.2.2932. doi:10.1109/4236.968832. ISBN 978-1-58113-561-9..

  • [72]

    ^Joeran Beel; Stefan Langer; Andreas Nürnberger; Marcel Genzmehr (September 2013). "The Impact of Demographics (Age and Gender) and Other User Characteristics on Evaluating Recommender Systems" (PDF). In Trond Aalberg; Milena Dobreva; Christos Papatheodorou; Giannis Tsakonas; Charles Farrugia. Proceedings of the 17th International Conference on Theory and Practice of Digital Libraries (TPDL 2013). Springer. pp. 400–404. Retrieved 1 November 2013..

  • [73]

    ^{K}onstan, {J}.{A}., {R}iedl, {J}. (2012). "Recommender systems: from algorithms to user experience". User Modeling and User-Adapted Interaction: 1–23.CS1 maint: Multiple names: authors list (link).

  • [74]

    ^{R}icci, {F}., {R}okach, {L}., {S}hapira, {B}., {K}antor {B}. {P}. (2011). "Recommender systems handbook". Recommender Systems Handbook: 1–35.CS1 maint: Multiple names: authors list (link).

  • [75]

    ^Montaner, Miquel, L{\'o}pez, Beatriz, de la Rosa, Josep Llu{\'\i}s (2002). "Developing trust in recommender agents". Proceedings of the first international joint conference on Autonomous agents and multiagent systems: part 1. pp. 304–305.CS1 maint: Multiple names: authors list (link).

  • [76]

    ^Beel, Joeran, Langer, Stefan, Genzmehr, Marcel (September 2013). "Sponsored vs. Organic (Research Paper) Recommendations and the Impact of Labeling" (PDF). In Trond Aalberg; Milena Dobreva; Christos Papatheodorou; Giannis Tsakonas; Charles Farrugia. Proceedings of the 17th International Conference on Theory and Practice of Digital Libraries (TPDL 2013). pp. 395–399. Retrieved 2 December 2013.CS1 maint: Multiple names: authors list (link).

  • [77]

    ^Ekstrand, Michael D.; Ludwig, Michael; Konstan, Joseph A.; Riedl, John T. (2011-01-01). Rethinking the Recommender Research Ecosystem: Reproducibility, Openness, and LensKit. Proceedings of the Fifth ACM Conference on Recommender Systems. RecSys '11. New York, NY, USA: ACM. pp. 133–140. doi:10.1145/2043932.2043958. ISBN 9781450306836..

  • [78]

    ^Konstan, Joseph A.; Adomavicius, Gediminas (2013-01-01). Toward Identification and Adoption of Best Practices in Algorithmic Recommender Systems Research. Proceedings of the International Workshop on Reproducibility and Replication in Recommender Systems Evaluation. RepSys '13. New York, NY, USA: ACM. pp. 23–28. doi:10.1145/2532508.2532513. ISBN 9781450324656..

  • [79]

    ^Breitinger, Corinna; Langer, Stefan; Lommatzsch, Andreas; Gipp, Bela (2016-03-12). "Towards reproducibility in recommender-systems research". User Modeling and User-Adapted Interaction (in 英语). 26 (1): 69–101. doi:10.1007/s11257-016-9174-x. ISSN 0924-1868..

  • [80]

    ^Said, Alan; Bellogín, Alejandro (2014-10-01). Comparative recommender system evaluation: benchmarking recommendation frameworks. Proceedings of the 8th ACM Conference on Recommender Systems. RecSys '14. New York, NY, USA: ACM. pp. 129–136. doi:10.1145/2645710.2645746. hdl:10486/665450. ISBN 9781450326681..

阅读 1671
版本记录
  • 暂无