来自 淘宝-纪志辉
其中多目标单独建模 忽略了 目标之间的信息共享(时长和点击的关系)
feature-target(底层信息共享) 和 target-target(需要考虑目标之间的因果关联)
腾讯- PLE
贝叶斯网络?(条件关系么? ) 就是不同的目标是有条件顺序的, 如只有在点击之后 才会有评论,时长之类的信息
Deep Bayesian Multi-task Learning 1.0 (2018)
贝叶斯层(target-target):通过前序目标的输出作为后序目标的输入刻画概率转移关系
目前的参数还是主要是手动调整
主要就是 由hard parameter sharing -》 soft parameter sharing 即 mmoe (multi-gate mixture of experts)
Gate设计:Linear Transform + Softmax
好处: 灵活地自适应学习不同任务对共享网络的选择 + 增加其他目标并不会增加网络的复杂度
对比mmoe 有很大的提升
多场景下的 多任务学习 (新场景 数据量小 其实业务相差不大)
此时:
特征, 既有自己单独特有的特征, 也有共享的特征
中间层,mmoe 多任务-》 多场景 多任务
不同时间段 可以让目标有不同的侧重 (日常和大促的不同场景)(双十一重大提升)
尝试在网络上层来刻画user-item显示匹配关系
增加了一个 match-tower 来刻画 user-item的相关性 (各自做embedding之后做点积 fc, 得到logits)
猜想收益原因: 可能底层特征共享不够好 留给网络优化空间大
学习用户在不同召回(不同模态)下的表征(embedding)
如何刻画用户在不同召回(多模态)下的表征:
U2A: 用户行为历史
U2A2A - 用户行为历史的协同 是 先做的item-cf 得到后面的A2A 之后再join U2A
最终得到用户在不同模态下的表征以及主播表征
得到多模态表征之后 ,
在match-tower中,多路召回(多模态)预训练向量 & 点积 和本次训练的share user embedding 做sum-pooling mean-pooling
rank tower: 直接输入 + cross & MLP
缺点: DMR 2.0 :两阶段链路上下游依赖性强、不易维护、通用性差
尝试后续直接 学习end2end的方式
上述都是列表页的排序建模, 淘宝在进入直播间之后是可以上下滑动 进行直播间切换的
全屏页上下滑(RUI) refer-user-item
refer是当前直播间,下滑重要的是 refer相关性有关
视频播放目标:
1.0 没有突出refer的重要性与差异 在R2Itower中单独刻画 refer和item之间的关系
需要加入 用户和当前refer的关系 确定用户是否喜欢当前refer
在 match-net 加入 U2R , R2I, U2I, 3个独立的tower, 方法: u2r * r2i + u2i