哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)在58同城首頁推薦中的應(yīng)用

Tensorflowers ? 來源:TensorFlow ? 作者:TensorFlow ? 2021-01-27 10:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

58 同城作為國內(nèi)最大的生活信息服務(wù)提供商,涵蓋招聘、房產(chǎn)、車輛、兼職、黃頁等海量的生活分類信息。隨著各個業(yè)務(wù)線業(yè)務(wù)的蓬勃發(fā)展,用戶在網(wǎng)站上可獲取的分類信息是爆炸性增長的。如何解決信息過載,幫助用戶快速找到關(guān)注的信息,已經(jīng)成為用戶體驗提升的關(guān)鍵點與服務(wù)的核心競爭力。

背景

目前,搜索與推薦是兩個主要手段。其中,搜索需要人工啟發(fā)屬于被動查找,而推薦可以主動推送,使得用戶查看信息這一過程更加智能化。

近幾年隨著計算機硬件性能的提升以及深度學(xué)習(xí)的快速發(fā)展,在自然語言處理、圖像處理、推薦系統(tǒng)等領(lǐng)域有了很多應(yīng)用,因此實現(xiàn)準(zhǔn)確、高效基于深度學(xué)習(xí)的個性化推薦,不僅能提升用戶體驗,同時也能提升平臺效率。

58 App 推薦涉及的推薦場景有首頁猜你喜歡、大類頁、詳情頁、搜索少無結(jié)果,首頁推薦場景和電商場景類似,不同的用戶同樣會有不同的興趣偏好。

比如用戶需要租房、買車,或者找工作、找保潔,針對用戶的個性化偏好產(chǎn)生千人千面的推薦結(jié)果;同時用戶對于相似的帖子表現(xiàn)為不同的興趣,比如同一車標(biāo)不同的車系,這其實就是一個用戶興趣建模問題。

目前平臺已經(jīng)積累了豐富的用戶行為數(shù)據(jù),因此我們需要通過模型動態(tài)捕捉用戶的實時興趣,從而提升線上 CTR。

58 推薦系統(tǒng)概述

整個推薦系統(tǒng)架構(gòu)可以分為數(shù)據(jù)算法層、業(yè)務(wù)邏輯層、對外接口層。為各類場景產(chǎn)生推薦數(shù)據(jù),如圖 1 所示。

推薦過程可以概括為數(shù)據(jù)算法層通過相關(guān)召回算法根據(jù)用戶的興趣和行為歷史在海量帖子中篩選出候選集,使用相關(guān)機器學(xué)習(xí)、深度學(xué)習(xí)模型為候選帖子集合進(jìn)行打分排序,進(jìn)而將產(chǎn)生用戶感興趣并且高質(zhì)量的 topN 條推薦帖子在首頁猜你喜歡、大類頁、詳情頁、少無結(jié)果等場景進(jìn)行展示。

從數(shù)據(jù)算法層來看推薦的核心主要圍繞召回算法和排序模型進(jìn)行,當(dāng)然算法和策略同等重要,因此需通過理解業(yè)務(wù)來優(yōu)化模型、策略之間的沖突。

其中排序模型的構(gòu)建則是進(jìn)一步影響線上用戶體驗的關(guān)鍵,本文主要圍繞深度學(xué)習(xí)在 58 首頁推薦排序上的應(yīng)用展開介紹。

17bc0034-5fa6-11eb-8b86-12bb97331649.png

圖 1 58 推薦系統(tǒng)架構(gòu)

首頁推薦場景位于 58 同城 App 首頁下方的推薦 tab,包含招聘、租房、二手房、二手車等多品類業(yè)務(wù)信息。

圖 2 首頁推薦場景 tab

如圖 2 可以看到左圖用戶興趣主要為租房,右圖用戶興趣為二手房、二手車、租房,這也就體現(xiàn)出首頁場景下多業(yè)務(wù)融合的特點。用戶在首頁推薦場景下行為特點表現(xiàn)為強興趣,即用戶興趣明確,但是在多業(yè)務(wù)信息融合的背景下,用戶的興趣又具有不同的周期性,以及不同的行為等,比如租房周期明顯要低于二手車成交周期,這些不同的特性對于多業(yè)務(wù)融合推薦排序任務(wù)提出了重大挑戰(zhàn)。

業(yè)界技術(shù)路徑

2016 年 Youtube 將 DNN[1]應(yīng)用于視頻召回、推薦;Google 提出 Wide&Deep[2] 模型、為后來深度學(xué)習(xí)模型在推薦任務(wù)中的優(yōu)化改進(jìn)提供了基礎(chǔ)。58 同城 TEG - 推薦技術(shù)團(tuán)隊一直緊跟技術(shù)前沿,在 58 同城各推薦場景探索并落地了一系列深度學(xué)習(xí)模型。本章節(jié)將介紹深度學(xué)習(xí)模型在推薦排序任務(wù)中的創(chuàng)新及經(jīng)典應(yīng)用,并以現(xiàn)有模型為基礎(chǔ)結(jié)合我們的業(yè)務(wù)特點進(jìn)行模型選型并優(yōu)化改進(jìn)。

1. YouTube-DNN

DNN [1]應(yīng)用場景為 YouTube App 首頁視頻推薦,通過 Word2Vec 生成用戶歷史觀看視頻以及搜索關(guān)鍵詞 Embedding,之后將歷史行為向量進(jìn)行平均得到 watch vector、search vector 其他類別特征也需要進(jìn)行 Embedding 最終和連續(xù)值特征拼接處理,最終作為 DNN 的輸入。

對于類別特征的 Embedding 有兩種基本處理方式,通過模型生成向量比如 Word2Vec,或者采用 Embedding 層初始化后和 DNN 一起訓(xùn)練。

對于圖 3(左)召回任務(wù),YouTube 將目標(biāo)定義為用戶 next watch,通過 softmax 函數(shù)得到所有候選視頻的概率分布。對于圖 3(右)排序任務(wù),作者在輸入特征部分除了在召回時用到的 Embedding 之外還加入了一些視頻描述特征、用戶畫像特征、用戶觀看同類視頻間隔時間、當(dāng)前視頻曝光給當(dāng)前用戶次數(shù)等體現(xiàn)二者關(guān)系的特征。

18d75626-5fa6-11eb-8b86-12bb97331649.png

圖 3 YouTube DNN [1] 模型結(jié)構(gòu)

2. Google-Wide&Deep

Wide&Deep[2]模型應(yīng)用場景為 Google Play 也就是用于 App 推薦,論文強調(diào)該模型設(shè)計的目的在于具有較強的“Memorization”、“Generalization”。

文章中描述如下假設(shè)用戶安裝了 Netflix,并且該用戶之前曾查看過 pandora,計算如下組合特征 (user_installed_app=Netflix,impression_app=pandora) 和安裝 pandora 的共現(xiàn)頻率,假設(shè)該頻率比較高則我們希望模型發(fā)現(xiàn)這一規(guī)律在用戶出現(xiàn)這一組合特征時則推薦 pandora。

像 Logistic Regression 圖 4(左)這樣的廣義線性模型可以做到 Memorization 這一點。而對于 DNN 圖 4(右)模型則可以通過低緯稠密的 Embedding 向量學(xué)習(xí)到之前未出現(xiàn)的特征組合從而減少特征工程的負(fù)擔(dān)并且做到 Generalization。

最終組合之后的 Wide&Deep 圖 4(中)模型即便輸入特征是非常稀疏的,同樣可以得到較高質(zhì)量的推薦結(jié)果。

19b6fb64-5fa6-11eb-8b86-12bb97331649.png

圖 4 Google Wide&Deep[2] 模型結(jié)構(gòu)

3. 華為-DeepFM

DeepFM[3] 模型應(yīng)用場景為華為應(yīng)用商店,Wide&Deep 模型為之后兩種模型左右組合的結(jié)構(gòu)改進(jìn)提供了基礎(chǔ)。

其中圖 5 DeepFM 則是對 W&D 模型的 Wide 部分進(jìn)行改進(jìn)的成果,由 FM 替換 LR,原因在于 Wide 部分仍然需要繁雜的人工特征工程。通過 FM 則可以自動學(xué)習(xí)到特征之間的交叉信息,相比 W&D 模型 DeepFM 則包含了一階、二階、deep 三部分組成從而實現(xiàn)不同特征域之間的交叉。

1a48f64a-5fa6-11eb-8b86-12bb97331649.png

圖 5 華為 DeepFM[3] 模型結(jié)構(gòu)

4. 阿里巴巴-DIN

DIN[4] 模型應(yīng)用場景為阿里巴巴在線廣告推薦,考慮用戶興趣的多樣性,YouTube-DNN 模型中也利用了用戶歷史行為特征,但是將所有視頻 Embedding 進(jìn)行平均,這樣就相當(dāng)于是所有歷史行為對于現(xiàn)在的行為產(chǎn)生相同的影響,這樣的設(shè)計對于用戶體驗是不合常理的。因此,考慮引入 NLP 中的 Attention 機制,針對每一個歷史行為計算不同的權(quán)重。

總的來講 DIN (圖 6)模型在為當(dāng)前待排序帖子預(yù)測點擊率時,對用戶歷史行為特征的注意力是不一樣的,對于相關(guān)的帖子權(quán)重更高,對于不相關(guān)的帖子權(quán)重更低。

1b0e4328-5fa6-11eb-8b86-12bb97331649.png

圖 6 阿里巴巴 DIN[4]模型結(jié)構(gòu)

5. 阿里巴巴-DIEN

DIEN[5](圖 7)模型應(yīng)用場景為阿里巴巴在線廣告推薦,該模型是對 DIN 的改進(jìn)模型,主要考慮以下兩個方面,DIN 只考慮了用戶興趣的多樣性引入 Attention,但是并沒有考慮用戶興趣的動態(tài)變化。

因此引入興趣抽取層,使用 GRU 序列模型對用戶歷史行為建模、引入興趣進(jìn)化層,使用 Attention、GRU 對用戶興趣衍化建模。在用戶無搜索關(guān)鍵詞的情況下捕捉用戶興趣的動態(tài)變化將是提升線上點擊率的關(guān)鍵。

1bf81a84-5fa6-11eb-8b86-12bb97331649.png

圖 7 阿里巴巴 DIEN[5] 模型結(jié)構(gòu)

通過分析以上模型我們可以發(fā)現(xiàn)深度學(xué)習(xí)模型可以減少人工特征工程,但減少并不等同于不進(jìn)行人工特征工程。

Embedding&MLP 結(jié)構(gòu)將大規(guī)模稀疏數(shù)據(jù)轉(zhuǎn)化為低緯稠密特征,最終通過轉(zhuǎn)換 (Concatenate、Attention、Average) 操作,將其轉(zhuǎn)化為固定長度的向量 feed 到 MLP,學(xué)習(xí)特征間的非線性關(guān)系。

相同結(jié)構(gòu)的模型在不同的業(yè)務(wù)上效果會有差異,在近幾年發(fā)表的論文中,沒有一個模型會在所有數(shù)據(jù)集上表現(xiàn)最優(yōu),因此需要尋找適合不同場景、不同業(yè)務(wù)的模型并加以改造。

以 DIEN 為例,由于作者考慮到用戶購買興趣在不同的時間點不同,用戶購買手機后可能需要購買手機殼等,用戶的興趣存在一個進(jìn)化的過程,并且用戶的整個興趣行為需要準(zhǔn)確、完整等。推薦的目標(biāo)是為用戶展示相關(guān)信息提升平臺效率,那么就要從用戶角度考慮去構(gòu)建模型,而不是單純驗證模型。

深度學(xué)習(xí)在 58 首頁推薦的應(yīng)用

對于 58 同城推薦任務(wù),深度學(xué)習(xí)模型在不同的場景中也是不通用的,即使是對同一類業(yè)務(wù)下的不同場景同樣需要定制才可以達(dá)到提升用戶體驗以及平臺收益的目的。

點擊率預(yù)估模型的目標(biāo)是提升用戶線上點擊率,因此平臺為每一個用戶展示的信息以及用戶點擊或者其他行為的信息對于模型的離線訓(xùn)練以及線上效果至關(guān)重要。

上文中提到的 DNN、Wide&Deep、DeepFM 模型為后來的一些深度學(xué)習(xí)模型的改進(jìn)提供了基礎(chǔ),這些模型我們在前幾年也進(jìn)行了驗證,并且能夠達(dá)到預(yù)期效果。由于目前平臺已經(jīng)積累了大量的用戶行為數(shù)據(jù)我們的目標(biāo)則是通過為用戶興趣建模來提升線上點擊率,利用阿里提出的用戶興趣網(wǎng)絡(luò)以及用戶興趣進(jìn)化網(wǎng)絡(luò)模型來定制模型結(jié)構(gòu)對于我們的目標(biāo)是有幫助的,因此我們需要根據(jù)首頁推薦場景多業(yè)務(wù)融合的特點進(jìn)行改進(jìn)。

本章節(jié)將展開介紹 58 首頁推薦場景下是如何以現(xiàn)有模型為基礎(chǔ),并結(jié)合我們的業(yè)務(wù)特性來設(shè)計可以適配當(dāng)前場景的模型架構(gòu)。

模型

58 同城首頁推薦場景中的深度學(xué)習(xí)模型也是遵循 Embedding&MLP 結(jié)構(gòu)。對于用戶行為特征,我們根據(jù)業(yè)務(wù)選擇了用戶比較敏感的三類 ID 特征,帖子 ID、類目 ID、地域 ID,通過 Attention 計算用戶歷史興趣對于待排序帖子的影響程度,通過 AUGRU 捕捉用戶興趣的動態(tài)變化。

其中用戶行為中 ID 類特征 Embedding 特征維度統(tǒng)一(定長,對應(yīng)下圖中的 Infoid、Cateid、Localid),其他類別特征維度可根據(jù)實際業(yè)務(wù)情況進(jìn)行修改(變長,對應(yīng)下圖中的 category1…categoryN),除用戶行為特征外,其他類別特征、連續(xù)特征可通過配置文件進(jìn)行單獨配置。

深度學(xué)習(xí)模型離線訓(xùn)練、在線預(yù)估部分輸入保持一致,保證多內(nèi)聚低耦合降低依賴就可以加快離線驗證迭代速度,同時可以快速遷移到線上其他場景。

結(jié)合首頁多業(yè)務(wù)融合的特點,用戶興趣網(wǎng)絡(luò)實現(xiàn)結(jié)構(gòu)如圖 8 所示,特征部分包含人工業(yè)務(wù)特征、人工向量化交叉、興趣特征等。

其中 Item Embedding 是在用戶行為數(shù)據(jù)中應(yīng)用 Word2Vec 得到的向量、User Embedding 則是根據(jù) Word2Vec 向量加權(quán)得到,具體加權(quán)可使用 TF-IDF、待排序帖子與用戶歷史點擊帖子相似度等方式。

在實現(xiàn)模型時特征處理部分需要注意,不建議使用 tf.feature_column API,需要在特征工程部分實現(xiàn)處理邏輯,可減少線上推理耗時。

1c5a57c6-5fa6-11eb-8b86-12bb97331649.png

圖 8 58 首頁推薦場景下的深度學(xué)習(xí)模型結(jié)構(gòu)

基礎(chǔ)特征

對于基礎(chǔ)特征部分我們分別構(gòu)建了帖子特征、用戶特征以及用戶-帖子組合特征,基礎(chǔ)特征由于具有明顯的物理意義,可解釋性強等特點在各個業(yè)務(wù)中不容忽視,具體基礎(chǔ)特征可參考下表。

以租房業(yè)務(wù)中的用戶-帖子類特征為例,通過建立租房用戶對于房源的地域、價格、廳室等興趣標(biāo)簽以及房源本身的地域、價格、廳室等屬性信息可以計算用戶與房源之間的相關(guān)程度。

由于 58 首頁場景為多品類推薦,部分特征對齊工作比較困難,比如用戶同時關(guān)注二手房,二手車等,那么房價以及車的價格不屬于同一空間維度,無法在傳統(tǒng)機器學(xué)習(xí)模型中直接使用,還有用戶興趣具有不同的周期性不同的行為等。由于這些問題的存在,我們考慮在用戶行為上進(jìn)行構(gòu)建特征,線上 CTR 取得進(jìn)一步的提升。

類目 帖子所屬類目
地域 帖子所屬地域
歷史點擊次數(shù) 帖子歷史被點擊次數(shù)
歷史ctr 帖子歷史點擊率
Word2vec 帖子向量
其他 其他帖子特征
帖子特征 含義
地域 用戶所處地域
用戶興趣 用戶歷史興趣特征
其他 其他用戶特征
用戶特征 含義
用戶地域-帖子地域 用戶所處地域與帖子所屬地域匹配度
興趣類目-帖子類目 用戶興趣中類目與帖子類目匹配度
興趣地域-帖子地域 用戶興趣中地域與帖子地域匹配度
其他 其他用戶-帖子特征
用戶-帖子特征 含義

離線向量化特征

2013 年 Google 開源詞向量計算工具 -Word2Vec[6],該模型通過淺層神經(jīng)網(wǎng)絡(luò)訓(xùn)練之后的詞向量可以很好的學(xué)習(xí)到詞與詞之間的相似性,并在學(xué)術(shù)界、工業(yè)界得到了廣泛應(yīng)用。

這種通過低維稠密向量表示高維稀疏特征的表達(dá)方式非常適合深度學(xué)習(xí)。Embedding 思想從 NLP 領(lǐng)域擴散到其他機器學(xué)習(xí)、深度學(xué)習(xí)領(lǐng)域。與句中的詞相類似,用戶在 58 同城全站行為數(shù)據(jù)中 Item 則同樣可進(jìn)行 Embedding 從而得到帖子的低緯稠密特征向量。全站行為可以指用戶的點擊行為序列,也可以指用戶的轉(zhuǎn)化行為序列。因此點擊率預(yù)估任務(wù)則可以通過 Word2Vec 得到帖子向量表示以及用戶向量表示。

Word2vec 可以根據(jù)給定的語料庫,通過優(yōu)化后的訓(xùn)練模型快速有效地將一個詞語表達(dá)成向量形式。Word2Vec 訓(xùn)練向量一般分為 CBOW(Continuous Bag-of-Words) 與 Skip-Gram 兩種模型。CBOW 模型的訓(xùn)練輸入是上下文對應(yīng)的詞向量,輸出是中心詞向量,而 Skip-Gram 模型的輸入是中心詞向量,而輸出是中心詞的上下文向量。

帖子向量的訓(xùn)練數(shù)據(jù)來源于用戶行為日志中抽取出的點擊曝光日志,各個業(yè)務(wù)場景下每天會出現(xiàn)用戶更新以及新發(fā)布的帖子,訓(xùn)練帖子向量的數(shù)據(jù)使用用戶最近 7 天的點擊轉(zhuǎn)化行為數(shù)據(jù)。

針對業(yè)務(wù)對用戶行為數(shù)據(jù)進(jìn)行處理,首先用戶每次點擊的停留時長小于 3s,認(rèn)為是誤點擊或?qū)Ξ?dāng)前帖子不感興趣,則將當(dāng)前點擊從行為序列中剔除;保留點擊數(shù)據(jù),去除微聊、收藏和打電話行為數(shù)據(jù),將每條點擊數(shù)據(jù)按用戶 id 聚合并按點擊轉(zhuǎn)化時間排序;用戶行為序列中前后兩次行為超過 3 小時的認(rèn)為興趣已經(jīng)發(fā)生改變,對數(shù)據(jù)進(jìn)行切分,生成新的行為序列。

樣本構(gòu)建之后需要針對樣本需要進(jìn)行負(fù)采樣,負(fù)采樣流程是對所有樣本構(gòu)建一個負(fù)采樣序列,對于租房業(yè)務(wù)來說對于用戶點擊的一條位于北京房源隨機采樣到長沙的一個房源作為負(fù)樣本。

長沙的房源顯然是一條合格的負(fù)樣本,但是為了讓同城內(nèi)正負(fù)樣本更具有區(qū)分性,針對負(fù)采樣流程做了以下優(yōu)化,對每個詞也就是帖子記錄城市、local 信息,詞頻平滑處理,分城市對同城內(nèi)的詞頻求和;拼接多個城市的負(fù)采樣序列作為最終的負(fù)采樣序列,同時記錄每個城市負(fù)采樣區(qū)間的起始和結(jié)束位置;同城內(nèi)負(fù)采樣序列按照詞頻占比越高所占區(qū)間越長的規(guī)則構(gòu)建,記錄當(dāng)前中心詞所在點擊序列的所有出現(xiàn)的詞,作為正樣本,不進(jìn)行負(fù)采樣;負(fù)采樣時,獲取中心詞的城市,傳入當(dāng)前城市在負(fù)采樣序列中的采樣起始下標(biāo)和結(jié)束下標(biāo),在當(dāng)前城市區(qū)間內(nèi)進(jìn)行隨機取樣;負(fù)樣本的 local 不等于中心詞的 local,且負(fù)樣本沒有在中心詞的點擊序列中出現(xiàn)過,即成功采樣負(fù)樣本,否則繼續(xù)負(fù)采樣;對每個負(fù)樣本的采樣次數(shù)限制在 10 次之內(nèi),超過 10 次即在同城內(nèi)隨機負(fù)采樣。

考慮到用戶的轉(zhuǎn)化行為也是一個更重要的行為特征,在訓(xùn)練向量的過程中加入合理的正樣本使得相關(guān)的向量更相似,比如保留點擊、微聊和打電話行為數(shù)據(jù),用戶的微聊和打電話行為相較于點擊行為有更強烈的的喜好,可用于生成正樣本;記錄序列中每個帖子的行為及對應(yīng)的時間戳,遍歷當(dāng)前序列,記錄微聊和打電話行為發(fā)生的時間戳以及對應(yīng)帖子所在的位置下標(biāo),若中心詞位置在最近一次的微聊或打電話行為之前。

考慮到用戶的興趣在某個時間段內(nèi)有連續(xù)性,將間隔時間設(shè)置在 15 分鐘之內(nèi),在這個時間范圍內(nèi)的點擊可以認(rèn)為對之后發(fā)生的微聊和打電話行為有間接影響,將下一次的微聊或點擊作為當(dāng)前中心詞的正樣本;為了避免產(chǎn)生噪音數(shù)據(jù),限制中心詞和微聊帖或打電話帖的地域信息相同或價格區(qū)間相同,滿足條件后作為正樣本進(jìn)行訓(xùn)練。

用戶行為特征

圖 9 用戶行為定義

58 同城全站用戶行為一般包含點擊和轉(zhuǎn)化,轉(zhuǎn)化則是指收藏、微聊、電話,圖 9 展示了租房、二手車、二手房、招聘業(yè)務(wù)中收藏、微聊/在線聊、電話、申請職位所在詳情頁的位置。

基于對用戶行為的分析以及首頁推薦場景多業(yè)務(wù)融合的特點,從用戶角度出發(fā),考慮到用戶一般對于發(fā)布帖子本身以及帖子所在位置關(guān)注度比較高,最終將帖子 ID、類目 ID、區(qū)域 ID作為用戶行為屬性進(jìn)行 Embedding 編碼。

特征的分布式表示在深度學(xué)習(xí)特征工程中至關(guān)重要,組合以上三類 ID 特征通過模型 Embedding 層獲得低緯稠密的帖子向量表示,最終可通過 Attention 或者其他相似度度量方式等計算出當(dāng)前待排序帖子和用戶歷史點擊帖子的相關(guān)程度,從而使得模型學(xué)習(xí)到用戶關(guān)注點。

1d42d19a-5fa6-11eb-8b86-12bb97331649.png

圖 10 用戶行為特征

離線用戶行為數(shù)據(jù)是將全站用戶行為特征按時間戳排序(如圖 10 所示)保存在 HDFS 中,其中單個用戶行為包含帖子 ID、類目 ID、區(qū)域 ID、時間戳等基礎(chǔ)信息,最終在離線訓(xùn)練和在線預(yù)估中選擇使用用戶最近 N 條行為特征,通過模型將這些基礎(chǔ)信息進(jìn)行embedding編碼。離線向量化特征則是通過用戶行為序列中的帖子 ID 序列使用 Word2vec 訓(xùn)練所得。對于用戶行為中帖子 ID 的 embedding 向量可以在模型中通過 end2end 的方式訓(xùn)練得到,也可以通過加載預(yù)訓(xùn)練向量在模型中加載使用。

離線樣本

1db0ba02-5fa6-11eb-8b86-12bb97331649.png

圖 11 樣本特征

整個離線樣本處理流程如圖 11 所示,包含用戶行為特征,基礎(chǔ)特征。由于訓(xùn)練樣本數(shù)據(jù)數(shù)量級已達(dá)到億級別,為了加快模型離線訓(xùn)練速度我們對訓(xùn)練樣本采用兩種負(fù)采樣方法進(jìn)行采樣:

隨機負(fù)采樣,即一次曝光的帖子列表中用戶未點擊的樣本按照自定義正負(fù)樣本比例進(jìn)行采樣;

自定義采樣,即保留一次曝光帖子列表中用戶最后一次點擊之前的未點擊樣本作為負(fù)樣本。

深度學(xué)習(xí)模型要求輸入樣本不可以存在缺失值,因此需要補全策略,我們針對樣本中出現(xiàn)的每一種類別特征設(shè)置了一個 ID 為 0 的 Embedding 標(biāo)記該特征為缺失值,對于連續(xù)特征目前將缺失值設(shè)置為 0,后期會繼續(xù)進(jìn)行缺失值補全策略的實驗,比如平均值、中位數(shù)等。

離線訓(xùn)練

使用離線樣本生成流程我們將所有樣本通過 MapReduce 保存在 HDFS,使用 TensorFlowDataSet 等 API 可直接讀取 HDFS 上的離線數(shù)據(jù),對于 DNN、DIN、DIEN 模型我們實現(xiàn)了單機以及分布式版本,目前單機版本已在線上使用,分布式版本還在優(yōu)化過程中。

模型離線訓(xùn)練優(yōu)化初期可通過 tensorboard 監(jiān)控訓(xùn)練過程中的 accuracy、loss 等指標(biāo)(圖 12),通過監(jiān)控可以看出模型已收斂,模型正常訓(xùn)練上線之后不再使用 TensorFlow 的 summary API 可減少部分離線訓(xùn)練時長。

此外,模型中如果使用到 tf.layers.batch_normalization 時應(yīng)特別注意其中的 training 參數(shù),并且在訓(xùn)練過程中需要更新 moving_mean、moving_variance 參數(shù),保存PB模型時則需要將BN層中的均值和方差保存,否則在 serving 階段取不到參數(shù)時直接使用均值為 0、方差為 1 的初始值預(yù)測,出現(xiàn)同一條樣本在不同的 batch 中不同打分的錯誤結(jié)果。

1df31ed8-5fa6-11eb-8b86-12bb97331649.png

圖 12 Accuracy、Loss 變化曲線

下表為 GBDT、DIN、DIEN 的離線效果,可見 DIN、DIEN 均已超過傳統(tǒng)機器學(xué)習(xí)模型。接下來我們將介紹線上實驗部分。

GBDT 0.634
DIN 0.643
DIEN 0.651
模型 AUC

排序服務(wù)

用戶實時行為數(shù)據(jù)構(gòu)建,離線數(shù)據(jù)已經(jīng)保存在 HDFS,線上則是通過實時解析 kafka 消息將用戶實時行為保存在分片 Redis 集群中,單天可產(chǎn)生億級別的用戶行為數(shù)據(jù),用戶行為特征基本解析流程可參考圖 1。

1ec4bd12-5fa6-11eb-8b86-12bb97331649.png

圖 13 實時用戶行為特征解析

特征抽取部分實現(xiàn)了帖子信息、用戶興趣、用戶行為的特征并行處理,首頁場景線上一次排序請求約 120 條帖子,為降低 TensorFlow-Serving 單節(jié)點 QPS 同時考慮單次排序請求的整體耗時,我們將一次排序請求拆分成多個 batch 并行請求深度學(xué)習(xí)模型打分服務(wù)(圖 14)。

1ef9f1da-5fa6-11eb-8b86-12bb97331649.png

圖 14 多 Batch 請求 TensorFlow-Serving


在測試環(huán)境下我們進(jìn)行了排序耗時評估,發(fā)現(xiàn) batch 為 2,10,20 平均耗時差距約為 10ms,隨著 batch 增加,一次可打分帖子量增加,則 tensorflow-serving 各節(jié)點 QPS 會降低。

上線后對耗時日志進(jìn)行統(tǒng)計,通過分析耗時統(tǒng)計結(jié)果(圖 15),99% 以上的請求均低于 22ms 最終權(quán)衡排序總耗時之后將線上 batch 設(shè)置為 20。

1f587188-5fa6-11eb-8b86-12bb97331649.png

圖 15 線上單個 batch 請求耗時分布

通過線上耗時監(jiān)控,DIN 模型每個 batch 平均耗時 6-9ms(圖 16 左),DIEN 每個 batch 平均耗時19-22ms(圖 16 右)均已滿足線上耗時限制。

1fd45d48-5fa6-11eb-8b86-12bb97331649.png

202baf9e-5fa6-11eb-8b86-12bb97331649.png

圖 16 DIN/DIEN 線上 Batch 平均耗時

首頁場景下 DIN、DIEN 模型排序?qū)嶒炿A段,在小流量測試階段 TensorFlow-Serving 服務(wù) QPS 峰值可達(dá)幾千時,服務(wù)請求量及耗時量指標(biāo)可參考圖 17。

20a67396-5fa6-11eb-8b86-12bb97331649.jpg

圖 17 DIN/DIEN 線上 Tensorflow-serving 請求量及耗時

實驗總結(jié)

實時/截斷用戶行為特征

模型上線之后發(fā)現(xiàn)離線 AUC 高于線上最優(yōu) GBDT 模型,但是線上點擊率卻低于 GBDT,排查之后定位問題出現(xiàn)在實時行為特征部分。

離線樣本生成過程會使用曝光時間戳去截取用戶歷史行為特征,但是線上則是通過 kafka 實時解析用戶行為,通過監(jiān)控解析 kafka 寫入 Redis 發(fā)現(xiàn)存在部分行為數(shù)據(jù)堆積情況以及實時日志上傳 kafka 存在延遲。用戶行為數(shù)據(jù)達(dá)到 8000 萬左右(圖 18 左)時,大于兩分鐘寫入 Redis 的數(shù)據(jù)已經(jīng)存在 500 萬左右(圖 18 右)。

2123e376-5fa6-11eb-8b86-12bb97331649.png

215c9888-5fa6-11eb-8b86-12bb97331649.png

圖 18 kafka 解析用戶實時行為監(jiān)控

因此通過線上監(jiān)控統(tǒng)計后初步斷定為行為特征時間穿越問題,因此對線上線下的用戶點擊行為特征按照統(tǒng)計的時間進(jìn)行截斷并進(jìn)行線上 AB 實驗,1819(DIN)、1820(DIEN) 算法號直接讀取線上實時行為特征,1227(DIN)、1796(DIEN) 算法號則通過設(shè)置時間間隔進(jìn)行截斷。

通過圖 19,20 我們可以發(fā)現(xiàn)線上(實驗號 1227)線下用戶行為特征進(jìn)行兩分鐘截取時間后線上點擊率比通過曝光時間戳截?。▽嶒炋?1819)有 2%-4% 的提升,1796 則比 1820 有 5%-8% 的提升。

通過線上 AB 實驗表明模型使用實時性要求比較高的用戶行為特征時對于是否存在時間穿越問題需要重點關(guān)注,當(dāng)然這個問題也可以通過增加處理 kafka 的線程數(shù)來降低消息的堆積量,不過線上線下用戶行為特征是否對齊仍需要驗證。

因此用戶實時行為特征在 58 App 首頁推薦場景下需要根據(jù)實際業(yè)務(wù)數(shù)據(jù)設(shè)置時延,保證線上線下實時用戶行為特征一致。

21c0fd78-5fa6-11eb-8b86-12bb97331649.png

圖 19 DIEN- 驗證行為特征時間穿越

22067452-5fa6-11eb-8b86-12bb97331649.png

圖 20 DIN- 驗證行為特征時間穿越

使用 Word2Vec 向量

離線向量特征部分提到我們使用 Word2Vec 模型對用戶行為特征中的帖子進(jìn)行離線預(yù)訓(xùn)練得到了帖子的 Embedding 向量。

對于 Word2Vec 向量的使用可分為兩種,一種是離線預(yù)訓(xùn)練,之后在模型 Embedding 層中用戶行為特征部分的 infoid 加載預(yù)訓(xùn)練向量,一種是將預(yù)訓(xùn)練的帖子向量作為連續(xù)特征直接輸入 DNN 使用,在接下來的實驗中我們優(yōu)先使用第二種方式進(jìn)行,后期會繼續(xù)使用第一種方法進(jìn)行線上實驗。

圖 21-22 中可見對于使用 Word2Vec 向量的 1209(DIN)、1222(DIEN)比未使用 Word2Vec 向量的 1227(DIN)、1796(DIEN) 均有 1.5%-4.3% 的提升。

221a0346-5fa6-11eb-8b86-12bb97331649.png

圖 21 DIN- 是否使用 Word2Vec 向量

227e371c-5fa6-11eb-8b86-12bb97331649.png

圖 22 DIEN- 是否使用 Word2Vec 向量

以上實驗為上線初期的部分?jǐn)?shù)據(jù),目前線上點擊率實驗中DIN比基線周平均提升 13.06%,曝光轉(zhuǎn)化率提升 16.16%;DIEN 相比基線曝光轉(zhuǎn)化率提升 17.32%,均已超過線上最優(yōu) GBDT 模型, DIEN 模型已全量部署,目前各模型線上指標(biāo)可參考下表。

22c5ec06-5fa6-11eb-8b86-12bb97331649.jpg

總結(jié)與展望

通過團(tuán)隊協(xié)作打通基于用戶興趣相關(guān)的深度學(xué)習(xí)模型離線訓(xùn)練、線上打分流程,將 58 App 中豐富的用戶行為數(shù)據(jù)成功應(yīng)用到深度學(xué)習(xí)模型,并能夠提升首頁推薦點擊率,從而達(dá)到提升用戶體驗,提升平臺效率的目的。

用戶行為數(shù)據(jù)中的每一個帖子對于當(dāng)前要推薦的帖子的相關(guān)程度是不一樣的,不可一概而論。注意力機制將用戶序列 Embedding 加和平均改成加權(quán)平均,使得推薦模型可以學(xué)習(xí)到用戶關(guān)注點。

用戶行為是與時間順序相關(guān)的序列,序列模型可以用來學(xué)習(xí)用戶行為的演化過程,可以用于預(yù)測用戶下一次的行為。前期的離線實驗包括目前的線上效果能夠證明通過對用戶興趣建??梢圆蹲降接脩絷P(guān)注點以及動態(tài)的興趣變化。

目前深度學(xué)習(xí)已經(jīng)在 TEG- 推薦技術(shù)團(tuán)隊內(nèi)部負(fù)責(zé)的各個場景進(jìn)行實驗,當(dāng)然還有一些待優(yōu)化的事情,比如離線分布式訓(xùn)練及復(fù)雜深度學(xué)習(xí)模型線上性能。

還有一些特征層面的實驗工作,比如對于用戶行為特征,不局限于帖子 id、類目 id、地域 id、用戶行為序列長度擴增等、帖子向量和用戶向量交叉等。

在模型層面,對其他 Attention 結(jié)構(gòu)進(jìn)行實驗、DNN 部分考慮使用殘差網(wǎng)絡(luò)、通過 Graph Embedding 等生成帖子向量、線上支持其他深度學(xué)習(xí)排序模型等。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1812

    瀏覽量

    60623
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4800

    瀏覽量

    98513
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5604

    瀏覽量

    124609

原文標(biāo)題:社區(qū)分享 | 深度學(xué)習(xí)在 58 同城首頁推薦中的應(yīng)用

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    人工智能-Python深度學(xué)習(xí)進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)的工程化落地,早已不是紙上談兵的事。從卷積神經(jīng)網(wǎng)絡(luò)到Transformer,從目標(biāo)檢測到大模型私有化部署,技術(shù)棧不斷延伸,工程師面臨的知識體系也越來越龐雜?,F(xiàn)根據(jù)際賽威工程師培訓(xùn)老師的一份
    的頭像 發(fā)表于 04-21 11:01 ?226次閱讀
    人工智能-Python<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)驅(qū)動的超構(gòu)表面設(shè)計進(jìn)展及其全息成像的應(yīng)用

    當(dāng)前,深度學(xué)習(xí)技術(shù)與超構(gòu)表面(metasurface)全息成像技術(shù)的融合,有力推動了光學(xué)成像領(lǐng)域的發(fā)展。得益于超構(gòu)表面對光波特性的精準(zhǔn)調(diào)控,全息成像技術(shù)經(jīng)處理后可生成對應(yīng)的三維圖像。因此,二者的結(jié)合
    的頭像 發(fā)表于 04-09 13:55 ?113次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>驅(qū)動的超構(gòu)表面設(shè)計進(jìn)展及其<b class='flag-5'>在</b>全息成像<b class='flag-5'>中</b>的應(yīng)用

    【智能檢測】基于AI深度學(xué)習(xí)與飛拍技術(shù)的影像測量系統(tǒng):實現(xiàn)高效精準(zhǔn)的全自動光學(xué)檢測與智能制造數(shù)據(jù)閉環(huán)

    內(nèi)容概要:文檔內(nèi)容介紹了圖儀器(Chotest)影像測量儀融合人工智能深度學(xué)習(xí)與飛拍技術(shù)的自動化檢測解決方案。系統(tǒng)通過AI深度學(xué)習(xí)實現(xiàn)
    發(fā)表于 03-31 17:11

    ADE7854/58/68/78:高精度三相電能計量IC的深度剖析

    ADE7854/58/68/78:高精度三相電能計量IC的深度剖析 在當(dāng)今的電力系統(tǒng),精確的電能計量至關(guān)重要。ADI公司的ADE7854、ADE7858、ADE7868和ADE7878系列高精度
    的頭像 發(fā)表于 03-30 15:55 ?154次閱讀

    機器學(xué)習(xí)深度學(xué)習(xí)需避免的 7 個常見錯誤與局限性

    ,并驗證輸出結(jié)果,就能不斷提升專業(yè)技能,養(yǎng)成優(yōu)秀數(shù)據(jù)科學(xué)家的工作習(xí)慣。需避免的機器學(xué)習(xí)深度學(xué)習(xí)數(shù)據(jù)錯誤訓(xùn)練數(shù)據(jù)驅(qū)動的人工智能模型時,我們會遇到一些常見錯誤和局
    的頭像 發(fā)表于 01-07 15:37 ?342次閱讀
    機器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>中</b>需避免的 7 個常見錯誤與局限性

    穿孔機頂頭檢測儀 機器視覺深度學(xué)習(xí)

    ,能適用惡劣工況,粉塵、高溫、氧化皮等惡劣環(huán)境均可正常工作。 測量原理 利用頂頭與周圍的物質(zhì)(水、空氣、導(dǎo)盤等)紅外輻射能量的差異,用熱成像相機拍攝出清晰的圖片,再通過深度學(xué)習(xí)短時
    發(fā)表于 12-22 14:33

    如何深度學(xué)習(xí)機器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?319次閱讀

    技術(shù)解析:58同城房產(chǎn)數(shù)據(jù)平臺 - 根據(jù)項目ID獲取詳情數(shù)據(jù)的API接口實踐

    ? 房產(chǎn)數(shù)據(jù)分析與應(yīng)用開發(fā),58同城作為國內(nèi)重要的生活服務(wù)平臺,其房產(chǎn)數(shù)據(jù)具有重要的參考價值。若需要通過其平臺獲取特定房產(chǎn)項目的詳細(xì)信息,理解其API接口的設(shè)計與調(diào)用方式至關(guān)重要。
    的頭像 發(fā)表于 11-21 14:58 ?457次閱讀
    技術(shù)解析:<b class='flag-5'>58</b><b class='flag-5'>同城</b>房產(chǎn)數(shù)據(jù)平臺 - 根據(jù)項目ID獲取詳情數(shù)據(jù)的API接口實踐

    【新啟航】深度學(xué)習(xí)玻璃晶圓 TTV 厚度數(shù)據(jù)智能分析的應(yīng)用

    。隨著深度學(xué)習(xí)在數(shù)據(jù)處理領(lǐng)域展現(xiàn)出強大能力,將其應(yīng)用于玻璃晶圓 TTV 厚度數(shù)據(jù)智能分析,有助于實現(xiàn)高精度、高效率的質(zhì)量檢測與工藝優(yōu)化,為行業(yè)發(fā)展提供新動能。
    的頭像 發(fā)表于 10-11 13:32 ?779次閱讀
    【新啟航】<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>在</b>玻璃晶圓 TTV 厚度數(shù)據(jù)智能分析<b class='flag-5'>中</b>的應(yīng)用

    如何在機器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對其進(jìn)行標(biāo)識。 討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“
    的頭像 發(fā)表于 09-10 17:38 ?1042次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    、實施路徑三個維度展開分析: 一、深度學(xué)習(xí)如何突破工業(yè)物聯(lián)網(wǎng)的技術(shù)瓶頸? 1. 非結(jié)構(gòu)化數(shù)據(jù)處理:解鎖“沉睡數(shù)據(jù)”價值 傳統(tǒng)困境 :工業(yè)物聯(lián)網(wǎng)70%以上的數(shù)據(jù)為非結(jié)構(gòu)化數(shù)據(jù)(如設(shè)備振動波形、紅外圖像、日志文本),傳統(tǒng)方法難以
    的頭像 發(fā)表于 08-20 14:56 ?1191次閱讀

    自動駕駛Transformer大模型會取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是自動駕駛領(lǐng)域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過時”的激烈爭論。然而,從技術(shù)原理、算力成本、安全需求與實際落地路徑等維度來看,Transforme
    的頭像 發(fā)表于 08-13 09:15 ?4360次閱讀
    自動駕駛<b class='flag-5'>中</b>Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    FPGA機器學(xué)習(xí)的具體應(yīng)用

    ,越來越多地被應(yīng)用于機器學(xué)習(xí)任務(wù)。本文將探討 FPGA 機器學(xué)習(xí)的應(yīng)用,特別是加速神經(jīng)網(wǎng)
    的頭像 發(fā)表于 07-16 15:34 ?3076次閱讀

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    多層神經(jīng)網(wǎng)絡(luò)的非線性變換擬合規(guī)律,理論上幾乎可以描述和模擬一切規(guī)律,但實際上該過程效率極低 —— 其計算復(fù)雜度往往呈指數(shù)級增長。這一特性使得深度學(xué)習(xí)與端側(cè)設(shè)備的資源約束存在根本性矛盾,導(dǎo)致其端側(cè) AI 實施過程
    發(fā)表于 07-14 14:50 ?1308次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    泰克示波器 MSO58 混合信號示波器嵌入式系統(tǒng)調(diào)試的核心技巧

    嵌入式系統(tǒng)的開發(fā)與調(diào)試,泰克示波器 MSO58 混合信號示波器憑借其強大的功能和靈活的特性,成為工程師不可或缺的調(diào)試?yán)鳌U莆掌浜诵恼{(diào)試技巧,能夠顯著提升調(diào)試效率,快速定位并解決系統(tǒng)
    的頭像 發(fā)表于 07-01 16:28 ?741次閱讀
    泰克示波器 MSO<b class='flag-5'>58</b> 混合信號示波器<b class='flag-5'>在</b>嵌入式系統(tǒng)調(diào)試<b class='flag-5'>中</b>的核心技巧
    磴口县| 兴国县| 平罗县| 肥乡县| 四子王旗| 鄂托克前旗| 惠安县| 泉州市| 惠安县| 信丰县| 东光县| 南皮县| 营山县| 兴文县| 连江县| 德清县| 冀州市| 蒙自县| 汕尾市| 公安县| 静安区| 黄浦区| 凯里市| 临邑县| 永清县| 咸丰县| 双辽市| 宜君县| 分宜县| 视频| 班戈县| 建始县| 城固县| 南陵县| 芒康县| 牙克石市| 丰宁| 渝中区| 长葛市| 苗栗市| 常熟市|