哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

重新審視Transformer:倒置更有效,真實世界預(yù)測的新SOTA出現(xiàn)了

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2023-11-05 20:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Transformer 在時間序列預(yù)測中出現(xiàn)了強大能力,可以描述成對依賴關(guān)系和提取序列中的多層次表示。然而,研究人員也質(zhì)疑過基于 Transformer 的預(yù)測器的有效性。這種預(yù)測器通常將相同時間戳的多個變量嵌入到不可區(qū)分的通道中,并對這些時間 token 進行關(guān)注,以捕捉時間依賴性。考慮到時間點之間的數(shù)字關(guān)系而非語義關(guān)系,研究人員發(fā)現(xiàn),可追溯到統(tǒng)計預(yù)測器的簡單線性層在性能和效率上都超過了復雜的 Transformer。同時,確保變量的獨立性和利用互信息越來越受到最新研究的重視,這些研究明確地建立了多變量相關(guān)性模型,以實現(xiàn)精確預(yù)測,但這一目標在不顛覆常見 Transformer 架構(gòu)的情況下是難以實現(xiàn)的。

考慮到基于 Transformer 的預(yù)測器的爭議,研究者們正在思考為什么 Transformer 在時間序列預(yù)測中的表現(xiàn)甚至不如線性模型,而在許多其他領(lǐng)域卻發(fā)揮著主導作用。

近日,來自清華大學的一篇新論文提出了一個不同的視角 ——Transformer 的性能不是固有的,而是由于將架構(gòu)不當?shù)貞?yīng)用于時間序列數(shù)據(jù)造成的。

wKgaomVHiHKAXhhfAAI5XInR6Xc692.png

論文地址:https://arxiv.org/pdf/2310.06625.pdf

基于 Transformer 的預(yù)測器的現(xiàn)有結(jié)構(gòu)可能并不適合多變量時間序列預(yù)測。如圖 2 左側(cè)所示,同一時間步長的點基本上代表了完全不同的物理意義,但測量結(jié)果卻不一致,這些點被嵌入到一個 token 中,多變量相關(guān)性被抹去。而且,在現(xiàn)實世界中,由于多變量時間點的局部感受野和時間戳不對齊,單個時間步形成的標記很難揭示有益信息。此外,雖然序列變化會受到序列順序的極大影響,但在時間維度上卻沒有適當?shù)夭捎米凅w注意力機制。因此,Transformer 在捕捉基本序列表征和描繪多元相關(guān)性方面的能力被削弱,限制了其在不同時間序列數(shù)據(jù)上的能力和泛化能力。

wKgaomVHiHKAB15uAAH88_ygQtg375.png

關(guān)于將每個時間步的多變量點嵌入一個(時間)token 的不合理性,研究者從時間序列的反向視角出發(fā),將每個變量的整個時間序列獨立嵌入一個(變量)token,這是擴大局部感受野的 patching 的極端情況。通過倒置,嵌入的 token 聚集了序列的全局表征,可以更加以變量為中心,更好地利用注意力機制進行多變量關(guān)聯(lián)。同時,前饋網(wǎng)絡(luò)可以熟練地學習任意回溯序列編碼的不同變量的泛化表征,并解碼以預(yù)測未來序列。

研究者認為 Transformer 對時間序列預(yù)測并非無效,而是使用不當。在文中,研究者重新審視了 Transformer 的結(jié)構(gòu),并提倡將 iTransformer 作為時間序列預(yù)測的基本支柱。他們將每個時間序列嵌入為變量 token,采用多變量相關(guān)性關(guān)注,并使用前饋網(wǎng)絡(luò)進行序列編碼。實驗結(jié)果表明,本文所提出的 iTransformer 在圖 1 所示的實際預(yù)測基準上達到了 SOTA 水準,并出人意料地解決了基于 Transformer 的預(yù)測器的痛點。

wKgaomVHiHKAWxwpAArxWFZkvCo108.png

總結(jié)來說,本文的貢獻有以下三點:

  • 研究者對 Transformer 的架構(gòu)進行了反思,發(fā)現(xiàn)原生 Transformer 組件在時間序列上的能力尚未得到充分開發(fā)。

  • 本文提出的 iTransformer 將獨立時間序列視為 token,通過自注意力捕捉多變量相關(guān)性,并利用層歸一化和前饋網(wǎng)絡(luò)模塊學習更好的序列全局表示法,用于時間序列預(yù)測。

  • 通過實驗,iTransformer 在真實世界的預(yù)測基準上達到了 SOTA。研究者分析了反轉(zhuǎn)模塊和架構(gòu)選擇,為未來改進基于 Transformer 的預(yù)測器指明了方向。

iTransformer

在多變量時間序列預(yù)測中,給定歷史觀測:

wKgaomVHiHKAP0uKAAB81pqY4KQ190.png

用 T 個時間步長和 N 個變量,研究者預(yù)測未來的 S 個時間步長:wKgaomVHiHKAMQGOAACEZ6ViK7w788.png。為方便起見,表示為wKgaomVHiHOALEH_AAAQsWuNyEA373.png為時間步 t 同時記錄的多元變量,wKgaomVHiHOAciTVAAARFyIDK-A548.png為每個變量由 n 索引的整個時間序列。值得注意的是,在現(xiàn)實世界中,由于監(jiān)視器的系統(tǒng)延遲和松散組織的數(shù)據(jù)集,wKgaomVHiHOAOijYAAATQOvpcas994.png可能不包含本質(zhì)上相同時間戳的時間點。

wKgaomVHiHOAOijYAAATQOvpcas994.png的元素可以在物理測量和統(tǒng)計分布中彼此不同,變量wKgaomVHiHOAciTVAAARFyIDK-A548.png通常共享這些數(shù)據(jù)。

本文所提出架構(gòu)配備的 Transformer 變體,稱為 iTransformer,基本上沒有對 Transformer 變體提出更具體的要求,只是注意力機制應(yīng)適用于多元相關(guān)性建模。因此,一組有效的注意力機制可以作為插件,降低變量數(shù)量增加時關(guān)聯(lián)的復雜性。

圖 4 中所示的 iTransformer 利用了更簡單的 Transformer 純編碼器架構(gòu),包括嵌入、投影和 Transformer 塊。

wKgaomVHiHOAQJssAAKYcX1-p48911.png

實驗及結(jié)果

研究者在各種時間序列預(yù)測應(yīng)用中對所提出的 iTransformer 進行了全面評估,驗證了所提出框架的通用性,并進一步深入研究了針對特定時間序列維度反轉(zhuǎn) Transformer 組件職責的效果。

研究者在實驗中廣泛納入了 6 個真實世界數(shù)據(jù)集,包括 Autoformer 使用的 ETT、天氣、電力、交通數(shù)據(jù)集、LST5 Net 提出的太陽能數(shù)據(jù)集以及 SCINet 評估的 PEMS 數(shù)據(jù)集。更多關(guān)于數(shù)據(jù)集的信息,請閱讀原文。

預(yù)測結(jié)果

如表 1 所示,用紅色表示最優(yōu),下劃線表示最優(yōu)。MSE/MAE 越低,預(yù)測結(jié)果越準確。本文所提出的 iTransformer 實現(xiàn)了 SOTA 性能。原生 Transformer 組件可以勝任時間建模和多元關(guān)聯(lián),所提出的倒排架構(gòu)可以有效解決現(xiàn)實世界的時間序列預(yù)測場景。

wKgaomVHiHOAEEF7AAJOzgAHKgk654.png

iTransformer 通用性

研究者將該框架應(yīng)用于 Transformer 及其變體來評估 iTransformers,這些變體通常解決了 self-attention 機制的二次復雜性問題,包括 Reformer、Informer、Flowformer 和 FlashAttention。研究者發(fā)現(xiàn)了簡單的倒置視角可以提高基于 Transformer 的預(yù)測器的性能,從而提高效率、泛化未見變量并更好地利用歷史觀測數(shù)據(jù)。

表 2 對 Transformers 和相應(yīng)的 iTransformers 進行了評估。值得注意的是,該框架持續(xù)改進了各種 Transformer??傮w而言,Transformer 平均提升了 38.9%,Reformer 平均提升了 36.1%,Informer 平均提升了 28.5%,F(xiàn)lowformer 平均提升了 16.8%,F(xiàn)lashformer 平均提升了 32.2%。

此外,由于倒置結(jié)構(gòu)在變量維度上采用了注意力機制,因此引入具有線性復雜性的高效注意力從根本上解決了因 6 個變量而產(chǎn)生的效率問題,這一問題在現(xiàn)實世界的應(yīng)用中十分普遍,但對于 Channel Independent 來說可能會消耗資源。因此,iTransformer 可廣泛應(yīng)用于基于 Transformer 的預(yù)測器。

wKgaomVHiHOAFbC5AAHAqncruNE962.png

為了驗證假設(shè),研究者將 iTransformer 與另一種泛化策略進行了比較:Channel Independent 強制采用一個共享 Transformer 來學習所有變體的模式。如圖 5 所示, Channel Independent(CI-Transformers)的泛化誤差可能會大幅增加,而 iTransformer 預(yù)測誤差的增幅要小得多。

wKgaomVHiHOAJY14AAE5_dwrv4Y389.png

由于注意力和前饋網(wǎng)絡(luò)的職責是倒置的,圖 6 中評估了隨著回視長度的增加,Transformers 和 iTransformer 的性能。它驗證了在時間維度上利用 MLP 的合理性,即 Transformers 可以從延長的回視窗口中獲益,從而獲得更精確的預(yù)測。

wKgaomVHiHSAWJ15AAGH_S98ZO4587.png

模型分析

為了驗證 Transformer 組件的合理性,研究者進行了詳細的消融實驗,包括替換組件(Replace)和移除組件(w/o)實驗。表 3 列出了實驗結(jié)果。

wKgaomVHiHSAYdPOAAFPpEZatPA169.png

更多詳細內(nèi)容,請參考原文。


原文標題:重新審視Transformer:倒置更有效,真實世界預(yù)測的新SOTA出現(xiàn)了

文章出處:【微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:重新審視Transformer:倒置更有效,真實世界預(yù)測的新SOTA出現(xiàn)了

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Transformer 入門:從零理解 AI 大模型的核心原理

    分:Transformer 架構(gòu)詳解 現(xiàn)在你已經(jīng)了解了數(shù)學基礎(chǔ)和語言模型概念,讓我們來看 Transformer 是如何工作的! Transformer 的目標 Transformer
    發(fā)表于 02-10 16:33

    Transformer如何讓自動駕駛大模型獲得思考能力?

    在談及自動駕駛時,Transformer一直是非常關(guān)鍵的技術(shù),為何Transformer在自動駕駛行業(yè)一直被提及?
    的頭像 發(fā)表于 02-01 09:15 ?4383次閱讀

    更有效?解碼焊球剪切與鍵合點拉力測試的真實對比

    在微電子封裝可靠性評估中,焊球-剪切測試和鍵合點-拉力測試是兩種最常用的機械性能檢測方法。長期以來,工程界對這兩種測試手段的有效性和適用場景存在諸多討論。究竟哪一種測試更能真實反映鍵合界面的長期
    發(fā)表于 01-08 09:46

    從數(shù)據(jù)到模型:如何預(yù)測細節(jié)距鍵合的剪切力?

    預(yù)估其剪切力?行業(yè)內(nèi)的研究數(shù)據(jù)為我們揭示可能性。今天,科準測控小編將帶您了解如何基于實驗數(shù)據(jù)建立并應(yīng)用預(yù)測模型,實現(xiàn)從“測量”到“預(yù)估”的關(guān)鍵跨越。 一、從平方定律到經(jīng)驗公式 直觀上,我們可能會假設(shè)
    發(fā)表于 01-08 09:45

    世界模型是讓自動駕駛汽車理解世界還是預(yù)測未來?

    ? [首發(fā)于智駕最前沿微信公眾號]世界模型在自動駕駛技術(shù)中已有廣泛應(yīng)用。但當談及它對自動駕駛的作用時,難免會出現(xiàn)分歧。它到底是讓自動駕駛汽車得以理解世界,還是為其提供
    的頭像 發(fā)表于 12-16 09:27 ?1018次閱讀
    <b class='flag-5'>世界</b>模型是讓自動駕駛汽車理解<b class='flag-5'>世界</b>還是<b class='flag-5'>預(yù)測</b>未來?

    Transformer如何讓自動駕駛變得更聰明?

    ]自動駕駛中常提的Transformer本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),最早在自然語言處理里火起來。與卷積神經(jīng)網(wǎng)絡(luò)(CNN)或循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)不同,Transformer能夠自動審視所有輸入信息,并動態(tài)判斷哪些部分更為關(guān)鍵,同時
    的頭像 發(fā)表于 11-19 18:17 ?2450次閱讀

    【書籍評測活動NO.66】玩轉(zhuǎn)高速電路:基于ANSYS HFSS的無源仿真實

    HFSS的無源仿真實例》:涵蓋 單端/差分信號傳輸線、信號過孔,典型走線過孔仿真實例;貫徹“先預(yù)測—再仿真”方法論,由簡入繁,學以致用;一步一圖+工程文件下載,決勝信號完整性! 書籍介紹 《玩轉(zhuǎn)
    發(fā)表于 11-06 14:19

    基于全局預(yù)測歷史的gshare分支預(yù)測器的實現(xiàn)細節(jié)

    的優(yōu)點是假如出現(xiàn)連續(xù)遇到兩條分支指令的情況,后一條分支指令可以享受到前一條指令的分支歷史結(jié)果。但缺點就是會存在預(yù)測失敗導致BHR中更新的內(nèi)容不正確,這時必須要先對BHR進行回滾操作,恢復到錯誤前的狀態(tài)
    發(fā)表于 10-22 06:50

    安防該卷一卷“安全感”

    安防行業(yè)在技術(shù)與市場中面臨挑戰(zhàn),企業(yè)業(yè)績分化明顯,需重新審視發(fā)展現(xiàn)狀。
    的頭像 發(fā)表于 09-03 09:49 ?495次閱讀
    安防該卷一卷“安全感”<b class='flag-5'>了</b>

    AURIX tc367通過 MCU SOTA 更新邏輯 IC 閃存是否可行?

    你好專家:我的用例是 MCU 通過 SPI 連接到邏輯 IC,邏輯 IC 連接到 8MB 閃存,但 MCU PFLASH 大小為 2MB,通過 MCU SOTA 更新邏輯 IC 閃存是否可行?
    發(fā)表于 08-11 06:36

    求助,關(guān)于TC387使能以及配置SOTA 中一些問題求解

    設(shè)置寫保護密碼, 而設(shè)置為CONFIRMED則必須有密碼,設(shè)置密碼后,后續(xù)對UCB的操作是否每次都要有解鎖操作 , 問題3: 在調(diào)試UCB去使能SOTA的過程中,出現(xiàn)debug口無法調(diào)試刷寫
    發(fā)表于 08-08 07:31

    Transformer架構(gòu)中編碼器的工作流程

    編碼器是Transformer體系結(jié)構(gòu)的基本組件。編碼器的主要功能是將輸入標記轉(zhuǎn)換為上下文表示。與早期獨立處理token的模型不同,Transformer編碼器根據(jù)整個序列捕獲每個token的上下文。
    的頭像 發(fā)表于 06-10 14:27 ?1200次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)中編碼器的工作流程

    Transformer架構(gòu)概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學習領(lǐng)域正在經(jīng)歷一場翻天覆地的變化。這些突破性的架構(gòu)不僅重新定義自然語言處理(NLP)的標準,而且拓寬了視野,徹底改變了AI的許多
    的頭像 發(fā)表于 06-10 14:24 ?1443次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)概述

    CYPD3177 PD在正常運行期間重新初始化怎么解決?

    大家好 我們在應(yīng)用程序中使用 CYPD3177 作為匯接器,它似乎工作正常,但我們注意到一些奇怪的行為--將它連接到 PD 源后,它成功請求 PD 配置文件,我們的設(shè)備工作正常,但在一些不可預(yù)測
    發(fā)表于 05-22 07:41

    提早預(yù)見問題:預(yù)測性維護有效降低企業(yè)停機風險

    在智能制造快速發(fā)展的時代,設(shè)備維護方式正從傳統(tǒng)的事后維護(Reactive Maintenance)和預(yù)防性維護(Preventive Maintenance),逐步轉(zhuǎn)向更高效的預(yù)測性維護
    的頭像 發(fā)表于 05-06 16:32 ?1126次閱讀
    提早預(yù)見問題:<b class='flag-5'>預(yù)測</b>性維護<b class='flag-5'>有效</b>降低企業(yè)停機風險
    察雅县| 通江县| 甘谷县| 基隆市| 昌平区| 司法| 两当县| 西吉县| 曲水县| 沁阳市| 高淳县| 叶城县| 翁源县| 常州市| 固原市| 长葛市| 柳林县| 宜君县| 昌邑市| 耿马| 惠州市| 克山县| 神木县| 新干县| 台北市| 莱州市| 温宿县| 砀山县| 定结县| 中阳县| 隆安县| 滦南县| 武穴市| 汉中市| 珲春市| 浦县| 屯门区| 本溪市| 泰安市| 大新县| 米脂县|