哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

若干蒸餾方法之間的細節(jié)以及差異

深度學(xué)習(xí)自然語言處理 ? 來源:NLP日志 ? 作者:NLP日志 ? 2022-05-12 11:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1 簡介

預(yù)訓(xùn)練模型BERT以及相關(guān)的變體自從問世以后基本占據(jù)了各大語言評測任務(wù)榜單,不斷刷新記錄,但是,BERT龐大的參數(shù)量所帶來的空間跟時間開銷限制了其在下游任務(wù)的廣泛應(yīng)用?;诖?,人們希望能通過Bert得到一個更小規(guī)模的模型,同時基本具備Bert的能力,從而為下游任務(wù)的大規(guī)模應(yīng)用提供可能性。目前許多跟Bert相關(guān)的蒸餾方法被提出來,本章節(jié)就來分析下這若干蒸餾方法之間的細節(jié)以及差異。

知識蒸餾由兩個模型組成,teacher模型跟student模型,一般teacher模型規(guī)模跟參數(shù)量都比較龐大,所以能力更強,而student模型規(guī)模比較小,如果直接訓(xùn)練的話效果比較有限,所以是先訓(xùn)練teacher模型,讓它學(xué)到充足的知識,然后用student模型去學(xué)習(xí)teacher模型的行為,從而實現(xiàn)將知識從teacher模型轉(zhuǎn)移到student模型,使得student模型能在較小的參數(shù)量的同時具備接近大模型的能力。在蒸餾過程中,最常見的student模型部分的loss,就是對于同一個數(shù)據(jù),將teacher模型的預(yù)測的soft概率作為ground truth,讓teacher模型去學(xué)習(xí)從而預(yù)測得到相同的結(jié)果,這部分teacher模型跟student模型預(yù)測的概率之間距離就是蒸餾最常見的loss(通常是交叉熵)。蒸餾學(xué)習(xí)希望student模型學(xué)到teacher模型的能力,從而預(yù)測的結(jié)果跟teacher模型預(yù)測的soft概率足夠接近,也就是希望這部分的loss盡可能的小。

2 DualTrain+SharedProj

以往的知識蒸餾雖然可以有效的壓縮模型尺寸,但很難將teacher模型的能力蒸餾到一個更小詞表的student模型中,而DualTrain+SharedProj解決了這個難題。它主要針對Bert的詞表大小跟嵌入緯度做了縮簡,其余部分,包括模型結(jié)構(gòu)跟層數(shù)保持跟teacher模型(Bert Base)一致,從而實現(xiàn)將知識從teacher模型遷移到student模型中。

590530ae-d19e-11ec-bce3-dac502259ad0.png

圖1: DualTrain+SharedProj框架

區(qū)別于其他蒸餾方法,DualTrain+SharedProj有兩個特別的地方,一個是Dual Training, 另一個是Shared Projection。Dual Training主要是為了解決teacher模型跟student模型不共用詞表的問題,在蒸餾過程中,對于teacher模型,會隨機選擇teacher模型或者student模型的詞表去進行分詞,可以理解就是混合了teacher模型跟student模型的詞表,這種方式可以對齊兩個規(guī)模不同的的詞表。例如圖中左邊部分,I和machine用的是teacher模型的分詞結(jié)果而其余token用的是student模型的分詞結(jié)果。第二部分是Shared Projection,這部分很好理解,因為student模型嵌入層緯度縮小了,導(dǎo)致每個transformer層的緯度都縮小了,但是我們希望student模型跟teacher模型的transformer層的參數(shù)足夠接近,所以這里需要一個可訓(xùn)練的矩陣將兩個不同維度的transformer層參數(shù)縮放到同一個維度才能進行比較。如果是對teacher模型的參數(shù)進行縮放,就叫做down projection,如果是對student模型參數(shù)進行的縮放,就叫做up projection。同時,12層的transformer參數(shù)共用同一個縮放矩陣,所以叫做shared projection。例如下圖,下標(biāo)t,s分別代表teacher模型跟student模型。

594e3984-d19e-11ec-bce3-dac502259ad0.png

圖2: up projection損失

595ece52-d19e-11ec-bce3-dac502259ad0.png

圖3: DualTrain+SharedProj的損失函數(shù)

在蒸餾過程中,會將teacher模型跟student模型都在監(jiān)督數(shù)據(jù)上進行訓(xùn)練,將兩個模型預(yù)測結(jié)果的損失加上兩個模型之間transformer層的參數(shù)之間的距離的損失作為最終損失,去更新student模型的參數(shù)。最終實驗效果可也表明,隨著student模型的隱藏層緯度縮減得越厲害,模型的效果也會逐漸變差。

59765b1c-d19e-11ec-bce3-dac502259ad0.png

圖4: DualTrain+SharedProj的實驗效果

DualTrain+SharedProj是很少見的student模型跟teacher模型不共享詞表的一種蒸餾方式,通過縮小詞表跟縮減嵌入層緯度,可以很大程度的減少模型的尺寸。同時也要注意,尺寸縮小得厲害,student模型的效果也下降地越厲害。另外有一點我不太理解,只通過一個dual training過程就可以對齊兩個詞表了嗎?是不是要蒸餾開始之前先對teacher模型,混合兩個詞表的分詞結(jié)果做下預(yù)訓(xùn)練會更加合理?

3DistillBERT

DistilBERT是通過一種比較常規(guī)的蒸餾方法得到的,它的teacher模型依舊是Bert Base,DistilBERT沿用了Bert的結(jié)構(gòu),但是transfromer層數(shù)只有6層(Bert Base有12層),同時還將嵌入層token-type embedding跟最后的pooling層移除。為了讓DistilBERT有一個更加合理的初始化,DistilBERT的transformer參數(shù)來源于Bert Base,每隔兩層transformer取其中一層的參數(shù)來作為DistilBERT的參數(shù)初始化。

在蒸餾過程中,除了常規(guī)的蒸餾部分的loss,還加入了一個自監(jiān)督訓(xùn)練的loss(MLM任務(wù)的loss),除此之外,實驗還發(fā)現(xiàn)加入一個詞嵌入的loss有利于對齊teacher模型跟student模型的隱藏層表征。

DistilBERT是一種常見的通過蒸餾得到的方法,基本上是通過減少transformer的層數(shù)來減少模型尺寸,同時加速模型推理的。

4LSTM

蒸餾學(xué)習(xí)并不要求teacher模型跟student模型要隸屬于同一種模型架構(gòu),于是就有人腦洞大開,想用BiLSTM作為student模型來承載Bert Base龐大的能力。這里的teacher模型依舊是Bert Base,student模型分為三個部分,第一部分是詞嵌入層,第二部分是雙向LSTM+pooling,這里會將BiLSTM得到的隱藏層狀態(tài)通過max pooling生成句子的表征,第三部分是全連接層,直接輸出各個類別的概率。

在蒸餾開始之前,需要先在特定任務(wù)的監(jiān)督數(shù)據(jù)集上對teacher模型進行微調(diào),因為是分類任務(wù),所以Bert Base跟后面的全連接層會一起更新參數(shù),從而讓teacher模型適配下游任務(wù)。在蒸餾過程中,student模型的損失分為三部分,第一部分依舊是常規(guī)的根據(jù)teacher模型預(yù)測的soft概率跟student模型預(yù)測的概率之間的交叉熵?fù)p失。第二部分是在監(jiān)督數(shù)據(jù)下student模型預(yù)測的結(jié)果跟真實標(biāo)簽結(jié)果之間的交叉熵?fù)p失。第三部分是teacher模型跟student模型生成表征之間的KL距離,也就是BiLSTM+pooling跟Bert base最后一層狀態(tài)輸出之間的距離,但是由于這兩者可能維度不一樣,所以這里也需要引入一個全連接層來縮放。

59984d3a-d19e-11ec-bce3-dac502259ad0.png

圖5: BiLSTM的蒸餾過程

59b80468-d19e-11ec-bce3-dac502259ad0.png

圖6: BiLSTM蒸餾的效果對比

可以看得到通過蒸餾得到的BiLSTM明顯優(yōu)于直接finetune的,這里證明了蒸餾學(xué)習(xí)的有效性。除此之外,BiLSTM本身的準(zhǔn)確率就很高了,說明任務(wù)比較簡單(要不然蒸餾過后的BiLSTM準(zhǔn)確率比teacher模型Bert Base還高不是很詭異嘛?),所以并不能說明把Bert Base蒸餾到BiLSTM是個合適的選擇。LSTM本身結(jié)構(gòu)的局限性導(dǎo)致了很難完全學(xué)習(xí)到transformer的知識跟能力,筆者以前也在一些比較難的數(shù)據(jù)集上嘗試過類似的做法,但是最終作為student模型的LSTM的效果跟teacher模型的之間的差距還是比較大,并且泛化能力比較差。

5 PDK

PKD想通過蒸餾學(xué)習(xí)將Bert Base的transformer層數(shù)進行壓縮,但是常規(guī)的方式只學(xué)習(xí)teacher模型最后一層的結(jié)果,雖然能在訓(xùn)練集上取得可以媲美teacher模型的效果,但是在測試集的表現(xiàn)很快就收斂了。這種現(xiàn)象看起來像是在訓(xùn)練集上過擬合了,從而影響了student模型的泛化能力。基于此,PKD在原本的基礎(chǔ)上加上了新的約束項,驅(qū)使student模型去學(xué)習(xí)模仿teacher模型的中間過程。具體的有兩種可能方式,第一種就是讓student模型去學(xué)習(xí)teacher模型transformer每隔幾層的結(jié)果,第二種是讓student模型去學(xué)習(xí)teacher模型最后幾層transformer的結(jié)果。

蒸餾過程的損失函數(shù)包括三個部分,第一部分還是常規(guī)的teacher模型預(yù)測的soft概率和student模型預(yù)測結(jié)果之間的交叉熵?fù)p失,第二部分是student模型預(yù)測概率跟真實標(biāo)簽之間的交叉熵?fù)p失,第三部分就是teacher模型跟student模型之間中間狀態(tài)的距離,這里用的[CLS]位置的表征。

6TinyBert

TinyBert的特別之處在于它的蒸餾過程分為兩個階段。第一階段是通用蒸餾,teacher model是預(yù)訓(xùn)練好的Bert, 可以幫助TinyBert學(xué)習(xí)到豐富的知識,具備強大的通用能力,第二階段是特定任務(wù)蒸餾,teacher moder是經(jīng)過finetune的Bert, 使得TinyBert學(xué)習(xí)到特定任務(wù)下的知識。兩個蒸餾環(huán)節(jié)的設(shè)計,能保證TinyBert強大的通用能力跟特定任務(wù)下的提升。

在每個蒸餾環(huán)節(jié)下,student模型的蒸餾分為三個部分,Embedding-layer Distillation,Transformer-layer Distillation, Prediction-layer Distillation。Embedding-layer Distillation是詞嵌入層的蒸餾,使得TinyBert更小維度的embedding輸出結(jié)果盡可能的接近Bert的embedding輸出結(jié)果。Transformer-layer Distillation是其中transformer層的蒸餾,這里的蒸餾采用的是隔k層蒸餾的方式。也就是,假如teacher model的Bert的transformer有12層,如果TinyBert的transformer設(shè)計有4層,那么就是就是每隔3層蒸餾,TinyBert的第1,2,3,4層transformer分別學(xué)習(xí)的是Bert的第3,6,9,12層transformer層的輸出。Prediction-layer Distillation主要是對齊TinyBert跟Bert在預(yù)測層的輸出,這里學(xué)習(xí)的是預(yù)測層的logit,也就是概率值。前面兩部分的損失都是MSE計算,因為teacher模型跟student模型在嵌入層跟隱藏層的維度不一致,所以這里需要相應(yīng)的線性映射將student模型的中間輸出映射到跟teacher 模型一樣的維度,最后一部分的損失是通過交叉熵?fù)p失計算的。通過這三部分的學(xué)習(xí),能保證TinyBert在中間層跟最后預(yù)測層都學(xué)習(xí)到Bert相應(yīng)的結(jié)果,進而保證準(zhǔn)確率。

59f1469c-d19e-11ec-bce3-dac502259ad0.png

圖7: TinyBert框架

TinyBert的兩階段蒸餾過程能驅(qū)使student模型能學(xué)到teacher模型的通用知識和特定領(lǐng)域知識,保證student模型在下游任務(wù)的表現(xiàn),是很值得借鑒的一種訓(xùn)練技巧。

7 MOBILEBERT

MOBILEBERT可能是目前性價比最高的一種蒸餾方式了(可能是筆者眼界有限),無論是從學(xué)習(xí)的目標(biāo),還是整個訓(xùn)練的方式,考慮都很周全。MOBILEBERT的student模型跟teacher模型的網(wǎng)絡(luò)層數(shù)保持一致,相關(guān)的模型結(jié)構(gòu)有所變化,首先是student模型跟teacher模型都新增了bottleneck,用于縮放內(nèi)部表示尺寸,在后面loss部分會展開介紹,其次是student模型里將FFN改成堆疊的FFN,最后是移除了layer normalization跟將激活函數(shù)由gelu換成relu.

在蒸餾過程中,student模型的損失包括兩個部分。第一個部分是student模型和teacher模型之間的feature map的距離,這里的feature map指的是每一層transformer輸出的結(jié)果。在這里,為了能讓student模型的隱藏層維度比teacher模型的隱藏層維度更小從而實現(xiàn)模型壓縮,這里的student模型跟teacher模型的transformer結(jié)構(gòu)都加入了bottleneck,也就是圖中綠色梯形的部分,通過這些bottleneck可以對文本表征尺寸進行縮放,從而實現(xiàn)teacher模型跟student模型各自在每一個transformer內(nèi)部表示尺寸不同,但是輸入和輸出尺寸一致,所以就可能用內(nèi)部表示尺寸小的student模型去學(xué)習(xí)內(nèi)部表示尺寸大的teacher模型的能力跟知識。第二部分是兩個模型每一層transformer中attention的距離,這部分loss是為了利用self attention從teacher模型中學(xué)習(xí)到相關(guān)內(nèi)容從而更好得學(xué)習(xí)到第一部分的feature map。

5a0d3fdc-d19e-11ec-bce3-dac502259ad0.png

圖8: MOBILEBERT相關(guān)的網(wǎng)絡(luò)結(jié)構(gòu)

MOBILEBERT的蒸餾過程是漸近式的,在蒸餾學(xué)習(xí)第L層的參數(shù)時會固定L層以下的參數(shù),一層一層的學(xué)習(xí)teacher模型的,直到學(xué)完全部層數(shù)。

5a2e92d6-d19e-11ec-bce3-dac502259ad0.png

圖9: MOBILEBERT的漸近式知識遷移過程

在完成蒸餾學(xué)習(xí)后,MOBILEBERT還會在做進一步的預(yù)訓(xùn)練,預(yù)訓(xùn)練有三部分的loss,第一部分跟第二部分是BERT預(yù)訓(xùn)練的MLM跟NSP任務(wù)的loss,第三部分是teacher模型跟student模型在[MASK]位置的預(yù)測概率之間的交叉熵?fù)p失。

8總結(jié)

為了直觀的對比上面提及的蒸餾方法的壓縮效率和模型效果,我們匯總了若干種模型的具體信息以及在MRPC數(shù)據(jù)集上的表現(xiàn)??傮w來說,有以下一些相關(guān)結(jié)論。

a)壓縮效率越高往往會伴隨著模型效果的持續(xù)下降。

b)Student模型的上限就是teacher模型。對于同一個student模型,并不是teacher模型越大student模型效果就會越好。因為越大的teacher模型,意味著更大的壓縮效率,也意味著更嚴(yán)重的性能下降。

c)只學(xué)習(xí)teacher模型最后的預(yù)測的soft概率是遠遠不夠的,需要對teacher模型中間的表征或者參數(shù)也進行學(xué)習(xí),才能進一步保證student模型的效果。

d)縮減transformer層數(shù)或者縮減隱藏層狀態(tài)緯度都可以壓縮模型,對于縮減隱藏層狀態(tài)維度,用MOBILEBERT那種bottleneck的方式優(yōu)于常規(guī)的通過一個額外的映射來對齊模型尺寸的方式??s減隱藏層狀態(tài)維度的方式的模型壓縮效率的上限更高。

e)漸進性學(xué)習(xí)方式是有效的。也就是固定下層的參數(shù),只更新當(dāng)前層的參數(shù),依次迭代直至更新完student模型全部層。

f)分階段蒸餾是有效的。先學(xué)習(xí)通用的teacher模型,然后再學(xué)習(xí)特定任務(wù)下finetune的teacher模型。

g)跨模型結(jié)構(gòu)的蒸餾是有效的。用BiLSTM來學(xué)習(xí)Bert Base的能力比直接finetune BiLSTM的效果要好。

Model type Compress Factor MRPC(f1)
Bert Base 1 88.9
DualTrain+SharedProjUp 192
96
48
5.74
19.41
61.94
84.9
84.9
79.3
DistilBERT 1.67 87.5
PKD 6
3
1.64
2.40
85.0
80.7
TinyBert 4 7.50 86.4
MOBILEBERT 4.30 88.8

參考文獻

1.(2020) EXTREME LANGUAGE MODEL COMPRESSION WITH OPTIMAL SUBWORDS AND SHARED PROJECTIONS

https://openreview.net/pdf?id=S1x6ueSKPr

2. (2020) DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter

https://arxiv.org/abs/1910.01108

3. (2020) DISTILLING BERT INTO SIMPLE NEURAL NETWORKS WITH UNLABELED TRANSFER DATA

https://arxiv.org/pdf/1910.01769.pdf

4. (2019) Patient Knowledge Distillation for BERT Model Compression

https://arxiv.org/pdf/1908.09355.pdf

5.(2020)TINYBERT: DISTILLING BERT FOR NATURAL LAN- GUAGE UNDERSTANDING

https://openreview.net/attachment?id=rJx0Q6EFPB&name=original_pdf

6. (2020) MOBILEBERT: TASK-AGNOSTIC COMPRESSION OF BERT BY PROGRESSIVE KNOWLEDGE TRANSFER

https://openreview.net/pdf?id=SJxjVaNKwB

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3811

    瀏覽量

    52257
  • LSTM
    +關(guān)注

    關(guān)注

    0

    文章

    63

    瀏覽量

    4442

原文標(biāo)題:Bert系列之知識蒸餾

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    香精香料蒸餾自動化設(shè)備功率 MOSFET 選型方案:精準(zhǔn)可靠熱管理與過程控制電源驅(qū)動適配指南

    隨著香精香料行業(yè)對產(chǎn)品純度、香氣一致性及生產(chǎn)自動化需求的持續(xù)升級,蒸餾自動化設(shè)備已成為核心生產(chǎn)環(huán)節(jié)的關(guān)鍵裝備。其加熱控制、物料傳輸與輔助系統(tǒng)電源驅(qū)動作為整機“熱能核心與流程臂膀”,需為精確溫控、泵閥
    的頭像 發(fā)表于 03-23 11:56 ?111次閱讀
    香精香料<b class='flag-5'>蒸餾</b>自動化設(shè)備功率 MOSFET 選型方案:精準(zhǔn)可靠熱管理與過程控制電源驅(qū)動適配指南

    貼片Y電容與插件Y電容的核心差異

    ? ? ? ?Y電容作為保障電子設(shè)備安全的關(guān)鍵安規(guī)元件,主要承擔(dān)濾除高頻共模干擾的核心功能,廣泛應(yīng)用于電源、家電等設(shè)備的火線/零線與地線之間。隨著電子技術(shù)向小型化、自動化發(fā)展,貼片Y電容與傳統(tǒng)插件Y
    的頭像 發(fā)表于 02-09 15:15 ?363次閱讀
    貼片Y電容與插件Y電容的核心<b class='flag-5'>差異</b>

    PCB拼板三大細節(jié)要點

    提醒:拼板訂單中,只要PCB設(shè)計不是完全相同,哪怕整體外形一致,孔位、走線等細節(jié)存在微小差異,屬于不同款 PCB。 要點二:陰陽拼板需完整 陰陽拼板(同一拼板正反面為不同設(shè)計的單板)因結(jié)構(gòu)特殊,對文
    發(fā)表于 01-23 14:00

    MEMS加速度計的抗沖擊能力與耐振動性之間的關(guān)鍵差異

    MEMS加速度計在機械應(yīng)力頻繁且劇烈的環(huán)境中應(yīng)用日益廣泛。本文探討了抗沖擊能力與耐振動性之間的關(guān)鍵差異,這兩項核心指標(biāo)決定了傳感器在惡劣條件下的可靠性。文中概述了提升傳感器穩(wěn)健性的相關(guān)測試標(biāo)準(zhǔn)、失效
    的頭像 發(fā)表于 01-20 09:59 ?3918次閱讀
    MEMS加速度計的抗沖擊能力與耐振動性<b class='flag-5'>之間</b>的關(guān)鍵<b class='flag-5'>差異</b>

    兩個MCU之間快速傳輸數(shù)據(jù)的方法

    特殊要求的場合。 總結(jié) 從上面幾種方案來看,各種方法對硬件都有很大的要求與限制,特別是難以在功能簡單的單片機上實現(xiàn),因此尋求一種簡單、有效的,能在各種單片機之間通信的方法具有重要的意義。③、④方案中
    發(fā)表于 01-19 07:07

    2極電機和4極電機之間差異

    電機作為現(xiàn)代工業(yè)的核心動力設(shè)備,其性能差異直接影響機械系統(tǒng)的運行效率與能耗表現(xiàn)。2極電機與4極電機的本質(zhì)區(qū)別在于磁極對數(shù)設(shè)計,這種結(jié)構(gòu)性差異引發(fā)了轉(zhuǎn)速、扭矩、效率及應(yīng)用場景的顯著分化。從空調(diào)壓縮機到
    的頭像 發(fā)表于 11-13 07:35 ?2650次閱讀

    將mcs文件燒到板子上以及利用IDE上傳軟件程序過程中遇到的問題以及解決方法

    重啟板子,我用這個方法成功了,相隔大概1s。 至此,成功完成了mcs文件的燒錄以及軟件程序的上載。
    發(fā)表于 10-31 09:10

    電流探頭的傳輸比和電流衰減:差異解析

    在電子測量領(lǐng)域,電流探頭是測量電流信號的關(guān)鍵工具,而傳輸比和電流衰減是其兩個重要參數(shù)。 雖然二者都與電流探頭對信號的處理有關(guān),但在本質(zhì)、功能和應(yīng)用場景上存在顯著差異,了解這些差異對于正確選擇和使用電
    的頭像 發(fā)表于 08-27 09:25 ?708次閱讀
    電流探頭的傳輸比和電流衰減:<b class='flag-5'>差異</b>解析

    不同品牌的PLC之間通訊的各種實現(xiàn)方式,以及網(wǎng)絡(luò)結(jié)構(gòu)圖

    IGT-DSER智能網(wǎng)關(guān)模塊支持西門子、倍福(BECKHOFF)、羅克韋爾AB,以及三菱、歐姆龍等各種品牌的PLC之間通訊,支持Ethernet/IP(CIP)、Profinet(S7),以及
    的頭像 發(fā)表于 08-19 09:57 ?1154次閱讀
    不同品牌的PLC<b class='flag-5'>之間</b>通訊的各種實現(xiàn)方式,<b class='flag-5'>以及</b>網(wǎng)絡(luò)結(jié)構(gòu)圖

    在ANSA中設(shè)置ABAQUS獨立非線性分析步的方法

    搭建Abaqus有限元模型時,經(jīng)常需要設(shè)置多分析步。在設(shè)置Abaqus多分析步的常用方法為在仿真分析任務(wù)中設(shè)置多個“Step”,將整個仿真任務(wù)的求解時間劃分為若干個Step(圖1),用戶可具體指定
    的頭像 發(fā)表于 08-06 15:14 ?1761次閱讀
    在ANSA中設(shè)置ABAQUS獨立非線性分析步的<b class='flag-5'>方法</b>

    ADC和FPGA之間LVDS接口設(shè)計需要考慮的因素

    本文描述了ADC和FPGA之間LVDS接口設(shè)計需要考慮的因素,包括LVDS數(shù)據(jù)標(biāo)準(zhǔn)、LVDS接口數(shù)據(jù)時序違例解決方法以及硬件設(shè)計要點。
    的頭像 發(fā)表于 07-29 10:01 ?5596次閱讀
    ADC和FPGA<b class='flag-5'>之間</b>LVDS接口設(shè)計需要考慮的因素

    固態(tài)電容器使用中的特殊注意細節(jié)

    固態(tài)電容器憑借導(dǎo)電高分子介質(zhì)材料的特性,在穩(wěn)定性和壽命上遠超液態(tài)鋁電解電容器,但在使用過程中需關(guān)注一系列細節(jié),以避免性能衰減或損壞。其核心差異在于介質(zhì)材料 —— 液態(tài)電容依賴電解液傳導(dǎo)電荷,而固態(tài)電容采用導(dǎo)電高分子材料,這種材料雖提升了耐高溫性和抗紋波能力,卻對外部應(yīng)力和
    的頭像 發(fā)表于 07-26 11:23 ?1246次閱讀

    隔離屏障的概念以及工作電壓和測試電壓之間的區(qū)別

    電源中的電氣隔離不僅僅是關(guān)乎安全——它更是性能和可靠性的基石。本文將探討隔離屏障的概念以及工作電壓和測試電壓之間的區(qū)別。它還將討論標(biāo)準(zhǔn)為何重要?幫助工程師設(shè)計出滿足當(dāng)今嚴(yán)苛法規(guī)和應(yīng)用需求的穩(wěn)健系統(tǒng)。
    的頭像 發(fā)表于 07-08 15:29 ?1074次閱讀

    ModbusRTU轉(zhuǎn)EtherCAT網(wǎng)關(guān):蒸餾裝置通信提速方案

    蒸餾裝置等復(fù)雜控制系統(tǒng)中,如何有效地通過開疆智能Modbus RTU轉(zhuǎn)EtherCAT網(wǎng)關(guān)KJ-ECT-101將這兩種協(xié)議結(jié)合使用,以實現(xiàn)更高效、更可靠的系統(tǒng)性能,成為了工程師們關(guān)注的焦點。常壓蒸餾
    的頭像 發(fā)表于 06-26 18:29 ?451次閱讀

    示波器探頭的選型與應(yīng)用差異解析

    在電子測量領(lǐng)域,高壓差分探頭與傳統(tǒng)無源探頭作為兩類基礎(chǔ)測量工具,其技術(shù)特性和應(yīng)用場景存在顯著差異。本文從測量原理、系統(tǒng)適配和信號處理三個維度進行對比分析。 一、信號拾取機制的差異 傳統(tǒng)無源探頭采用單
    的頭像 發(fā)表于 04-24 16:15 ?800次閱讀
    示波器探頭的選型與應(yīng)用<b class='flag-5'>差異</b>解析
    沁水县| 酒泉市| 延寿县| 垣曲县| 吴堡县| 鹿邑县| 准格尔旗| 开鲁县| 红河县| 南昌市| 阜康市| 江门市| 东光县| 米易县| 凌源市| 丹巴县| 库伦旗| 云南省| 建平县| 乐业县| 务川| 曲阜市| 西贡区| 平阴县| 城固县| 建昌县| 黄石市| 镇巴县| 定兴县| 连城县| 博白县| 延长县| 潞城市| 丰县| 鄂州市| 赫章县| 张家川| 准格尔旗| 荆门市| 增城市| 施秉县|