資訊
  • 視頻
  • 焦點
  • 娛樂
  • 文化
  • 財經(jīng)
  • 首頁 > 教育 > 考試信息 > 正文

    1x1=1打一成語;0000打一成語正確答案 視頻

    作者丨Onedroid@知乎(已授權(quán))

    來源丨h(huán)ttps://zhuanlan.zhihu.com/p/632499470

    編輯丨極市平臺

    前幾天在知乎上看到華為提出的一個VanillaNet,其中的一個設(shè)計點和我一直想實現(xiàn)的功能非常類似,即訓(xùn)練階段的時候模型是比較深的網(wǎng)絡(luò),推理的時候會自動變成比較淺的網(wǎng)絡(luò)。起初我一直想緩漸地暴力地丟掉卷積層,結(jié)果不能如愿,模型性能會在訓(xùn)練階段的最后幾個epoch一直退化,模型變成毫無用處的廢物。整整大半年一直也沒找到穩(wěn)定性能的方案,這也把我后續(xù)所有的構(gòu)想都否定了。本著拿來主義,本文直接采用VanillaNet的方案重新開始構(gòu)建模型ReduceNet(reduce depth,還有就是張量的那個reduce)

    ReduceNet和VanillaNet有以下幾個區(qū)別:

    1. a) 引入殘差,提升模型性能。部署階段,殘差也可以作為特殊的卷積核融入卷積算子

    b) 除了用一個VanillaNet中的"可消解的激活函數(shù)"外,不使用多余的非線性激活函數(shù),從而使得不同模塊繼續(xù)融合。這也是reducenet關(guān)鍵設(shè)計,起源于某個偶然的實驗發(fā)現(xiàn):resnet兩個3x3卷積構(gòu)成的模塊,去掉第二個激活函數(shù),性能會提升,順便提高了速度。所以reducenet模塊也只采用一個激活函數(shù),而且是在訓(xùn)練結(jié)束后會消失的激活函數(shù)

    c) 不使用maxpooling,用卷積代替,不同stage可以繼續(xù)融合

    2.模型只有在訓(xùn)練階段存在激活函數(shù),部署階段整個網(wǎng)絡(luò)沒有任何激活函數(shù)(最后的softmax還是需要的)

    3.根據(jù)2,backbone所有的線性層理論上可以繼續(xù)融合為一個超大尺寸卷積核的卷積層,逼近一個全連接層,印證了那個傳說中的“單層網(wǎng)絡(luò)理論”(印象中是有的,貌似是單層大網(wǎng)絡(luò)學(xué)習(xí)容量足夠卻很難擬合之類的,我不記得出處了,有知道的可以告知一下)。

    4. 利用bottleneck結(jié)構(gòu)增加模塊網(wǎng)絡(luò)寬度,為訓(xùn)練階段引入更多參數(shù)量,而不增加推理時候的開銷。理論上我們可以在訓(xùn)練時讓模塊中間無限寬,推理時計算開銷只由模塊首尾的寬度決定。實際上應(yīng)該會存在短板效應(yīng)。我們大概只能在首尾寬度固定情況下不斷壓榨性能直到性能飽和。再繼續(xù)增加中間網(wǎng)絡(luò)寬度估計就變成冗余了。這時只能增加模塊首尾寬度繼續(xù)提升性能。用這種方式有點神經(jīng)架構(gòu)搜索的味道。也許神經(jīng)神經(jīng)架構(gòu)搜索本身是很冗余的領(lǐng)域。漸進(jìn)地調(diào)整寬高,壓榨性能,試探臨界才是較優(yōu)解。

    本文貢獻(xiàn)如下:

    1.理論說明深度非線性網(wǎng)絡(luò)可以融合成單層網(wǎng)絡(luò),實驗中模型也取得不錯的性能。本文提供了基本模塊的思路,目前的SOTA模型只要對應(yīng)魔改,在不改架構(gòu)的情況下,盡情利用本文模塊的特性榨取模型性能就可以,理論上100%漲點,不增加額外推理開銷。其實,本文的東西是提供了“填充”的功能,任何架構(gòu)都可以通過本文模塊中“無限”和“縮并”的特性,理論上壓榨出該架構(gòu)下最高性能。所以在數(shù)據(jù)充足的情況下,結(jié)合本文的模塊,最終的模型瓶頸還將會是架構(gòu)設(shè)計。不過目前為止,我們還遠(yuǎn)遠(yuǎn)還沒摸到瓶頸。暫時只要用sota架構(gòu)繼續(xù)壓榨就可以了。本人資源有限,沒卡,只要負(fù)責(zé)驗證方法的有效性就可以了。

    上面說的是如何利用現(xiàn)有架構(gòu)提升性能。另外我這里提供個模型設(shè)計方案去探索新的適合應(yīng)用場景的sota架構(gòu)設(shè)計方案。我們先定下模型的開銷約束,比如計算量,參數(shù)量,內(nèi)存占用。在符合開銷約束情況下,掃描網(wǎng)絡(luò)深度和每層的寬度(這里是指部署的寬深,訓(xùn)練階段,一層網(wǎng)絡(luò)是可以根據(jù)我們的辦法無限擴(kuò)張寬深的,只要最后縮并回來),這樣就有不同的架構(gòu),讓它們一一被壓榨性能就可以了,因為寬深固定,性能極限就固定了。和SOTA比較,勝者為王。和神經(jīng)架構(gòu)搜索相比,我們可以做到專心壓榨性能,相當(dāng)于搜索得更快了。因為神經(jīng)架構(gòu)搜索方法是沒法保證一定寬度深度各種組合下性能如何的,再加上搜索空間這么大,很容易三心二意顧此失彼。

    總之,有一個證明,兩個pipeline方案

    2.嘗試解釋了為什么單層網(wǎng)絡(luò)規(guī)模足夠大卻很難獲得學(xué)習(xí)能力,從優(yōu)化的角度為多層非線性網(wǎng)絡(luò)和單層網(wǎng)絡(luò)建立了聯(lián)系,并指出多層非線性網(wǎng)絡(luò)本質(zhì)上可以為"探索單層網(wǎng)絡(luò)的權(quán)重最優(yōu)值”提供更大的探索自由度, 緩解優(yōu)化算法和單層網(wǎng)絡(luò)的“不和”,從而具備更高的學(xué)習(xí)效率。

    3.訓(xùn)練階段,ReduceNet可以和現(xiàn)有的其他模型設(shè)計兼容,享有深度非線性網(wǎng)絡(luò)的性能收益。推理階段則最終可以變成單層網(wǎng)絡(luò),保持高性能的同時,獲得激進(jìn)的模型效率。當(dāng)然,還有一個好處是,部署網(wǎng)絡(luò)的形態(tài)是具備靈活性的,你愛融合幾層就幾層,依照硬件的內(nèi)存占用,延時條件調(diào)整融合的層數(shù)。比如,兩層3x3可以變成5x5卷積,在某個硬件上可能就能提速了。如果任務(wù)很容易,很小的模型就能滿足,那直接壓成單層,在硬件合適的情況下,推理速度會非常快,提供了用深度網(wǎng)絡(luò)高效學(xué)習(xí),用單層網(wǎng)絡(luò)快速推理的完美方案。

    4.ReduceNet理論上可以在訓(xùn)練階段無限深和無限寬(bottleneck中間表示無限寬),推理階段變成一個小網(wǎng)絡(luò),有需要的話甚至直接變成單層網(wǎng)絡(luò)。

    不排除我犯了很傻的代碼錯誤,一切只是我的妄想(真的碰到好幾次了),如果錯了就刪帖跑路

    代碼鏈接

    [https://github.com/ohmydroid/reducenet

    模型壓縮的核心思想是先利用大網(wǎng)絡(luò)的學(xué)習(xí)能力,最后通過各種手段(知識蒸餾,剪枝,神經(jīng)架構(gòu)搜索,動態(tài)推理網(wǎng)絡(luò)等)將該能力轉(zhuǎn)移到較小的模型上,以減少資源開銷。(目前的分類習(xí)慣并不把神經(jīng)架構(gòu)搜索,動態(tài)推理網(wǎng)絡(luò)歸于模型壓縮,這僅僅是我個人習(xí)慣和理解)

    ReduceNet的靈感來源有以下幾個:

    1.RepVGG是比較特別的模型,訓(xùn)練時有多個分支,推理時可以合并成單個分支,可以看作是網(wǎng)絡(luò)寬度這個角度的縮并。所以很容易聯(lián)想到把這種設(shè)計擴(kuò)展到網(wǎng)絡(luò)深度方向,相關(guān)的工作有DepthShrinker,RMNet。嚴(yán)格來說,讀研期間設(shè)計的靜態(tài)condconv比這個更早,模塊化動態(tài)卷積又被condconv先發(fā)。橫向重參化的idea應(yīng)該來源于condconv.

    2.SkipNet, 一種動態(tài)推理網(wǎng)絡(luò),在推理階段通過路由網(wǎng)絡(luò)為不同數(shù)據(jù)選擇性地跳過主網(wǎng)絡(luò)的一些網(wǎng)絡(luò)層,以減少計算.

    3.Stochastic Depth,訓(xùn)練階段以概率的方式激活或者不激活殘差塊中的卷積分支,可以提升性能,但是推理階段沒有減少網(wǎng)絡(luò)深度,按照概率融合卷積塊和殘差。

    4.DepthShrinker, 比較接近我設(shè)想中的模型,但是條件很麻煩,需要學(xué)習(xí)mask參數(shù),還要蒸餾,微調(diào)和融合。RMNet需要剪枝,微調(diào),和融合。這些方式其實和華為的VanillaNet比較接近了。后者更加簡潔有效。我自己想的方案暫時又粗暴且無用,打不過就加入。

    5.VanillaNet中Deep Training Strategy,里面的公式以及衰減策略和我設(shè)計的幾乎差不多,只是VanillaNet選擇了對激活函數(shù)下手,再后期融合兩個串聯(lián)的卷積算子。而我天真地以為idea結(jié)合了skipnet,Stochastic Depth,神經(jīng)架構(gòu)搜索等思想必定萬無一失(不排除以后會有正確穩(wěn)定的方案),從而貪心地選擇最后丟棄整個卷積層。實驗結(jié)果一度讓我懷疑人生,模型性能會在最后階段徹徹底地崩潰。換成VanillaNet的Deep Training Strategy后模型結(jié)果非常理想。

    6. 是我N年前構(gòu)想的DetachNet,算是ReduceNet的雛形,希望有一個無限大的網(wǎng)絡(luò)可以為一個小網(wǎng)絡(luò)的每一層提供scale factor(scale的方式乘,加,卷積都可以)。這個和動態(tài)卷積非常類似了,只不過我希望大網(wǎng)絡(luò)在訓(xùn)練的可以無限大,推理的時候可以摘除,將能力轉(zhuǎn)移給小網(wǎng)絡(luò),完美的妄想的無限壓縮算法。最終敗于BP算法。也不是不可能。我一度相信,這種模型會讓AGI時代到來,完全沒想到AGI風(fēng)暴是ChatGPT引起的。ReduceNet現(xiàn)在好像也可以在訓(xùn)練階段無限大,推理階段非常小,所以DetachNet也算后繼有net。

    1x1=1打一成語;0000打一成語正確答案 視頻

    總的來說,這種設(shè)計使得模型在訓(xùn)練過程中借助多層卷積和非線性獲得更強(qiáng)的學(xué)習(xí)能力;推理階段,非線性消失則為減少網(wǎng)絡(luò)深度提供了可能。

    順便一提,VanillaNet網(wǎng)絡(luò)雖然淺但是非常寬,計算量,參數(shù)量,內(nèi)存占用都很大,唯一的優(yōu)勢可能就是用更快的速度取得接近sota的準(zhǔn)確率。然而,這速度也是有限制的。歸根結(jié)底這限制來自于寬網(wǎng)絡(luò)引發(fā)的一系列連鎖反應(yīng)。龐大的通道數(shù),會帶來更多的內(nèi)存占用,進(jìn)一步增加訪存。batch size等于1的時候vanillanet還有速度優(yōu)勢,其遠(yuǎn)超深網(wǎng)絡(luò)的計算開銷還能忽略。如果batch size變大呢,想必速度優(yōu)勢不會有這么明顯,甚至?xí)饾u慢于普通的sota模型,那其優(yōu)勢將蕩然無存。

    VanillaNet的deep training strategy足以對深度網(wǎng)絡(luò)模型設(shè)計產(chǎn)生深遠(yuǎn)的影響,可能在網(wǎng)絡(luò)架構(gòu)上設(shè)計元素太多太雜,反而不能發(fā)揮整體優(yōu)勢。

    和VanillaNet不同,本文設(shè)計的基本模型由3x3 conv, 1x1 conv ,殘差連接構(gòu)成。下采樣的話,也只要把3x3 conv的stride設(shè)置為2,并且去除收尾的殘差(激活函數(shù)的殘差保留)。值得注意的是整個模塊只有一個激活函數(shù),訓(xùn)練結(jié)束,激活函數(shù)也會消失。之所以只用一個激活函數(shù)是因為之前發(fā)現(xiàn)resnet的殘差塊中去掉一個激活函數(shù)效果會更好,速度還更快(查重發(fā)現(xiàn)被人發(fā)過了)。

    數(shù)值,我是隨著iteration從1到0按照cosine的方式衰減,公式和VanillaNet的是反過來的。

    訓(xùn)練階段,模塊如左圖,推理階段,這個模塊會整合成一個純線性的3x3 conv。能夠融合的原因有以下幾點:

    1.conv,bn可以融合成1個conv

    2.一個3x3 conv和一個1x1 conv會整合成一個3x3 conv

    3.殘差連接是可以看作一種特殊的卷積核,所以也可以參與線性融合

    比起VanillaNet,ReduceNet的其中一個優(yōu)勢在于能夠和現(xiàn)有的架構(gòu)設(shè)計方式兼容。

    此外,當(dāng)訓(xùn)練結(jié)束后,所有算子完成上述的融合后,ReduceNet的網(wǎng)絡(luò)backbone部分,只有連續(xù)的3x3 conv,這意味著這些純線性的3x3 conv可以進(jìn)一步連續(xù)融合直至變成一個更大尺寸卷積核的單層卷積。最終,整個網(wǎng)絡(luò)會變成一個卷積層,pool, FC, 總共3層。pool是avgpool的話網(wǎng)絡(luò)應(yīng)該可以直接變成1層。

    按照resnet56 cifar的架構(gòu),reducenet56(訓(xùn)練階段是56層) cifar10的準(zhǔn)確率可以達(dá)到93%。resnet的模塊是兩個3x3 conv, 我的模塊是一個3x3 conv+一個1x1 Conv(可以融合成一個3x3 Conv)。

    如果只融合模塊里的卷積不繼續(xù)融合的話,網(wǎng)絡(luò)深度應(yīng)該是29. 為此構(gòu)造了一個29層的ResNet進(jìn)行比較(和原版resnet不同,每個模塊是一個非線性3x3卷積加一個殘差,因為要和我的模型推理階段的架構(gòu)公平對比)準(zhǔn)確率是91+%(手賤,不小心把tmux退出了)。具體架構(gòu)和訓(xùn)練代碼可以參考repo的代碼。雖然只是在cifar10上的實驗,但是效果已經(jīng)足夠驚艷。代碼里還沒有加入任何融合操作,我就是確認(rèn)純線性條件是不是成立,能跑不錯的結(jié)果就行,結(jié)果超出預(yù)期。

    如果設(shè)計邏輯正確無誤,代碼也能確保線性條件成立的話,可以印證:

    1.單層網(wǎng)絡(luò)的表達(dá)能力是足夠的,只是我們目前的優(yōu)化算法并不能讓單層網(wǎng)絡(luò)找到合適解。不是模型容量的問題,是目前深度學(xué)習(xí)的優(yōu)化算法碰上單層線性網(wǎng)絡(luò)的天然局限。

    2.深度非線性網(wǎng)絡(luò)最終是可以轉(zhuǎn)換成單層網(wǎng)絡(luò)的,多層非線性網(wǎng)絡(luò)本質(zhì)上可以看作是為單層網(wǎng)絡(luò)高效搜索權(quán)重的方法,彌補(bǔ)了當(dāng)前單層網(wǎng)絡(luò)優(yōu)化算法的缺陷。

    這么多的非線性層也許只是為單個線性層找到更好的參數(shù)。最開始,參數(shù)只是隨機(jī)的,非線性的存在和BP算法機(jī)制,讓整體網(wǎng)絡(luò)的每個參數(shù)個體能夠像布朗運(yùn)動一樣“更自由”地改變參數(shù)。更確切地說,是隨機(jī)初始化讓前向傳播有了一定隨機(jī)性,比如ReLU后的數(shù)值,隨機(jī)地為0。因果循環(huán),這種隨機(jī)的失活,又讓反向傳播只能隨機(jī)地尋找路徑讓梯度流動(后面會提到,這是天然的子網(wǎng)采樣,每個子網(wǎng)都有機(jī)會接受數(shù)據(jù)洗禮)。

    訓(xùn)練階段,堆疊純非線性等價于一層線性層,即便堆疊再多,所有參數(shù)的更新軌跡都被“限定”了,訓(xùn)練前的初始值給整個模型留下了深刻的烙印并且貫穿整個訓(xùn)練過程。因為無論怎么更新,初始值已經(jīng)決定了反向傳播梯度分配的比例,W這個整體權(quán)重完全散失了“隨機(jī)探索超流形的自由性”。

    深度非線性網(wǎng)絡(luò)和巨大的參數(shù)量,或許只是為優(yōu)化過程買更多的。參數(shù)越多,拓?fù)渎窂浇M合的子網(wǎng)絡(luò)越多,W就能更加細(xì)致地,發(fā)揮群體力量更加高效地探索空間,最終只是為最后的單層網(wǎng)絡(luò)權(quán)重服務(wù)(這個過程當(dāng)然也很有可能造成冗余。這種“冗余”某種程度上是有意義的,可以用計算開銷換取更快的學(xué)習(xí)速度,有粒子群優(yōu)化的味道)改日再繼續(xù)想這個優(yōu)化問題,因為是個很大的數(shù)學(xué)問題,而我只是憑借文字描述抓住一點鱗片,暫時無法更確切地描述。單單在多層非線性網(wǎng)絡(luò)和單層網(wǎng)絡(luò)之間建立辨證的數(shù)學(xué)聯(lián)系,這本身就是意義深遠(yuǎn)的事情。假如深度非線性網(wǎng)絡(luò)的存在本身就是在自由隨機(jī)地為單個線性層(沒有考慮softmax)尋找"無數(shù)"可能性,網(wǎng)絡(luò)最終可以縮并成一層,那這實在是太具有暴力美學(xué)的數(shù)學(xué)哲思。應(yīng)該可以顛覆現(xiàn)在優(yōu)化領(lǐng)域的一些常識,也可能可以開個新的方向。

    這并不是說模型可以無限壓縮,只有在深度非線性網(wǎng)絡(luò)學(xué)足以學(xué)到東西的時候,我們才會繼續(xù)轉(zhuǎn)換成單層網(wǎng)絡(luò)。單層網(wǎng)絡(luò)開銷有多大還是得由當(dāng)前的深度非線性網(wǎng)絡(luò)所決定。所以,如何設(shè)計高效的深度網(wǎng)絡(luò)仍然是一個重要的課題,剪枝、蒸餾、神經(jīng)架構(gòu)搜索,動態(tài)推理網(wǎng)絡(luò),這些方向或許本質(zhì)上被某個共同的"規(guī)則"所左右,未來可能統(tǒng)一,神經(jīng)架構(gòu)搜索(NAS)可能會被廢棄(因為實在是太浪費(fèi)了,NAS本質(zhì)上是一種高度浪費(fèi)的壓縮算法)。如果說這些算法實在壓縮,那么還有必然還一種對立的,是生長型的算法。小模型性能飽和之后,可以繼續(xù)成長成更大的網(wǎng)路從而繼續(xù)壓榨更高的性能。明明是對等的產(chǎn)物,不知道為什么少有人問津。

    NAS設(shè)置的超網(wǎng)搜索空間實在是太大了,打個比方,就像把食物淺嘗幾口就丟掉。獲得超網(wǎng)也并不需要這么多并行的層。最簡單的VGG本身就是一個超網(wǎng)。我的意思是說,當(dāng)訓(xùn)練階段仔細(xì)探索子網(wǎng),整個模型本身相對來說就是一個超網(wǎng)。與其嘗一口,嚼幾下就丟掉,還不如仔細(xì)咀嚼每一口。換言之:

    1.需要充分地讓子網(wǎng)接受數(shù)據(jù)訓(xùn)練的洗禮

    2.用有限的計算資源在最簡單的網(wǎng)絡(luò)中創(chuàng)造更多數(shù)量的子網(wǎng)。當(dāng)充分訓(xùn)練,子網(wǎng)便會“自動集成”成高性能的模型。

    當(dāng)有了足夠的子網(wǎng),便意味著有了足夠的學(xué)習(xí)容量。但這還不夠,每一個子網(wǎng)(它們之間也會共享部分,難分彼此)需要“相對獨(dú)立”地進(jìn)行學(xué)習(xí)。每個子網(wǎng)地能力足夠強(qiáng),整體網(wǎng)絡(luò)性能才會更高。我們并不需要額外的操作,像ReLU這種網(wǎng)絡(luò)就是天然的子網(wǎng)采樣器。訓(xùn)練完畢,網(wǎng)絡(luò)本身就是所有子網(wǎng)的集成。

    上面說過,當(dāng)所有子網(wǎng)模型都可以獨(dú)當(dāng)一面的時候,這就意味著整體網(wǎng)絡(luò)足夠健壯。那些剪枝算法只是回過頭來再選取合適的子網(wǎng),使其成為更小的獨(dú)立模型。

    所以有時候,我們大概不能片面地評估一個剪枝算法一定比另一個算法更好。因為當(dāng)訓(xùn)練不充分,某些剪枝算法也會因為運(yùn)氣好(不好)(也是隨機(jī))采樣到一些優(yōu)秀(糟糕)的子網(wǎng),這樣的比較并沒有太大的意義。除非它們自己能夠證明自己是“精準(zhǔn)定位”到優(yōu)秀子網(wǎng)的。舉個例子作類比,能不能打到好的獵物取決于山林資源條件如何,獵人身手如何。在貧瘠的山林里,再強(qiáng)的獵人也不見得收獲會比菜鳥獵人更豐。明顯只有資源足夠豐富的情況下,獵人的身手才能成為關(guān)鍵。當(dāng)然也會存在一種極端情況,山林資源過于豐富,再怎么菜雞的獵人閉著眼睛亂射都能收獲滿滿。這也對應(yīng)下文所說的,隨機(jī)剪枝完全足夠,不遜色任何算法。

    原則上應(yīng)該讓隨機(jī)剪枝大量采樣子網(wǎng),證明網(wǎng)絡(luò)的健壯性。再讓其剪枝算法進(jìn)行比較(比較采樣的良率,搜索時間,性能,效率等)。神經(jīng)架構(gòu)搜索(NAS)本身就可以看作是剪枝算法,但是大多數(shù)情況下NAS的超網(wǎng)太大了,不能也根本沒必要充分訓(xùn)練。再回過頭來看,如果我們已經(jīng)讓一個模型具備良好的健壯性了,花里胡哨的剪枝算法也就沒有什么太大的意義了(如果是那種剪枝,微調(diào)最后還不和相同規(guī)模的模型繼續(xù)比較那無異于掩耳盜鈴了。而且剪枝的網(wǎng)絡(luò)比大網(wǎng)絡(luò)更強(qiáng)也并不奇怪,畢竟隨機(jī)初始化,學(xué)習(xí)率主場都可能是關(guān)鍵。沒有統(tǒng)計意義的勝負(fù)也沒什么參考價值。)這個時候,隨機(jī)剪枝就足夠了,考慮到模型效率,必須是按照規(guī)則形狀的隨機(jī)剪枝。

    VGG這種超網(wǎng)也可以變得強(qiáng)大。比如引進(jìn)殘差,vgg的子網(wǎng)數(shù)量就變得更多了。比如隨機(jī)深度算法,讓一些更小的子網(wǎng)能夠獨(dú)立且充分地接受數(shù)據(jù)洗禮。個人認(rèn)為上述兩條設(shè)計原則應(yīng)該可以為輕量化模型設(shè)計提供一定程度的方向性指導(dǎo)。超網(wǎng)和子網(wǎng)的辨證關(guān)系想必對深度集成理論會有所幫助。

    此外,如果模型能被壓縮(剪枝,蒸餾等),性能還不下降,說明大模型本身性能不飽和。也可以說是大模型存在結(jié)構(gòu)冗余。現(xiàn)實中,我們可以利用大模型快速收斂得到不錯的性能,再想方設(shè)法利用各種奇技淫巧壓縮模型,小心翼翼地防止精度損失。其實這和本文提出地bottleneck縮并技術(shù)很類似,都要經(jīng)歷膨脹再收縮的過程。但是我覺得bottleneck(層積,模塊級,網(wǎng)絡(luò)級都可以)縮并技術(shù)更加簡潔,兩端網(wǎng)絡(luò)寬度固定,以滿足資源約束,中間盡可能大以獲得強(qiáng)大的學(xué)習(xí)能力,大到性能飽和為止,最后縮并成很窄的網(wǎng)絡(luò)即可,不需要花里胡哨的過程。這個貌似直接解決了幾年前所謂的信息瓶頸理論。(我不記得它說了什么,聽名字和bottleneck 縮并應(yīng)該還是很相關(guān)的。應(yīng)該不需要分析,直接做出來即可)。

    做個實驗就很明白了。目前repo實驗代碼用的是layer級別的bottleneck設(shè)計,當(dāng)然完全可以選擇block級,甚至整個網(wǎng)絡(luò)是一個bottleneck. 理論上net級容量是最大的,可以更快壓榨性能。

    ReduceNet20, 調(diào)整expansion可以控制bottleneck中間的寬度,3個模型最終部署成本都是一樣的,簡直是免費(fèi)的性能榨汁機(jī)。我還沒有探索expansion能有多大,有時間補(bǔ)上數(shù)據(jù)。20層只是訓(xùn)練層數(shù),之前說過了,部署的網(wǎng)絡(luò)形態(tài)是可以靈活改變的。比如,至少1x1卷積就可以消掉,網(wǎng)絡(luò)變成11層(10個3x3 conv, avgpool,FC),剩下3x3如果融合就要考慮計算量的增加自行trade-off了。硬件條件合適的話,計算量就能換更高速的模型推理。

    完整訓(xùn)練代碼:https://github.com/ohmydroid/reducenet

    如果是我搞錯了,別打我。發(fā)這種半成品實在是因為已經(jīng)浪費(fèi)了好幾個月在研究貌似沒有什么用的東西。

    模塊代碼如下:

    可以看到,模塊中只有一個激活函數(shù),即

    self.scaler 就是一個不可訓(xùn)練,人為控制數(shù)值的參數(shù) \lambda\lambda 。在訓(xùn)練過程中,隨著iteration(每個mini batch)按照cosine方式從1衰減至0。訓(xùn)練結(jié)束后,這個激活函數(shù)就會退化成identity mapping(輸入等于輸出)。那么conv1,bn1,conv2,bn2四層可以融合成單層的3x3 conv。之后,把模塊首尾的殘差變成3x3卷積核的形狀,"對角線"元素填充為1(這比1x1 卷積核形狀的殘差稍微復(fù)雜一點點,不是正規(guī)的對角線,是3x3的中心點,每個通道沿著對角線,可以參考DiracNet),和3x3卷積繼續(xù)橫向融合。因為推理階段不存在任何非線性函數(shù),所以所有的線性算子橫向和縱向都可以融合,這里不再贅述。

    模塊中self.scaler可以由ReduceNet的Module的參數(shù)傳入。main.py文件控制self.scaler的數(shù)值,cosine衰減。代碼如下:

    以后繼續(xù)優(yōu)化:

    1.和RepVGG等重參結(jié)合

    2.3x3卷積可能不需要這么多,3x3卷積的數(shù)量關(guān)乎模型性能和效率,怎么尋找合適的數(shù)量值得研究

    3.最大的愿望當(dāng)然是能夠想出一步到位的方案,而不是用VanillaNet這種策略

    4.還沒有寫融合算子和整個網(wǎng)絡(luò)的代碼

    5. 嘗試在conv旁邊多加一條殘差

    6.參考BagNet, MLP-mixer, weighted sum of patches is all you need

    7.我比較好奇的是究竟能不能根據(jù)訓(xùn)練結(jié)果的實時反映生成一個控制 \lambda\lambda 的信號,再讓這個新的數(shù)值再控制網(wǎng)絡(luò)形成控制閉環(huán)。

    8.擁抱LORA。初聞LORA的時候我就意識到了,這東西和我從前想的多核卷積太像了,與我設(shè)想的無限可縮并的bottleneck不謀而合。總的來說,這種類似“多重宇宙”,“影分身般”的特性無處不在。比如,谷歌某個集成方法,訓(xùn)練多個模型,最后用加法融合每個模型的參數(shù),最后微調(diào)整。不過這個方法也可以看作上文所說的net級別的bottleneck縮并技術(shù)的一個稀疏子集。

    9.最難的恐怕是我該如何用一套數(shù)學(xué)語言去嚴(yán)謹(jǐn)?shù)亟忉尪鄬臃蔷€性網(wǎng)絡(luò)是在尋找單層網(wǎng)絡(luò)的權(quán)重這一動態(tài)過程。

    10.融合后可以繼續(xù)在現(xiàn)有網(wǎng)絡(luò)(訓(xùn)練過的ReduceNet)基礎(chǔ)上生出新的活性網(wǎng)絡(luò),可以是橫向的擴(kuò)展寬度,縱向地插入新層,甚至每個模塊能成為bottleneck中間的小網(wǎng)絡(luò),成為被縮并的對象,成就新的下一代模塊。總而言之,繼承舊網(wǎng)絡(luò),在此基礎(chǔ)上附上新網(wǎng)絡(luò)繼續(xù)擴(kuò)展學(xué)習(xí)容量,壓縮融合,嫁接生長,循環(huán)反復(fù)。

    寫得有些隨意,有空再整理。

    代碼模塊其實和resnet沒什么兩樣,可以自行驗證相同架構(gòu)網(wǎng)絡(luò)的效果。把conv1換成conv3,就可以和現(xiàn)有的resnet架構(gòu)完全兼容。

    最后解釋一下免得讓人誤解。ReduceNet在訓(xùn)練中理論上可以無限深無限寬,但這并不意味著就模型最后一定具有無限的學(xué)習(xí)能力。部署時模型模型(都統(tǒng)一為單層網(wǎng)絡(luò)比較好了)的寬度等物理因素決定了它的能力上限,訓(xùn)練階段無限的資源投入都只是讓最終的模型無限逼近固有的能力上限。這個規(guī)律同樣適用于現(xiàn)在的大模型。沒有免費(fèi)的涌現(xiàn)。計算夠不夠久,數(shù)據(jù)夠不夠多,都是瓶頸,能量換信息所有過程都是為了逼近這個上限。突然對涌現(xiàn)這個詞語這么瘋魔,只是低估了這個上限了而已。

    備案號:贛ICP備2022005379號
    華網(wǎng)(http://www.cdxdyzl.com) 版權(quán)所有未經(jīng)同意不得復(fù)制或鏡像

    QQ:51985809郵箱:51985809@qq.com

    主站蜘蛛池模板: 天堂一码二码专区 | 欧美午夜精品一区二区 | 狠狠色丁香久久婷婷综合五月 | 又大又黄又粗又爽的免费视频 | 扒开双腿疯狂进出爽爽爽视频 | 激情综合五月婷婷 | 婷婷激情影院 | 99热2| 久久久久久久久久久爱 | 亚洲国产精品一区二区三区 | 免费毛片在线播放免费 | 久久91精品国产91久久久 | 日韩极品一区 | 亚洲日本va中文字幕 | jizz美女 | 国产毛片一区二区三区 | 国产精品影| 天天做天天爱天天综合网2021 | 99久久婷婷国产综合精品 | 中国第一毛片 | 69国产| 成品片a免费入口麻豆 | 日本少妇翘臀后式gif动态图 | av午夜在线| 99热香蕉| a视频免费观看 | 少妇白浆高潮无码免费区 | 娇小xxxx性开放国产精 | 国产传媒在线播放 | 欧美三级乱人伦电影 | 国产精品普通话 | 麻豆三级在线观看 | 污网在线观看 | 日本丶国产丶欧美色综合 | 中文字幕第10页 | 国产美女在线精品免费观看网址 | av综合久久 | 美女张开腿黄网站免费下载 | 成人三级影院 | 天天干天天干天天干天天 | 日本免费一二三区视频 | 午夜精品久久久久久久99黑人 | 一本一道av无码中文字幕﹣百度 | 一区二区乱子伦在线播放 | 日韩在线观看视频网站 | 亚洲夜色噜噜av在线观看 | 干干操操| 久久久中文网 | 欧美爱爱免费视频 | 精品久久久久久无码免费 | 亚洲国产视频一区 | 91拔萝卜视频| 日韩中文字幕 | 草逼免费视频 | 欧洲自拍偷拍 | 日韩欧美在线观看一区二区 | 污夜影院| 成年人网站免费视频 | 永久免费精品视频 | 国产白丝jk捆绑束缚调教视频 | 久久无码高潮喷水 | 毛片免费全部无码播放 | 在线视频精品中文无码 | 色综合久久久久久 | 精品久久久久久乱码天堂 | 18禁裸乳无遮挡自慰免费动漫 | 51国产偷自视频区免费播放 | 国产精品欧美一区二区三区 | 三女同志亚洲人狂欢 | 深夜精品视频 | 日本黄色免费看 | 中日韩文字幕无线网站2013 | 乱人伦人妻中文字幕无码久久网 | 少妇愉情理伦片高潮日本 | 久久精品无码av | 国产欧美日韩va另类在线播放 | 99热2| 国产对白叫床清晰在线播放图片 | 综合色av| 亚洲黄色在线播放 | 国产偷国产偷亚洲清高网站 | 国产露脸150部国语对白 | 精品人妻系列无码一区二区三区 | 亚洲v欧美v另类v综合v日韩v | 纤纤影视理伦片在线看 | 久热国产区二三四 | 久久这里只有精品首页 | 亚洲成av人在线观看网站 | 日日碰狠狠躁久久躁综合小说 | 91精品综合久久久久久五月天 | 国产精品高潮久久 | yy8男人的天堂 | 亚洲aⅴ天上人间在线观看 亚洲aⅴ在线 | 蜜桃视频成人 | 人人干人人搞 | 法国人性生活xxxx | 国产一区不卡在线 | 亚洲va中文在线播放免费 | 日韩黄色片子 | 超碰人人干 | 免费专区丝袜调教视频 | 人人插人人干 | 欧美亚洲精品在线观看 | 亚洲黄色av | 极品毛片 | 国产成人麻豆精品午夜福利在线 | 日本中文字幕一区二区有码在线 | 六月综合激情 | 爱情岛论坛首页永久入口 | 日韩精品无码一区二区三区 | 国产精品一区二区三区在线 | 国产精品久久久久久亚洲毛片 | 石原莉奈一区二久久影视 | 久久久久亚洲精品 | 中文屏幕乱码av | 中文日韩在线观看 | 欧美黑人粗暴多交高潮水最多 | 国产特级黄色片 | 永久免费a级在线视频 | 免费丰满少妇毛片高清视频 | 亚洲一区二区日本 | 国产老头和老太xxxxx视频 | 国产自产c区 | 国产伦精品一区二区三区 | 精产国品一二三产品99麻豆 | 无码少妇a片一区二区三区 免费无码av片在线观看网站 | 国产女人水真多18毛片18精品 | 范冰冰一级做a爰片久久毛片 | 国产精品igao视频网入口 | 欧美日韩三级 | 91免费在线播放 | 69久久久久 | 韩日精品在线观看 | 先锋影音av资源在线观看 | 久久这里只有 | 久久国产精品大桥未久av | 91美女图片黄在线观看 | 日本精品视频一区 | 久久久久高潮综合影院 | 潮喷大喷水系列无码久久精品 | 国产成人免费观看视频 | 免费国产在线观看 | 亚洲日本人的毛茸茸 | 日日干干 | 国产成人av免费 | 久久久久久久极品内射 | 久久久精品国产免费观看一区二区 | 老色鬼永久精品网站 | 欧美日韩国产精品激情在线播放 | 男女18禁啪啪无遮挡激烈网站 | 色情无码www视频无码区小黄鸭 | 亚洲精品一区二区久 | 四川骚妇无套内射舔了更爽 | 特级西西444www大精品视频免费看 | 无码av中文一区二区三区 | 91久久精品一区二区别 | 88久久精品无码一区二区毛片 | 国产精品一区二区久久国产 | 国产裸体无遮挡免费精品视频 | 国产精品久久久影视青草 | 久久99国产精一区二区三区 | 手机看片日韩国产 | 国产午夜不卡 | 国产欧美精品一区二区三区 | 91精品啪在线观看国产老湿机 | 成人久久久久爱 | 男女日屁视频 | 性生交生活大片1 | 日本激情吻胸吃奶呻吟视频 | 国产粉嫩高中好第一次不戴 | 国产99久一区二区三区a片 | 国产三级精品在线观看 | 亚洲人成小说网站色在线 | 久久精品视频中文字幕 | 日韩精品网| 91久久国产露脸精品国产闺蜜 | 天天操夜夜爽 | 国产在线观看你懂的 | 九色porny自拍视频在线播放 | 欧美一级免费黄色片 | 欧美另类xxx | 日本乱偷人妻中文字幕 | 中文字幕免费观看 | 成人激情片 | 男人av网| 国产亚洲精品岁国产微拍精品 | 人妻少妇精品一区二区三区 | 欧美老妇牲交videos | 黑人性受xxxx黑人xyx性爽 | 免费观看理伦片在线播放 | 91大奶| 四季av一区二区凹凸精品 | 77777熟女视频在线观看 | 国产精强码久久久久影片at | 天天综合亚洲综合网天天αⅴ | 精品国产乱码久久久久久88av | 亚洲欧美日本一区二区三区 | 久久久日韩精品一区二区三区 | 中文字幕妇偷乱视频在线观 | www日韩av| 国产精品女同一区二区软件 | 欧美精品一区二区三区在线 | jzzijzzij亚洲农村妇女 | 天天综合日日夜夜 | 国产精品久久久久久久免费软件 | 国产成人综合在线观看不卡 | 欧美精品一区二区三区蜜桃视频 | 一区二区三区在线免费视频 | 久久av综合 | 亚洲欧美v国产一区二区 | 99久久婷婷国产综合精品免费 | 亚洲中文字幕久久精品无码喷水 | 蜜桃视频黄色 | 国产精品视频500部 国产精品视频99 | 久久免费看少妇高潮a | 日韩在线视频不卡 | 九九热在线视频观看这里只有精品 | 美女久久精品 | 狠狠干快播 | 国产精品伦一区二区在线 | 欧洲亚洲女同hd | 久久久综合婷婷精品国产一区影院 | 国外亚洲成av人片在线观看 | 黄色18网站 | 91青楼传媒秘入口 | 国产浮力第一页 | 97超碰人人澡人人爱学生 | 国产精品成人影院在线观看 | 亚洲欧美另类激情 | av网站地址 | 涩爱av蜜臀夜夜嗨av | 无码国产色欲xxxx视频 | 日剧大尺度床戏做爰 | 日日干日日操 | 一级全黄少妇性色生活片毛片 | 亚洲精品影院 | 人妻在卧室被老板疯狂进入 | 免费在线观看av | 夜夜摸狠狠添日日添高潮出水 | 亚洲h| 欧美日韩综合精品 | 美女黄色一级 | 饥渴少妇激情毛片视频 | 首页 国产 欧美 日韩 丝袜 | 欧美国产精品一区二区三区 | 国产一二三区写真福利视频 | 国产欧美二区 | 91精品国产乱码久久蜜臀 | 插插看| 国产乱人乱精一区二视频国产精品 | 91综合久久 | 99久视频 | 亚洲小视频网站 | 国产成人精品免费视频大全最热 | 日韩福利在线播放 | 欧美成人一区二免费视频小说 | 中文字幕乱码一区二区三区 | 免费在线观看毛片 | 性欧美一级 | 欧美 中文字幕 | 成人区人妻精品一区二区三区 | 欧美 日韩 国产 亚洲 色 | 91精品国产综合久久久久久久久久 | 亚洲日韩aⅴ在线视频 | 四虎国产成人永久精品免费 | 浴室人妻的情欲hd三级国产 | 国产成a人亚洲精品无码久久网 | av一级免费 | 久久综合久久久久 | 天天色影网 | 亚洲成人av在线播放 | 69久久夜色精品国产69 | 日韩精品在线视频免费观看 | 中文字幕av在线一二三区 | 2015www永久免费观看播放 | 成人羞羞国产免费软件 | 伊人青青操| 国产激情91久久精品导航 | 日本中文字幕不卡 | 猫咪www免费人成人入口 | 久久亚洲精品无码va白人极品 | 久久久精品视频免费 | 欧美视频网站www色 精品无码久久久久久久动漫 | 午夜小视频在线观看 | 天天草天天操 | 免费无码又爽又刺激聊天app | 免费无码av片在线观看 | 中文字幕在线2021 | 国产精品主播一区二区 | 国产a级片 | 爱情岛成人| 国产wwwwwww| 欧美性猛交xxxx乱大交 | 无码精品一区二区三区在线 | 日日夜夜干| 好吊妞这里只有精品 | 国产精品区一区二区三含羞草 | 精品久久免费视频 | 伊人狼人综合 | 在线aa| 国精品无码人妻一区二区三区 | 精品成人免费视频 | 亚洲熟妇国产熟妇肥婆 | 国产精品伦一区二区三级视频 | 亚洲精品久久夜色撩人男男小说 | 国产伦精品一区二区三区四区 | 中文字幕av一区二区三区高 | 久久99精品国产麻豆91樱花 | 十八禁无遮挡99精品国产 | 亚洲美女自拍偷拍 | 无码一区二区三区中文字幕 | 欧美乱色伦图片区 | 欧美丰满少妇xxxx性 | 毛片av在线播放 | jav成人av免费播放 | v888aⅴ视频在线播放 | 加勒比中文无码久久综合色 | 三级毛片国产三级毛片 | 国产福利视频 | 国产精品久久久久久亚洲色 | 9999人体做爰大胆视频摄影 | 天天操2018 | 免费 成 人 黄 色 网 | 红桃视频成人 | 日韩中文在线视频 | 欧洲精品视频在线观看 | 九九热在线免费观看 | 亚洲欧美一二三区 | 欧美激情性做爰免费视频 | 欧美高清激情brazzers | 国产精品视频福利 | 伊人九九九有限公司 | 欧洲午夜精品 | 欧美做受高潮中文字幕 | 日韩美女视频一区 | 老牛精品亚洲成av人片 | 国产素人av| 99久久久久久久久久久 | 激情文学av | 欧美激情网 | 日本美女黄色一级片 | 成人乱人伦精品小说 | 国产精品99久久久久久动医院 | 国产偷窥自拍视频 | 成人片黄网站色大片免费观看 | 成人交配视频 | 久久成人激情 | 伊人情人色综合网站 | 沙奈朵狂揉下部羞羞动漫 | 第一福利蓝导航柠檬导航av | 人人射人人 | 本田岬高潮一区二区三区 | 波多野结衣美乳人妻hd电影欧美 | 欧美精品一区二区三区制服首页 | 亚洲精品久久久久久久久久久久久 | 青青草精品 | 黄色变态网站 | 国产熟女一区二区三区五月婷 | av小说区| 欧美特级视频 | 黄色一及片 | 屁屁影院ccyy备用地址 | 日韩精品中文字幕在线观看 | 香蕉人人精品 | 日韩av无码久久一区二区 | 天天草天天摸 | 久久久亚洲精品石原莉奈 | 日本午夜免费福利视频 | 欧美最新精品videossexohd | 成人中文字幕+乱码+中文字幕 | 成人午夜视频在线观看 | 一级aaa毛片| 狐狸视频污| 99999久久久久久亚洲 | 免费不卡av在线 | 亚洲综合资源 | 少妇视频在线观看 | 亚洲欧美高清 | 日韩欧美xxxx | 天天想夜夜爽 | 国模和精品嫩模私拍视频 | 五月色婷婷亚洲精品制服丝袜1区 | 刘亦菲毛片一区二区三区 | 精品视频免费在线观看 | 成人h免费观看视频 | 免费操片 | 一本久道久久 | 日韩视频欧美视频 | 久久99久国产精品黄毛片入口 | 另类激情综合 | 日本特黄特色大片免费视频老年人 | 香蕉福利视频 | 亚洲香蕉av| 国产精品一区二区三区在线看 | 天天做天天爱天天综合网2021 | 亚洲综合在线中文字幕 | 噼里啪啦国语版在线观看 | 国产最新进精品视频 | 久久久无码精品亚洲日韩按摩 | 免费日韩一区 | 男生女生操操操 | 二级黄色毛片 | 日韩avav| 99视频精品| 日韩精品资源 | 97超碰伊人| 亚洲美女在线播放 | 久久久久99 | 精品不卡一区二区 | 亚洲精品影院 | 欧美精品成人一区二区三区四区 | 国产中文网 | 免费一本色道久久一区 | 91激情视频在线观看 | 亚洲欧美日韩在线一区 | 国产真实夫妇视频 | 国产免费久久精品 | 免费观看激色视频网站 | 色播久久 | 日日干天天爽 | xvideos.蜜桃一区二区 | 特黄 做受又硬又粗又大视频 | 五月婷婷丁香花 | 久久肉色丝袜脚交 | 久草视频在线看 | 又黄又爽又无遮挡免费的网站 | 在线免费观看网站入口在哪 | 97综合网| 四虎av影视| 欧美人与动性xxxxx杂 | 久久一视频 | 久久久久久国产精品免费播放 | 深夜成人在线观看 | 欧美在线三区 | 久久久久久久国产精品美女 | 成人羞羞网站 | 18禁裸男晨勃露j毛免费观看 | 成人国产精品入麻豆 | 国产女人与zoxxxx另类 | 三级网站在线播放 | 国产亚洲影院 | 亚州毛片 | 国产精品一区二区免费视频 | 暴力强奷美女孕妇视频 | 大尺度一区二区 | 国产v亚洲v天堂无码 | 国产情侣一区二区 | 久久久亚洲精品视频 | 久久久久久久久久一毛喷水 | 欧美极品在线观看 | yy111111少妇影院无码 | 极品美女扒开粉嫩小泬 | 国产精品永久 | 亚洲综合精品第一页 | 欧美高h | 国产素人在线 | 五月天在线播放 | 亚洲三级图片 | 国产精品久久国产 | 无码中文av有码中文a | 国产真实伦视频 | 久久国产精品偷任你爽任你 | 久久久久成人精品免费播放动漫 | 中文字幕在线观看第一页 | 天天想天天干 | 亚洲人成网网址在线看 | 色噜噜狠狠一区 | 日日橹狠狠爱欧美视频 | 最近中文2019字幕第二页 | 国产femdom调教557 | 每日av更新| 精品欧美一区二区三区在线观看 | 久久爽精品区穿丝袜 | 香蕉精品视频在线观看 | 五十路熟妇高熟无码视频 | 精品国产鲁一鲁一区二区三区 | 日本加勒比中文字幕 | 国产亚洲精品久久久优势 | 久久人搡人人玩人妻精品首页 | 高h喷水荡肉少妇爽多p视频 | 日韩欧美不卡 | 成人一区av偷拍 | 国产精品天天狠天天看 | 国产femdom调教7777 | 欧美韩日一区二区 | 久久不见久久见免费影院www日本 | 激情六月综合 | 24小时日本在线www免费的 | 九九精品99久久久香蕉 | 久久综合久久自在自线精品自 | 91精品国产入口在线 | 福利片一区二区三区 | 成人福利视频在 | a毛片网站| 永久免费d站视频 | 国产免费黄色网址 | 国产日本精品 | 成人激情开心 | 秋霞一级黄色片 | 97欧美一乱一性一交一视频 | 无套内谢的新婚少妇国语播放 | www.欧美| 成人午夜av国产传媒 | 九九九网站 | 日本aⅴ写真网站 | аⅴ资源中文在线天堂 | 狠狠干2022 | 国产三级精品三级 | 日日碰狠狠躁久久躁蜜桃 | 久精品在线观看 | 中文字幕在线播放第一页 | 意大利少妇愉情理伦片 | 无码人妻精品一区二区在线视频 | 久久久男人的天堂 | 亚洲欧美日韩一级 | 在线观看a级片 | 少妇一级淫片免费播放 | 日韩 欧美 精品 | 亚色在线观看 | 久久欧| 无码视频一区二区三区 | 中国性xxx | 欧美性白人极品hd | 国产精品久久国产精麻豆96堂 | 久成人| cosplay福利禁视频免费观看 | av永久免费观看 | 岳狂躁岳丰满少妇大叫 | 一本一本久久a久久精品综合小说 | 日韩制服在线 | 大又大粗又爽又黄少妇毛片 | 国产猛男猛女超爽免费视频 | 精品爆乳一区二区三区无码av | 久久久久久久久久久久久久久 | 色综合另类小说图片区 | 波多野结衣办公室双飞 | 在线观看岛国av | 欧美激情日韩 | 日本少妇做爰xxxⅹ漫 | 欧美乱妇视频 | 久久夜色精品国产噜噜麻豆 | 欧美精品自拍视频 | 亚洲综合a | 阿v免费视频 | 婷婷开心激情综合五月天 | 亚洲美女偷拍 | 免费黄色91 | 大学生女人三级在线播放 | 色欲天天婬色婬香综合网 | 一级特色大黄美女播放 | 久久密桃| 国产精品自产拍在线观看 | 国产性生交xxxxx无码 | 亚洲性影院 | 精品国产aⅴ一区二区三区 精品国产va久久久久久久 | 劲爆欧美第一页 | 亚洲免费视频观看 | 欧美午夜视频 | 国产视频xxx | 日韩精品中文字幕一区二区 | 在线精品小视频 | 色屋永久 | 绯色av一区二区三区在线观看 | 农村女人乱淫免费视频麻豆 | 日批在线 | 精品久久久久久无码人妻 | 国产一区二区av在线 | 久久亚洲私人国产精品 | 国产男女激情 | 欧美日韩中文字幕视频 | 亚洲淫欲 | 精品中文字幕一区二区 | 有码在线播放 | 9l视频自拍九色9l视频大全 | 艹逼久久| 亚洲成人av免费在线观看 | 91黄色免费 | 啪啪在线观看 | 日韩欧美在线综合网另类 | 亚洲黄色一级网站 | 欧美69式性猛交 | 天天综合一区 | 一本大道卡一卡二卡三乱码全集资源 | 欧洲精品码一区二区三区 | 亚洲在线视频免费观看 | 色com| 成人无码在线视频网站 | 精品丰满人妻无套内射 | 精品国产精品三级精品av网址 | 国产一区视频在线观看免费 | 中文字幕久久av | 这里只有精品视频在线 | 日本熟妇ⅹxx毛片分类 | 亚洲精品一区二区三区99 | 国产一区视频在线免费观看 | 成人无码av片在线观看 | 亚洲精品久 | 草碰在线视频 | 日韩成人专区 | 在线看黄网址 | 国产精品理论片 | 欧美一区二区三区四区五区 | 国产av无码久久精品 | 狠狠色狠狠色综合 | 综合色爱 | 国产在线午夜卡精品影院 | 香蕉视频网页 | 女同理伦片在线观看禁男之园 | 欧美日韩精品国产 | 少妇光屁股影院 | 色羞羞 | 日韩精品中文字幕久久臀 | 人人爽日日躁夜夜躁尤物 | 91久久综合亚洲鲁鲁五月天 | 国产原创视频在线观看 |