日本少妇高潮喷水xxxxxxx_久久综合久久网_亚洲综合男人的天堂_国产一区二区三区四区二区

二維碼
企資網

掃一掃關注

當前位置: 首頁 » 企業(yè)資訊 » 資訊 » 正文

微軟發(fā)布史上最大NLG模型基于Transformer架構,170億參數加持

放大字體  縮小字體 發(fā)布日期:2020-02-11 19:56:51    瀏覽次數:150
導讀

發(fā)布史上最大NLG模型:基于Transformer架構,170億參數加持近年來,BERT、GPT-2等深度學習語言模型,極大地提高了問答、摘要、人機對話等下游自然語言處理任務的性能。而今天,微軟研究院

發(fā)布史上最大NLG模型:基于Transformer架構,170億參數加持

近年來,BERT、GPT-2等深度學習語言模型,極大地提高了問答、摘要、人機對話等下游自然語言處理任務的性能。

而今天,微軟研究院重磅發(fā)布了有史以來最大的基于Transformer架構的語言生成模型 Turing-NLG。此模型的參數高達170億,是英偉達的Megatron(也就是現在第二大Transformer模型)的兩倍,是OpenAI的GPT-2的十倍。

基于Transformer的架構,意味著該模型可以生成詞來完成開放式文本任務。除了填充不完整語句外,它還可以對輸入文檔的問題和摘要生成答案。

而微軟之所以能夠開發(fā)出 Turing-NLG 這一重磅級的語言生成模型,實際上離不開其差不多同一時間開源的深度學習庫——DeepSpeed。

微軟表示,DeepSpeed 能夠讓他們降低模型并行度(從16降低到4),將每個節(jié)點的批處理大小增加4倍,并將訓練時間減少到原來的1/3。不僅如此,DeepSpeed 使用更少的GPU 就可以提高大型模型的訓練效率。

一、Turing-NLG:自帶170億參數,性能超其他最佳模型

Turing-NLG 一個基于Transformer的生成語言模型,擁有 170億參數,在諸多語言模型基準上都超越了當前性能最佳的其他模型,并且在應用于問答、摘要等實踐任務時,表現出色。此前的問答和摘要系統依賴于從文檔中提取現有的內容作為生成答案和摘要的“立足點”,這樣生成的結果往往是不自然且不連貫的。而Turing-NLG 則能夠非常自然地完成問答和摘要任務。

1、開發(fā)Turing-NLG 所依賴的硬件和軟件突破

實際上,參數超過 13億的任何模型都無法裝入單個的GPU(即便是內存為 32 GB),因而模型本身需要在多個 GPU 上實現并行化。

據微軟介紹,訓練 Turing-NLG 模型主要基于硬件和軟件實現的以下幾個突破:

第一,他們使用了NVIDIA 新一代超級計算機 DGX-2的硬件配置,結合InfiniBand連接技術,從而讓GPU 之間的通信比此前更迅速得多。

第二,他們在 NVIDIA的 Megatron-LM 框架上應用 Tensor切片對橫跨 4 個 NVIDIA V100 GPU 的模型進行切片處理;

第三,ZeRO 優(yōu)化器和DeepSpeed庫,則讓他們降低了模型的并行度(從16降到4 ),將每個節(jié)點的批處理大小增加了4倍,并將訓練時間減少到原來的1/3。

并且,DeepSpeed 使用更少的GPU 就可以提高大型模型的訓練效率,它在訓練大小為 512 的批處理時僅需要256個NVIDIA的 GPU,而僅使用Megatron-LM 框架的模型則需要1024個NVIDIA的 GPU。

相同條件設置下,Turing-NLG 模型和Open AI 的GPT-2 、Megatron-LM 模型在標準語言任務上的性能指標——WikiText-103 困惑度(越低性能越好)、LAMBADA 下一個詞的預測準確度(越高性能越好)的對比情況如下表:

Open AI 使用了額外的處理(停用詞過濾)讓 GPT-2 實現了更好的表現,而Turing-NLG 和Megatron-LM 模型都沒有使用到該停用詞過濾技術。無論在WikiText-103 困惑度上還是在LAMBADA 下一個詞的預測準確度上,Turing-NLG 模型的表現都優(yōu)于Open AI GPT-2和Megatron-LM 模型。而下圖則展示了Turing-NLG模型(藍線和綠線)和Megatron-LM 模型(橙線)在驗證困惑度上的表現對比情況:

(雷鋒網出品)圖1:Turing-NLG 17B 模型(藍線和綠線)和Megatron-8B 模型(橙線)在驗證困惑度上的對比圖。虛線表示當前性能最佳模型實現的最低驗證損失。圖中從藍線到綠色的轉換,代表 Turing-NLG 模型的性能從弱于當前性能最佳模型到超越當前性能最佳模型的轉變。據圖顯示,Turing-NLG 模型在驗證困惑度上的表現也始終要比Megatron-LM 模型要好。

2、Turing-NLG 在問答和摘要任務上實現的兩大突破

在問答和摘要任務上,Turing-NLG 分別實現了兩個方面的突破:

1)實現了直接生成問答或在零樣本下生成問答的能力很多網絡用戶在網頁上搜索問題的時候,往往會在答案頁面的頂部看到一張答案卡片,而這些答案大多為某個段落上下文中可以回答問題的句子。

Turing-NLG 則可以直接回答用戶的問題,從而滿足他們的信息搜索需求。例如,當用戶搜索“Jason Mraz 與誰訂婚了?”時,大多數搜索引擎在展示完整的答案頁面時,會突出顯示“Tristan Prettyman”這個名字,如下圖所示:

而Turing-NLG則會直接用一個完整的句子:“Jason Mraz 與Tristan Prettyman訂婚了”。

在網頁搜索以外的應用場景中,這種直接生成回答的能力還要更加重要,例如,當用戶詢問其個人輸入(如電子郵箱或Word 文檔)時,這種能力能夠讓 AI 助手智能化地對此問題進行回復,更加自然而不顯得突兀。Turing-NLG 模型還擁有“零樣本”問答的能力,也就是說能夠在沒有上下文段落的情況下,回答問題。下圖展示了該模型在沒有給出段落的情況下直接回答問題的兩個案例:

(雷鋒網出品)

在該情況下,Turing-NLG 模型依賴預訓練期間所獲得的知識,生成了最終的答案。下圖展示了Turing-NLG 模型和此前的基準系統(類似于CopyNet的 LSTM模型)在事實正確性(Factual Correctness)和語法正確性(Grammatical Correctness)兩項指標上的對比情況:

微軟研究者發(fā)現,大型的預訓練模型需要更少下游任務的示例來更好地對其進行學習,而他們僅僅只有最多100,000 個“直接”回答問題的樣本,并且模型訓練的示例也非常少,在這樣的情況下,Turing-NLG 模型無論在事實正確性(Factual Correctness)和語法正確性(Grammatical Correctness)上,都比 LSTM 基準模型的表現更好。

2)能夠在更少的監(jiān)督下生成抽象式摘要在自然語言處理的文獻中,摘要分為兩種:提取式摘要:從文檔中提取出少量的句子作為摘要內容;抽象式摘要:使用 NLG 模型生成摘要,就像人類做摘要的方式一樣。而Turing-NLG模型則旨在像人類一樣,為電子郵件、博客文章、Word 文檔甚至是Excel 表格和PPT 演示等各種各樣的文本文檔“編寫”抽象式摘要。

其中一個主要的挑戰(zhàn)便是缺少面向這些場景的有監(jiān)督的訓練數據,因為人類并不總會明確地對這些文檔類型做摘要處理。而 Turing-NLG 的強大之處則在于,它非常擅長理解文本,以至于不需要太多的監(jiān)督就能夠比其他摘要技術,表現更好。

為了讓Turing-NLG 盡可能廣泛地為不同類型的文本生成摘要,研究者們還在幾乎所有對外開放的摘要數據集上,采用多任務模式對Turing-NLG模型進行了微調。下圖展示了 Turing-NLG 模型和 PEGASUS(同樣為最近新提出的基于Transformer的語言模型)、SOTA(先前性能最佳的語言模型)在 ROUGE評價指標上的對比情況:

其中需要注意的是,Turing-NLG 采用多任務模式進行了訓練,即在所有數據集上進行了同步訓練。而眾所周知,ROUGE評價指標在摘要任務方面存在一定的缺陷,因而在下表中展示了Turing-NLG 模型對一些公開文章輸出的摘要內容以供參考:

二、ZeRO DeepSpeed:優(yōu)化器+深度學習庫助力大模型訓練

正如上所述,Turing-NLG是建立在ZeRO 優(yōu)化器和DeepSpeed庫基礎上開發(fā)出來的。DeepSpeed作為微軟最新發(fā)布的深度學習開源庫,能夠提高模型訓練的速度、成本以及可用性。更為重要的是,最新發(fā)布的DeepSpeed解鎖了其訓練1000億參數模型的能力,雖然不是超參數的數量,但是在大規(guī)模數據訓練領域也算是首屈一指了。

DeepSpeed與PyTorch兼容,里面內嵌ZeRO并行優(yōu)化器,利用這個優(yōu)化器,可以大大減少模型和數據并行性所需的資源,同時可以大幅度增加可訓練的參數數量。具體而言,零冗余優(yōu)化器(Zero Redundancy Optimizer,簡稱Zero)是一種面向大規(guī)模分布式深度學習的新型存儲優(yōu)化技術。其可以在當前一代GPU集群上訓練1000億個參數的深度學習模型,吞吐量大概是當前最棒系統的3到5倍。

1、使用ZeRO克服數據并行性和模型并行性的局限性

論文已發(fā)布,地址:https://arxiv.org/pdf/1910.02054.pdf

毋庸置疑,大型的深度學習模型可以顯著提高準確度,但是直接訓練數帶有十億參數的模型,硬件往往受不了。為了解決這種硬件內存問題,通常的解決方案是兼顧計算資源、效率,但是往往卻有以下兩點限制:

數據的并行性對節(jié)約設備的內存起不到什么作用:即使32G的GUP,在面對10億個參數的模型也束手無策。

由于細粒度并行計算和通信昂貴,模型并行不能有效地擴展到單個節(jié)點之外。

但是,使用ZeRO可以克服數據并行性和模型并行性的局限。ZeRO通過跨數據并行進程劃分模型狀態(tài)(參數,梯度和優(yōu)化器狀態(tài)),在一定程度上能夠消除數據并行進程之間的內存冗余。ZeRO還能夠在模型訓練期間動態(tài)規(guī)劃通信,保證了分布式設備之間共享必要的狀態(tài),從而保持數據粒度的計算和通信量。換句話說ZeRO允許每個設備的內存使用量隨數據并行性的程度而進行線性擴展,也即只要聚合的設備內存足夠大,ZeRO支持的數據并行性可以“拿下”任意大小的模型。

ZeRO主要有三個優(yōu)化階段,如下圖所示分,這三個階段別是:優(yōu)化器狀態(tài)、梯度和參數的劃分。

圖注:與標準數據并行基準相比,ZeRO的三個階段節(jié)省的內存和通信量。其中Ψ表示模型中參數的數量,K是優(yōu)化器特定的常數項。

更為具體的:優(yōu)化器狀態(tài)分區(qū)(Pos)階段內存降低到了原來的1/4;增加梯度分區(qū)((Pos+g)階段內存減少到原來的1/8,此外。通信量與數據并行度相同;添加參數分區(qū)階段內存減少量與數據并行度Nd成線性關系。啟用上述所有個階段后,使用ZeRO就可以用1024個 NVIDIA 型號的GPU 上訓練一個萬億參數模型。

如果使用具16位精度的Adam來訓練一個萬億參數級別的模型大概需要16TB的內存才能讓優(yōu)化器保持訓練狀態(tài)。16TB除以1024等于16GB,還好在GPU內存的合理范圍。

2、DeepSpeed:PyTorch兼容性和系統性能

前面也提到,最先發(fā)布DeepSpeed能夠與PyTorch兼容,并且引入的輕量級API 包含最新的訓練技術,例如ZeRO,分布式訓練,混合精度等等。在操作層面上,只需對PyTorch模型進行簡單的幾行代碼更改,就可以利用DeepSpeed提高模型訓練的速度和規(guī)模。

左圖:與Megatron-LM相比吞吐量的程度。右圖:使用和不使用ZeRO時,對于單獨使用數據并行性的可訓練模型大小比較。

如上圖所示,DeepSpeed在規(guī)模、 速度、成本、 可用性這四個方面標新都非常出色。

規(guī)模:當前最先進的大規(guī)模訓練,例如OpenAI GPT-2,NVIDIA Megatron-LM和Google T5,其大小也就分別是15億、83億和110億個參數。而有ZeRO加持的DeepSpeed能夠運行1000億個參數。

速度:現有的吞吐量比當前最先進的技術都要高出5倍。例如為了能夠在GPT系列有效訓練模型,DeepSpeed將ZeRO功率(ZeRO-powered)數據并行與NVIDIA Megatron-LM模型并行相結合。另外,在具有低帶寬互連的NVIDIA GPU群集上,對具有15億參數的標準GPT-2模型,與單獨使用Megatron-LM相比,吞吐量提高了3.75倍。這種速度的提高與DeepSpeed更高的內存效率以及使用較低程度的模型并行有關,當然較大的批處理量也在提高吞吐量的工作中做了貢獻。

成本:提高吞吐量的同時,對訓練成本的節(jié)約也是非常大的。例如,要訓練具有200億個參數的模型,傳統則比DeepSpeed需要的資源多3倍。

可用性:只需更改幾行代碼就可在PyTorch模型中使用DeepSpeed和ZeRO。也就是說與當前的模型并行性庫相比,DeepSpeed不需要重新設計代碼或重構模型,即使對于參數多達60億的模型,也可以方便地使用ZeRO提供支持的數據并行性。

綜上所述,ZeRO-OS與不同類型的模型并行性互補并兼容,對于不適合單個節(jié)點的大型模型,它能夠顯著提升性能,節(jié)省資源等等優(yōu)點。

三、Reddit 評價:褒貶不一

正如文章開頭所稱,微軟DeepSpeed中利用ZeRO-OS來訓練一個170億參數的Turing-NLG模型,訓練結果表明其準確性和訓練效率高于當前的最新方法。

與單獨使用NVIDIA Megatron-LM相比,ZeRO-OS能夠大量節(jié)省內存,并使Turning-NLG模型的模型并行度降低到原來1/4,批處理量增大4倍,吞吐量增長3倍。

至于這自帶170億參數的Turing-NLG模型,也在社交媒體上引起了不少討論,Reddit的“r/MachineLearning”版面中,僅僅10個小時,相關話題熱度已經達到了216,70多人發(fā)表了看法。

討論頁面:https://reddit/r/MachineLearning/comments/f1tuv0/r_turingnlg_a_17billionparameter_language_model/

跟帖最高的一條評論是這樣說的:幸好是170億個參數,而不是170億個超參數。當前最智能的機器有著超過100萬億的參數(他這里說的是人類),并不否認效率也很重要,但是在資金充足的情況下,參數多一些并沒有什么錯呀。

針對這條評論,也有人回應說,這種比較沒有意義,想想神經元之間的質量差異,尤其是最新研究單表明,單個人類神經元也可以異或運算,這就相當于2層人工神經網絡了。

也有評論將討論引入了復雜的生物學:人類神經元是其數千個突觸的復雜網絡。合理地說,突觸與NN參數可比約為1:1,而神經元與NN神經元可比約為1:1,因為在NN中,需要一小束“神經元”才能達到復雜性。

吃瓜群眾質疑道:提起圖靈,我就想起了“營銷”,

吃瓜群眾質疑道:提起圖靈,我就想起了“營銷”,

當然,也有更加專業(yè)的討論:知道添加多少個參數之后,下一步怎么辦?

這條消息的發(fā)布者指出了這項工作的不足:是否有足夠的VRAM在單個GPU上運行模型仍然沒有解決。

也有網友提到了碳排放:更多的參數意味著更多的碳消耗。那么,你對此模型有何看法?~~~

 
(文/小編)
免責聲明
本文僅代表作發(fā)布者:個人觀點,本站未對其內容進行核實,請讀者僅做參考,如若文中涉及有違公德、觸犯法律的內容,一經發(fā)現,立即刪除,需自行承擔相應責任。涉及到版權或其他問題,請及時聯系我們刪除處理郵件:weilaitui@qq.com。
 

Copyright ? 2016 - 2025 - 企資網 48903.COM All Rights Reserved 粵公網安備 44030702000589號

粵ICP備16078936號

微信

關注
微信

微信二維碼

WAP二維碼

客服

聯系
客服

聯系客服:

在線QQ: 303377504

客服電話: 020-82301567

E_mail郵箱: weilaitui@qq.com

微信公眾號: weishitui

客服001 客服002 客服003

工作時間:

周一至周五: 09:00 - 18:00

反饋

用戶
反饋

日本少妇高潮喷水xxxxxxx_久久综合久久网_亚洲综合男人的天堂_国产一区二区三区四区二区
av资源站久久亚洲| 亚洲精品久久久一区二区三区 | 精品欧美激情精品一区| 欧美成人免费高清视频| 欧美经典一区二区| 男人天堂av片| 国产校园另类小说区| 熟女视频一区二区三区| 91免费观看视频在线| 国产激情在线看| 久久久国产午夜精品| 国产成人久久精品| 日韩成人久久| 亚洲日本欧美日韩高观看| 色狠狠一区二区三区| 亚洲精品丝袜日韩| 亚洲大奶少妇| 欧美国产一区二区三区| 爽成人777777婷婷| 国产精品激情自拍| 久久国产直播| 日本一区二区三区视频免费看| 国产精品一区一区| 狠狠噜天天噜日日噜| 国产精品乱码妇女bbbb| 色婷婷一区二区三区av免费看| 精品久久久久久中文字幕大豆网| 日本50路肥熟bbw| 在线成人高清不卡| 性欧美疯狂猛交69hd| 一区二区三区视频在线| 校花撩起jk露出白色内裤国产精品| 久久久久久久香蕉网| 欧美国产免费| 久久国产精品 国产精品| 成人美女视频在线观看18| 青青在线免费观看| 亚洲成av人影院| 人人人妻人人澡人人爽欧美一区| 亚洲精品久久久久久久久| 老司机精品视频在线播放| 欧美最猛性xxxxx免费| 午夜一区不卡| 亚洲欧洲日韩综合二区| 18涩涩午夜精品.www| 美女日批在线观看| 日韩精品免费视频| 黄色不卡一区| 国产精品视频福利| 26uuu欧美日本| 女人扒开腿免费视频app| 欧美成人一区二区三区片免费| caoporn成人| 国产精品视频自在线| 国产麻豆成人精品| 亚洲精品高清无码视频| 91精品国产品国语在线不卡| 东京久久高清| 成人在线中文字幕| 成人av第一页| 成人免费视频网| 国产白丝网站精品污在线入口| 亚洲少妇第一页| 日韩精品在线网站| 青青草成人影院| 精品卡一卡二| 亚洲伦理在线精品| 女人十八毛片嫩草av| 久久久久久久激情视频| 日韩不卡在线观看日韩不卡视频| 草草久久久无码国产专区| 欧美精品第1页| 国产一区二区三区四区二区| 国内成+人亚洲| 国产精品久久久久永久免费观看| 91中文字幕永久在线| 97avcom| 国产一区二区三区免费| 久久综合在线观看| 日韩视频免费中文字幕| 日韩福利电影在线| 国产高清视频网站| 中文字幕亚洲综合久久| 久久午夜视频| 久久综合伊人77777麻豆最新章节| 亚洲电影天堂av| 在线观看日韩av电影| 青娱乐自拍偷拍| 精品少妇一区二区三区在线视频| 91综合网人人| www插插插无码视频网站| 国产精品一区二区免费不卡| 999热精品视频| 美女国内精品自产拍在线播放| 久久激情五月激情| 免费看三级黄色片| 97精品一区二区视频在线观看| 精品一区二区成人精品| 深夜福利网站在线观看| 久久久这里只有精品视频| 高清成人在线观看| 2019男人天堂| 亚洲一区二区中文字幕| 亚洲一区二区三区四区的| 第一区第二区在线| 小说区图片区图片区另类灬| 欧美人与z0zoxxxx视频| 欧美在线观看天堂一区二区三区| 黄色激情在线视频| 亚洲欧美另类中文字幕| 精品一区二区免费| 亚洲第一视频区| 亚洲精品免费一区二区三区| 亚洲444eee在线观看| 日韩久久视频| 给我免费播放片在线观看| 影音先锋欧美精品| 粉嫩av亚洲一区二区图片| 青青青视频在线播放| 成人动漫视频在线观看免费| 欧美亚洲一区二区三区四区| 欧美一区精品| av噜噜在线观看| 欧美一级视频一区二区| 亚洲精品视频在线观看免费| 成人在线免费观看视频| 欧美精品无码一区二区三区| 高清一区二区三区日本久| 国产精品福利一区二区三区| 亚洲人成伊人成综合图片| 97视频久久久| 久久久久中文字幕2018| 亚洲欧洲综合另类在线| 国产亚洲一卡2卡3卡4卡新区 | 欧美 国产 精品| 国产婷婷色综合av蜜臀av| 成人午夜视频网站| 亚洲综合色婷婷在线观看| av动漫在线播放| 久久97精品久久久久久久不卡| 久久久久免费观看| 你懂的一区二区三区| 成年人小视频网站| 国产ts人妖一区二区三区 | 欧美亚洲动漫精品| 亚洲综合国产| 国产探花视频在线播放| 亚洲欧洲精品一区二区三区波多野1战4 | 国产性做久久久久久| 国产一区网站| 天堂av手机在线| 成人中心免费视频| 日韩精品自拍偷拍| 2024国产精品视频| 欧美午夜精品一区二区三区电影| 亚洲精品20p| 3d动漫精品啪啪一区二区三区免费 | 欧美不卡福利| 亚洲四色影视在线观看| 国产片一区二区| 欧美独立站高清久久| 黑人玩弄人妻一区二区三区| 精品国产一区二区三区久久久久久 | 国产精品久久久久久av公交车| 日韩亚洲欧美视频| 日韩av电影院| 91精品国产一区二区三区香蕉 | 欧美激情综合五月色丁香小说| 成人激情电影在线| 加勒比精品视频| 亚洲欧美久久久久一区二区三区| 久久久国产一区二区三区| 香蕉久久一区二区不卡无毒影院 | 99tv成人影院| 日韩中文字幕免费在线| 91精品视频网站| 日韩精品免费在线| 综合久久国产九一剧情麻豆| 国产精品美女| 日韩免费一级| 肉色超薄丝袜脚交| 日本在线视频不卡| 午夜精品视频在线| 欧美一区二区三区免费观看视频| 久久奇米777| 欧美国产专区| 欧美性www| 亚洲欧美自拍另类日韩| 国产精品国产三级欧美二区| www.日韩不卡电影av| 色悠悠久久综合| 成人福利在线看| 欧美激情精品久久久六区热门| 日韩影院一区二区| 亚洲精品第三页| 午夜精品区一区二区三| 国产成人一区二| 亚洲精品久久久久中文字幕欢迎你| 夜夜嗨av一区二区三区网页 | 国产精品久久久久久久久借妻| 亚洲娇小xxxx欧美娇小| 午夜精品久久久久久久| 丁香婷婷综合色啪| 国产精品红桃| 国产精品对白| 久久国产柳州莫菁门| 黄色三级视频在线| 亚洲不卡1区| 国产精品一久久香蕉国产线看观看 | 中文字幕av一区二区三区人| 亚洲一二三精品| 国产精品自产拍在线观看| 亚洲日本欧美中文幕| 色综合久久综合网97色综合| 久久久久国色av免费看影院| 日韩和欧美一区二区三区| 国内精品伊人久久久| 美女的奶胸大爽爽大片| 亚洲av成人精品一区二区三区| 欧美精品卡一卡二| 欧美激情第六页| 国产精品青青在线观看爽香蕉| 久久九九国产精品怡红院| 91精品国产91久久综合桃花| 亚洲超碰精品一区二区| 久久久99精品免费观看| 国产精品综合一区二区三区| 亚洲日本激情| 成人在线免费观看网站| 99re91这里只有精品| 中文字幕91视频| 少妇极品熟妇人妻无码| 男人舔女人下面高潮视频| 亚洲国产精品女人| 你懂的网址一区二区三区| 国产精品自拍偷拍视频| 韩国精品久久久999| 在线成人激情黄色| 99久久久免费精品国产一区二区| 午夜亚洲影视| 国内精品久久久久国产盗摄免费观看完整版 | 国产网站无遮挡| 污污的视频免费| 各处沟厕大尺度偷拍女厕嘘嘘| 国产av不卡一区二区| 欧美日韩国产综合视频在线| 亚洲伊人第一页| 成人a免费视频| 国产成人精品日本亚洲| 97超级碰碰人国产在线观看| 欧美激情第1页| 欧美久久久精品| 精品国产一区二区三区久久久狼 | 五月婷婷综合在线观看| 精品无码av一区二区三区不卡| 亚洲欧洲日本精品| 国产高清视频网站| 杨幂毛片午夜性生毛片 | 日韩在线麻豆| 亚洲一级大片| 亚洲欧美日本国产| 亚洲伊人精品酒店| 亚洲精品tv| 成人国产精品一区二区网站| 狠狠干视频网站| 国产欧美综合一区| 日韩一级片一区二区| 干日本少妇视频| 性高湖久久久久久久久aaaaa| 强伦女教师2:伦理在线观看| 久久视频免费在线| 成人午夜视频在线观看免费| 激情小视频网站| 777久久久精品一区二区三区| 国产在线精品91| 玩弄japan白嫩少妇hd| 亚洲综合欧美激情| 中文字幕在线播放一区二区| 香蕉视频污视频| caopeng视频| 三级黄色在线观看| 欧美日韩破处视频| 波多野结衣一区二区三区免费视频| 国产精品中文字幕制服诱惑| 欧美精品系列| 欧美日本二区| 久久精品成人| 久久91精品国产91久久小草| 成人一级片在线观看| 久久精品一区四区| 亚洲一级片在线观看| 欧美色窝79yyyycom| 日韩视频免费观看高清完整版 | 91成人免费观看网站| 国产精品欧美一区二区| 国产视频在线观看一区| 亚洲一区二区三区精品在线观看| 经典三级在线视频| 国产福利一区视频| 免费看的av网站| 欧美丰满美乳xxⅹ高潮www| 999久久久国产999久久久| 美女网站色精品尤物极品姐弟| 成人影视亚洲图片在线| 亚洲黄色毛片| 福利一区二区在线| 日韩毛片精品高清免费| 在线视频中文字幕一区二区| 亚洲第一视频网站| 久久久这里只有精品视频| 91欧美日韩一区| 一区二区三区免费看| 冲田杏梨av在线| 国产三级av在线播放| 亚洲国产欧美在线观看| 一区二区影院| 国产一区二区电影| 综合色天天鬼久久鬼色| 欧美日韩精品一区二区三区| 在线日韩日本国产亚洲| 国产精品久久电影观看| 日本精品一区二区| 日韩免费在线视频| 麻豆精品视频| 免费在线观看的毛片| 国内精品卡一卡二卡三| 国产99亚洲| 日韩在线观看一区二区| 欧美国产一区二区在线观看| 在线观看av不卡| 中文字幕精品一区久久久久| 成人免费在线视频网站| 日韩精品第1页| www.黄色网| 国产精品网在线观看| 亚洲女同同性videoxma| 欧美极品aⅴ影院| 制服丝袜国产精品| 久久久视频精品| 久久涩涩网站| 最新免费av网址| 中文字幕成人| 最新国产拍偷乱拍精品| 26uuuu精品一区二区| 欧美日韩国产欧美日美国产精品| 欧美成人精品h版在线观看| 国产日本一区二区三区| 能在线观看的av| www.com.av| 伊人狠狠色j香婷婷综合| 久久久.com| 日韩精品一区二区在线| 国产精品极品在线| 日本人体一区二区| 国产精品久久国产精麻豆96堂| 天堂美国久久| 国产日韩综合av| 欧美精品一区二区在线播放| 国产精品美女在线观看| 国产69精品久久久久久久| 51精品免费网站| 国产亚洲在线观看| 亚洲第一激情av| 久久av在线看| 国产精品av免费| 先锋影音av在线| 亚洲激情影院| 亚洲综合999| 久99九色视频在线观看| 亚洲欧美久久234| 五月婷婷婷婷婷| 一区二区日本视频| 一区二区在线看| 久久精品中文字幕免费mv| 亚洲mv在线看| 一二三四国产精品| 亚洲在线一区| 色哟哟一区二区三区| 欧美在线一级va免费观看| 免费观看美女裸体网站| 免费精品一区二区三区在线观看| 麻豆91在线播放| 日韩一区二区视频在线观看| 成人伊人精品色xxxx视频| 手机精品视频在线| 99久久综合| 亚洲视频中文字幕| 欧美二区在线播放| 韩日视频在线观看| 激情亚洲另类图片区小说区| 99久久久无码国产精品| 一区二区在线视频| 国产一二三四五| 精品国产亚洲日本| 99精品久久久久久| 亚洲欧美色婷婷| 国产成人精品免费看在线播放 | 妺妺窝人体色www在线小说| 日韩欧美美女在线观看| 欧美国产成人精品|