前沿拓展:
win10虛擬jpg
很多用戶反映,Win10系統(tǒng)在最近的更新后,開機(jī)變得很慢,動(dòng)不動(dòng)就要30幾秒,簡(jiǎn)直就要回到5年前了。那么有沒(méi)有什么辦法可以解決更新后Win10開機(jī)慢的問(wèn)題呢?
1.jpg
方法一
失象宣1、按快捷鍵“win+R” 打開 運(yùn)行窗口
2、這時(shí)候輸入“msconfig”后 ,點(diǎn)擊“確定”或者按“ENTE管看R”鍵
3、這時(shí)候會(huì)打開一個(gè)名為“系統(tǒng)配置”的窗口,在“常字八嗎間京規(guī)”選項(xiàng)框下 勾選“有法影危研請(qǐng)嚴(yán)鎮(zhèn)選擇的啟動(dòng)”下的“加載系統(tǒng)服務(wù)”和“加載啟動(dòng)項(xiàng)”
4、后依次點(diǎn)擊“引導(dǎo)——高級(jí)選項(xiàng)“在”引導(dǎo)高級(jí)選項(xiàng)“窗口勾選”處理器個(gè)數(shù)“ ”處理器個(gè)數(shù)“下的護(hù)展動(dòng)空致詩(shī)數(shù)字選一個(gè)最大的數(shù) 小編這里縮村略束寧講頭敵流是”4“,點(diǎn)擊”確定“
5、感毛款戰(zhàn)接下來(lái)在”超時(shí)”對(duì)話框中輸入“3”,最后點(diǎn)擊“確定”
方法二
1、右擊“此電腦”(計(jì)算機(jī)) 點(diǎn)擊“屬性”
2、這時(shí)候會(huì)打開一個(gè)系統(tǒng)的窗口,點(diǎn)擊“高級(jí)系統(tǒng)設(shè)置”
3、這時(shí)候會(huì)彈感過(guò)出一個(gè)“系統(tǒng)屬性”窗口,點(diǎn)擊“啟動(dòng)和恢復(fù)故障”下“設(shè)置”
4、在“啟動(dòng)和恢復(fù)故障”窗口里,把以下兩欄的時(shí)間改短一些,小編這里改為“0”,你們可以改為“3培服練王車殖支范助”,第二“確定“
5、回到“開作點(diǎn)變系統(tǒng)屬性”窗口,點(diǎn)擊“性能”下“設(shè)置”,在“性能選項(xiàng)窗口”點(diǎn)擊“高級(jí)——更改”
6、點(diǎn)擊“更改”后,來(lái)到”虛擬內(nèi)存“窗口,取消勾選“自動(dòng)管理所有驅(qū)動(dòng)器的分頁(yè)文件大小”,勾選“無(wú)分頁(yè)文件”,勾選過(guò)后,點(diǎn)擊“設(shè)置”,點(diǎn)擊“設(shè)置”后會(huì)出現(xiàn)一個(gè)“系統(tǒng)屬性”窗口,點(diǎn)擊“是”,點(diǎn)擊“是”后,點(diǎn)擊”虛擬內(nèi)存“窗口下的“確定”
7、“性能選項(xiàng)窗口”和“系統(tǒng)屬性”窗口點(diǎn)擊確定后,一定要重啟電腦,重啟電腦后還會(huì)有改難**作
8、重啟后再來(lái)打開下圖這個(gè)家年亂幾深王議界面,第二又把“自動(dòng)管理所有驅(qū)動(dòng)器的分頁(yè)文件大小”勾選了,最后保存
方法三
1、右擊開始圖標(biāo) 打開“控制面原排破但領(lǐng)三銀包板”
2、在控制面板里 (查看方式為小圖標(biāo))。點(diǎn)齊消異藥好調(diào)先逐蒸改上擊“電源選項(xiàng)”
3、在“冷影電源選項(xiàng)”窗口里 點(diǎn)擊“選擇電源按鈕的功能”
4、點(diǎn)擊“選擇電源按鈕的功能”后悔彈出“系統(tǒng)入感士犯牛設(shè)置窗口”,在這個(gè)窗單占**保頭牛缺象些兵??诶?先點(diǎn)擊“更改當(dāng)前不可用的設(shè)置”,第二勾選“啟用快速啟動(dòng)”,最后“保存修改”
方法四
1、按快捷鍵“WIN+R”。輸入“gpedit.msc” 確定
2、依次點(diǎn)擊“管理模板——系統(tǒng)——關(guān)機(jī)”,第二雙擊“要求使用快速啟動(dòng)”
3、彈出來(lái)的“要求使用快速啟動(dòng)”窗口里,勾選“已啟動(dòng)”,最后點(diǎn)擊“確定”
以上就是解決Win10更新后開機(jī)慢的方法,不用360也能讓開機(jī)變得更快速。
機(jī)器之心專欄
作者:王雅楠、廖勝才
本文通過(guò)從單張照片克隆整套衣服穿搭到三維人物,構(gòu)建了一個(gè)包含 5621 個(gè)三維人物模型的虛擬行人數(shù)據(jù)集 ClonedPerson。這些虛擬人物在游戲環(huán)境里模擬真實(shí)**渲染了多場(chǎng)景下的多**視頻。實(shí)驗(yàn)表明,該數(shù)據(jù)集在行人再辨識(shí)任務(wù)取得了良好的泛化性,并可應(yīng)用于無(wú)監(jiān)督域適應(yīng)、無(wú)監(jiān)督學(xué)習(xí)、人體關(guān)鍵點(diǎn)檢測(cè)等多個(gè)相關(guān)任務(wù)。相關(guān)論文已被 CVPR 2022 接收,數(shù)據(jù)和代碼已開源。
論文地址:https://arxiv.org/pdf/2204.02611.pdf項(xiàng)目地址:https://github.com/Yanan-Wang-cs/ClonedPerson
引言
大規(guī)模虛擬數(shù)據(jù)已經(jīng)被證明能顯著提升可泛化的行人再辨識(shí)能力。現(xiàn)有的虛擬行人數(shù)據(jù)庫(kù)(例如 RandPerson 和 UnrealPerson)的人物穿著與現(xiàn)實(shí)生活差距較大,且沒(méi)有考慮服裝搭配問(wèn)題。
如下圖 1 所示,(a)RandPerson 的隨機(jī)顏色和紋理組合生成虛擬人物的策略使其人物偏卡通化;(b)盡管 UnrealPerson 使用了真實(shí)衣服紋理來(lái)生成人物,但由于衣服紋理的尺寸問(wèn)題,生成的虛擬人物和真實(shí)人物依然有較大的差異,且未考慮上下半身的協(xié)調(diào)穿搭。
圖 1. RandPerson, UnrealPerson 和 ClonedPerson 的對(duì)比圖
有鑒于此,本文提出一種自動(dòng)從單角度人物照片中克隆整套衣服穿搭并產(chǎn)生三維人物模型的方案,并在游戲環(huán)境里模擬真實(shí)**進(jìn)行渲染,由此得到一個(gè)更真實(shí)的大規(guī)模虛擬行人數(shù)據(jù)集,并最終提升行人再辨識(shí)模型的泛化表現(xiàn)。
不同于已有的通過(guò)視頻或多視角照片重建的方法,我們立足于克隆單張照片中的整套衣服生成虛擬人物。這樣可以使用互聯(lián)網(wǎng)上大量人物照片進(jìn)行服裝克隆,達(dá)到規(guī)?;南拗茥l件很低。
另外由于本文提出的方法將照片中人物的整套衣服克隆到虛擬人物身上,有效解決了現(xiàn)有虛擬數(shù)據(jù)庫(kù)服裝搭配與現(xiàn)實(shí)生活不匹配的問(wèn)題。
具體而言,本文設(shè)計(jì)了衣服配準(zhǔn)映射(registered clothes mapping) 和均勻布料擴(kuò)展(homogeneous cloth expansion)兩種方法來(lái)克隆衣服紋理。
其中,衣服配準(zhǔn)映射主要針對(duì)目標(biāo) UV 紋理圖衣服結(jié)構(gòu)清晰的人物模型,根據(jù)正面人物照片和模型紋理圖中衣服對(duì)應(yīng)關(guān)鍵點(diǎn)的位置進(jìn)行投影變換,從而保留衣服紋理的清晰度和紋理結(jié)構(gòu)。均勻布料擴(kuò)展主要針對(duì)人物背面(在正面照片中背面紋理不可見),通過(guò)找到并擴(kuò)展衣服區(qū)域面積最大的同質(zhì)紋理實(shí)現(xiàn)自動(dòng)填充人物背面紋理。
除此之外,本文還提出一個(gè)相似性 – 多樣性人物擴(kuò)展策略,通過(guò)聚類的方法使生成的虛擬人物既具有相似性,又具有多樣性,從而形成最大效用的大規(guī)模虛擬行人數(shù)據(jù)集。該方法通過(guò)克隆同一聚類的人物照片生成相似人物,同時(shí)通過(guò)克隆不同聚類的人物照片生成多樣性的人物。
最后,通過(guò)在 Unity3D 的場(chǎng)景下進(jìn)行渲染得到一個(gè)包含自動(dòng)標(biāo)注的虛擬行人數(shù)據(jù)集,稱為 ClonedPerson。它包含 5621 個(gè)虛擬人物,6 個(gè)場(chǎng)景,24 個(gè)**,168 段密集行人的視頻,887,766 張切好的行人圖片。圖 1 c 展示了部分虛擬行人圖片。
論文通過(guò)實(shí)驗(yàn)證明了 ClonedPerson 虛擬數(shù)據(jù)集可以應(yīng)用在多個(gè)任務(wù)中,如行人再辨識(shí)及其跨域泛化、 無(wú)監(jiān)督域適應(yīng)、無(wú)監(jiān)督學(xué)習(xí)、和人體關(guān)鍵點(diǎn)檢測(cè)。其中,跨庫(kù)泛化性測(cè)試顯著超越三大主流行人再辨識(shí)數(shù)據(jù)集(CUHK03、Market-1501 和 M**T17)和當(dāng)前流行的虛擬行人再辨識(shí)數(shù)據(jù)集(RandPerson 和 UnrealPerson)。
研究動(dòng)機(jī)
數(shù)據(jù)匱乏一直制約著行人再辨識(shí)的發(fā)展,除了標(biāo)注困難之外,近年來(lái)對(duì)**視頻數(shù)據(jù)的隱私敏感性的關(guān)注更是讓這個(gè)問(wèn)題雪上加霜,已經(jīng)有一些公開數(shù)據(jù)集因此而下架了。與之相反,虛擬數(shù)據(jù)幾乎無(wú)需標(biāo)注且沒(méi)有隱私敏感問(wèn)題,且虛擬數(shù)據(jù)已經(jīng)被證實(shí)能顯著提升行人再辨識(shí)模型的泛化性能。
為此,研究人員提出了一些方法來(lái)生成大規(guī)模虛擬數(shù)據(jù)庫(kù),例如 RandPerson 和 UnrealPerson。然而,這些數(shù)據(jù)庫(kù)中的人物衣著紋理與真實(shí)人物有很大的區(qū)別,限制了虛擬數(shù)據(jù)庫(kù)的提升效果。
圖 2. ClonedPerson 和 HPBTT 生成人物的對(duì)比圖
此外,研究人員采用不同的方法實(shí)現(xiàn)了將 2D 照片中的人映射到 3D 模型上,例如 PIFu、HPBTT 和 Pix2Surf。然而,使用這些方法生成大規(guī)模虛擬數(shù)據(jù)庫(kù)存在以下問(wèn)題:
PIFu 由于訓(xùn)練數(shù)據(jù)需要 3D 形狀標(biāo)注,限制了其得到充分有效的訓(xùn)練;HPBTT 通過(guò)神經(jīng)網(wǎng)絡(luò)模型生成的紋理相對(duì)模糊,衣服的紋理結(jié)構(gòu)不夠清晰(如圖 2c 所示);Pix2Surf 則需要輸入背景相對(duì)簡(jiǎn)單且擁有正背面紋理的衣服照片;HPBTT 和 Pix2Surf 所采用的 **PL 模型可能缺乏通用性,如圖 2c 所示的裙子問(wèn)題。
因此,為了解決上述問(wèn)題,本文提出一種通過(guò)克隆單角度照片中的衣服生成大量三維人物模型的方案,并針對(duì)該方案設(shè)計(jì)了兩種克隆方法。基于此方法可以將照片中的衣服紋理克隆到虛擬人物身上。
圖 2 展示了此方法和 HPBTT 生成人物的對(duì)比圖??紤]到生成數(shù)據(jù)的相似性和多樣性,本文設(shè)計(jì)了一個(gè)相似性 – 多樣性人物擴(kuò)展策略來(lái)擴(kuò)展人物模型。最后得到了一個(gè)包含自動(dòng)標(biāo)注的虛擬行人數(shù)據(jù)集 ClonedPerson。
該方法降低了對(duì)輸入圖片的要求(可以應(yīng)用在互聯(lián)網(wǎng)上獲取的大量人物照片中),且設(shè)計(jì)的兩種克隆方法能夠得到清晰的正面紋理并自動(dòng)補(bǔ)全背面紋理,因此可以不需要輸入背面圖片。
克隆方案
下圖 3 展示了本文提出的克隆方案,包含以下步驟:第一在預(yù)處理階段,使用行人檢測(cè)、人物關(guān)鍵點(diǎn)檢測(cè)、服裝類型和服裝關(guān)鍵點(diǎn)檢測(cè)篩選圖片;第三使用衣服配準(zhǔn)映射和均勻布料擴(kuò)展兩種方法克隆衣服紋理并生成虛擬人物;最后將人物導(dǎo)入虛擬環(huán)境生成數(shù)據(jù)。
圖 3. ClonedPerson – 從單角度人物照片到虛擬數(shù)據(jù)的方案圖
其中,預(yù)處理階段的方法是為了提升生成人物的成功率。由于存在大量單角度的照片可以克隆,選擇一些正面且衣服圖案未被遮擋的照片來(lái)生成人物可以顯著提高服裝分類和服裝關(guān)鍵點(diǎn)檢測(cè)的成功率,而且由這些照片生成的虛擬人物更具有完整的衣服紋理和服飾搭配。
衣服配準(zhǔn)映射
圖 4. MakeHuman 中衣服模型的紋理圖
本文采用了 MakeHuman 來(lái)制作三維人物。該軟件的用戶社區(qū)資源中包含多種衣服模型,其中大部分模型的 UV 紋理圖具有清晰的紋理結(jié)構(gòu),如上圖 4b 所示,稱為規(guī)則紋理圖。由此可以通過(guò)經(jīng)由關(guān)鍵點(diǎn)配準(zhǔn)的投影方法將真實(shí)照片中的圖案投影到模型的 UV 紋理圖上。
再如圖 4 所示,目標(biāo)模型紋理圖中標(biāo)注了一系列關(guān)鍵點(diǎn)位置(如 4b 紅點(diǎn)所示),真實(shí)照片中衣服相應(yīng)關(guān)鍵點(diǎn)位置可以通過(guò)訓(xùn)練檢測(cè)器檢測(cè)得到(如 4a 紅點(diǎn)所示),再通過(guò)求解投影變換矩陣,便可以對(duì)照片中衣服區(qū)域的每個(gè)像素點(diǎn)計(jì)算出它在紋理圖上的對(duì)應(yīng)點(diǎn),以此實(shí)現(xiàn)衣服配準(zhǔn)映射。下圖 5 的上部分展示了衣服配準(zhǔn)映射的過(guò)程。
圖 5. 衣服配準(zhǔn)映射和均勻布料擴(kuò)展示意圖
均勻布料擴(kuò)展
通過(guò)衣服配準(zhǔn)映射可以將衣服正面紋理映射到規(guī)則紋理圖的相應(yīng)位置,但不能處理衣服模型的背面紋理和不規(guī)則紋理圖(如圖 4c 所示)。因此,本文提出了第二種方法 —— 均勻布料擴(kuò)展來(lái)解決這個(gè)問(wèn)題。
如上圖 5 下半部分所示,第一通過(guò)一個(gè)訓(xùn)練好的行人再辨識(shí)模型對(duì)衣服圖片抽取特征,第二在特征中遍歷不同的矩形塊。通過(guò)計(jì)算每個(gè)特征的均值方差,可以找到塊內(nèi)平均方差與矩形面積之比的最小矩形塊,其對(duì)應(yīng)區(qū)域?yàn)樽顑?yōu)同質(zhì)塊。
對(duì)于規(guī)則模型,如圖 5 所示,由于投影變換造成了圖像尺寸變化,獲得的同質(zhì)塊需要進(jìn)行相應(yīng)的尺度變換來(lái)保證紋理的一致性。對(duì)于不規(guī)則模型則保持同質(zhì)塊的原始尺寸。獲得同質(zhì)塊后,使用圖片翻轉(zhuǎn)的策略擴(kuò)展同質(zhì)塊來(lái)填充紋理圖。
相似性 – 多樣性人物擴(kuò)展策略
圖 6. 相似性 – 多樣性人物擴(kuò)展策略示意圖
本文使用 DeepFashion 和 DeepFashion2 數(shù)據(jù)庫(kù)生成虛擬人物。通過(guò)預(yù)處理階段篩選后,仍然有數(shù)萬(wàn)張照片可以用來(lái)生成虛擬人物??紤]到生成的數(shù)據(jù)應(yīng)該具備相似性和多樣性,本文設(shè)計(jì)了一個(gè)相似性 – 多樣性人物擴(kuò)展策略。
由于照片中存在同一人多角度的照片,第一需要去除這些相同衣服紋理不同角度的照片。因此本文對(duì)照片進(jìn)行兩次聚類:第一次去除重復(fù)圖片,第二次選取具有相似性和多樣性的照片。第一次聚類使非常相似(同一人的不同角度)的照片聚在一起,并抽取每類距離中心點(diǎn)最近的一張圖片和聚類失敗的圖片混合后進(jìn)行第二次聚類。
兩次聚類后,如上圖 6 所示,相似性 – 多樣性人物擴(kuò)展策略通過(guò)采樣克隆同一聚類內(nèi)的人物照片生成相似人物,通過(guò)克隆不同聚類的人物照片生成多樣性的人物。本文從聚類結(jié)果中的每一類抽取 7 張照片進(jìn)行克?。? 張生成訓(xùn)練集,2 張生成測(cè)試集),最終生成 5621 個(gè)虛擬人物。將這些虛擬人物渲染后得到數(shù)據(jù)集 ClonedPerson。
下表 1 統(tǒng)計(jì)了 ClonedPerson 和其他虛擬行人數(shù)據(jù)集的一些特征。
表 1. 虛擬行人數(shù)據(jù)集統(tǒng)計(jì)表。Cam:攝像頭數(shù),Sur:模擬真實(shí)**場(chǎng)景,Real:使用真實(shí)衣服紋理,Outfit:考慮服裝搭配
實(shí)驗(yàn)結(jié)果
實(shí)驗(yàn)結(jié)果表明,ClonedPerson 可以被應(yīng)用在傳統(tǒng)的單庫(kù)行人再辨識(shí)(表 3)、跨庫(kù)可泛化的行人再辨識(shí)(表 2、3、4)、無(wú)監(jiān)督學(xué)習(xí)(表 3)、無(wú)監(jiān)督域適應(yīng)(表 3、4)和人體關(guān)鍵點(diǎn)檢測(cè)(圖 7)中,且 ClonedPerson 訓(xùn)練出的模型在跨庫(kù)測(cè)試中有良好的泛化性能。
表 2. 使用 QAConv 2.0 在不同數(shù)據(jù)庫(kù)上的跨庫(kù)測(cè)試結(jié)果
表 3. 不同模型在 ClonedPerson 測(cè)試集的結(jié)果。綠**域:跨庫(kù)測(cè)試;灰色:庫(kù)內(nèi)測(cè)試;藍(lán)色:UDA;粉色:無(wú)監(jiān)督學(xué)習(xí)
表 4. 不同任務(wù)在不同數(shù)據(jù)庫(kù)上的 mAP 結(jié)果。Tran**:Tran**atcher,RP: RandPerson, RP*:RandPerson中的人物在 ClonedPerson 環(huán)境中渲染, UP:UnrealPerson,CP:ClonedPerson
從跨庫(kù)測(cè)試(表 2 和表 4)的結(jié)果可以看出,ClonedPerson 數(shù)據(jù)庫(kù)能很好地應(yīng)用在可泛化的行人再辨識(shí)任務(wù)中。例如,表 2 表明,對(duì)比真實(shí)數(shù)據(jù)庫(kù),ClonedPerson 上訓(xùn)練的模型泛化性能顯著超過(guò)在真實(shí)數(shù)據(jù)庫(kù)(CUHK03,Market-1501 和 M**T17)上訓(xùn)練的模型。
表 4 表明,對(duì)比已有的虛擬數(shù)據(jù)庫(kù),ClonedPerson 訓(xùn)練的模型在 CUHK03 和 Market-1501 上具有更好的泛化性能。UnrealPerson 更真實(shí)的場(chǎng)景(采用虛幻引擎)和更多的攝像頭數(shù)可能導(dǎo)致 ClonedPerson 在 M**T17 上的泛化性能弱于 UnrealPerson。但是,考慮到三個(gè)真實(shí)數(shù)據(jù)庫(kù)的平均泛化性能,ClonedPerson 則更勝一籌,證明了從照片中克隆衣服生成虛擬數(shù)據(jù)的有效性。
此外,本文還使用 ClonedPerson 作為測(cè)試集進(jìn)行測(cè)試(表 3)。實(shí)驗(yàn)結(jié)果表明,一方面,ClonedPerson 可以支持多個(gè)行人再辨識(shí)任務(wù);另一方面,在 ClonedPerson 上的測(cè)試結(jié)果(表 3)顯著低于在真實(shí)數(shù)據(jù)庫(kù)上的測(cè)試結(jié)果(表 2),表明 ClonedPerson 本身也是一個(gè)相當(dāng)有挑戰(zhàn)性的數(shù)據(jù)庫(kù)。
ClonedPerson 還可以用在無(wú)監(jiān)督域適應(yīng)(UDA)任務(wù)中。當(dāng) ClonedPerson 作為源數(shù)據(jù)集時(shí)(如表 4 所示),對(duì)比 RandPerson 和 UnrealPerson,ClonedPerson 具有更高的平均泛化性能。當(dāng) ClonedPerson 作為目標(biāo)數(shù)據(jù)集時(shí)(如表 2 藍(lán)**域所示),由于多樣化的攝像頭和大量的相似人物,在 ClonedPerson 上的 UDA 性能還有很大的提升空間。
除此之外,ClonedPerson 的關(guān)鍵點(diǎn)信息也可以用來(lái)訓(xùn)練人體關(guān)鍵點(diǎn)模型。圖 7 展示了用 ClonedPerson 訓(xùn)練的人體關(guān)鍵點(diǎn)檢測(cè)模型在真實(shí)數(shù)據(jù)集上的檢測(cè)效果示例圖。為了節(jié)省存儲(chǔ)空間,ClonedPerson 目前只記錄了 7 個(gè)基本關(guān)鍵點(diǎn),但數(shù)據(jù)渲染過(guò)程中可記錄更多關(guān)鍵點(diǎn)的位置信息用于后續(xù)擴(kuò)展。
圖 7. 人體關(guān)鍵點(diǎn)檢測(cè)結(jié)果
結(jié)論
本文提出了一種通過(guò)克隆單角度照片中的衣服生成大量三維人物模型的方案,并在該方案中設(shè)計(jì)了兩種克隆方法和一種相似性 – 多樣性人物擴(kuò)展策略,最終得到了一個(gè)包含自動(dòng)標(biāo)注的虛擬行人數(shù)據(jù)集 ClonedPerson。本文通過(guò)實(shí)驗(yàn)證明在克隆照片生成的數(shù)據(jù)庫(kù)上訓(xùn)練能提升行人再辨識(shí)模型的泛化能力和支持相關(guān)的多個(gè)任務(wù)。
本文所提方法的優(yōu)勢(shì)是能生成服裝紋理清晰,并與照片中人物的衣服穿搭表觀相似的虛擬人物。使用這些更真實(shí)的虛擬人物生成的虛擬數(shù)據(jù)具有更好的泛化性能。本文提出的方法由于只需要單一角度的人物照片,對(duì)輸入圖片的要求較小,因此可以采用大量互聯(lián)網(wǎng)圖片進(jìn)行后續(xù)擴(kuò)展。
此外,ClonedPerson 公開了相應(yīng)的圖片和視頻數(shù)據(jù),未來(lái)可以探索更多的相關(guān)任務(wù),如行人檢測(cè),行人跟蹤,多**行人跟蹤等等。
作者簡(jiǎn)介
王雅楠,現(xiàn)任阿聯(lián)酋起源人工智能研究院工程師。研究興趣為行人分析。
廖勝才,阿聯(lián)酋起源人工智能研究院(IIAI)主任研究員。IEEE 高級(jí)會(huì)員。研究興趣為行人和人臉?lè)治觥?/span>
拓展知識(shí):
原創(chuàng)文章,作者:九賢生活小編,如若轉(zhuǎn)載,請(qǐng)注明出處:http:///130915.html