前沿拓展:
win10虛擬jpg
很多用戶反映,Win10系統(tǒng)在最近的更新后,開機(jī)變得很慢,動不動就要30幾秒,簡直就要回到5年前了。那么有沒有什么辦法可以解決更新后Win10開機(jī)慢的問題呢?
1.jpg
方法一
失象宣1、按快捷鍵“win+R” 打開 運行窗口
2、這時候輸入“msconfig”后 ,點擊“確定”或者按“ENTE管看R”鍵
3、這時候會打開一個名為“系統(tǒng)配置”的窗口,在“常字八嗎間京規(guī)”選項框下 勾選“有法影危研請嚴(yán)鎮(zhèn)選擇的啟動”下的“加載系統(tǒng)服務(wù)”和“加載啟動項”
4、后依次點擊“引導(dǎo)——高級選項“在”引導(dǎo)高級選項“窗口勾選”處理器個數(shù)“ ”處理器個數(shù)“下的護(hù)展動空致詩數(shù)字選一個最大的數(shù) 小編這里縮村略束寧講頭敵流是”4“,點擊”確定“
5、感毛款戰(zhàn)接下來在”超時”對話框中輸入“3”,最后點擊“確定”
方法二
1、右擊“此電腦”(計算機(jī)) 點擊“屬性”
2、這時候會打開一個系統(tǒng)的窗口,點擊“高級系統(tǒng)設(shè)置”
3、這時候會彈感過出一個“系統(tǒng)屬性”窗口,點擊“啟動和恢復(fù)故障”下“設(shè)置”
4、在“啟動和恢復(fù)故障”窗口里,把以下兩欄的時間改短一些,小編這里改為“0”,你們可以改為“3培服練王車殖支范助”,第二“確定“
5、回到“開作點變系統(tǒng)屬性”窗口,點擊“性能”下“設(shè)置”,在“性能選項窗口”點擊“高級——更改”
6、點擊“更改”后,來到”虛擬內(nèi)存“窗口,取消勾選“自動管理所有驅(qū)動器的分頁文件大小”,勾選“無分頁文件”,勾選過后,點擊“設(shè)置”,點擊“設(shè)置”后會出現(xiàn)一個“系統(tǒng)屬性”窗口,點擊“是”,點擊“是”后,點擊”虛擬內(nèi)存“窗口下的“確定”
7、“性能選項窗口”和“系統(tǒng)屬性”窗口點擊確定后,一定要重啟電腦,重啟電腦后還會有改難**作
8、重啟后再來打開下圖這個家年亂幾深王議界面,第二又把“自動管理所有驅(qū)動器的分頁文件大小”勾選了,最后保存
方法三
1、右擊開始圖標(biāo) 打開“控制面原排破但領(lǐng)三銀包板”
2、在控制面板里 (查看方式為小圖標(biāo))。點齊消異藥好調(diào)先逐蒸改上擊“電源選項”
3、在“冷影電源選項”窗口里 點擊“選擇電源按鈕的功能”
4、點擊“選擇電源按鈕的功能”后悔彈出“系統(tǒng)入感士犯牛設(shè)置窗口”,在這個窗單占**保頭牛缺象些兵牛口里 先點擊“更改當(dāng)前不可用的設(shè)置”,第二勾選“啟用快速啟動”,最后“保存修改”
方法四
1、按快捷鍵“WIN+R”。輸入“gpedit.msc” 確定
2、依次點擊“管理模板——系統(tǒng)——關(guān)機(jī)”,第二雙擊“要求使用快速啟動”
3、彈出來的“要求使用快速啟動”窗口里,勾選“已啟動”,最后點擊“確定”
以上就是解決Win10更新后開機(jī)慢的方法,不用360也能讓開機(jī)變得更快速。
機(jī)器之心專欄
作者:王雅楠、廖勝才
本文通過從單張照片克隆整套衣服穿搭到三維人物,構(gòu)建了一個包含 5621 個三維人物模型的虛擬行人數(shù)據(jù)集 ClonedPerson。這些虛擬人物在游戲環(huán)境里模擬真實**渲染了多場景下的多**視頻。實驗表明,該數(shù)據(jù)集在行人再辨識任務(wù)取得了良好的泛化性,并可應(yīng)用于無監(jiān)督域適應(yīng)、無監(jiān)督學(xué)習(xí)、人體關(guān)鍵點檢測等多個相關(guān)任務(wù)。相關(guān)論文已被 CVPR 2022 接收,數(shù)據(jù)和代碼已開源。
論文地址:https://arxiv.org/pdf/2204.02611.pdf項目地址:https://github.com/Yanan-Wang-cs/ClonedPerson
引言
大規(guī)模虛擬數(shù)據(jù)已經(jīng)被證明能顯著提升可泛化的行人再辨識能力。現(xiàn)有的虛擬行人數(shù)據(jù)庫(例如 RandPerson 和 UnrealPerson)的人物穿著與現(xiàn)實生活差距較大,且沒有考慮服裝搭配問題。
如下圖 1 所示,(a)RandPerson 的隨機(jī)顏色和紋理組合生成虛擬人物的策略使其人物偏卡通化;(b)盡管 UnrealPerson 使用了真實衣服紋理來生成人物,但由于衣服紋理的尺寸問題,生成的虛擬人物和真實人物依然有較大的差異,且未考慮上下半身的協(xié)調(diào)穿搭。
圖 1. RandPerson, UnrealPerson 和 ClonedPerson 的對比圖
有鑒于此,本文提出一種自動從單角度人物照片中克隆整套衣服穿搭并產(chǎn)生三維人物模型的方案,并在游戲環(huán)境里模擬真實**進(jìn)行渲染,由此得到一個更真實的大規(guī)模虛擬行人數(shù)據(jù)集,并最終提升行人再辨識模型的泛化表現(xiàn)。
不同于已有的通過視頻或多視角照片重建的方法,我們立足于克隆單張照片中的整套衣服生成虛擬人物。這樣可以使用互聯(lián)網(wǎng)上大量人物照片進(jìn)行服裝克隆,達(dá)到規(guī)?;南拗茥l件很低。
另外由于本文提出的方法將照片中人物的整套衣服克隆到虛擬人物身上,有效解決了現(xiàn)有虛擬數(shù)據(jù)庫服裝搭配與現(xiàn)實生活不匹配的問題。
具體而言,本文設(shè)計了衣服配準(zhǔn)映射(registered clothes mapping) 和均勻布料擴(kuò)展(homogeneous cloth expansion)兩種方法來克隆衣服紋理。
其中,衣服配準(zhǔn)映射主要針對目標(biāo) UV 紋理圖衣服結(jié)構(gòu)清晰的人物模型,根據(jù)正面人物照片和模型紋理圖中衣服對應(yīng)關(guān)鍵點的位置進(jìn)行投影變換,從而保留衣服紋理的清晰度和紋理結(jié)構(gòu)。均勻布料擴(kuò)展主要針對人物背面(在正面照片中背面紋理不可見),通過找到并擴(kuò)展衣服區(qū)域面積最大的同質(zhì)紋理實現(xiàn)自動填充人物背面紋理。
除此之外,本文還提出一個相似性 – 多樣性人物擴(kuò)展策略,通過聚類的方法使生成的虛擬人物既具有相似性,又具有多樣性,從而形成最大效用的大規(guī)模虛擬行人數(shù)據(jù)集。該方法通過克隆同一聚類的人物照片生成相似人物,同時通過克隆不同聚類的人物照片生成多樣性的人物。
最后,通過在 Unity3D 的場景下進(jìn)行渲染得到一個包含自動標(biāo)注的虛擬行人數(shù)據(jù)集,稱為 ClonedPerson。它包含 5621 個虛擬人物,6 個場景,24 個**,168 段密集行人的視頻,887,766 張切好的行人圖片。圖 1 c 展示了部分虛擬行人圖片。
論文通過實驗證明了 ClonedPerson 虛擬數(shù)據(jù)集可以應(yīng)用在多個任務(wù)中,如行人再辨識及其跨域泛化、 無監(jiān)督域適應(yīng)、無監(jiān)督學(xué)習(xí)、和人體關(guān)鍵點檢測。其中,跨庫泛化性測試顯著超越三大主流行人再辨識數(shù)據(jù)集(CUHK03、Market-1501 和 M**T17)和當(dāng)前流行的虛擬行人再辨識數(shù)據(jù)集(RandPerson 和 UnrealPerson)。
研究動機(jī)
數(shù)據(jù)匱乏一直制約著行人再辨識的發(fā)展,除了標(biāo)注困難之外,近年來對**視頻數(shù)據(jù)的隱私敏感性的關(guān)注更是讓這個問題雪上加霜,已經(jīng)有一些公開數(shù)據(jù)集因此而下架了。與之相反,虛擬數(shù)據(jù)幾乎無需標(biāo)注且沒有隱私敏感問題,且虛擬數(shù)據(jù)已經(jīng)被證實能顯著提升行人再辨識模型的泛化性能。
為此,研究人員提出了一些方法來生成大規(guī)模虛擬數(shù)據(jù)庫,例如 RandPerson 和 UnrealPerson。然而,這些數(shù)據(jù)庫中的人物衣著紋理與真實人物有很大的區(qū)別,限制了虛擬數(shù)據(jù)庫的提升效果。
圖 2. ClonedPerson 和 HPBTT 生成人物的對比圖
此外,研究人員采用不同的方法實現(xiàn)了將 2D 照片中的人映射到 3D 模型上,例如 PIFu、HPBTT 和 Pix2Surf。然而,使用這些方法生成大規(guī)模虛擬數(shù)據(jù)庫存在以下問題:
PIFu 由于訓(xùn)練數(shù)據(jù)需要 3D 形狀標(biāo)注,限制了其得到充分有效的訓(xùn)練;HPBTT 通過神經(jīng)網(wǎng)絡(luò)模型生成的紋理相對模糊,衣服的紋理結(jié)構(gòu)不夠清晰(如圖 2c 所示);Pix2Surf 則需要輸入背景相對簡單且擁有正背面紋理的衣服照片;HPBTT 和 Pix2Surf 所采用的 **PL 模型可能缺乏通用性,如圖 2c 所示的裙子問題。
因此,為了解決上述問題,本文提出一種通過克隆單角度照片中的衣服生成大量三維人物模型的方案,并針對該方案設(shè)計了兩種克隆方法。基于此方法可以將照片中的衣服紋理克隆到虛擬人物身上。
圖 2 展示了此方法和 HPBTT 生成人物的對比圖??紤]到生成數(shù)據(jù)的相似性和多樣性,本文設(shè)計了一個相似性 – 多樣性人物擴(kuò)展策略來擴(kuò)展人物模型。最后得到了一個包含自動標(biāo)注的虛擬行人數(shù)據(jù)集 ClonedPerson。
該方法降低了對輸入圖片的要求(可以應(yīng)用在互聯(lián)網(wǎng)上獲取的大量人物照片中),且設(shè)計的兩種克隆方法能夠得到清晰的正面紋理并自動補全背面紋理,因此可以不需要輸入背面圖片。
克隆方案
下圖 3 展示了本文提出的克隆方案,包含以下步驟:第一在預(yù)處理階段,使用行人檢測、人物關(guān)鍵點檢測、服裝類型和服裝關(guān)鍵點檢測篩選圖片;第三使用衣服配準(zhǔn)映射和均勻布料擴(kuò)展兩種方法克隆衣服紋理并生成虛擬人物;最后將人物導(dǎo)入虛擬環(huán)境生成數(shù)據(jù)。
圖 3. ClonedPerson – 從單角度人物照片到虛擬數(shù)據(jù)的方案圖
其中,預(yù)處理階段的方法是為了提升生成人物的成功率。由于存在大量單角度的照片可以克隆,選擇一些正面且衣服圖案未被遮擋的照片來生成人物可以顯著提高服裝分類和服裝關(guān)鍵點檢測的成功率,而且由這些照片生成的虛擬人物更具有完整的衣服紋理和服飾搭配。
衣服配準(zhǔn)映射
圖 4. MakeHuman 中衣服模型的紋理圖
本文采用了 MakeHuman 來制作三維人物。該軟件的用戶社區(qū)資源中包含多種衣服模型,其中大部分模型的 UV 紋理圖具有清晰的紋理結(jié)構(gòu),如上圖 4b 所示,稱為規(guī)則紋理圖。由此可以通過經(jīng)由關(guān)鍵點配準(zhǔn)的投影方法將真實照片中的圖案投影到模型的 UV 紋理圖上。
再如圖 4 所示,目標(biāo)模型紋理圖中標(biāo)注了一系列關(guān)鍵點位置(如 4b 紅點所示),真實照片中衣服相應(yīng)關(guān)鍵點位置可以通過訓(xùn)練檢測器檢測得到(如 4a 紅點所示),再通過求解投影變換矩陣,便可以對照片中衣服區(qū)域的每個像素點計算出它在紋理圖上的對應(yīng)點,以此實現(xiàn)衣服配準(zhǔn)映射。下圖 5 的上部分展示了衣服配準(zhǔn)映射的過程。
圖 5. 衣服配準(zhǔn)映射和均勻布料擴(kuò)展示意圖
均勻布料擴(kuò)展
通過衣服配準(zhǔn)映射可以將衣服正面紋理映射到規(guī)則紋理圖的相應(yīng)位置,但不能處理衣服模型的背面紋理和不規(guī)則紋理圖(如圖 4c 所示)。因此,本文提出了第二種方法 —— 均勻布料擴(kuò)展來解決這個問題。
如上圖 5 下半部分所示,第一通過一個訓(xùn)練好的行人再辨識模型對衣服圖片抽取特征,第二在特征中遍歷不同的矩形塊。通過計算每個特征的均值方差,可以找到塊內(nèi)平均方差與矩形面積之比的最小矩形塊,其對應(yīng)區(qū)域為最優(yōu)同質(zhì)塊。
對于規(guī)則模型,如圖 5 所示,由于投影變換造成了圖像尺寸變化,獲得的同質(zhì)塊需要進(jìn)行相應(yīng)的尺度變換來保證紋理的一致性。對于不規(guī)則模型則保持同質(zhì)塊的原始尺寸。獲得同質(zhì)塊后,使用圖片翻轉(zhuǎn)的策略擴(kuò)展同質(zhì)塊來填充紋理圖。
相似性 – 多樣性人物擴(kuò)展策略
圖 6. 相似性 – 多樣性人物擴(kuò)展策略示意圖
本文使用 DeepFashion 和 DeepFashion2 數(shù)據(jù)庫生成虛擬人物。通過預(yù)處理階段篩選后,仍然有數(shù)萬張照片可以用來生成虛擬人物??紤]到生成的數(shù)據(jù)應(yīng)該具備相似性和多樣性,本文設(shè)計了一個相似性 – 多樣性人物擴(kuò)展策略。
由于照片中存在同一人多角度的照片,第一需要去除這些相同衣服紋理不同角度的照片。因此本文對照片進(jìn)行兩次聚類:第一次去除重復(fù)圖片,第二次選取具有相似性和多樣性的照片。第一次聚類使非常相似(同一人的不同角度)的照片聚在一起,并抽取每類距離中心點最近的一張圖片和聚類失敗的圖片混合后進(jìn)行第二次聚類。
兩次聚類后,如上圖 6 所示,相似性 – 多樣性人物擴(kuò)展策略通過采樣克隆同一聚類內(nèi)的人物照片生成相似人物,通過克隆不同聚類的人物照片生成多樣性的人物。本文從聚類結(jié)果中的每一類抽取 7 張照片進(jìn)行克?。? 張生成訓(xùn)練集,2 張生成測試集),最終生成 5621 個虛擬人物。將這些虛擬人物渲染后得到數(shù)據(jù)集 ClonedPerson。
下表 1 統(tǒng)計了 ClonedPerson 和其他虛擬行人數(shù)據(jù)集的一些特征。
表 1. 虛擬行人數(shù)據(jù)集統(tǒng)計表。Cam:攝像頭數(shù),Sur:模擬真實**場景,Real:使用真實衣服紋理,Outfit:考慮服裝搭配
實驗結(jié)果
實驗結(jié)果表明,ClonedPerson 可以被應(yīng)用在傳統(tǒng)的單庫行人再辨識(表 3)、跨庫可泛化的行人再辨識(表 2、3、4)、無監(jiān)督學(xué)習(xí)(表 3)、無監(jiān)督域適應(yīng)(表 3、4)和人體關(guān)鍵點檢測(圖 7)中,且 ClonedPerson 訓(xùn)練出的模型在跨庫測試中有良好的泛化性能。
表 2. 使用 QAConv 2.0 在不同數(shù)據(jù)庫上的跨庫測試結(jié)果
表 3. 不同模型在 ClonedPerson 測試集的結(jié)果。綠**域:跨庫測試;灰色:庫內(nèi)測試;藍(lán)色:UDA;粉色:無監(jiān)督學(xué)習(xí)
表 4. 不同任務(wù)在不同數(shù)據(jù)庫上的 mAP 結(jié)果。Tran**:Tran**atcher,RP: RandPerson, RP*:RandPerson中的人物在 ClonedPerson 環(huán)境中渲染, UP:UnrealPerson,CP:ClonedPerson
從跨庫測試(表 2 和表 4)的結(jié)果可以看出,ClonedPerson 數(shù)據(jù)庫能很好地應(yīng)用在可泛化的行人再辨識任務(wù)中。例如,表 2 表明,對比真實數(shù)據(jù)庫,ClonedPerson 上訓(xùn)練的模型泛化性能顯著超過在真實數(shù)據(jù)庫(CUHK03,Market-1501 和 M**T17)上訓(xùn)練的模型。
表 4 表明,對比已有的虛擬數(shù)據(jù)庫,ClonedPerson 訓(xùn)練的模型在 CUHK03 和 Market-1501 上具有更好的泛化性能。UnrealPerson 更真實的場景(采用虛幻引擎)和更多的攝像頭數(shù)可能導(dǎo)致 ClonedPerson 在 M**T17 上的泛化性能弱于 UnrealPerson。但是,考慮到三個真實數(shù)據(jù)庫的平均泛化性能,ClonedPerson 則更勝一籌,證明了從照片中克隆衣服生成虛擬數(shù)據(jù)的有效性。
此外,本文還使用 ClonedPerson 作為測試集進(jìn)行測試(表 3)。實驗結(jié)果表明,一方面,ClonedPerson 可以支持多個行人再辨識任務(wù);另一方面,在 ClonedPerson 上的測試結(jié)果(表 3)顯著低于在真實數(shù)據(jù)庫上的測試結(jié)果(表 2),表明 ClonedPerson 本身也是一個相當(dāng)有挑戰(zhàn)性的數(shù)據(jù)庫。
ClonedPerson 還可以用在無監(jiān)督域適應(yīng)(UDA)任務(wù)中。當(dāng) ClonedPerson 作為源數(shù)據(jù)集時(如表 4 所示),對比 RandPerson 和 UnrealPerson,ClonedPerson 具有更高的平均泛化性能。當(dāng) ClonedPerson 作為目標(biāo)數(shù)據(jù)集時(如表 2 藍(lán)**域所示),由于多樣化的攝像頭和大量的相似人物,在 ClonedPerson 上的 UDA 性能還有很大的提升空間。
除此之外,ClonedPerson 的關(guān)鍵點信息也可以用來訓(xùn)練人體關(guān)鍵點模型。圖 7 展示了用 ClonedPerson 訓(xùn)練的人體關(guān)鍵點檢測模型在真實數(shù)據(jù)集上的檢測效果示例圖。為了節(jié)省存儲空間,ClonedPerson 目前只記錄了 7 個基本關(guān)鍵點,但數(shù)據(jù)渲染過程中可記錄更多關(guān)鍵點的位置信息用于后續(xù)擴(kuò)展。
圖 7. 人體關(guān)鍵點檢測結(jié)果
結(jié)論
本文提出了一種通過克隆單角度照片中的衣服生成大量三維人物模型的方案,并在該方案中設(shè)計了兩種克隆方法和一種相似性 – 多樣性人物擴(kuò)展策略,最終得到了一個包含自動標(biāo)注的虛擬行人數(shù)據(jù)集 ClonedPerson。本文通過實驗證明在克隆照片生成的數(shù)據(jù)庫上訓(xùn)練能提升行人再辨識模型的泛化能力和支持相關(guān)的多個任務(wù)。
本文所提方法的優(yōu)勢是能生成服裝紋理清晰,并與照片中人物的衣服穿搭表觀相似的虛擬人物。使用這些更真實的虛擬人物生成的虛擬數(shù)據(jù)具有更好的泛化性能。本文提出的方法由于只需要單一角度的人物照片,對輸入圖片的要求較小,因此可以采用大量互聯(lián)網(wǎng)圖片進(jìn)行后續(xù)擴(kuò)展。
此外,ClonedPerson 公開了相應(yīng)的圖片和視頻數(shù)據(jù),未來可以探索更多的相關(guān)任務(wù),如行人檢測,行人跟蹤,多**行人跟蹤等等。
作者簡介
王雅楠,現(xiàn)任阿聯(lián)酋起源人工智能研究院工程師。研究興趣為行人分析。
廖勝才,阿聯(lián)酋起源人工智能研究院(IIAI)主任研究員。IEEE 高級會員。研究興趣為行人和人臉分析。
拓展知識:
原創(chuàng)文章,作者:九賢生活小編,如若轉(zhuǎn)載,請注明出處:http:///130915.html