

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著計(jì)算機(jī)和互聯(lián)網(wǎng)的迅速普及,人機(jī)交互活動(dòng)逐漸成為人們?nèi)粘I畹闹匾M成部分。它在智能家居、智能企業(yè)辦公、醫(yī)院安全監(jiān)控、智能教育等領(lǐng)域得到了廣泛的應(yīng)用。它填補(bǔ)了人與電子設(shè)備之間互動(dòng)交流的空白。傳統(tǒng)的人機(jī)交互方式,比如鍵盤(pán)、鼠標(biāo)、遙控、觸摸屏等,都需要人去適應(yīng)機(jī)器,需要人按照預(yù)先設(shè)定的規(guī)范去操作,而現(xiàn)今技術(shù)的發(fā)展使得人機(jī)交互的方式有了更多的選擇?;谑謩?shì)識(shí)別的人機(jī)交互以直接操作為主,使人機(jī)交互技術(shù)從以機(jī)器為中心逐步轉(zhuǎn)移到以人為中心,符合人
2、的交流習(xí)慣。因此,基于機(jī)器視覺(jué)的手勢(shì)識(shí)別正逐漸被開(kāi)發(fā)和應(yīng)用于工程中。
本文的研究?jī)?nèi)容主要包括基于混合高斯模型的手勢(shì)分割算法以及基于深度卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)分類算法。本文首先介紹了手勢(shì)識(shí)別技術(shù)領(lǐng)域的研究背景及意義,并對(duì)十幾年來(lái)國(guó)內(nèi)外手勢(shì)識(shí)別算法的研究現(xiàn)狀進(jìn)行了充分的分析,對(duì)手勢(shì)識(shí)別算法應(yīng)用過(guò)程中遇到的問(wèn)題及改進(jìn)的措施進(jìn)行了詳細(xì)的描述。論文主要內(nèi)容包括以下幾個(gè)方面:
1.詳細(xì)的介紹了手勢(shì)識(shí)別過(guò)程中的一個(gè)難題,即手勢(shì)分割問(wèn)題
3、,并提出了基于混合高斯膚色模型的手勢(shì)分割方法,最終我們對(duì)方法進(jìn)行了充分的推導(dǎo)及有效性驗(yàn)證。
2.重點(diǎn)介紹了傳統(tǒng)的用于圖像分類的卷積神經(jīng)網(wǎng)絡(luò)模型,并搭建了用于手勢(shì)分類的端到端的深度卷積神經(jīng)網(wǎng)絡(luò),詳細(xì)介紹了模型的結(jié)構(gòu)、參數(shù)、激活函數(shù)、代價(jià)函數(shù)、訓(xùn)練方法、測(cè)試流程等細(xì)節(jié)。對(duì)網(wǎng)絡(luò)搭建過(guò)程中超參數(shù)的選擇給出了指導(dǎo)性方案。
3.對(duì)手勢(shì)分割效果的驗(yàn)證。我們首先介紹了用于驗(yàn)證方法有效的室內(nèi)室外兩個(gè)條件下的手勢(shì)數(shù)據(jù)庫(kù)。對(duì)室內(nèi)數(shù)據(jù)庫(kù)進(jìn)行
4、了手勢(shì)分割效果的展示,然后對(duì)分割前后手勢(shì)的平均分類正確率進(jìn)行了對(duì)比。并且對(duì)比了多個(gè)經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)框架的分類結(jié)果以說(shuō)明我們建立的模型的有效性。在室內(nèi)數(shù)據(jù)庫(kù)上,我們將手勢(shì)的分類正確率從85.2%提高到了98.6%;在室外條件下的國(guó)立新加坡大學(xué)公共手勢(shì)數(shù)據(jù)庫(kù)上面,我們將手勢(shì)的平均分類正確率從92.22%提高到了95.4%。最后,我們通過(guò)可視化分析深度卷積神經(jīng)網(wǎng)絡(luò)的卷積核及特征圖,了解深度卷積神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程以及學(xué)習(xí)到的特征。
在
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 人機(jī)交互中的手勢(shì)識(shí)別技術(shù)研究.pdf
- 用于人機(jī)交互的手勢(shì)識(shí)別研究.pdf
- 用于人機(jī)交互的手勢(shì)指令識(shí)別技術(shù).pdf
- 人機(jī)交互中的動(dòng)態(tài)手勢(shì)識(shí)別及應(yīng)用研究.pdf
- 面向人機(jī)交互的手勢(shì)識(shí)別.pdf
- 用于人機(jī)交互的視覺(jué)手勢(shì)識(shí)別.pdf
- 實(shí)時(shí)手勢(shì)識(shí)別在人機(jī)交互中的應(yīng)用.pdf
- 人機(jī)交互系統(tǒng)中動(dòng)態(tài)手勢(shì)識(shí)別的研究.pdf
- 基于視覺(jué)的手勢(shì)識(shí)別及人機(jī)交互研究.pdf
- 基于表觀的手勢(shì)識(shí)別及人機(jī)交互研究.pdf
- 基于視覺(jué)的手勢(shì)識(shí)別技術(shù)在人機(jī)交互系統(tǒng)中的應(yīng)用.pdf
- 基于Kinect的手勢(shì)識(shí)別技術(shù)在人機(jī)交互中的應(yīng)用研究.pdf
- 手勢(shì)跟蹤與識(shí)別技術(shù)在人機(jī)交互中的應(yīng)用研究.pdf
- 基于人機(jī)交互系統(tǒng)的手勢(shì)識(shí)別方法研究.pdf
- 基于視覺(jué)的手勢(shì)識(shí)別跟蹤及人機(jī)交互研究.pdf
- 動(dòng)態(tài)手勢(shì)跟蹤識(shí)別與人機(jī)交互技術(shù)研究.pdf
- 基于動(dòng)態(tài)手勢(shì)識(shí)別的人機(jī)交互技術(shù)研究.pdf
- 基于深度攝像的手勢(shì)識(shí)別關(guān)鍵技術(shù)研究.pdf
- 基于視覺(jué)的手勢(shì)識(shí)別及其在人機(jī)交互中的應(yīng)用.pdf
- 面向人機(jī)交互的常見(jiàn)桌面手勢(shì)識(shí)別.pdf
評(píng)論
0/150
提交評(píng)論