

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、伴隨電子與通信技術(shù)的發(fā)展,無(wú)線傳感器得到了廣泛應(yīng)用。基于微慣性傳感器的人體行為識(shí)別作為人工智能的一個(gè)新興分支,日益受到人們的廣泛關(guān)注與重視。相比基于視覺(jué)的人體行為識(shí)別方法,它具有設(shè)備復(fù)雜性小,受外界環(huán)境干擾小,具有更好的空間自由性等優(yōu)點(diǎn)。作為物聯(lián)網(wǎng)的一項(xiàng)重要應(yīng)用,在醫(yī)療保健、健康恢復(fù)、助老助殘等方面具有廣闊的應(yīng)用前景和非??捎^的經(jīng)濟(jì)效益。該領(lǐng)域研究是一項(xiàng)極具意義的工作。然而當(dāng)前國(guó)內(nèi)外對(duì)基于傳感器行為識(shí)別工作研究仍存在諸多不足。本文主要針
2、可穿戴傳感器行為識(shí)別中特征和分類方法進(jìn)行研究和改進(jìn),主要研究工作如下:
第一,考慮傳感器行為識(shí)別主要采用機(jī)器學(xué)習(xí)和模式識(shí)別方法,論文引入壓縮感知和稀疏表示理論用于解決傳感器行為分類問(wèn)題。另外,針對(duì)多傳感器行為識(shí)別問(wèn)題,提出一種有效的結(jié)果融合方法。在多傳感器行為識(shí)別系統(tǒng)中,構(gòu)建并行處理架構(gòu)有利于提升行為識(shí)別速率,而要想保持或者提升行為識(shí)別率,結(jié)果融合方法發(fā)揮至關(guān)重要的作用。本文通過(guò)分析多任務(wù)行為識(shí)別過(guò)程,構(gòu)建出殘差模型,該模型能
3、將多任務(wù)結(jié)果進(jìn)行有效融合,充分挖掘數(shù)據(jù)信息。
第二,針對(duì)基于傳感器行為識(shí)別的特征多沿用數(shù)字信號(hào)處理的時(shí)頻域特征問(wèn)題,論文提出一種關(guān)聯(lián)特征。在多傳感器系統(tǒng)中,根據(jù)人體行為特性,各個(gè)不同位置傳感器節(jié)點(diǎn)數(shù)據(jù)之間存在關(guān)聯(lián)性,關(guān)聯(lián)特征是對(duì)不同位置傳感器信息的一種結(jié)合,能更好反應(yīng)人體運(yùn)動(dòng)特征。該特征能有效挖掘已有數(shù)據(jù)中潛在信息,提升行為識(shí)別率。
最后,本文選取了兩個(gè)國(guó)外公開(kāi)的傳感器行為識(shí)別數(shù)據(jù)庫(kù),進(jìn)行大量仿真驗(yàn)證實(shí)驗(yàn)。大量實(shí)驗(yàn)結(jié)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于可穿戴式動(dòng)捕系統(tǒng)的人體行為識(shí)別方法研究.pdf
- 可穿戴設(shè)備中的人體姿態(tài)識(shí)別方法.pdf
- 基于可穿戴式傳感網(wǎng)絡(luò)的人體異常行為識(shí)別.pdf
- 可穿戴式人體跌倒識(shí)別方法研究
- 基于可穿戴設(shè)備的人體行為識(shí)別與狀態(tài)監(jiān)測(cè)方法研究.pdf
- 可穿戴式人體跌倒識(shí)別方法研究.pdf
- 基于穿戴式傳感器的人體動(dòng)作識(shí)別研究.pdf
- 智能空間下基于非視覺(jué)傳感器數(shù)據(jù)的人體行為識(shí)別方法研究.pdf
- 基于可穿戴傳感器的手勢(shì)識(shí)別.pdf
- 基于加速度傳感器的人體動(dòng)作識(shí)別方法研究.pdf
- 基于傳感器的人體行為識(shí)別技術(shù)研究.pdf
- 基于手機(jī)傳感器的人類復(fù)雜行為識(shí)別方法的研究.pdf
- 基于模型的人體行為識(shí)別方法研究.pdf
- 基于形狀特征的人體行為識(shí)別方法研究.pdf
- 基于視頻流的人體行為識(shí)別方法研究.pdf
- 基于加速度傳感器的人體行為識(shí)別研究.pdf
- 一種基于三維加速度傳感器的人體行為識(shí)別方法.pdf
- 基于動(dòng)作捕捉傳感器的人體日常行為識(shí)別研究.pdf
- 基于Kinect相機(jī)的人體行為識(shí)別方法研究.pdf
- 基于慣性傳感器的人體動(dòng)作識(shí)別研究.pdf
評(píng)論
0/150
提交評(píng)論