恭喜福建星網物聯信息系統有限公司陳呂財獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網恭喜福建星網物聯信息系統有限公司申請的專利一種人體行為識別方法及終端獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN113609957B 。
龍圖騰網通過國家知識產權局官網在2025-04-15發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202110880546.0,技術領域涉及:G06V40/20;該發明授權一種人體行為識別方法及終端是由陳呂財;鄭維宏;田中敏;魏軍福;鄭宏雄設計研發完成,并于2021-08-02向國家知識產權局提交的專利申請。
本一種人體行為識別方法及終端在說明書摘要公布了:本發明公開一種人體行為識別方法及終端,其中方法包括如下步驟:S2:構建人體異常行為識別的深度網絡模型;S3:訓練深度網絡模型,并轉化模型到邊緣設備上;S4:使用深度網絡模型對輸入的待分類動作行為圖像進行推斷,獲得推斷后的圖像特征圖;對獲取的圖像特征圖進行后處理及拼接獲得最終的圖像特征圖,最終的圖像特征圖進行分析得到動作分類結果和動作區域框結果。上述技術方案能夠在不占用過多算力的情況下,進行對人像圖像的識別,提升了檢測效率。同時在對人像圖像行為識別方面,能夠兼容邊緣設備,在設備端就直接能夠進行端到端的圖像計算與識別,極大減小非端到端方法在分步識別帶來的累計誤差,識別準確率更高。
本發明授權一種人體行為識別方法及終端在權利要求書中公布了:1.一種人體行為識別方法,其特征在于,包括如下步驟:S2:構建人體異常行為識別的深度網絡模型,具體為:S21:用歸一化層和卷積層對輸入的圖像進行歸一化并調整獲得的圖像特征圖;S22:將S21獲得的圖像特征圖輸入一個下采樣分支,獲得一個小尺度的圖像特征圖;S23:將S22獲得的小尺度的圖像特征圖輸入一個上采樣分支,把圖像特征圖還原回原圖大小的一半;S24:將S23還原后的圖像特征圖輸入各分支網絡獲得對應動作的圖像特征圖;S3:訓練深度網絡模型,并轉化模型到邊緣設備上;訓練深度網絡模型具體包括:S31:獲取待分類動作行為圖像訓練集,找出各圖像中異常行為動作區域,標注異常行為動作區域的四個頂點坐標作為真值標簽;S32:將經標注后的待分類動作行為圖像訓練集輸入到深度網絡模型中,經推斷得到圖像特征圖集;S33:將圖像特征圖集中的每一圖像特征圖與對應圖像的真值標簽進行損失計算,設置深度網絡模型的學習率,根據學習率和損失函數將圖像特征圖集中的每一圖像特征圖與對應圖像的真值標簽進行損失計算,得到損失值,根據損失值對深度網絡模型進行損失的反向傳播,并更新深度網絡模型的參數權重;所述模型的學習率大小為0.0001,模型使用的損失函數為:Loss=Lossce+Lossmse*w1其中Lossce為多分類交叉熵損失,Lossmse為均方差損失,w為根據標簽類別個數和標簽值計算得到的權重;Lossce的計算如下:Lossce=categorical_crossentropyytrue,ypred2其中ytrue是真值標簽,ypred是模型預測值,categorical_crossentropy表示多分類交叉熵計算;Lossmse的計算如下:Lossmse=meanytrue-ypred23其中,mean表示求均值操作;w的計算如公式4:w=1_class*non_zero_classk4其中k是真值標簽在其長寬維度上的和,K=sumytrue5n_class是動作類別的種類個數,non_zero_class是數組k的值以0.1為界進行修改后的數組,大于0.1的部位值為1,否則為0:non_zero_class=k>0.16重復步驟S33遍歷圖像特征圖集中的各圖像特征圖,不斷更新深度網絡模型的參數權重,直至模型穩定;S4:使用深度網絡模型對輸入的待分類動作行為圖像進行推斷,獲得推斷后的圖像特征圖;對獲取的圖像特征圖進行后處理及拼接獲得最終的圖像特征圖,最終的圖像特征圖進行分析得到動作分類結果和動作區域框結果。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人福建星網物聯信息系統有限公司,其通訊地址為:350108 福建省福州市閩侯縣上街鎮高新大道9號2號樓7層;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。