白丝美女被狂躁免费视频网站,500av导航大全精品,yw.193.cnc爆乳尤物未满,97se亚洲综合色区,аⅴ天堂中文在线网官网

基于語音識別的書寫式巡檢信息錄入數(shù)據(jù)處理系統(tǒng)及方法

專利號
CN119152857B
公開日期
2025-01-28
申請人
深圳市慧友安電子技術(shù)有限公司(廣東省深圳市龍華區(qū)龍華街道清湖社區(qū)雪崗北路416號硅谷動力A14棟101)
發(fā)明人
陳慶; 彭經(jīng)芳; 鄭在紅
IPC分類
G10L15/26; G10L15/00; G07C1/20; G06F16/65; G06F16/64; G06F16/68
技術(shù)領(lǐng)域
巡檢,口音,方言,數(shù)據(jù)包,錄入,語音識別,數(shù)據(jù),信息,白鯊,識別
地域: 廣東省 廣東省深圳市

摘要

本發(fā)明涉及巡檢信息數(shù)據(jù)處理的技術(shù)領(lǐng)域,且公開了基于語音識別的書寫式巡檢信息錄入數(shù)據(jù)處理系統(tǒng)及方法,所述系統(tǒng)包括巡檢信息錄入模塊、巡檢信息修改模塊、巡檢信息修改執(zhí)行模塊;基于科學(xué)預(yù)設(shè)不同方言口音類型音頻參數(shù)結(jié)合智能音頻匹配算法與工作人員口音音頻參數(shù)進行工作人員口音類型精準分析,實現(xiàn)基于工作人員口音類型自適應(yīng)語音識別錄入巡檢信息;將工作人員口音類型參數(shù)結(jié)合智能識別算法與不同方言口音類型語音識別參數(shù)進行工作人員個人語音識別數(shù)據(jù)包類型定制化匹配并準確采集巡檢信息,實現(xiàn)基于不同工作人員口音特征智能、精準、高效采集巡檢信息,提高了巡檢信息錄入系統(tǒng)的便利性和適用性。

說明書

1 2 3 4 5 6 7 8
基于語音識別的書寫式巡檢信息錄入數(shù)據(jù)處理系統(tǒng)及方法 技術(shù)領(lǐng)域 [0001] 本發(fā)明涉及巡檢信息數(shù)據(jù)處理的技術(shù)領(lǐng)域,具體為基于語音識別的書寫式巡檢信息錄入數(shù)據(jù)處理系統(tǒng)及方法。 背景技術(shù) [0002] 隨著科技的發(fā)展,數(shù)字化管理逐漸成為各行業(yè)提高工作效率和質(zhì)量的重要手段。 在巡檢領(lǐng)域,傳統(tǒng)的紙張記錄方式仍然被廣泛使用。這種傳統(tǒng)方式雖然在操作上直觀簡單,但存在一些明顯錄入巡檢信息低效和書寫不規(guī)范的缺點。另外盡管電子設(shè)備在巡檢工作中的普及度逐漸提高,但仍有部分工作人員由于年齡、技能等因素不擅長使用電子設(shè)備,導(dǎo)致無法充分利用現(xiàn)代技術(shù)帶來的便利,現(xiàn)有的電子巡檢設(shè)備在使用過程中不能基于工作人員口音特征精準錄入巡檢信息,也不能方便工作人員對錄入的巡檢信息結(jié)果進行便捷高效修改,降低了巡檢信息錄入的準確性和效率。 [0003] 公告號為CN104090648B的中國發(fā)明專利公開了一種數(shù)據(jù)錄入方法及終端,通過數(shù)據(jù)捕捉模塊和快速錄入模塊分別提取數(shù)據(jù)信息和識別用戶的操作手勢,同步采用識別的操作手勢對應(yīng)的錄入方式,精準將提取的數(shù)據(jù)信息錄入到目標區(qū)域;實現(xiàn)快速準確的錄入信息和提升用戶體驗;然而以上技術(shù)方案不能實現(xiàn)對錄入數(shù)據(jù)結(jié)果進行便捷修改。 發(fā)明內(nèi)容 [0004] (一)解決的技術(shù)問題 [0005] 為解決上述現(xiàn)有的電子巡檢設(shè)備在使用過程中不能基于工作人員口音特征精準錄入巡檢信息,也不能方便工作人員對錄入的巡檢信息結(jié)果進行便捷高效修改,降低了巡檢信息錄入的準確性和效率的問題,實現(xiàn)以上準確采集工作人員口音信息參數(shù)、精準分析工作人員口音類型參數(shù)、科學(xué)搜索具體口音類型語音識別數(shù)據(jù)包;智能采集巡檢信息、科學(xué)數(shù)字化標識反饋巡檢信息、準確采集巡檢信息錄入結(jié)果反饋指令、科學(xué)識別工作人員巡檢信息錄入結(jié)果反饋信息、準確采集巡檢信息標識信息和更新巡檢信息、科學(xué)執(zhí)行巡檢信息修改作業(yè)的目的。 [0006] (二)技術(shù)方案 [0007] 本發(fā)明通過以下技術(shù)方案予以實現(xiàn):基于語音識別的書寫式巡檢信息錄入數(shù)據(jù)處理方法,所述方法包括如下步驟: [0008] S1、采集工作人員口音音頻數(shù)據(jù); [0009] S2、依據(jù)所述工作人員口音音頻數(shù)據(jù)與不同方言口音類型音頻數(shù)據(jù)進行工作人員的口音類型識別處理,生成工作人員口音類型數(shù)據(jù); [0010] S3、根據(jù)所述工作人員口音類型數(shù)據(jù)與不同方言口音類型語音識別數(shù)據(jù)包進行工作人員巡檢信息錄入所需語音識別數(shù)據(jù)包對象搜索處理,生成工作人員所需語音識別數(shù)據(jù)包并采集巡檢文本數(shù)據(jù); [0011] S4、基于所述巡檢文本數(shù)據(jù)進行巡檢信息對象數(shù)字標識處理,生成巡檢文本標識組合數(shù)據(jù)并執(zhí)行巡檢信息錄入結(jié)果展示作業(yè); [0012] S5、采集巡檢信息錄入結(jié)果反饋指令數(shù)據(jù)并與巡檢信息錄入結(jié)果反饋指令類型關(guān)鍵詞數(shù)據(jù)進行巡檢信息錄入結(jié)果反饋指令的類型識別處理,生成巡檢信息錄入結(jié)果反饋指令類型數(shù)據(jù);當(dāng)為完成時,結(jié)束本次巡檢信息錄入作業(yè); [0013] S6、當(dāng)為修改時,采集巡檢信息修改文本對象標識數(shù)據(jù)和巡檢信息更新文本數(shù)據(jù); [0014] S7、構(gòu)建出巡檢信息修改特征數(shù)據(jù)并執(zhí)行巡檢信息修改作業(yè)。 [0015] 優(yōu)選的,所述采集工作人員口音音頻數(shù)據(jù)的操作步驟如下: [0016] S11、通過電子巡檢設(shè)備搭載的麥克風(fēng)在線采集工作人員個人說話的口音音頻信息并生成工作人員口音音頻數(shù)據(jù) 。 [0017] 本發(fā)明通過麥克風(fēng)高效便捷采集工作人員口音音頻參數(shù),達到為后續(xù)精準分析工作人員口音特征類型提供可靠數(shù)據(jù)支撐的效果。 [0018] 優(yōu)選的,依據(jù)所述工作人員口音音頻數(shù)據(jù)與不同方言口音類型音頻數(shù)據(jù)進行工作人員的口音類型識別處理,生成工作人員口音類型數(shù)據(jù)的操作步驟如下: [0019] S21、建立不同方言口音類型音頻數(shù)據(jù)集合 , ; 其中 表示第 種不同方言口音類型音頻數(shù)據(jù),表示不同方言口音類型數(shù)量的最大值,所述不同方言口音類型音頻數(shù)據(jù)表示不同地方方言的口音音頻數(shù)據(jù),不同方言口音類型包括北方方言、湘方言、贛方言、閩方言、粵方言和客家方言; [0020] S22、采用Soundex算法將所述工作人員口音音頻數(shù)據(jù) 與所述不同方言口音類型音頻數(shù)據(jù)集合 中所述不同方言口音類型音頻數(shù)據(jù) 進行音頻特征匹配,搜索出與所述工作人員口音音頻數(shù)據(jù) 相匹配的所述不同方言口音類型音頻數(shù)據(jù) 的方言口音類型并經(jīng)過數(shù)據(jù)標識生成工作人員口音類型數(shù)據(jù) 。 [0021] 本發(fā)明通過基于科學(xué)預(yù)設(shè)不同方言口音類型音頻參數(shù)結(jié)合Soundex算法與工作人員口音音頻參數(shù)進行工作人員口音類型精準分析,達到實現(xiàn)基于工作人員口音類型自適應(yīng)語音識別錄入巡檢信息的效果。 [0022] 優(yōu)選的,根據(jù)所述工作人員口音類型數(shù)據(jù)與不同方言口音類型語音識別數(shù)據(jù)包進行工作人員巡檢信息錄入所需語音識別數(shù)據(jù)包對象搜索處理,生成工作人員所需語音識別數(shù)據(jù)包并采集巡檢文本數(shù)據(jù)的操作步驟如下:

權(quán)利要求

1 2 3
1.基于語音識別的書寫式巡檢信息錄入數(shù)據(jù)處理方法,其特征在于,所述方法包括如下步驟: S1、采集工作人員口音音頻數(shù)據(jù),所述S1包括以下步驟: S11、通過電子巡檢設(shè)備搭載的麥克風(fēng)在線采集工作人員個人說話的口音音頻信息并生成工作人員口音音頻數(shù)據(jù) ; S2、依據(jù)所述工作人員口音音頻數(shù)據(jù)與不同方言口音類型音頻數(shù)據(jù)進行工作人員的口音類型識別處理,生成工作人員口音類型數(shù)據(jù),所述S2包括以下步驟: S21、建立不同方言口音類型音頻數(shù)據(jù)集合 , ;其中 表示第 種不同方言口音類型音頻數(shù)據(jù),表示不同方言口音類型數(shù)量的最大值; S22、采用Soundex算法將所述工作人員口音音頻數(shù)據(jù) 與所述不同方言口音類型音頻數(shù)據(jù)集合 中所述不同方言口音類型音頻數(shù)據(jù) 進行音頻特征匹配,搜索出與所述工作人員口音音頻數(shù)據(jù) 相匹配的所述不同方言口音類型音頻數(shù)據(jù) 的方言口音類型并經(jīng)過數(shù)據(jù)標識生成工作人員口音類型數(shù)據(jù) ; S3、根據(jù)所述工作人員口音類型數(shù)據(jù)與不同方言口音類型語音識別數(shù)據(jù)包進行工作人員巡檢信息錄入所需語音識別數(shù)據(jù)包對象搜索處理,生成工作人員所需語音識別數(shù)據(jù)包并采集巡檢文本數(shù)據(jù),所述S3包括以下步驟: S31、建立不同方言口音類型語音識別數(shù)據(jù)包集合 ,其中 表示 第 種不同方言口音類型語音識別數(shù)據(jù)包; S32、將所述工作人員口音類型數(shù)據(jù) 與所述不同方言口音類型語音識別數(shù)據(jù)包集合中所述不同方言口音類型語音識別數(shù)據(jù)包 按照方言口音類型字符特征匹配,搜索出所述工作人員口音類型數(shù)據(jù) 對應(yīng)的所述不同方言口音類型語音識別數(shù)據(jù)包 并生成工作人員所需語音識別數(shù)據(jù)包 ,執(zhí)行生成所述工作人員所需語音識別數(shù)據(jù)包 的具體操作步驟如下: S321、初始化,更新最大迭代次數(shù)T,在所述 搜索空間中更新生成語言數(shù)據(jù)包識別白鯊種群個體位置; S322、速度更新階段,語言數(shù)據(jù)包識別白鯊在所述 搜索空間中根據(jù) 獵物移動來感知其位置,并更新自身速度,即在所述 搜索空間中搜索出與所述 相匹配的所述 ; S323、位置更新階段,語言數(shù)據(jù)包識別白鯊?fù)ㄟ^朝最優(yōu)所述 獵物移動來更新自身在所述 搜索空間中的位置,即在所述 搜索空間中搜索出與所述 最優(yōu)匹配或次優(yōu)匹配的所述 ;語言數(shù)據(jù)包識別白鯊在所述 搜索空間中通過朝著最優(yōu)語言數(shù)據(jù)包識別白鯊位置移動以靠近最優(yōu)所述 獵物的位置;
微信群二維碼
意見反饋