關(guān)注 >   >  正文

聲納雖好,但海洋噪音太大怎么辦?中美科學(xué)家開發(fā)基于注意力的深度神經(jīng)網(wǎng)絡(luò)

評(píng)論

深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí)方法,使用受人腦啟發(fā)的人工神經(jīng)網(wǎng)絡(luò)來識(shí)別模式。每一層的人工神經(jīng)元,或稱節(jié)點(diǎn),根據(jù)前一層所包含的信息學(xué)習(xí)一套獨(dú)特的特征。

在水下聲學(xué)領(lǐng)域,深度學(xué)習(xí)在改進(jìn)聲納系統(tǒng),以探測遇險(xiǎn)或受限水域中的船只和潛艇方面,正獲得越來越多的關(guān)注。然而,當(dāng)試圖檢測目標(biāo)船舶輻射聲音時(shí),來自復(fù)雜海洋環(huán)境的噪聲干擾成為一個(gè)挑戰(zhàn)。

中國和美國的研究人員探索了一種基于注意力的深度神經(jīng)網(wǎng)絡(luò)(attention-based deep neural network,ABNN)來解決這個(gè)問題。研究人員表示,ABNN在目標(biāo)識(shí)別方面有很高的準(zhǔn)確性,超過了傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò),特別是在使用有限的單目標(biāo)數(shù)據(jù)來檢測多個(gè)目標(biāo)的時(shí)候。

ABNN使用一個(gè)注意力模塊來模仿認(rèn)知過程中的元素,因此能夠?qū)W⒂趫D像、語言或其他模式中最重要的部分,并調(diào)出其他部分。這是通過在機(jī)器學(xué)習(xí)過程中向某些節(jié)點(diǎn)添加更多的權(quán)重以增強(qiáng)特定的模式元素來實(shí)現(xiàn)的。

將ABNN系統(tǒng)納入聲納設(shè)備進(jìn)行有針對(duì)性的船舶探測,研究人員在中國南海135平方英里的淺水區(qū)測試了兩艘船。他們將其結(jié)果與傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)(DNN)進(jìn)行了比較。雷達(dá)和其他設(shè)備被用來確定實(shí)驗(yàn)區(qū)域內(nèi)超過17艘的干擾船只。

結(jié)果發(fā)現(xiàn)ABNN大大增加了它的預(yù)測,因?yàn)樗鼉A向于與訓(xùn)練目標(biāo)密切相關(guān)的特征。當(dāng)網(wǎng)絡(luò)不斷地在整個(gè)訓(xùn)練數(shù)據(jù)集中循環(huán)時(shí),檢測變得更加明顯,突出了加權(quán)的節(jié)點(diǎn)并忽略了不相關(guān)的信息。

研究發(fā)現(xiàn),ABNN分別檢測船舶A和B的準(zhǔn)確率略高于DNN(分別為98%和97.4%);而在ABNN檢測同一附近的兩艘船舶的準(zhǔn)確率卻明顯更高(74%和58.4%)。

對(duì)于多目標(biāo)識(shí)別,傳統(tǒng)的ABNN模型通常使用多船數(shù)據(jù)進(jìn)行訓(xùn)練,但這可能是一個(gè)復(fù)雜且計(jì)算成本高的過程。研究人員訓(xùn)練他們的ABNN模型來分別檢測每個(gè)目標(biāo)。然后,隨著網(wǎng)絡(luò)輸出層的擴(kuò)展,單個(gè)目標(biāo)數(shù)據(jù)集會(huì)合并。

這個(gè)新模型在檢測同一附近的兩艘船方面明顯超過了DNN。此外,這個(gè)ABNN系統(tǒng)可以同時(shí)關(guān)注兩艘船的固有特征。

題為Underwater acoustic target recognition using attention-based deep neural network的相關(guān)研究論文發(fā)表在《JASA Express Letters》上。

前瞻經(jīng)濟(jì)學(xué)人APP資訊組

論文原文:

https://asa.scitation.org/doi/10.1121/10.0006299

標(biāo)簽: 聲納 中美 深度 注意力

今日熱點(diǎn)

熱點(diǎn)排行

最近更新

所刊載信息部分轉(zhuǎn)載自互聯(lián)網(wǎng),并不代表本網(wǎng)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé)。郵箱:5855973@qq.com

聯(lián)系我們| 中國品牌網(wǎng) | 滬ICP備2022005074號(hào)-18 營業(yè)執(zhí)照  Copyright © 2018@. All Rights Reserved.