發(fā)布時(shí)間:2022-04-28所屬分類(lèi):科技論文瀏覽:1次
摘 要: 摘 要:無(wú)人機(jī)的廣泛應(yīng)用在給生產(chǎn)生活帶來(lái)便利的同時(shí),也對(duì)公共安全構(gòu)成了威脅,這就需要對(duì)非法飛行的無(wú)人機(jī)進(jìn)行探測(cè)和識(shí)別。然而,微小無(wú)人機(jī)因體積小運(yùn)動(dòng)靈活,使得傳統(tǒng)的雷達(dá)、光電等探測(cè)手段難以應(yīng)對(duì)。為此,提出一種基于 YOLO(You only look once)v5 深度學(xué)習(xí)網(wǎng)絡(luò)
摘 要:無(wú)人機(jī)的廣泛應(yīng)用在給生產(chǎn)生活帶來(lái)便利的同時(shí),也對(duì)公共安全構(gòu)成了威脅,這就需要對(duì)非法飛行的無(wú)人機(jī)進(jìn)行探測(cè)和識(shí)別。然而,微小無(wú)人機(jī)因體積小運(yùn)動(dòng)靈活,使得傳統(tǒng)的雷達(dá)、光電等探測(cè)手段難以應(yīng)對(duì)。為此,提出一種基于 YOLO(You only look once)v5 深度學(xué)習(xí)網(wǎng)絡(luò)框架的微小無(wú)人機(jī)實(shí)時(shí)探測(cè)方法。通過(guò)拍攝無(wú)人機(jī)飛行姿態(tài)構(gòu)建實(shí)驗(yàn)數(shù)據(jù)集,并進(jìn)行標(biāo)注。隨后利用數(shù)據(jù)集對(duì) YOLOv5 網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,并測(cè)試訓(xùn)練效果,通過(guò)數(shù)據(jù)集測(cè)試網(wǎng)絡(luò)模型能達(dá)到 94.2%的精確率、82.8%的召回率和 93.5%的平均精度均值。最后,對(duì)模型在真實(shí)場(chǎng)景下進(jìn)行了測(cè)試驗(yàn)證,視頻流幀速率為 30 FPS(Frames Per Second)條件下,可在 30 米范圍內(nèi)準(zhǔn)確識(shí)別出特征尺寸為 200 mm 以上的無(wú)人機(jī),并具有較好的實(shí)時(shí)性。
關(guān)鍵詞:目標(biāo)檢測(cè);YOLOv5;微小型無(wú)人機(jī);實(shí)時(shí)探測(cè);深度學(xué)習(xí)
1 引言
隨著無(wú)線(xiàn)通信、飛行控制、慣性器件、智能視頻分析等技術(shù)的快速發(fā)展,當(dāng)前微小型無(wú)人機(jī)技術(shù)逐步成熟,并展示出了強(qiáng)大的功能,使其在公共安全、能源電力、農(nóng)業(yè)植保等多種行業(yè)領(lǐng)域都得到了廣泛應(yīng)用。隨著小型商用無(wú)人機(jī)的成本不斷下降,購(gòu)買(mǎi)無(wú)人機(jī)的愛(ài)好者數(shù)量連年攀升[1],根據(jù)中國(guó)民航局的官方公布數(shù)據(jù)顯示,截至 2020 年底,我國(guó)實(shí)名登記無(wú)人機(jī) 52.36 萬(wàn)架,年飛行量達(dá)到 159.4 萬(wàn)小時(shí),同比增速達(dá) 27.5%[2]。然而,隨著微小型無(wú)人機(jī)在民用領(lǐng)域爆炸式增長(zhǎng),監(jiān)管難度越來(lái)越大, 其對(duì)公共安全構(gòu)成了嚴(yán)重威脅,給城市安保帶來(lái)了更大的挑戰(zhàn)。例如,2021 年 4 月 3 日,杭州蕭山機(jī)場(chǎng)發(fā)生了因無(wú)人機(jī)黑飛導(dǎo)致多架航班空中盤(pán)旋、備降其他機(jī)場(chǎng)的案件,嚴(yán)重影響航空秩序,威脅機(jī)場(chǎng)安全[3]。因此,通過(guò)技術(shù)手段構(gòu)建無(wú)人機(jī)監(jiān)測(cè)系統(tǒng),對(duì)非法飛行的無(wú)人機(jī)進(jìn)行精確探測(cè)與反制,對(duì)確保重要目標(biāo)空域安全,保障社會(huì)安全穩(wěn)定具有重要意義。
目前,國(guó)內(nèi)外針對(duì)無(wú)人機(jī)探測(cè)的常用技術(shù)主要有雷達(dá)探測(cè)、聲學(xué)探測(cè)、無(wú)線(xiàn)電探測(cè)、光電探測(cè)等[4]。由于微小型無(wú)人機(jī)具有體積小,運(yùn)動(dòng)靈活的特點(diǎn),傳統(tǒng)的手段難以探測(cè)如此小的飛行器,更不能識(shí)別此類(lèi)無(wú)人機(jī)[5]。因此,微小型無(wú)人機(jī)的探測(cè)是一個(gè)亟待解決的難題。
近年來(lái),隨著深度學(xué)習(xí)技術(shù)的飛速發(fā)展,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法是實(shí)現(xiàn)微小無(wú)人機(jī)探測(cè)個(gè)一種可行手段。基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法主要有一階檢測(cè)方法和二階檢測(cè)方法兩類(lèi),一階檢測(cè)方法不需要單獨(dú)尋找候選區(qū)域,因此速度較快,如 SSD(Single Shot MultiBox Detector) [6]、YOLO 等。二階檢測(cè)方法則將檢測(cè)算法分兩步進(jìn)行,先要獲取候選區(qū)域,再對(duì)其進(jìn)行分類(lèi),精度上一 般 優(yōu) 于 一 階 方 法 , 如 R-CNN ( Region-based Convolutional Neural Network)、Fast R-CNN [7]等。在實(shí)際應(yīng)用中需要對(duì)采集的無(wú)人機(jī)視頻流進(jìn)行實(shí)時(shí)探測(cè),二階算法難以滿(mǎn)足實(shí)時(shí)性要求,而 YOLO 系列算法近年來(lái)更新迭代很快,在主流數(shù)據(jù)集的測(cè)試效果上要優(yōu)于 SSD 算法[8]。李秋珍等人提出了兩種基于 SSD 改進(jìn)算法的實(shí)時(shí)無(wú)人機(jī)識(shí)別方法,但兩種改進(jìn)方法精度分別只有 79% 和 83.75%,作者認(rèn)為該算法識(shí)別速度基本滿(mǎn)足實(shí)時(shí)性要求[9]。馬旗等人提出了基于優(yōu)化 YOLOv3 的低空無(wú)人機(jī)檢測(cè)識(shí)別方法,利用殘差網(wǎng)絡(luò)及多尺度融合的方式對(duì)原始的 YOLOv3 網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行優(yōu)化,在相同訓(xùn)練集下測(cè)試, mAP 提升了 8.29%,達(dá)到 82.15%,檢測(cè)速度為 26s-1,滿(mǎn)足實(shí)時(shí)性要求[10]。陶磊等人提出了基于 YOLOv3 的無(wú)人機(jī)識(shí)別與定位追蹤方法,用 YOLOv3 輸出視頻中的無(wú)人機(jī)位置信息,再用 PID 算法調(diào)節(jié)攝像頭角度實(shí)現(xiàn)無(wú)人機(jī)定位追蹤,模型在測(cè)試集上能達(dá)到 83.24%的準(zhǔn)確率和 88.15%的召回率,在配備有英偉達(dá) 1060 顯卡的計(jì)算機(jī)上能達(dá)到 20 幀每秒的速度[11]。YOLO 算法無(wú)需對(duì)目標(biāo)和背景進(jìn)行復(fù)雜的人工建模,構(gòu)建過(guò)程相對(duì)簡(jiǎn)單,泛化能力強(qiáng),發(fā)展很快,且識(shí)別速度和識(shí)別準(zhǔn)確性方面有一定的優(yōu)勢(shì),已應(yīng)用于多個(gè)場(chǎng)景,如疫情期間口罩佩戴檢測(cè)[12]、初期火災(zāi)探測(cè)[13],已成為目標(biāo)檢測(cè)的研究熱點(diǎn)。目前 YOLO 算法已經(jīng)更新到第五版本 YOLOv5,其體積縮小到約原來(lái)的 1/9,檢測(cè)速度得到大幅提升,精度方面也有不錯(cuò)的表現(xiàn)。因此,本文提出采用第五版本的 YOLO 算法實(shí)現(xiàn)對(duì)微小型無(wú)人機(jī)的實(shí)時(shí)探測(cè)。首先,根據(jù)自行拍攝的無(wú)人機(jī)飛行時(shí)的照片構(gòu)建數(shù)據(jù)集;其次,搭建深度學(xué)習(xí)環(huán)境,使用 YOLOv5 輕量化模型對(duì)數(shù)據(jù)集進(jìn)行訓(xùn)練;最后,用訓(xùn)練得到的模型對(duì)視頻或圖片中的微小型無(wú)人機(jī)進(jìn)行探測(cè)。
2 YOLO v5 算法原理
YOLO 算法最初是由 Joseph Redmon 等人于 2016 年提出來(lái)的一種目標(biāo)識(shí)別方法[14],其創(chuàng)新性在于把檢測(cè)當(dāng)作回歸問(wèn)題處理,只需一階檢測(cè),用一個(gè)網(wǎng)絡(luò)就可快速輸出目標(biāo)位置和種類(lèi),其最大的優(yōu)勢(shì)就是通過(guò)簡(jiǎn)潔的算法可以獲得出色的識(shí)別效果。Redmon 對(duì)算法進(jìn)行改進(jìn)依次推出了 YOLOv2[15]、YOLOv3 兩個(gè)版本。Alexey Bochkovskiy 等人推出了 YOLOv4 版本[16]。隨著 YOLO 的不斷更新迭代,其算法變得更快更精確,Glenn Jocher 在 2020 年推出了最新版本的 YOLOv5。YOLOv5 版本是基于 YOLOv4 版本改進(jìn)的,采用了 PyTorch 框架代替了 YOLOv4 版本的 Darknet 框架,網(wǎng)絡(luò)部分未作修改,僅對(duì)參數(shù)進(jìn)行調(diào)整優(yōu)化,使得檢測(cè)速度大幅提升,最快的檢測(cè)速度達(dá)到了 140FPS[17];同時(shí),YOLOv5 把權(quán)重文件的體積進(jìn)行了縮小優(yōu)化,只有 YOLOv4 的 1/9 左右。
YOLO v5 算法檢測(cè)可分為三步:首先統(tǒng)一調(diào)整圖像的大小后進(jìn)行分割,然后用卷積神經(jīng)網(wǎng)絡(luò)提取特征,最后通過(guò)非極大值抑制(Non-Maximum Suppression, NMS)篩選重復(fù)預(yù)測(cè)的邊框,輸出最終的預(yù)測(cè)結(jié)果。算法先對(duì)所有圖像進(jìn)行尺寸調(diào)整后,將輸入圖像劃分為 S×S 個(gè)格子,不同格子只負(fù)責(zé)其對(duì)應(yīng)區(qū)域的物體識(shí)別,減少了重疊識(shí)別,大大減少了計(jì)算量。每個(gè)格子會(huì)預(yù)測(cè)其內(nèi)部是否存在目標(biāo)的位置中心坐標(biāo),若某個(gè)目標(biāo)的中心位置落入其中某一個(gè)格子,那么該物體的識(shí)別就會(huì)由這個(gè)格子來(lái)負(fù)責(zé)。每個(gè)小格子將預(yù)測(cè) A 個(gè)假定類(lèi)別的概率和 B 個(gè)邊界框,每個(gè)邊界框包含 5 個(gè)參數(shù),分別為 x,y,w,h 和 Confidence,其中(x, y)為預(yù)測(cè)邊框的中心點(diǎn)坐標(biāo);(w, h)為預(yù)測(cè)邊框的寬度和高度。Confidence 反映邊框中是否包含目標(biāo)以及包含目標(biāo)時(shí)預(yù)測(cè)目標(biāo)位置的準(zhǔn)確性,其由公式(1)計(jì)算得到。
YOLOv5 目標(biāo)檢測(cè)模型是基于卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的,主要由輸入端、Backbone、Neck、Prediction 四部分組成 [14],其構(gòu)成如圖 1 所示。輸入端采用了 Mosaic 數(shù)據(jù)增強(qiáng)提升了小目標(biāo)的檢測(cè)效果,另外,采用自適應(yīng)錨框計(jì)算的方法,不同的數(shù)據(jù)集都會(huì)有初始設(shè)定長(zhǎng)寬的錨框,可以得到更大的交并比,提高大大提高了訓(xùn)練和預(yù)測(cè)的效率;Backbone 部分為在不同圖像細(xì)粒度上聚合并形成圖像特征的卷積神經(jīng)網(wǎng)絡(luò),主要有 Focus 結(jié)構(gòu)和 CSP 結(jié)構(gòu)。 Neck 部分是在 Backbone 和 Prediction 之間,是一系列混合和組合圖像特征的網(wǎng)絡(luò)層,將圖像特征傳遞到 Prediction 部分。Prediction 部分為最終檢測(cè)部分,主要對(duì)圖像特征進(jìn)行預(yù)測(cè),并生成邊界框、預(yù)測(cè)目標(biāo)種類(lèi)。其采用了 GIoU_loss(Generalized Intersection over Union)計(jì)算預(yù)測(cè)框(predicted bounding box)回歸損失函數(shù)均值, Box 值越小,預(yù)測(cè)框回歸越準(zhǔn)確;采用了 BCE Logits_loss 計(jì)算目標(biāo)檢測(cè)損失函數(shù)均值,objectness 值越小,目標(biāo)檢測(cè)越準(zhǔn)確;采用二元交叉熵?fù)p失函數(shù) BCE_loss 計(jì)算目標(biāo)分類(lèi)損失函數(shù)均值, classification 值越小,目標(biāo)分類(lèi)越準(zhǔn)確。
3 探測(cè)實(shí)驗(yàn)
3.1 數(shù)據(jù)集的準(zhǔn)備
目前,基于深度學(xué)習(xí)的微小型無(wú)人機(jī)探測(cè)方面研究較少,互聯(lián)網(wǎng)上沒(méi)有標(biāo)準(zhǔn)的數(shù)據(jù)集可供使用,因此需要自行采集數(shù)據(jù)構(gòu)建所需數(shù)據(jù)集。
(1)數(shù)據(jù)采集。在不同天氣、時(shí)間和背景對(duì)三款大疆無(wú)人機(jī)進(jìn)行拍攝,其型號(hào)分別為 Inspire2(尺寸為 645mm×650mm×313mm ) 、 Mavic Air2 (尺寸為 183mm×253mm×77mm ) 、 Phantom4 pro (尺寸為 330mm×225mm×405mm),整理后得單臺(tái) Inspire2 圖片 60 張、單臺(tái) Mavic Air2 圖片 64 張、單臺(tái) Phantom4 pro 圖片 62 張,2 臺(tái)及以上無(wú)人機(jī)圖片 24 張。
(2)數(shù)據(jù)標(biāo)注。YOLOv5 模型訓(xùn)練前需對(duì)數(shù)據(jù)集進(jìn)行標(biāo)注,選用 LabelImg 標(biāo)注軟件對(duì)圖片中的無(wú)人機(jī)進(jìn)行人工逐一標(biāo)注,完整框選出無(wú)人機(jī)邊界并標(biāo)注名稱(chēng),標(biāo)注過(guò)程如圖 2(a)所示。每一張圖片標(biāo)注完之后,將會(huì)自動(dòng)生成一個(gè)相應(yīng)的注釋文檔,包含物體名稱(chēng)編號(hào),邊界框的位置和大小等信息,如圖 2(b)所示。
(3)數(shù)據(jù)集構(gòu)建。將圖片和對(duì)應(yīng)的標(biāo)注文件上傳到機(jī)器學(xué)習(xí)網(wǎng)站 roboflow.com 進(jìn)行格式化,調(diào)整像素為 640px,并按照 7:2:1 的比例分別設(shè)置訓(xùn)練集、驗(yàn)證集和測(cè)試集。
3.2 網(wǎng)絡(luò)訓(xùn)練
網(wǎng)絡(luò)訓(xùn)練是在專(zhuān)用深度學(xué)習(xí)服務(wù)器平臺(tái)上進(jìn)行的,平臺(tái)的硬件配置和開(kāi)發(fā)環(huán)境如表 1 所示。
實(shí)驗(yàn)過(guò)程為對(duì)微小型無(wú)人機(jī)數(shù)據(jù)集進(jìn)行遷移學(xué)習(xí)訓(xùn)練,訓(xùn)練使用 YOLOv5s 的輕量化預(yù)訓(xùn)練模型 yolo v5s.pt (通過(guò) COCO val2017 數(shù)據(jù)庫(kù)訓(xùn)練得到的輕量化檢測(cè)模型)作為知識(shí)源進(jìn)行遷移學(xué)習(xí),修改目標(biāo)種類(lèi)參數(shù) nc (number of classes)為 3,數(shù)據(jù)集配置文件 data.yaml 中設(shè)置好數(shù)據(jù)集路徑,輸入圖像尺寸為 640px,前向傳播批處理大小設(shè)置為 64,迭代次數(shù)設(shè)置為 600。經(jīng)過(guò)訓(xùn)練,得到基于微小型無(wú)人機(jī)數(shù)據(jù)集的目標(biāo)檢測(cè)模型,該模型可用于檢測(cè)視頻中每一幀圖像中的無(wú)人機(jī),并預(yù)測(cè)無(wú)人機(jī)的邊界框、型號(hào)及相應(yīng)的置信度。
相關(guān)知識(shí)推薦:無(wú)人機(jī)領(lǐng)域論文如何發(fā)表
使用 Tensorboard 可視化工具查看模型訓(xùn)練結(jié)果。圖3(a)、(b)、(c)分別為訓(xùn)練過(guò)程中預(yù)測(cè)框回歸損失函數(shù)均值、目標(biāo)檢測(cè)損失函數(shù)均值、分類(lèi)損失函數(shù)均值隨迭代次數(shù)的變化情況。可以看出,三種損失函數(shù)均值隨迭代次數(shù)的增加快速下降,訓(xùn)練后期迭代到 500 次左右趨于穩(wěn)定,最后趨于收斂。圖 4 表示訓(xùn)練過(guò)程中精確率、召回率隨迭代次數(shù)的變化情況,隨著迭代次數(shù)增加,精確率和召回率快速上升后趨向于穩(wěn)定。圖 5 為當(dāng)交并比 IoU 閾值分別為 0.5 和 0.5:0.95 時(shí)平均精度均值(Mean Average Precision,簡(jiǎn)稱(chēng) mAP)在逐步提升并趨于穩(wěn)定。
3.3 模型測(cè)試
網(wǎng)絡(luò)訓(xùn)練結(jié)束后,把測(cè)試集中的圖片輸入訓(xùn)練好的網(wǎng)絡(luò)模型進(jìn)行識(shí)別目標(biāo)的位置回歸。只有同時(shí)滿(mǎn)足 IoU≥0.5,無(wú)人機(jī)的種類(lèi)識(shí)別正確這兩個(gè)條件時(shí),判定檢測(cè)識(shí)別正確;否則為錯(cuò)誤。選取精確率(Precision)、召回率(Recall)、平均精度均值(mean Average Precision, mAP)作為評(píng)價(jià)指標(biāo),精確率表示在所有被檢測(cè)為正的樣本中實(shí)際為正樣本的概率,其公式如(6)所示;召回率表示在實(shí)際為正的樣本中被檢測(cè)為正樣本的概率,其公式如(7)所示;平均精度均值表示在所有檢測(cè)類(lèi)別上的平均精度的均值,比精確率和召回率更能反應(yīng)模型的全局性能,其公式如(8)所示。
4 實(shí)驗(yàn)結(jié)果與分析
4.1 數(shù)據(jù)集測(cè)試結(jié)果分析
用測(cè)試集 21 張圖片對(duì)訓(xùn)練模型進(jìn)行測(cè)試,結(jié)果如表 2 所示,當(dāng)交并比 IoU 值為 0.5 時(shí),訓(xùn)練得到的模型能夠達(dá)到 94.2%的精確率和 82.8%的召回率,三種無(wú)人機(jī)識(shí)別的精度分別為:Inspire2 為 95.4%,Mavic Air2 為 92.1%, Phantom4 pro 為 95.2%,達(dá)到了較高的識(shí)別精度結(jié)果。測(cè)試集中部分檢測(cè)結(jié)果如圖 8 所示,在多種背景下均能夠正確的檢測(cè)出目標(biāo)無(wú)人機(jī),并準(zhǔn)確識(shí)別出其型號(hào)類(lèi)別。在相同的服務(wù)器平臺(tái)上,使用相同的數(shù)據(jù)集對(duì) YOLOv3 和 YOLOv5 兩種算法進(jìn)行對(duì)比測(cè)試,結(jié)果如表 3 所示,使用 YOLOv5 模型進(jìn)行測(cè)試時(shí),mAP 達(dá)到 93.5%,識(shí)別速度能達(dá)到 141 FPS,精確率達(dá)到 94.3%,YOLOv3 模型的 mAP 為 81.5%,識(shí)別速度為 59 FPS,精確率為 83.2%。本實(shí)驗(yàn)的測(cè)試結(jié)果整體上也優(yōu)于文獻(xiàn)[10]、[11] 采用 YOLOv3 算法的測(cè)試結(jié)果,更優(yōu)于文獻(xiàn)[9]采用的改進(jìn)的 SSD 算法。
4.2 真實(shí)場(chǎng)景探測(cè)
為進(jìn)一步驗(yàn)證基于 YOLOv5 對(duì)無(wú)人機(jī)的實(shí)時(shí)探測(cè)能力,本實(shí)驗(yàn)通過(guò)拍攝一段無(wú)人機(jī)視頻,使用訓(xùn)練得到的模型對(duì)其進(jìn)行探測(cè)。該視頻中同時(shí)存在最多 3 種無(wú)人機(jī)的畫(huà)面,視頻分辨率為 19201080,幀速率 30 FPS。識(shí)別結(jié)果如圖 9 所示,當(dāng)較大無(wú)人機(jī) Inspire2 在約 45 米范圍內(nèi),較小無(wú)人機(jī) Mavic Air2 在約 30 米范圍內(nèi),該模型基本能檢測(cè)出視頻中的無(wú)人機(jī)目標(biāo),型號(hào)識(shí)別準(zhǔn)確,同時(shí)置信度較高。每一幀圖像的識(shí)別時(shí)間約為 0.007 秒,識(shí)別速率遠(yuǎn)大于源視頻幀速率,具有較好的實(shí)時(shí)性。通過(guò)本文的實(shí)驗(yàn)可以驗(yàn)證 YOLOv5 算法在無(wú)人機(jī)實(shí)時(shí)探測(cè)應(yīng)用上的技術(shù)優(yōu)勢(shì)。
5 結(jié)論
(1)使用遷移學(xué)習(xí)訓(xùn)練完的 YOLOv5 模型在測(cè)試集上能夠達(dá)到 94.2%的精確率、82.8%的召回率和 93.5%的平均精度均值,此模型不僅能識(shí)別到微小型無(wú)人機(jī),還能識(shí)別出其具體型號(hào),并標(biāo)注其置信度。
(2)在真實(shí)場(chǎng)景下,該方法能對(duì)光學(xué)監(jiān)控設(shè)備的視頻流進(jìn)行實(shí)時(shí)探測(cè)識(shí)別,在配備 NVIDIA GTX TITAN Xp 12 GB 顯卡的計(jì)算機(jī)上能達(dá)到 142 FPS 的速度,達(dá)到較為流暢的識(shí)別效果。
雖然本文提出的方法性能較好,但對(duì)于距離較遠(yuǎn)的微小型無(wú)人機(jī),識(shí)別效果不佳。因?yàn)?YOLO 模型會(huì)對(duì)圖片壓縮處理,即當(dāng)畫(huà)面中無(wú)人機(jī)目標(biāo)較遠(yuǎn)(或尺寸較小)時(shí),壓縮后無(wú)人機(jī)像素過(guò)小,無(wú)法提取有效特征,故難以識(shí)別。下一步考慮用增加尺度、網(wǎng)絡(luò)檢測(cè)分支等方式對(duì) YOLOv5 算法進(jìn)行修改,或者采取先分割大圖為小圖,再檢測(cè)小圖的方式增強(qiáng)小目標(biāo)的探測(cè)能力。——論文作者:包文歧,謝立強(qiáng),徐才華,劉智榮,朱敏
參考文獻(xiàn):
[1] GUVENCE I, KOOHIFAR F, SINGH S , et al. "Detection, Tracking, and Interdiction for Amateur Drones," in IEEE Communications Magazine, vol. 56, no. 4, pp. 75-81, April 2018, doi: 10.1109/MCOM.2018.1700455.
[2] 張薇.民航局召開(kāi)通用航空工作領(lǐng)導(dǎo)小組第六次全體會(huì) 議 [EB/OL]. http://www.caacnews.com.cn/1/1/202102/t20210226_1 320077.html, 2021-02-26.
[3] 許暉,張翟. 昨夜突發(fā)!杭州蕭山機(jī)場(chǎng)進(jìn)港飛機(jī)不斷盤(pán)旋,疑因無(wú)人機(jī)侵入!部分航班備降寧波、上海 [EB/OL]. https://hznews.hangzhou.com.cn/shehui/content/2021- 04/04/content_7940611_2.html, 2021-04-04.
[4] 屈旭濤,莊東曄,謝海斌.“低慢小”無(wú)人機(jī)探測(cè)方法[J]. 指揮控制與仿真,2020,42(02):128-135. QU X T, ZHUANG D Y, XIE H B. Detection Methods for Low-Slow-Small(LSS) UAV[J]. Command Control & Simulation, 2020,42(02):128-135.