<ol id="ebnk9"></ol>
    1. 基于CA-BIFPN的交通標志檢測模型

      發布時間:2025-06-22 20:08:19   來源:心得體會    點擊:   
      字號:

      郎斌柯,呂斌,吳建清,吳瑞年

      1)蘭州交通大學交通運輸學院,甘肅 蘭州 730070;
      2)山東大學齊魯交通學院,山東 濟南 250002;
      3)蘭州市大數據管理局,甘肅 蘭州 730070

      交通標志是用漢字或符號傳達導向、控制、警戒或指揮等信號的道路設施,能夠熟練解讀標志含義是每個駕駛員的基本要求,對于自動駕駛也是如此.交通標志檢測是自動駕駛及輔助駕駛系統的重要研究方向,正確識別道路交通標志關系著智能駕駛任務的成敗.

      交通標志檢測優化模型包括基于人力的交通標志檢測優化模型和基于深度神經網絡的交通標志檢測優化模型[1-2].基于深度神經網絡的交通標志檢測優化模型包括1 階段目標檢測模型和2 階段目標檢測模型.2階段目標檢測模型需從圖片中產生候選區(運行后續模型的子區域),再從候選區域中生成最終的物體檢測邊框[3].與2 階段目標檢測模型相比,1階段目標檢測模型直接得到目標物體的分類概率和方位坐標值,并通過此環節直接獲得最后的檢測結果.1 階段目標檢測模型包括SSD(single shot multibox detector)[8]與YOLO(you only look once)[9-11]系列等.

      2 階段目標檢測模型的精度一般高于1 階段檢測模型,但2 階段目標檢測模型的計算速率較慢,無法滿足實際應用中實時性的需要.1階段目標檢測模型同時確保了精度和處理速度,因而其應用范圍更廣泛[12].但是由于交通標志目標通常為小目標(物體相對圖像占比小于0.58%[13])物體,所以,上述檢模型的精度均不能滿足實際需求.

      注意力機制可以根據圖像中不同位置的重要程度提取圖像信息,從而使神經網絡專注于圖像中更重要的部分[14].因此,在檢測模型中引入注意力機制有助于提高模型對于小目標物體的檢測精度.基于此,考慮檢測實時性和精度的要求,本研究選擇YOLOv5(you only look once version 5)為基礎檢測模型,并以此為骨干網絡,在骨干網絡中添加協調注意力(coordinate attention,CA)機制,聚焦于小目標交通標志檢測.同時在模型特征融合部分引入加權雙向特征金字塔網絡,增強不同尺度特征圖融合效果,進一步提升模型檢測精度.

      在保證實時檢測精度的前提下,為提高YOLOv5 網絡模型對交通標志的識別精度,本研究提出基于協調注意力-雙向特征金字塔網絡(coordinate attention - bidirectional feature pyramid network,CA-BIFPN)的交通標志檢測模型,其網絡結構如圖1.可見,基于CA-BIFPN的檢測模型網絡結構主要由輸入、骨干網絡、Neck 特征融合網絡及預測網絡構成.其中,CBS(convolution,batch normalization,SiLU)為卷積-批標準化-SiLU 激活函數組合模塊;
      CSP(cross stage partial)為跨階段分區網絡,分為CSP1-x和CSP2-y,x和y分別為殘差模塊數量和CBS 數量;
      SPPF(spatial pyramid pooling - fast)為快速空間金字塔池化.采用YOLOv5 6.0 版本神經網絡為基礎網絡,在其骨干網絡中加入CA 機制,實現在添加少量訓練參數的同時增加網絡特征提取能力.相關注意力對比實驗[15]表明,雖然通道注意力能夠顯著提高模型性能,但其容易忽視與空間選擇性注意力產生密切相關的位置信息,在CA 機制中將位置信息放入通道注意力中,則能夠較好規避這個問題.YOLOv5 與注意機制的結合方式為[16]:①將注意力機制與Neck 特征網絡融合,替換骨干網絡中所有跨階段局部網絡(cross stage partial networks,CSPN)模塊;
      ② 在骨干網絡后單獨加入注意力機制.本研究采用后種方法,即將CA 機制加入至空間金字塔前,隨后導入Neck 特征融合網絡,在特征融合網絡中混合不一樣的特征圖.選用加權雙向特征金字塔網絡,可以將交通標志圖像的各個特征合理融合,有效解決各尺度特征信息不一致以及其他特征金字塔計算量大的問題.以下分別說明檢測模型各優化模塊的組成.

      圖1 CA-BIFPN模型網絡結構Fig.1 (Color online) Network structure of CA-BIFPN model.

      1.1 CA-BIFPN注意力機制

      注意力機制的本質是尋找特定的數據信號,操縱無用信息,結果一般以幾率圖和概率特征空間向量的形式表達,有利于增強神經網絡對于小目標物體的檢測精度.注意力機制模型可分為空間注意力、通道注意力及混合注意力模型[17].

      空間注意力模型偏向全部通道,在二維平面圖中訓練尺寸為H×W的特征圖權重值矩陣,并為全部圖像單元獲得1個權重值.該權重表示某個空間位置信息的重要程度,將空間注意力矩陣附著到原始特征圖像上,以增加可用特征,減少無效特征,進而達到特征篩選與增強的目的.

      與空間注意力不同,通道注意力類似于在各個通道的特征圖中都給出1個權重值,表明方式和重要信息之間的關聯性,該權重值與相關性呈正相關關系[18].在深度神經網絡中,層面越高,特征度的尺寸越小,但通道數量更多.通道還體現全部圖形的特點信息,信息過多時神經元網絡難以挑選出有效信息,此時利用通道注意力就可以使網絡判斷出最重要信息,這也是利用通道注意力進行目標檢測時效果更優的原因[19].CA 機制為混合注意力,其包含了通道注意力和空間注意力,也繼承了二者的優點,使CA 在獲得跨通道信息的同時,獲得方向感知和位置感知信息,因此,檢測模型可以對目標進行更為精準地定位與識別.CA 機制模型如圖2.其中,C為通道數;
      r為縮減因子.CA 應用精確的部位信息對通道關聯信息和長期性依靠信息展開編碼,編碼過程包括坐標(coordinate)信息嵌入和CA生成[20].

      圖2 CA機制示意Fig.2 Schematic diagram of CA mechanism.

      在坐標信息嵌入過程中,全局池化方法通常用作對空間內容的整體編碼,但由于該方式將去全局空間信息內容壓縮在通道描述中,無法表達信息的位置內容.為使控制模塊可以更好捕獲具備精確部位信息的遠程空間交互,利用式(1)計算全局池劃分,并將其變換為一維特征編碼.

      其中,zc是變量通道c的輸出;
      特征圖的高度和寬度分別為H和W;
      通道c的坐標值為xc(i,j).使用長和寬為(H,1)和(1,W)的池化核在水平和豎直坐標方位對每個通道進行編碼,相對高度為h的輸出zhc(h)可表述為

      與通道注意力中轉化成單獨特征空間向量的控制模塊方式不同,式(1)和式(2)的轉換方式各自在2 個空間上開展特征融合,獲得1 對空間方位上感知的特征圖.這兩種轉換方式能夠使實體模型捕獲與另一個空間方位的相互聯系,并維持從另一個空間方位的精準位置信息,進而根據網絡尋找合適的總體目標[21-22],可以取得比全局編碼更準確的信息.

      將式(1)和式(2)兩種輸出結果應用到另一種轉換,完成CA 生成.CA 設計準則包括:① 新的轉化全過程應盡量簡單;
      ② 注意力機制應能靈活運用捕獲的信息,使感興趣的區域信息能夠被精確捕捉;
      ③ 設計還需合理捕捉信息通道間的關聯.特征信息轉換完成后進行Concatenate函數變換,隨后根據1 × 1卷積神經網絡變換F1函數進行變換,為

      其中,F1為卷積變換函數;
      [,]為Concatenate 函數變換;
      σ為空間信息在水平和豎直方位編碼的中間特征投射,可用來操縱CA的控制模塊尺寸減縮率.

      1.2 CA-BIFPN的特征金字塔網絡

      通常尺度較大的特征圖更適于檢測小目標物體,尺度較小的特征圖更適于檢測大目標物體,而將兩者結合的特征金字塔則能更好兼具大小目標的檢測.最早的特征金字塔網絡(feature pyramid network,FPN)[23]是一個自上而下的單項特征融合金字塔結構,如圖3.運算過程中,FPN的p6—p3輸出層先將上一次特征圖像的上采樣結果進行特征融合,再經過與p7相同的運算流程,最終形成5個不同尺寸的特征圖像,供后續網絡檢測.

      圖3 FPN結構示意Fig.3 (Color online) FPN structure.

      圖4 BIFPN結構示意Fig.4 (Color online) BIFPN structure.

      FPN可通過由頂向下的傳遞路徑來獲得語義更加豐富的特征,并將特征與更準確的位置信息結合.但針對由大目標產生的掩碼,空間信息可能要傳遞數百層,導致傳遞路徑過于冗長,使網絡高層信息與低層信息無法有效結合,出現信息丟失.

      路徑聚合網絡(path aggregation network,PANet)是一種改進的FPN,該網絡通過使用由底層至頂層的橫向連線來縮短傳輸路徑,引入另一種由底向上的傳輸途徑[24].PANet相對于FPN具有更好的網絡精度,但其網絡規模較大、參數量多,計算效率較低.TAN 等[25]提出的雙向特征金字塔網絡(bidirectional feature pyramid network,BIFPN)引入了跳躍連接,即在相同尺度的輸入節點到輸出節點中間再增加1個跳躍連接,因為運算處于相同層,該方法可在參數較少的情況下結合更多特征.BIFPN將每1 條雙向路徑視作1 個特征網絡層,并對同一層參數進行多次計算,以實現更多的特征融合.

      由于不同輸入特征具有不同分辨率,因此,特征對于網絡的影響也不同.針對無界融合、Softmax基礎融合以及快速歸一化融合方法的比較結果表明,無界融合訓練不穩定,需要使用權重歸一化進行約束;
      Softmax 基礎融合能表示出每個輸入的重要程度,但會導致計算量增加;
      快速歸一化融合與Softmax 基礎融合類似,但沒有將Softmax 函數應用到參數中,因此,其運算準確度與Softmax 基礎融合類似,而計算速度較Softmax 基礎融合更快[25].本研究選擇快速歸一化融合方法作為BIFPN的融合算法.

      2.1 實驗數據集

      本研究采用由騰訊公司與清華大學聯合制定的數據集TT100K,該數據集包含9 176幅道路與交通標志牌圖片.其中,6 105幅為訓練集;
      3 071幅為測試集.每幅圖片都包括道路交通標志的一些案例,其中,訓練集包括16 527個案例;
      測試集包括8 190 個案例.涉及的道路交通標志牌類型有221種.由于TT100K 中221 種交通標志分布不均衡,部分交通標志如山體滑坡等相對罕見,為提高訓練效果,本研究將所有數據進行清洗,去除無標簽和出現頻次較少的交通標志種類,篩選出7 972 幅超過100幅圖像的45種交通標志.對清洗圖像采用隨機旋轉和拓展數據,包含放縮和增加高斯噪聲[26],處理后的最終數據集共包括23 916 幅圖像,其中,訓練集15 873幅;
      測試集8 043幅.

      為測試模型在有霧環境下的檢測效果,對最終數據集隨機使用紅綠藍(red green blue,RGB)通道合成霧、中心點合成霧及隨機合成霧3種算法進行圖像加霧處理,制成霧天數據集進行輔助實驗.

      2.2 實驗環境和評價指標

      本實驗操作系統為Windows10,訓練使用的顯卡為NVIDIA RTX2070,顯存為8 Gbyte,深度學習框 架 為Python 3.7、TensorFlow 2.0 和Pytorch 1.8.1.為保證對比結果的客觀性,實驗對不同網絡進行測試時應用相同的超參數,如表1.

      表1 超參數設置Table 1 Hyperparameter setting

      采用平均精度均值mAP(mean average precision)作為模型評價指標.mAP 通過統計模型成功檢測數量與目標總數比值來評價模型優劣,mAP值越高,表明目標檢測模型在給定數據集上的檢測效果越好.通過選擇不同的交并比(預測框與真實框重疊面積與總面積之比)閾值來統計不同標準下模型的精度均值,常用的有mAP 0.50(交并比閾值為0.50)和mAP 0.50∶0.95(交并比閾值從0.50 到0.95,步長為0.05).mAP的計算過程為

      其中,PrecesionCn表示圖像n中,模型對于類別為C的目標檢測準確度;
      N(TruePositives)Cn為圖像n中,類別為C正確檢測的目標數量;
      N(TotalObjects)Cn為圖像n中,類別為C的目標數量;
      APC為模型對類別為C的平均檢測準確度;
      N(TotalImages)C表示存在類別為C的目標的圖像數量,如總共20 幅圖像中,有10 幅圖像有類別為C的目標,則N(TotalImages)C= 10;
      N(Classes)為類別數量.

      2.3 實驗結果分析

      分別使用SSD、YOLOv5、YOLOv5+CA 模塊、YOLOv5+BIFPN 模塊及CA-BIFPN 模型的mAP 作為實驗評價指標值,進行檢測模型性能對比,結果見表2.可見,在相同參數訓練條件下,分別加入CA和BIFPN 模塊的YOLOv5 模型的mAP 0.50 上升0.5%和0.3%;
      CA-BIFPN 模型的mAP 0.50 相比SSD和YOLOv5分別提升4.5%和1.3%.CA-BIFPN模型的mAP 0.50∶0.95 與SSD 和YOLOv5 相比分別提升4.1%和1.2%.在模擬霧天環境下,CA-BIFPN模型精度為80.5%,高于原模型的80.3%,CABIFPN 的mAP 0.50∶0.95 與 原 模 型 相 比 提 升 了0.6%.

      表2 檢測模型性能結果Table 2 Model performance results %

      在YOLOv5 模型中引入BIFPN 模塊并加入注意力機制后,研究模型對數據集中小目標物體的檢測精準度,從45類交通標志中分別選取mAP 0.50最高和最低的2 類進行對比,結果見表3.由表3 可見,與YOLOv5 相比,CA-BIFPN 模型的各類小目標交通標志精準度均有所提高,表3 中4 種交通標志的mAP 0.50 分別提高2.2%、2.5%、0.3%及0.5%.

      表3 TT100K中mAP 0.50最高和最低的4類交通標志Table 3 Value of mAP 0.50 for the highest and lowest 4 types of traffic signs in TT100K %

      為進一步驗證CA-BIFPN 模型的可靠性,從某市和某高速公路隨機選取5幅交通標志圖像進行檢測,結果如圖5,圖中檢測框上側的字母和數字分別表示目標分類類型和概率.其中,圖5(a)和(b)分別為CA-BIFPN 模型城市道路中遠、近目標檢測結果;
      圖5(c)、(e)及(g)為CA-BIFPN、YOLOv5及SSD 模型高架道路中多目標遠距離檢測結果;
      圖5(d)、(f)及(h)為CA-BIFPN、YOLOv5 及SSD 模型高速公路中多目標近距離檢測結果;
      圖5(i)、(j)及(k)為CA-BIFPN、YOLOv5 及SSD 模型霧天交通標志檢測檢測結果.圖5(a)和(b)表明,交通標志位于較遠處時仍能被正確檢測出;
      圖5(d)、(f)及(h)表明,SSD 模型發生了1 處誤檢,CA-BIFPN 與YOLOv5 模型在近距離檢測中無較大差距;
      圖5(c)、(e)和(g)表明,僅CA-BIFPN 模型實現了對小目標的檢測,YOLOv5 和SSD 均出現不同程度漏檢;
      圖5(i)、(j)和(k)表明,本模型在部分霧天環境下也能實現對交通標志的有效檢測.

      圖5 不同道路環境下CA-BIFPN、YOLOv5及SSD模型的交通標志檢測結果 (a)CA-BIFPN模型城市交通標志遠距離檢測;
      (b)CA-BIFPN模型城市交通標志近距離檢測;
      (c)CA-BIFPN模型高架交通標志遠距離多目標檢測;
      (d)CA-BIFPN模型高架交通標志近距離多目標檢測;
      (e)YOLOv5模型高架交通標志遠距離多目標檢測;
      (f)YOLOv5模型高架交通標志近距離多目標檢測;
      (g)SSD模型高架交通標志遠距離多目標檢測;
      (h)SSD模型高架交通標志近距離多目標檢測;
      (i)CA-BIFPN模型霧天交通標志檢測;
      (j)YOLOv5模型霧天交通標志檢測;
      (k)SSD模型霧天交通標志檢測Fig.5 (Color online) CA-BIFPN, YOLOv5 and SSD traffic sign detection results in different road environments.(a) CA-BIFPN long-range detection of urban traffic signs, (b) CA-BIFPN proximity detection of urban traffic signs, (c) CA-BIFPN long-range multi-target detection of traffic signs on elevated roads, (d) CA-BIFPN proximity multi-target detection of traffic signs on elevated roads,(e) YOLOv5 long-range multi-target detection of traffic signs on elevated roads, (f) YOLOv5 proximity multi-target detection of traffic signs on elevated roads, (g) SSD long-range multi-target detection of traffic signs on elevated roads, (h) SSD proximity multi-target detection of traffic signs on elevated roads, (i) CA-BIFPN detection of traffic signs in foggy, (j) YOLOv5 detection of traffic signs in foggy, and (k) SSD detection of traffic signs in foggy.

      交通標志檢測對于智能交通的意義重大,本研究提出CA-BIFPN 交通標志檢測模型,以YOLOv5為骨干網絡,引入CA 機制聚焦小目標物體,在Neck 網絡中使用BIFPN 加權雙向特征金字塔,進一步提高了網絡融合效果.基于TT100K 數據集,將本模型與SSD 和YOLOv5 等經典目標檢測模型進行比較檢測實驗,結果顯示本模型的平均檢測精度mAP 0.50 和mAP 0.50∶0.95 分 別 為83.9% 和62.3%,相比YOLOv5 網絡提高了1.3%和1.2%,在交通標志檢測中更可靠,在除極端雨雪氣候及光照變化影響外的場景中均有較好的檢測效果.本模型雖然提高了交通標志檢測精度,但CA 機制的引用以及BIFPN增加了模型的訓練參數,降低了模型的運行速率,同時本模型缺少對于極端天氣情況下的特殊檢測優化,因此,后續研究中仍需要針對以上問題進一步改進,以提高模型檢測效率.

      參考文獻 / References:

      [1]李銘興,徐成,李學偉.交通標志識別研究綜述[C]//中國計算機用戶協會網絡應用分會第二十五屆網絡新技術與應用年會論文集.北京:中國計算機用戶協會網絡應用分會,2021:196-199.LI Mingxing, XU Cheng, LI Xuewei.Summary of research on traffic sign recognition in urban traffic scenes [C]// Proceedings of the 25th Annual Conference on New Network Technologies and Applications, Network Application Branch of China Computer Users Association.Beijing:Network Application Branch of China Computer Users Association, 2021: 196-199.(in Chinese)

      [2]陳飛,劉云鵬,李思遠.復雜環境下的交通標志檢測與識別方法綜述[J].計算機工程與應用,2021,57(16):65-73.CHEN Fei, LIU Yunpeng, LI Siyuan.Survey of traffic sign detection and recognition methods in complex environment [J].Computer Engineering and Applications,2021, 57(16): 65-73.(in Chinese)

      [3]楊曉玲,江偉欣,袁浩然.基于yolov5的交通標志識別檢測[J].信息技術與信息化,2021(4):28-30.YANG Xiaoling, JIANG Weixin, YUAN Haoran.Recognition and detection of traffic signs based on yolov5 [J].Information Technology and Informatization, 2021 (4): 28-30.(in Chinese)

      [4]GIRSHICK R, DONAHUE J, DARRELL T, et al.Rich feature hierarchies for accurate object detection and semantic segmentation [C]// IEEE Conference on Computer Vision and Pattern Recognition.Piscataway, USA:IEEE, 2014: 580-587.

      [5]GIRSHICK R.Fast R-CNN [C]// IEEE International Conference on Computer Vision (ICCV).Piscataway, USA:IEEE, 2015: 1440-1448.

      [6]REN Shaoqing, HE Kaiming, GIRSHICK R, et al.Faster R-CNN: towards real-time object detection with region proposal networks [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

      [7]CAI Zhaowei, VASCONCELOS N.Cascade R-CNN:delving into high quality object detection [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway, USA: IEEE, 2018: 6154-6162.

      [8]LIU Wei, ANGUELOV D, ERHAN D, et al.SSD: single shot MultiBox detector [C]//The 14th European Conference Computer Vision - ECCV 2016.Amsterdam: Springer,2016: 21-37.

      [9]REDMON J, DIVVALA S, GIRSHICK R, et al.You only look once: unified, real-time object detection [C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Piscataway, USA: IEEE, 2016: 779-788.

      [10]REDMON J, FARHADI A.YOLO9000: better, faster,stronger [C]// IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Piscataway, USA: IEEE,2017: 6517-6525.

      [11]REDMON J, FARHADI A.YOLOv3: an incremental improvement [EB/OL].(2018-04-08) [2022-05-10].https://doi.org/10.48550/arxiv.1804.02767.

      [12]寇大磊,權冀川,張仲偉.基于深度學習的目標檢測框架進展研究[J].計算機工程與應用,2019,55(11):25-34.KOU Dalei, QUAN Jichuan, ZHANG Zhongwei.Research on progress of object detection framework based on deep learning [J].Computer Engineering and Applications,2019, 55(11): 25-34.(in Chinese)

      [13]CHEN Chenyi, LIU Mingyu, TUZEL O, et al.R-CNN for small object detection [C]// Asian Conference on Computer Vision - ACCV 2016.Taipei, China: Springer, 2017:214-230.

      [14]張宸嘉,朱磊,俞璐.卷積神經網絡中的注意力機制綜述[J].計算機工程與應用,2021,57(20):64-72.ZHANG Chenjia, ZHU Lei, YU Lu.A review of attention mechanisms in convolutional neural networks [J].Computer Engineering and Applications, 2021, 57(20): 64-72.(in Chinese)

      [15]鞠默然,羅江寧,王仲博,等.融合注意力機制的多尺度目標檢測算法[J].光學學報,2020,40(13):126-134.JU Moran, LUO Jiangning, WANG Zhongbo, et al.Multiscale target detection algorithm based on attention mechanism [J].Acta Optica Sinica, 2020, 40(13): 126-134.(in Chinese)

      [16]徐誠極,王曉峰,楊亞東.Attention-YOLO:引入注意力機制的YOLO 檢測算法[J].計算機工程與應用,2019,55(6):13-23.XU Chengji, WANG Xiaofeng, YANG Yadong.Attention-YOLO: YOLO detection algorithm that introduces attention mechanism [J].Computer Engineering and Applications, 2019, 55(6): 13-23.(in Chinese)

      [17]任歡,王旭光.注意力機制綜述[J].計算機應用,2021,41(增刊1):1-6.REN Huan, WANG Xuguang.Review of attention mechanism [J].Journal of Computer Applications, 2021, 41(Suppl.1): 1-6.(in Chinese)

      [18]劉玉紅,陳滿銀,劉曉燕.基于通道注意力的多尺度全卷積壓縮感知重構[J/OL].計算機工程:1-8 [2022-04-29].DOI:10.19678/j.issn.1000-3428.0063546.LIU Yuhong, CHEN Manyin, LIU Xiaoyan.Multi-scale full convolution compressed perceptual reconstruction based on channel attention [J/OL].Computer Engineering:1-8[2022-04-29].DOI: 10.19678/j.issn.1000-3428.0063546.(in Chinese)

      [19]許德剛,王露,李凡.深度學習的典型目標檢測算法研究綜述[J].計算機工程與應用,2021,57(8):10-25.XU Degang, WANG Lu, LI Fan.Review of typical object detection algorithms for deep learning [J].Computer Engineering and Applications, 2021, 57(8): 10-25.(in Chinese)

      [20]HOU Qibin, ZHOU Daquan, FENG Jiashi.Coordinate attention for efficient mobile network design [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Piscataway, USA: IEEE, 2021: 13708-13717.

      [21]HU Jie, SHEN Li, SUN Gang.Squeeze-and-excitation networks [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway, USA: IEEE,2018: 7132-7141.

      [22]劉學平,李玙乾,劉勵,等.嵌入SENet 結構的改進YOLOV3 目標識別算法[J].計算機工程,2019,45(11):243-248.LIU Xueping, LI Yuqian, LIU Li, et al.Improved YOLOV3 target recognition algorithm with embedded SENet structure [J].Computer Engineering, 2019, 45(11):243-248.(in Chinese)

      [23]KIM S W, KOOK H K, SUN J Y, et al.Parallel feature pyramid network for object detection [C]// European Conference on Computer Vision - ECCV 2018.Munich,Germany: Springer, 2018: 239-256.

      [24]LIU Shu, QI Lu, QIN Haifang, et al.Path aggregation network for instance segmentation [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway, USA: IEEE, 2018: 8759-8768.

      [25]TAN Mingxing, PANG Ruoming, LE Q V.EfficientDet:scalable and efficient object detection [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Piscataway, USA: IEEE, 2020: 10778-10787.

      [26]楊真真,匡楠,范露,等.基于卷積神經網絡的圖像分類算法綜述[J].信號處理,2018,34(12):1474-1489.YANG Zhenzhen, KUANG Nan, FAN Lu, et al.Review of image classification algorithms based on convolutional neural networks [J].Journal of Signal Processing, 2018, 34(12): 1474-1489.(in Chinese)

      猜你喜歡交通標志注意力特征基于雙向特征融合的交通標志識別汽車實用技術(2022年9期)2022-05-20讓注意力“飛”回來小雪花·成長指南(2022年1期)2022-04-09如何表達“特征”瘋狂英語·新策略(2019年10期)2019-12-13不忠誠的四個特征當代陜西(2019年10期)2019-06-03抓住特征巧觀察數學小靈通·3-4年級(2017年9期)2017-10-13“揚眼”APP:讓注意力“變現”傳媒評論(2017年3期)2017-06-13A Beautiful Way Of Looking At Things第二課堂(課外活動版)(2016年2期)2016-10-21交通標志小課堂小天使·一年級語數英綜合(2016年8期)2016-05-14我們歡迎你!小天使·一年級語數英綜合(2014年7期)2014-06-26線性代數的應用特征河南科技(2014年23期)2014-02-27
      国产另类无码专区|日本教师强伦姧在线观|看纯日姘一级毛片|91久久夜色精品国产按摩|337p日本欧洲亚洲大胆精

      <ol id="ebnk9"></ol>